AI Chatbot và rủi ro tiềm ẩn
Các nhà nghiên cứu đã cảnh báo rằng, hệ thống AI (Trí tuệ nhân tạo) tổng quát được đào tạo để tạo ra ngôn ngữ gốc, gọi tắt là “mô hình ngôn ngữ”, và giờ đây, những mô hình này dường như đang trên đà cho phép người dùng tạo ra nguồn văn bản gốc gần như vô hạn chỉ với rất ít công sức.
Nguy cơ đã cho thấy rõ, đó là các mô hình ngôn ngữ không chỉ làm lung lay niềm tin của công chúng đối với những thông tin mà mọi người vốn dựa vào để đánh giá và ra quyết định.
Tiến độ nghiên cứu AI tổng quát đã vượt qua mọi dự đoán. Năm 2022, các mô hình ngôn ngữ đàm thoại được đưa vào sử dụng rộng rãi dường như chỉ sau 1 đêm: Hơn 100 triệu người đã sử dụng ChatGPT của OpenAI trong 2 tháng đầu tiên sau khi nó được ra mắt, tháng 12/2022. Hàng triệu người khác có thể đã sử dụng các công cụ AI mà Google và Microsoft giới thiệu ngay sau đó. Kết quả là, những rủi ro dường như chỉ mang tính lý thuyết cách đây vài năm giờ đây ngày càng trở nên thực tế hơn. Ví dụ, công cụ tìm kiếm Bing của Microsoft với sự hỗ trợ của AI Chatbot đã chứng minh nó có khả năng thao túng và thậm chí đe dọa người dùng.
Khi các công cụ AI lan rộng khắp thế giới, thật khó để tưởng tượng rằng các chủ thể tuyên truyền sẽ không sử dụng chúng để tung tin giả và đánh lạc hướng dư luận. Để chuẩn bị cho tình huống này, chính phủ, doanh nghiệp và các tổ chức xã hội dân sự nên xây dựng bộ tiêu chuẩn và chính sách cho việc sử dụng văn bản do AI tạo ra, cũng như các kỹ thuật để truy ra nguồn gốc của một đoạn văn bản cụ thể và liệu nó có được tạo ra bằng AI hay không. Nỗ lực của cánh nhà báo và nhà nghiên cứu nhằm bóc trần các tài khoản mạng xã hội và trang web đưa tin giả mạo cũng có thể hạn chế vi phạm tiếp cận của các chiến dịch tuyên truyền bí mật bất kể nội dung do con người hay AI tạo ra.
Các mô hình ngôn ngữ có thể được sử dụng để tăng cường hoặc thay thế người viết trong việc sáng tạo nội dung, giảm số lượng nhân viên cần thiết. Nếu chi phí giảm, ngày càng nhiều chủ thể chính trị có thể quyết định tài trợ hoặc tiến hành các hoạt động gây ảnh hưởng. Khả năng sáng tạo nội dung có thể mở rộng với chi phí thấp, việc không phân biệt được với văn bản do con người viết ra có thể khiến chúng trở nên hữu ích trong các lĩnh vực khác vốn không được thiết kế dành cho AI. Năm 2020, các học giả Sarah Kreps và Douglas Kriner đã tiến hành một thử nghiệm, trong đó họ gửi cho các nhà lập pháp Mỹ những bức thư do AI và con người viết như thể chúng đến từ các cử tri. Họ phát hiện ra rằng xác suất các nhà lập pháp trả lời thư do AI tạo ra chỉ thấp hơn 2 điểm phần trăm so với thư do con người viết. Rủi ro là các mô hình ngôn ngữ có thể được sử dụng để lạm dụng và thậm chí áp đảo các hệ thống tiếp nhận ý kiến đóng góp từ công chúng, làm suy yếu trách nhiệm giải trình dân chủ nếu các quan chức được bầu gặp khó khăn trong việc phân biệt quan điểm thực sự của cử tri, hoặc đơn giản là không đối phó được với tình trạng hộp thư quá tải.
Các mô hình ngôn ngữ không chỉ mang lại tiềm năng tạo ra nhiều sản phẩm tuyên truyền hơn với chi phí thấp hơn. Chúng cũng có thể nâng cao chất lượng tuyên truyền bằng cách điều chỉnh theo các nhóm cụ thể. Ngoài ra, tuyên truyền được cá nhân hóa cũng có thể hiệu quả bên ngoài các phương tiện truyền thông xã hội, chẳng hạn như thông qua email hoặc trang web tin tức phù hợp, thậm chí là trò chuyện trực tiếp. Với AI Chatbot, chủ thể tuyên truyền có thể thu hút các mục tiêu riêng lẻ, trực tiếp giải quyết các mối quan ngại hoặc phản bác trực tiếp và tăng tỷ lệ thuyết phục (hoặc ít nhất là gây mất tập trung). Hiện tại, sẽ cần rất nhiều nguồn lực để tiến hành một hoạt động gây ảnh hưởng dựa trên cuộc đối thoại đang diễn ra giữa cá nhân các nhà tuyên truyền và đông đảo quần chúng. Trong tương lai, khi các mô hình ngôn ngữ trở nên thuyết phục và ít tốn kém hơn, những chiến dịch như vậy có thể dễ dàng được tiến hành với sự hỗ trợ của AI.
Để biết các mô hình ngôn ngữ đang cải thiện nhanh như thế nào, hãy xem xét một trong những mô hình mới nhất của Google, được gọi là Flan-PalM. Mô hình này có thể trả lời đúng 9/10 câu hỏi trong kỳ thi cấp phép y tế của Mỹ. Nó cũng có thể làm toán, trả lời các câu hỏi về vật lý và làm thơ. Các hệ thống AI này là những công cụ nguy hiểm tiềm tàng trong tay các nhà tuyên truyền và trở nên ngày càng mạnh mẽ hơn.
Một công nghệ phổ biến để vẽ ra khuôn mặt do AI tạo ra lần đầu tiên được phát triển vào năm 2014. Nhưng phải đến năm 2019, các nhà nghiên cứu mới phát hiện ra ảnh hồ sơ do AI tạo ra trong một hoạt động gây ảnh hưởng. Năm 2022, hơn 2/3 hoạt động gây ảnh hưởng bị Meta (công ty mẹ của Facebook) phát hiện và loại bỏ bao gồm giả mạo khuôn mặt.
Tuy nhiên, để thực hiện thành công một chiến dịch gây ảnh hưởng nhờ AI, các chủ thể tuyên truyền cần ít nhất 3 điều. Thứ nhất, họ cần quyền truy cập vào mô hình ngôn ngữ có thể sử dụng được mà họ có thể sáng tạo mọi thứ từ đầu, đánh cắp hay tải xuống từ các trang web nguồn mở hoặc truy cập từ nhà cung cấp dịch vụ AI. Thứ hai, họ cần cơ sở hạ tầng, chẳng hạn như trang web hoặc tài khoản giả mạo trên mạng truyền thông xã hội, để phổ biến tuyên truyền. Và cuối cùng, họ cần những người thực sự dễ bị ảnh hưởng hoặc ít nhất là đang bối rối hay thất vọng trước nội dung mà các nhà tuyên truyền phát sóng. Ở mọi giai đoạn trong quá trình này, chính phủ, doanh nghiệp và nhà công nghệ đều có cơ hội can thiệp và giảm thiểu tác hại do các chiến dịch từ AI gây ra.
Và cuối cùng thì, sự phát triển các mô hình ngôn ngữ AI đòi hỏi phải được cân nhắc thận trọng hơn. Một số câu hỏi cơ bản mà xã hội phải trả lời là: Ai nên kiểm soát việc tiếp cận các mô hình này? Ai có nguy cơ bị ảnh hưởng? Và việc mô phỏng cuộc đối thoại của con người với AI có đáng mong đợi hay không? Mặc dù tác động của các mô hình ngôn ngữ trong tương lai sẽ khó dự đoán, nhưng rõ ràng chúng sẽ vượt xa các kết quả từ các phòng thí nghiệm. Vì vậy, các chính phủ, doanh nghiệp và công chúng nói chung đều nên lên tiếng về cách các mô hình này được thiết kế và sử dụng cũng như cách quản lý những rủi ro tiềm ẩn mà chúng gây ra.