Chống tin giả trong thời đại số

Thứ Hai, 17/07/2023, 14:40

Tin giả, thông tin sai lệch và lừa đảo trực tuyến đang gia tăng với tốc độ đáng báo động khi trí tuệ nhân tạo (AI) tổng quát bùng nổ. Sự phát triển nhanh chóng của các mô hình AI ngôn ngữ lớn như ChatGPT khiến nhiệm vụ đấu tranh chống tin giả, tin tức troll và thông tin sai lệch trở nên khó khăn hơn.

Năm 2022 là năm của AI tổng quát (GenAI), với sự ra mắt của các phần mềm chuyển văn bản thành hình ảnh như DALL-E, Midjourney và ChatGPT, các công cụ mạnh mẽ đặt sức mạnh tổng hợp của một công cụ tìm kiếm, Wikipedia và trình tạo nội dung ưu việt trong tầm tay chúng ta. Thời đại AI, chỉ cần cú “nhấp chuột” trên máy tính có kết nối Internet hay một cái chạm trên điện thoại thông minh, chúng ta có thể tạo ra những hình ảnh hoặc trang nội dung bằng văn bản hấp dẫn mà vào thời điểm này năm ngoái, bạn sẽ phải mất hàng giờ, hàng ngày hoặc hàng tuần để thực hiện, ngay cả với những người vẽ tranh minh họa được đào tạo nhiều năm.

Chống tin giả trong thời đại số -0
Điều quan trọng là con người phải phát triển cùng với AI để tạo ra giá trị thực.

Quả thực, GenAI đang tác động lớn đến cuộc sống của chúng ta, trở thành công cụ đắc lực giúp con người giải quyết những vấn đề phức tạp. Nhưng tốc độ cải tiến của AI cũng tiềm ẩn rủi ro; cụ thể là để các thuật toán lấn át khả năng nhận thức của con người. Như một bài báo gần đây đăng trên tạp chí “Harvard Business Review” (Mỹ) đã nhấn mạnh, việc tạo ra tin giả đặt ra một thách thức lớn đối với các doanh nghiệp, và thậm chí là các quốc gia trong năm 2023 và cả những năm tới.

May mắn thay, sự phát triển và đổi mới của AI cũng là một công cụ, khi kết hợp với bản năng lâu nay của con người, có thể được sử dụng để tự khắc phục sự cố hệ thống. Nhưng trước khi xem xét các chiến lược này một cách chi tiết hơn, điều quan trọng là phải hiểu các mối đe dọa trong thế giới thực do thông tin sai lệch mà AI tạo ra.

Nhận biết các mối đe dọa

Có rất nhiều mối đe dọa tiềm ẩn đối với nội dung do AI tạo ra. AI được ví như con dao hai lưỡi, có thể bị sử dụng để tạo ra các nội dung nguy hiểm, thao túng dư luận, lan truyền thông tin sai lệch ở mức độ khó lường. Nếu AI phát triển một cách không kiểm soát, lập trình với mục đích không đúng đắn sẽ làm tăng các mối đe dọa với an ninh, gây tổn hại uy tín hoặc thao túng chính trị. Nhật báo “The Guardian” (Anh) mới đây đưa tin các biên tập viên của họ đã nhận được câu hỏi từ độc giả về các bài báo không xuất hiện trong kho lưu trữ trực tuyến của báo. Đây là những bài báo mà chính các phóng viên cũng không nhớ họ là tác giả. Hóa ra, họ chưa bao giờ viết những bài báo đó. ChatGPT, khi được người dùng yêu cầu cung cấp thông tin về các chủ đề cụ thể, đã tham khảo các bài báo của “The Guardian” trong phần đầu ra hoàn toàn giả mạo.

Nếu bản thân các lỗi hoặc sơ suất được tích hợp trong các mô hình AI không đủ gây lo ngại, cũng có khả năng xảy ra việc sử dụng sai mục đích có chủ ý. Một bản tin của AP mới đây đã xác định một số yếu tố rủi ro của việc con người sử dụng AI trước cuộc bầu cử tổng thống Mỹ năm 2024. Bản tin làm dấy lên nỗi ám ảnh về các email, tin nhắn văn bản hoặc video về các chiến dịch vận động tranh cử có sức thuyết phục nhưng bất hợp pháp, tất cả đều do AI tạo ra, từ đó có thể đánh lừa cử tri hoặc gieo rắc xung đột chính trị.

Andrew Pate, chuyên gia nghiên cứu về AI, cho biết họ đã sao chép một số văn bản từ Wikipedia, một số bài báo trên mạng về xung đột ở Ukraine, sự cố rò rỉ của đường ống khí đốt “Dòng chảy phương Bắc” và các cuộc tập trận của Hải quân Mỹ năm 2022; sau đó yêu cầu AI viết bài báo ám chỉ Mỹ đã tấn công đường ống dẫn dầu. Kết quả là chỉ với một vài thao tác đơn giản, một vài thông tin, AI đã có thể nhanh chóng tạo ra một tin giả.

Các mô hình GenAI được đào tạo trên lượng dữ liệu khổng lồ và dữ liệu có thể bị lỗi thời, không đầy đủ, thậm chí có thể hoàn toàn sai. Các mô hình Gen AI đã cho thấy xu hướng “ảo giác” rõ rệt trong các tình huống này, nghĩa là tự tin khẳng định điều sai là đúng.

Chống tin giả trong thời đại số -0
Trong kỷ nguyên của AI, nhiều thứ có thể được tạo ra chỉ bằng cái nhấp chuột.

Dùng AI để ngăn chặn AI

Vì dữ liệu và thông tin mà các mô hình AI đào tạo thường do con người tạo ra, có những hạn chế và thành kiến riêng, nên đầu ra của AI có thể bị giới hạn và sai lệch tương ứng. Theo nghĩa này, AI được đào tạo dựa trên thái độ và nhận thức lỗi thời có thể duy trì một số khuôn mẫu có hại, đặc biệt khi được trình bày dưới dạng thực tế khách quan.

May mắn là, các tổ chức sử dụng GenAI không bị mắc kẹt vào những rủi ro này. Họ có một số công cụ để xác định và giảm thiểu các vấn đề về thông tin sai lệch trong nội dung do AI tạo ra. Và một trong những công cụ tốt nhất cho việc này… chính là AI. Một phương pháp cụ thể, được gọi là “đào tạo đối thủ”, về cơ bản mô phỏng việc kiểm tra thực tế bằng cách đưa 2 mô hình AI đấu với nhau trong một cuộc thi trí tuệ. Trong quá trình này, một mô hình được đào tạo để tạo nội dung, trong khi mô hình thứ hai được đào tạo để phân tích độ chính xác của nội dung đó, “gắn thẻ” bất kỳ nội dung nào sai. Các báo cáo xác minh tính xác thực của mô hình thứ hai sau đó được đưa trở lại vào mô hình thứ nhất, báo cáo này sẽ điều chỉnh đầu ra của nó dựa trên những phát hiện đó.

Chúng ta thậm chí có thể khai thác sức mạnh của các mô hình kiểm chứng tính xác thực này bằng cách tích hợp chúng với các nguồn kiến thức của bên thứ ba như từ điển tiếng Anh Oxford, Encyclopedia Britannica, tạp chí chuyên ngành hoặc thư viện tại các trường đại học. Các hệ thống đào tạo đối thủ này đã phát triển đủ tinh vi để phân biệt giữa thực tế, hư cấu và cường điệu.

Điểm thú vị là mô hình đầu tiên, hay còn gọi là mô hình tạo nội dung, học cách đánh lừa mô hình kiểm tra tính xác thực hoặc mô hình “phân biệt đối xử” bằng cách tạo ra nội dung ngày càng khó để mô hình phân biệt đối xử báo cáo là sai. Kết quả đầu ra GenAI chính xác và đáng tin cậy hơn theo thời gian.

Mặc dù AI có thể được sử dụng để tự kiểm tra tính xác thực, điều đó không khiến quá trình trở nên dễ dàng. Đánh giá của con người không chỉ đảm bảo cung cấp thông tin chính xác, đầy đủ và cập nhật mà còn thực sự có thể giúp các hệ thống AI tổng hợp hoạt động tốt hơn.

Tất cả chúng ta đều có lợi trong việc tạo ra các sản phẩm GenAI hữu ích hơn và do đó cũng nên cam kết thúc đẩy tính minh bạch trong mọi lĩnh vực. Các hệ thống AI ngày càng được áp dụng nhiều hơn trong các lĩnh vực quan trọng như y tế, tài chính và thậm chí cả hệ thống tư pháp. Khi các mô hình AI tham gia vào các quyết định ảnh hưởng đến cuộc sống thực của con người, điều cần thiết là tất cả các bên liên quan phải hiểu cách thức đưa ra quyết định đó và cách phát hiện những điểm không nhất quán hoặc không chính xác có thể gây ra hậu quả lớn.

Chống tin giả trong thời đại số -0

Vì sao sự lo ngại ngày càng tăng?

Không nghi ngờ gì nữa, chúng ta đã phải đối phó với “tin giả”, lừa đảo trực tuyến và thông tin sai lệch trong một thời gian dài. Vậy, hãy tìm hiểu sâu hơn một chút về các vấn đề liên quan thông tin sai lệch do GenAI tạo ra và đề xuất một số cách khả thi để giảm thiểu những lo ngại này.

Trong một số nghiên cứu về các “deepfake” AI, ông Jeff McGregor, Giám đốc điều hành Truepic đã kết luận: “Chúng ta sẽ không bao giờ nhanh hơn những gì AI có thể tạo ra để phát hiện tin giả. Thay vào đó, chúng ta cần chuyển trọng tâm sang xác thực những gì là thật. Tất cả chúng ta vẫn đang xôn xao về công cụ ChatGPT (và bây giờ là GPT-4). Có lẽ ẩn sâu bên dưới sự phấn khích là nỗi sợ hãi, sợ rằng thế giới hiện đang chuyển động với tốc độ của AI… và chúng ta không thể theo kịp. Vì AI ngày càng “giỏi” hơn trong việc lừa chúng ta tin rằng nội dung kỹ thuật số mà chúng ta thấy là thật, nên nó cũng ngày càng giỏi hơn trong việc “che giấu” chính các yếu tố bên trong nội dung kỹ thuật số mà thông thường sẽ giúp chúng ta biết nội dung nào đã bị thay đổi hoặc làm giả. “AI thực sự rất giỏi trong việc đánh lừa. Và nó ngày càng thông minh hơn”.

Trong một bài viết đăng trên trang mạng tech.co, tác giả khẳng định công cụ AI “khiến hầu hết mọi người không thể phát hiện tin giả”. Ví dụ, các tweet được tạo ra bởi mô hình GPT-3 của OpenAI thuyết phục đến mức mọi người không thể phát hiện rằng chúng quảng bá thông tin sai lệch. Một nghiên cứu khảo sát mới đây đối với một loạt tweet về các vấn đề nóng như dịch COVID-19, sự tiến hóa, 5G và vaccine cho thấy những dòng tweet do AI tạo ra thuyết phục hơn các tweet do con người viết, ngay cả khi chúng chứa thông tin không đúng sự thật. Mục đích của phân tích này là để xem tác động của AI đối với khả năng phát hiện cái gọi là “tin giả”. Cuộc khảo sát cho thấy các tweet được tạo bởi mô hình ngôn ngữ lớn GPT-3 (LLM) không chỉ dễ dàng xác định hơn khi chúng trình bày thông tin chính xác, mà còn hiệu quả hơn trong việc đánh lừa mọi người bằng cách khiến họ nghĩ rằng chúng là giả mạo.

Trong trường hợp bị sử dụng với mục đích trái phép, GenAI sẽ trở thành công cụ tiếp tay cho hành vi lừa đảo, tạo những nội dung không lành mạnh, từ đó gây ảnh hưởng trực tiếp đến danh dự hoặc cuộc sống của những cá nhân bị lợi dụng. Việc lạm dụng hoặc vi phạm đạo đức đối với người dùng AI cũng có thể sẽ gây ra hậu quả. Đầu năm nay, một luật sư ở New York đã gặp rắc rối sau khi trình trước tòa một bản tóm tắt do ChatGPT tạo ra, được cho là đã trích dẫn không dưới 6 trường hợp hoàn toàn bịa đặt. Hiện luật sư này phải đối mặt với nguy cơ bị phạt và có thể mất giấy phép hành nghề luật sư.

Do đó, các nhà lập mô hình GenAI không nên ngại chia sẻ tài liệu về kiến trúc hệ thống, nguồn dữ liệu và phương pháp đào tạo, nếu thích hợp. Quả thực, cuộc cạnh tranh để tạo ra các mô hình AI tổng quát tốt nhất rất khốc liệt, nhưng tất cả chúng ta đều có thể hưởng lợi từ các tiêu chuẩn thúc đẩy các sản phẩm tốt hơn, đáng tin cậy hơn và an toàn hơn.

Sự phát triển nhanh chóng của các trang web “tin tức” sử dụng các công cụ AI đang thúc đẩy lan truyền thông tin sai lệch. Những bước tiến của AI thế hệ mới trong năm qua chỉ là một phần của những gì sắp xảy ra. Chúng ta đã chứng kiến sự chuyển đổi đáng chú ý không chỉ về khả năng của các mô hình mà còn về cách con người sử dụng chúng. Và khi những thay đổi này tiếp tục, điều quan trọng là bản năng con người của chúng ta phải phát triển cùng với chúng. Bởi AI chỉ có thể đạt tới tiềm năng của nó khi kết hợp với sự giám sát, sáng tạo và hợp tác của con người.

Nguyệt Ánh
.
.