“Deepfake” - hiểm họa đến từ trí tuệ nhân tạo
Không dừng lại ở việc tung tin giả về chính trị, hay trả thù cá nhân, công nghệ deepfake đang bị tội phạm sử dụng vào việc lừa đảo hoặc tống tiền. Tại Mỹ vào năm 2019, một công ty năng lượng đã bị lừa 243 nghìn USD bởi thủ đoạn giả mạo hình ảnh, giọng nói của lãnh đạo công ty, yêu cầu nhân viên chuyển tiền cho đối tác.
Năm ngoái, ước tính tổng thiệt hại trong các vụ lừa đảo “deepfake” trên thế giới đã lên tới 11 triệu USD. Trí tuệ nhân tạo ChatGPT và ứng dụng tạo giọng nói đã bị lợi dụng và trở thành nguy cơ đe dọa an ninh, an toàn đời sống trong kỷ nguyên số.
Nguy cơ mới
“Deepfake” - công nghệ trí tuệ nhân tạo hiện đang bị tội phạm sử dụng để giả mạo hình ảnh, giọng nói nhằm mục đích chiếm đoạt tài sản hoặc tung tin giả mạo. Thủ đoạn tinh vi này đang là mối lo ngại với rất nhiều người dùng Internet trong thời gian vừa qua.
Kaspersky (Công ty bảo mật của Nga) giải thích “Deepfake” là từ được ghép lại từ hai chữ "deep" trong “Deep-learning” (học sâu) và "Fake" (lừa dối). “Deepfake” có thể hiểu là một phương pháp trí tuệ nhân tạo (A.I) tiên tiến sử dụng nhiều lớp thuật toán máy học để trích xuất dần dần các tính năng cấp cao hơn từ một đầu vào có lượng dữ liệu thô, nó có khả năng học hỏi từ dữ liệu phi cấu trúc - chẳng hạn như khuôn mặt người. Nó thậm chí có thể thu thập dữ liệu về các chuyển động vật lý của con người. Hiểu một cách đơn giản là “Deepfake” với khả năng học hỏi dữ liệu khuôn mặt, hình ảnh và cả giọng nói của con người, nó có khả năng biến khuôn mặt của một người A bất kỳ được gắn lên cơ thể của người B trông rất giống thật, đến mức rất khó để nhận biết nếu nhìn lướt qua.
Dữ liệu hình ảnh còn được xử lý tiếp để tạo video “Deepfake” thông qua “GAN” (Mạng lưới đối thủ sáng tạo). Đây là một loại hệ thống các máy học chuyên dụng. Hai mạng thần kinh này có thể được sử dụng để cạnh tranh với nhau trong việc học các đặc điểm đã có trong kho dữ liệu thông tin nhằm mục đích huấn luyện A.I. Chẳng hạn như ảnh chụp khuôn mặt và sau đó tạo dữ liệu mới có cùng đặc điểm.
Khả năng học hỏi của các A.I luôn được kiểm tra liên tục và so sánh với dữ liệu gốc nhằm mục đích huấn luyện, chính vì vậy mà hình ảnh được A.I "làm giả" ngày càng trở nên thuyết phục.
Hiện nay, người dùng đã biết tới các video sử dụng công nghệ “Deepfake” để làm giả khuôn mặt của người nổi tiếng thông qua các thuật toán có khả năng thay thế những đặc điểm nhận dạng của một cá nhân bằng người khác. Video “Deepfake” tinh vi đến mức mọi thứ trông giống hệt như thật mà không mấy ai nghi ngờ.
Điều này khiến cho “Deepfake” đang là mối đe dọa lớn hơn bao giờ hết. Không chỉ hình ảnh, A.I còn có thể giả mạo các dữ liệu khác, một số công nghệ “Deepfake” đã có thể được sử dụng để giả giọng nói.
Chẳng hạn, các chatbot (chương trình trí tuệ nhân tạo thay thế cho nhân viên để tư vấn, trả lời, tương tác với khách hàng) như ChatGPT với khả năng trả lời hội thoại thời gian thực có thể kết hợp với ứng dụng tạo giọng nói từ văn bản, để xây dựng lên một “phiên bản số” như thật của một cá nhân nào đó. Công nghệ nhân bản âm thanh giống như ứng dụng Photoshop nhưng dành cho giọng nói.
Các chatbot kết hợp chương trình tạo giọng nói có thể trở thành công cụ lừa đảo nguy hiểm. Trong tương lai, thủ đoạn sử dụng các công cụ này để thực hiện các hành vi lừa đảo người nghe sẽ gia tăng trên phạm vi toàn cầu.
Để tạo giọng nói giả mạo, cần phải có một tệp dữ liệu của giọng nói đích, đưa các dữ liệu này chạy qua chương trình tạo giọng nói giả. Một số công cụ giả mạo giọng nói chỉ yêu cầu người dùng nhập giọng nói mẫu dài một phút hoặc thậm chí chỉ vài chục giây. Tuy nhiên, để thuyết phục một người thân quen trong các vụ lừa đảo chuyển tiền sẽ cần số lượng mẫu lớn hơn đáng kể. Hiện nay đã xuất hiện những dịch vụ hỗ trợ có tính phí để tạo giọng nói có chất lượng từ trung bình đến cao.
Những tiến bộ không ngừng trong thuật toán học sâu, cải tiến kỹ thuật và chỉnh sửa âm thanh khiến cho chất lượng các giọng nói được tạo bởi máy tính ngày càng khó phân biệt với giọng người thật.
Hiểm họa khôn lường
Mức độ nguy hiểm của tội phạm khai thác, lợi dụng các thành tựu khoa học công nghệ đang tăng lên mỗi ngày.
Năm 2017, những chính khách Mỹ như ông Trump, ông Obama và bà Hillary Clinton đã bị một công ty hoạt động trong lĩnh vực phát triển trí tuệ nhân tạo (AI) phát hành bản sao giọng nói giả mạo. Sau đó, ứng dụng Lyrebird còn được doanh nghiệp này cho phép công chúng sử dụng công khai, chất lượng công nghệ giả mạo đã được cải tiến vượt bậc. Điển hình như vụ một đội ngũ chuyên gia công nghệ của nam diễn viên Jordan Peele đã bỏ ra 60 giờ để làm giả một đoạn video phát biểu của cựu Tổng thống Barack Obama với nội dung chỉ trích ông Trump. Để làm điều này, nhóm kỹ thuật đã sử dụng cảnh quay thực của ông Barack Obama kết hợp với kỹ thuật dựng video và "deepfake" tạo ra một đoạn phát ngôn giả. Sau đó, đoạn clip phát ngôn thực của nhân vật và đoạn giả mạo được đăng tải trên mạng với mục đích cảnh báo mọi người về những thủ đoạn tinh vi nhằm tạo ra tin giả mà người dùng có thể gặp trên môi trường Internet.
Một nạn nhân khác của công nghệ “deepfake” chính là Mark Zuckerberg - “cha đẻ” của mạng xã hội Facebook nổi tiếng. Từ một bài phát biểu đơn thuần của ông này, công nghệ deepfake đã tạo ra một video có nội dung thừa nhận Facebook đánh cắp dữ liệu người dùng và đang kiểm soát tương lai. Mặc dù ở đoạn video này, A.I giả giọng ông Mark Zuckerberg không quá giống nhưng cũng rất khó để nhận ra.
Bản thân bà Nancy Patricia Pelosi - Chủ tịch Hạ viện Hoa Kỳ cũng từng là nạn nhân trong một video giả với những phát ngôn như một người đang say rượu, mặc dù video giả này có chất lượng thấp nhưng đã nhanh chóng thu hút hàng triệu lượt xem trên mạng xã hội, buộc nạn nhân phải lên tiếng đính chính ngay sau đó.
Diễn viên gạo cội Tom Cruise cũng thường xuất hiện trong những video giả mạo trên ứng dụng TikTok thu hút hơn 50 triệu lượt xem.
Vẫn tại Mỹ, CEO của một công ty năng lượng đã bị lừa 243.000 USD chỉ bằng giọng nói “Deepfake” của ông chủ công ty đó với yêu cầu chuyển tiền khẩn cấp. Sự giả mạo quá thuyết phục khiến CEO không kịp nghi ngờ và không nghĩ đến việc kiểm tra chéo, tiền không được chuyển đến trụ sở chính mà đến một tài khoản ngân hàng bên thứ ba. CEO chỉ trở nên nghi ngờ khi "sếp" của anh ta yêu cầu thêm một đợt chuyển tiền khác nhưng đã quá muộn để lấy lại số tiền đã chuyển trước đó.
Ở Pháp, Gilbert Chikli, kẻ đã phải ra hầu tòa mới đây về hành vi mạo danh Bộ trưởng Ngoại giao Jean-Yves le Drian để yêu cầu các cá nhân giàu có và giám đốc điều hành công ty đưa tiền chuộc nhằm giải thoát các con tin người Pháp ở Syria.
Tống tiền bằng các video khiêu dâm là một nguy cơ hiện hữu kể từ khi “Deepfake” ra đời, khi mà gương mặt của người này có thể bị ghép vào cơ thể người khác. Chẳng hạn như vụ nữ phóng viên Rana Ayyub ở Ấn Độ đã bị ghép mặt vào các video khiêu dâm, sau đó cô bị tội phạm sử dụng các video giả này để tống tiền.
Đừng vội tin vào tai, mắt
Cùng với sự phát triển như vũ bão của khoa học, công nghệ, việc tiếp cận “Deepfake” ngày càng trở nên đơn giản và chi phí thực hiện rẻ hơn, vì vậy mà tin giả, hay những chiêu trò lừa đảo sử dụng công nghệ “Deepfake” sẽ tràn lan trên Internet.
Rất khó để nhận ra “Deepfake” và bất kỳ ai cũng có thể trở thành mục tiêu tấn công của tội phạm. Tuy nhiên có trở thành nạn nhân hay không, còn phụ thuộc vào việc trang bị kiến thức và thông tin của mỗi người.
Việc nhận diện nguy cơ và tự trang bị những tri thức cần thiết chính là chìa khóa để bảo vệ mỗi người khỏi thủ đoạn thao túng tâm lý của bọn tội phạm, cũng như biết xử lý các tình huống phức tạp một cách tỉnh táo và tối ưu nhất.
Theo chúng tôi, mỗi người cần rèn cho mình một thói quen thận trọng, cảnh giác và tư duy “fact check” - (kiểm chứng sự thực) khi tham gia vào các giao dịch qua mạng viễn thông, mạng Internet.
Trước nguy cơ cả hình ảnh và giọng nói đều có thể bị giả mạo, nên cho dù có tin tưởng thì vẫn phải xác minh. Chẳng hạn, nếu nhận được một đoạn tin nhắn thoại hướng đến mục đích vay tiền hoặc mượn tài sản cá nhân, dù giọng nói nghe rất quen và giống thật, nhưng vẫn nên gọi lại vào số điện thoại của người đang giao dịch để xác định có đúng là họ đang trao đổi hay không.
Tương tự, nếu có cuộc gọi đến từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng đó để xác nhận tính xác thực của cuộc gọi đó.
Tiếp theo, mỗi người cần đề phòng nguy cơ bị hack tài khoản ngân hàng, tài khoản mạng xã hội khi truy cập theo yêu cầu của người khác vào một đường link với những cấu trúc lạ nào đó. Kể cả người đưa ra yêu cầu là người thân, vì biết đâu tài khoản của họ đã bị hack và kẻ gian đã mạo danh họ để lừa gạt những người trong list friend (danh sách bạn bè). Hãy xác minh lại với người đưa ra yêu cầu bằng các cách khác nhau, để kiểm tra xem có đúng là họ đang giao dịch với mình hay không.
Cần rèn thói quen quan sát tỉ mỉ vào các chi tiết nhỏ. Chẳng hạn, trước một lời đề nghị chuyển tiền qua cuộc gọi điện thoại, thậm chí là video call, mọi người vẫn hãy xem kỹ số điện thoại, email hoặc tài khoản có trùng hợp với người đang thực hiện yêu cầu hay không. Thường thì kẻ lừa đảo sẽ không có số tài khoản của người quen của mình, nên yêu cầu chuyển tiền sang một tài khoản bên thứ ba hoặc sang một tài khoản có tên gần tương tự.
Các chuyên gia công nghệ đã đưa ra một số khuyến cáo giúp người dùng có thể nhanh chóng phát hiện “Deepfake”, đó là: hình ảnh trong video call chuyển động giật cục, như một đoạn video lỗi; ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo; thay đổi tông màu da liên tục; video có những sự nhấp nháy lạ thường; khẩu hình miệng không đồng bộ với lời nói; hiện lên các đồ vật kỹ thuật số trong hình ảnh; âm thanh, video chất lượng thấp; nhân vật nói liên tục, không chớp mắt…
Bên cạnh đó, để phòng ngừa, ngăn chặn việc dữ liệu hình ảnh, âm thanh của mình bị sao chép, hãy hạn chế sự hiện diện của người dùng trên mạng xã hội, hoặc đặt tài khoản của mình ở chế độ riêng tư, chỉ chấp nhận yêu cầu từ những người bạn tin tưởng. Việc hạn chế quyền truy cập vào giọng nói và hình ảnh cá nhân giúp loại trừ khả năng hình ảnh hoặc cảnh quay của mình bị bọn tội phạm khai thác nhằm tạo ra các những sản phẩm giả.
Điều quan trọng là mỗi người cần quản lý chặt chẽ thông tin cá nhân của mình. Tuyệt đối không nên đưa lên mạng các thông tin như số căn cước công dân, địa chỉ nhà riêng, ngày sinh, số điện thoại, tên của con cái, bởi vì những thông tin này có thể bị khai thác để mạo danh khi liên hệ với ngân hàng và những người khác.