Thế giới chạy đua kiểm soát AI
Một loạt thỏa thuận đa phương đã được nhiều quốc gia, khối các quốc gia trên khắp thế giới ký kết với nhiều điều kiện thực thi hướng đến đảm bảo sự an toàn trong thiết kế, sử dụng trí tuệ nhân tạo (AI), phòng tránh, hạn chế những tác hại do AI gây ra cho tính mạng, cuộc sống của con người,…
Châu Âu, nơi đầu tiên ban hành luật kiểm soát AI
Các luật đầu tiên trên thế giới nhằm quản lý toàn diện AI vừa được thống nhất trong một thỏa thuận mang tính bước ngoặt sau cuộc đàm phán kéo dài 3 ngày (kết thúc hôm 9/12) giữa Nghị viện châu Âu và các quốc gia thành viên EU. Theo ông Thierry Breton, Ủy viên châu Âu chịu trách nhiệm các luật nêu trên, mô tả thỏa thuận vừa đạt được là bước ngoặt “lịch sử”. Theo đó, các luật sau khi được ban hành sẽ chi phối toàn bộ các hình thức ứng dụng AI trên toàn châu Âu, đồng thời cũng đưa ra quy định về hoạt động cho các phương tiện truyền thông mạng xã hội và công cụ tìm kiếm, bao gồm những gã khổng lồ như X, TikTok và Google. Tuy nhiên, các công ty công nghệ ở một số quốc gia đang đấu tranh để có cách tiếp cận nhẹ nhàng hơn nhằm thúc đẩy đổi mới sáng tạo trong các công ty nhỏ.
Thỏa thuận về luật kiểm soát AI đã đưa EU vượt lên trên Mỹ, Trung Quốc và Anh trong cuộc đua quản lý AI và bảo vệ công chúng khỏi những rủi ro, bao gồm mối đe dọa tiềm tàng đối với tính mạng mà công nghệ AI có thể gây ra. Tuy nhiên, giới chức châu Âu vẫn chưa đưa ra thông tin chi tiết về những quy định gì sẽ được đưa vào dự thảo cuối cùng của luật. Sớm nhất có lẽ đến năm 2025 các luật này mới được ban hành và áp dụng vào thực tế.
Thỏa thuận chính trị giữa Nghị viện châu Âu và các quốc gia thành viên EU về luật mới điều chỉnh AI là một cuộc chiến cam go, với những va chạm căng thẳng về các mô hình nền tảng được thiết kế cho các mục đích chung thay vì mục đích cụ thể. Có những cuộc họp đàm phán kéo dài về hoạt động giám sát bằng công cụ AI, có thể được cảnh sát, người sử dụng lao động hoặc nhà bán lẻ sử dụng để quay phim công chúng trong thời gian thực và nhận diện cảm xúc trên khuôn mặt từng người. Theo ông Breton, Nghị viện châu Âu đã bảo đảm lệnh cấm sử dụng các công nghệ sinh trắc học và giám sát thời gian thực, bao gồm cả nhận dạng cảm xúc; nhưng có ba trường hợp ngoại lệ. Điều đó có nghĩa là cảnh sát sẽ chỉ có thể sử dụng các công nghệ giám sát đó trong trường hợp có mối đe dọa bất ngờ về một cuộc tấn công khủng bố, nhu cầu tìm kiếm nạn nhân và truy lùng tội phạm nghiêm trọng.
Nghị sĩ châu Âu Brando Benefei, cùng với ông Drago - Tudorache, nghị sĩ châu Âu người Romania, đồng lãnh đạo nhóm đàm phán của Nghị viện châu Âu. Ông Tudorache, là người đã lãnh đạo cuộc chiến kéo dài 4 năm của Nghị viện châu Âu nhằm kiểm soát AI. Hai ông cho biết Nghị viện châu Âu sẽ đảm bảo rằng “các cơ quan độc lập” sẽ cấp phép cho hoạt động “kiểm soát dự phòng” để đề phòng sự lạm dụng của cảnh sát và bảo vệ nguyên tắc suy đoán vô tội trong điều tra hình sự. “Chúng tôi có một mục tiêu là đưa ra một đạo luật nhằm đảm bảo rằng hệ sinh thái AI ở châu Âu sẽ phát triển với cách tiếp cận lấy con người làm trung tâm, tôn trọng các quyền cơ bản, giá trị con người, xây dựng niềm tin, xây dựng ý thức về cách chúng ta có thể tận dụng một cách tốt nhất cuộc cách mạng công nghệ AI đang diễn ra trước mắt chúng ta”, ông Tudorache nói với các phóng viên tại cuộc họp báo ở Brussels sau khi đạt được thỏa thuận. Ông Tudorache cho biết thêm: “Chúng tôi chưa bao giờ tìm cách từ chối các công cụ mà cảnh sát cần để chống tội phạm, những công cụ họ cần để chống gian lận, những công cụ họ cần để cung cấp và đảm bảo cuộc sống an toàn cho mọi công dân. Nhưng cái chúng tôi muốn là lệnh cấm sử dụng AI nhằm xác định hoặc xác định trước ai có thể phạm tội”.
Nền tảng của thỏa thuận là một hệ thống phân cấp dựa trên rủi ro trong đó mức quy định cao nhất áp dụng cho những máy móc có rủi ro cao nhất đối với sức khỏe, an toàn và quyền con người. Trong văn bản gốc dự kiến điều này sẽ bao gồm tất cả các hệ thống có hơn 10.000 người dùng. Loại rủi ro cao nhất hiện được xác định bằng số lượng giao dịch máy tính cần thiết để huấn luyện máy, được gọi là “các phép toán điểm động trên giây” (FLOPS). Theo các chuyên gia, hiện chỉ có mô hình GPT4 đáp ứng định nghĩa mới này.
Ông Tudorache cho biết: “Chúng tôi là những người đầu tiên trên thế giới đưa ra quy định thực sự cho AI và cho thế giới kỹ thuật số trong tương lai thúc đẩy bởi AI, hướng dẫn sự phát triển và tiến hóa của công nghệ này theo hướng lấy con người làm trung tâm”. Trước đây ông từng nói rằng EU quyết tâm không phạm phải những sai lầm trong quá khứ, khi những gã khổng lồ công nghệ như Facebook được phép phát triển thành những tập đoàn trị giá nhiều tỷ USD mà không có nghĩa vụ quản lý nội dung trên các nền tảng của họ bao gồm can thiệp vào bầu cử, tình dục trẻ em, lời lẽ gây thù hận.
Giáo sư Anu Bradford ở Trường Luật Columbia, chuyên gia về EU và quy định kỹ thuật số, cho biết quy định mạnh mẽ và toàn diện từ EU có thể “làm gương tốt cho nhiều chính phủ xem xét quy định”. Các quốc gia khác “có thể không sao chép mọi điều khoản nhưng có thể sẽ mô phỏng nhiều khía cạnh của nó”. Bà cho rằng các công ty AI sẽ phải tuân theo các quy tắc của EU cũng có thể sẽ mở rộng một số nghĩa vụ đó sang các thị trường bên ngoài lục địa.
Mỹ, Anh và cuộc đua “an toàn AI”
Trước đó, Mỹ, Anh và hơn chục quốc gia khác đã đạt được một thỏa thuận quốc tế chi tiết đầu tiên về đảm bảo AI an toàn trước những kẻ lừa đảo, thúc đẩy các công ty tạo ra các hệ thống AI “an toàn từ trong thiết kế”. Trong văn bản thỏa thuận dài 20 trang được công bố hôm 26/11, các quốc gia đã đồng ý rằng các công ty thiết kế và sử dụng AI cần phát triển và triển khai nó theo cách giúp khách hàng và công chúng nói chung được an toàn, không bị lạm dụng. Ngoài Mỹ và Anh, 18 quốc gia đã ký vào thỏa thuận mới, trong đó bao gồm cả Đức, Italy, Cộng hòa Séc, Estonia, Ba Lan, Australia, Chile, Israel, Nigeria và Singapore.
Thỏa thuận này không mang tính ràng buộc và chủ yếu đưa ra các khuyến nghị chung như giám sát các hệ thống AI để tránh hành vi lạm dụng, bảo vệ dữ liệu khỏi các nhà cung cấp phần mềm giả mạo. Nhưng điều quan trọng là rất nhiều quốc gia cùng mong muốn rằng hệ thống AI cần đặt sự an toàn lên hàng đầu. Đây là sáng kiến mới nhất trong một loạt sáng kiến của các chính phủ trên khắp thế giới nhằm định hình sự phát triển của AI, lĩnh vực mà sức ảnh hưởng của nó ngày càng được cảm nhận rõ rệt trong ngành công nghiệp và xã hội nói chung.
Thỏa thuận khung này giải quyết các câu hỏi về cách giữ cho công nghệ AI không bị tin tặc tấn công và bao gồm các khuyến nghị như chỉ phát hành các mô hình sau khi kiểm tra bảo mật thích hợp. Nó không giải quyết các câu hỏi hóc búa xung quanh việc sử dụng AI phù hợp hoặc cách thu thập dữ liệu cung cấp cho các mô hình này. Sự trỗi dậy của AI đã gây ra nhiều lo ngại, bao gồm cả nỗi lo sợ rằng nó có thể được sử dụng để phá vỡ tiến trình dân chủ, gian lận tăng tốc hoặc dẫn đến mất việc làm trầm trọng, cùng những tác hại khác. Nhiều người trong ngành công nghệ AI rất vui mừng khi thấy các nhà lãnh đạo thế giới thảo luận về các mối đe dọa mà họ đã cảnh báo trong nhiều năm.
Cuối tháng 10/2023, nước Anh cũng đã tổ chức một hội nghị thượng đỉnh thế giới về AI tại khu điền trang Bletchley, phía Bắc London. Tại hội nghị đó, tất cả 28 quốc gia tham dự, trong đó có cả Mỹ và Trung Quốc - hai cường quốc hàng đầu thế giới về AI - đã cùng nhau ký kết “Tuyên bố Bletchley”, một thỏa thuận hợp tác về các tiêu chuẩn an toàn có thể ngăn chặn các hệ thống AI tấn công con người. Thủ tướng Anh Rishi Sunak nói: “Một chiến lược nghiêm túc về an toàn AI phải bắt đầu bằng việc thu hút sự tham gia của tất cả các cường quốc AI hàng đầu thế giới và tất cả họ đều đã ký vào thông cáo Bletchley Park”.
Các đại biểu bày tỏ vui mừng vì Trung Quốc không chỉ có mặt mà còn đóng vai trò quan trọng trong các cuộc thảo luận. Các quan chức Anh, dẫn đầu bởi nhà điều phối kỳ cựu Jonathan Black và nhà đầu tư công nghệ Matt Clifford, đã mất nhiều tuần để thuyết phục Bắc Kinh tham dự hội nghị thượng đỉnh và ký vào tuyên bố chung.
Tuy nhiên, đằng sau sự thành công ngoại giao của nước Anh, có những dấu hiệu cho thấy các cường quốc trên thế giới đang tranh giành vị thế. Mỗi quốc gia đều muốn trở thành nước ưu việt trong việc đặt ra các quy tắc về cách AI sẽ phát triển, ý thức rằng làm như vậy cũng có thể giúp nghiêng cán cân theo hướng có lợi cho các ưu tiên trong nước và các công ty của họ.
Một số quan chức Anh đã hy vọng nhận được sự chứng thực của quốc tế để sử dụng lực lượng đặc nhiệm AI của Anh làm trung tâm quốc tế để thử nghiệm các hệ thống mới trước khi chúng được ra mắt công chúng. Trong khi đó, Bộ trưởng Thương mại Mỹ Gina Raimondo thì tuyên bố chính phủ của bà sẽ phát triển viện nghiên cứu như vậy của riêng mình và cả hai sẽ hợp tác chặt chẽ với nhau. Tổng thống Mỹ Joe Biden cũng ban hành một sắc lệnh về AI chỉ vài ngày trước khi hội nghị thượng đỉnh ở Anh bắt đầu.
Trong khi đó, giữa các quốc gia cũng còn nhiều bất đồng qua điểm về kiểm soát AI. EU đã tiến bộ rất nhiều trong việc phát triển các quy định kiểm soát AI của riêng mình. Trong khi nước Anh bị xem là đang tụt hậu. Thủ tướng Anh Sunak cho rằng còn quá sớm để đưa ra luật kiểm soát AI. “Làm thế nào chúng ta có thể viết ra những luật có ý nghĩa đối với những điều mà chúng ta chưa hiểu biết hết?” - ông Sunak nói. Bất đồng cũng tồn tại về những gì sẽ xảy ra với AI nguồn mở, thứ cho phép mọi người sử dụng và phát triển các mô hình mới. Chính phủ Anh và Mỹ lo ngại điều này có thể trao quyền cho người dân gây ra tổn hại xã hội trên quy mô lớn, trong khi người Pháp lại nhiệt tình hơn về tiềm năng ứng dụng AI nguồn mở. Yann LeCun, nhà tiên phong về AI người Pháp và nhà khoa học trưởng về AI tại Meta, công ty mẹ của Facebook, là người lớn tiếng ủng hộ AI nguồn mở.
Hôm 2/11, Thủ tướng Anh Sunak công bố rằng các quốc gia trên thế giới đã đồng ý thành lập một hội đồng các nhà khoa học toàn cầu để xác định những gì AI thực sự có thể làm, giống như Hội đồng liên chính phủ về biến đổi khí hậu. Các công ty cũng đã đồng ý cho phép chính phủ kiểm tra các mẫu xe tiên tiến nhất của họ để đảm bảo an toàn, mặc dù điều này sẽ không bắt buộc.
Một số người so sánh hệ thống mới này với các quy tắc kiểm soát không lưu, trong đó các tiêu chuẩn tối thiểu nhất định được chấp nhận trên toàn thế giới, nhưng các quốc gia có quyền tự do yêu cầu các tiêu chuẩn chặt chẽ hơn. Những người khác nói về việc xây dựng một cái gì đó giống như quy trình phê duyệt thuốc, trong đó một số quốc gia chấp nhận các quyết định do cơ quan quản lý đưa ra.