Cách châu Âu quản lý AI

Thứ Ba, 03/09/2024, 10:20

Trên thế giới, các chính phủ đang vật lộn tìm cách quản lý “con quái vật ngày càng hung dữ” là trí tuệ nhân tạo (AI). Công nghệ phát triển nhanh chóng này hứa hẹn sẽ thúc đẩy nền kinh tế quốc gia và giúp hoàn thành các nhiệm vụ thông thường một cách dễ dàng hơn.

Nhưng công nghệ này cũng gây ra những rủi ro nghiêm trọng, chẳng hạn như tình trạng tội phạm và lừa đảo sử dụng AI, thông tin sai lệch và tin giả lan truyền nhanh hơn, dữ liệu người dùng bị giám sát nhiều hơn và gia tăng tình trạng phân biệt đối xử đối với những nhóm người vốn đã yếu thế.

Liên minh châu Âu (EU) đang đóng vai trò đi đầu thế giới trong việc giải quyết những rủi ro liên quan tới AI. Ngày 1/8 vừa qua, Đạo luật Trí tuệ nhân tạo (AIA) của EU đã chính thức có hiệu lực. Đây là luật đầu tiên trên thế giới được thiết kế để quản lý rủi ro AI một cách toàn diện - và có thể sẽ giúp các nước trên thế giới học hỏi nhiều từ những động thái chính sách của EU khi tất cả cùng đang cố gắng đảm bảo AI an toàn và có lợi cho mọi người.

ngh- vi-n châu âu dã b- phi-u nhát trí thông qua aia này 13.3.2024 (-nh eu- ep- upi).jpg -0
Nghị viện châu Âu đã bỏ phiếu nhất trí thông qua đạo luật trí tuệ nhân tạo ngày 13/3/2024.

AI - “con dao hai lưỡi”

AI hiện đã trở nên phổ biến rộng rãi trong xã hội loài người. Nó đã trở thành nền tảng của các thuật toán giúp đề xuất âm nhạc, phim và các chương trình truyền hình phù hợp cho người dùng trên các ứng dụng như Spotify hoặc Netflix. Công nghệ này cũng được tích hợp trong các camera nhận dạng khuôn mặt mọi người ở các địa điểm công cộng, như sân bay và các trung tâm mua sắm. Và AI ngày càng được sử dụng nhiều hơn trong các dịch vụ tuyển dụng, giáo dục và chăm sóc sức khỏe.

Nhưng AI cũng đang được sử dụng cho những mục đích đáng lo ngại hơn. Nó có thể tạo ra hình ảnh và video “deepfake” (AI giả mạo hình ảnh, giọng nói nhằm mục đích xấu), tạo điều kiện cho các vụ lừa đảo trực tuyến, thúc đẩy việc theo dõi, giám sát hàng loạt và vi phạm quyền riêng tư cũng như nhân quyền.

 Ví dụ, vào tháng 11/2021, Ủy viên Thông tin và Quyền riêng tư của Australia, Angelene Falk, đã ra phán quyết rằng một công cụ nhận dạng khuôn mặt có tên là Clearview AI đã vi phạm luật riêng tư bằng cách thu thập ảnh của mọi người từ các trang mạng xã hội cho mục đích “đào tạo”. Tuy nhiên, một cuộc điều tra của hãng tin độc lập Crikey vào đầu năm đã phát hiện ra rằng công ty này vẫn đang thu thập hình ảnh của người dân Australia cho cơ sở dữ liệu AI của mình.

Những trường hợp như trên nhấn mạnh nhu cầu cấp thiết của việc cần phải quản lý tốt hơn công nghệ AI.

Đạo luật Trí tuệ nhân tạo của EU

AIA của EU có điểm rất quan trọng, đó là đặt ra những yêu cầu đối với các hệ thống AI khác nhau dựa trên mức độ rủi ro mà chúng gây ra. Hệ thống AI càng gây ra nhiều rủi ro cho sức khỏe, sự an toàn hoặc quyền của con người thì các yêu cầu đặt ra cho hệ thống đó càng cao.

Đạo luật trên bao gồm danh sách các hệ thống AI rủi ro cao bị cấm. Danh sách này liệt kê các hệ thống AI sử dụng các kỹ thuật tiềm ẩn để thao túng quyết định cá nhân. Danh sách cũng đề cập đến các hệ thống nhận dạng khuôn mặt không bị hạn chế được áp dụng trong thực tế mà các cơ quan thực thi pháp luật sử dụng, tương tự như các hệ thống hiện đang được sử dụng ở Trung Quốc.

Các hệ thống AI khác, chẳng hạn như hệ thống được sử dụng trong các cơ quan chính phủ hoặc trong giáo dục và chăm sóc sức khỏe cũng được coi là có rủi ro cao. Mặc dù chúng không bị cấm, nhưng chúng phải tuân thủ nhiều yêu cầu. Ví dụ, các hệ thống này phải có kế hoạch quản lý rủi ro riêng, được đào tạo về dữ liệu chất lượng, đáp ứng các yêu cầu về độ chính xác, độ hiệu quả và an ninh mạng, đồng thời đảm bảo phải có mức độ giám sát nhất định của con người.

Các hệ thống AI có rủi ro thấp hơn, chẳng hạn như nhiều loại chatbot (chương trình AI được thiết kế nhằm mô phỏng lại các cuộc hội thoại với người dùng thông qua nền tảng Internet) khác nhau, chỉ cần tuân thủ một số yêu cầu về tính minh bạch nhất định. Ví dụ, cá nhân phải được thông báo rằng họ đang tương tác với người máy AI chứ không phải người thật. Hình ảnh và văn bản do AI tạo ra cũng cần phải có lời giải thích rằng chúng là sản phẩm của AI tạo ra chứ không phải do con người.

Các cơ quan được chỉ định của EU và của từng quốc gia sẽ giám sát xem liệu các hệ thống AI được sử dụng trên thị trường EU có tuân thủ các yêu cầu này hay không và sẽ đưa ra mức phạt nếu phát hiện có sự không tuân thủ.

Hiệu ứng domino đang lan rộng

EU không “đơn độc” trong việc đưa ra các quy định nghiêm ngặt để kiểm soát cuộc cách mạng AI. Đầu năm nay, Hội đồng châu Âu, một tổ chức nhân quyền quốc tế với 46 quốc gia thành viên, đã thông qua hiệp ước quốc tế đầu tiên yêu cầu AI phải tôn trọng nhân quyền, dân chủ và pháp quyền.

Canada cũng đang thảo luận về Dự luật Dữ liệu và AI. Tương tự như các luật của EU, dự luật này sẽ đặt ra các quy tắc cho nhiều hệ thống AI khác nhau, tùy thuộc vào rủi ro của chúng. Thay vì một luật duy nhất, Chính phủ Mỹ gần đây đã đề xuất một số luật riêng lẻ để giải quyết từng hệ thống AI khác nhau trong nhiều lĩnh vực.

Australia có thể học hỏi kinh nghiệm của EU

Tại Australia, mọi người rất quan tâm đến AI và chính phủ nước này đang có những bước đi nhằm đặt ra những rào cản cần thiết cho công nghệ mới này. Cách tiếp cận dựa trên rủi ro đối với việc quản lý AI, được EU và các quốc gia khác áp dụng, là một khởi đầu tích cực khi Canberra cân nhắc về cách quản lý các công nghệ AI vốn rất đa dạng.

Tuy nhiên, một luật duy nhất về AI sẽ không bao giờ có thể giải quyết được sự phức tạp của công nghệ đang được ứng dụng rộng rãi trong vô số các ngành cụ thể khác nhau này. Ví dụ, việc sử dụng AI trong chăm sóc sức khỏe sẽ gây ra các vấn đề đạo đức cũng như pháp lý phức tạp cần được giải quyết và phải căn cứ vào các luật chăm sóc sức khỏe riêng biệt. Do đó, một Đạo luật AI chung sẽ không đủ.

Việc quản lý ứng dụng AI một cách đa dạng trong nhiều lĩnh vực không phải là nhiệm vụ dễ dàng và vẫn còn một chặng đường dài trước khi tất cả các quốc gia đều ban hành các điều luật toàn diện và có thể thực thi được.

Thế Nam (Theo “The Conversation”)
.
.