Lo ngại kỷ nguyên robot sát thủ đang tới gần
Hãy thử hình dung một kịch bản: Quân đội một nước xâm lược muốn chiếm một thành phố lớn nhưng không muốn binh sĩ phải chiến đấu giáp lá cà. Thay vào đó, họ điều hàng nghìn thiết bị bay không người lái nhỏ với một mệnh lệnh đơn giản: bắn bất kỳ ai cầm vũ khí. Vài giờ sau, binh sĩ nước đó có thể vào thành phố một cách an toàn.
Kịch bản trên sẽ không còn là viễn tưởng khi con người có đa số công nghệ để thực hiện và quân đội các nước dường như rất quan tâm phát triển. Các chuyên gia lĩnh vực công nghệ quân sự và học máy (machine learning) cho biết không khó về mặt công nghệ khi muốn phát triển robot tự ra quyết định giết ai mà không cần con người can thiệp từ lúc xác định mục tiêu cho tới lúc giết mục tiêu.
Khi công nghệ nhận diện khuôn mặt và thuật toán ra quyết định ngày càng mạnh hơn thì việc đó lại càng dễ hơn. Các vũ khí sát thương tự động này phần lớn sẽ là thiết bị không người lái, chứ không phải robot có hình dáng giống người vốn khó xây dựng và di chuyển hơn.
Các nhà nghiên cứu trí tuệ nhân tạo (AI) và chính sách công đang chứng minh rằng robot sát thủ không chỉ là ý tưởng tồn tại trong phim ảnh, mà cả trong đời thực.
Chiến dịch ngăn chặn robot sát thủ muốn có hiệp ước cấm trên toàn cầu, |
Chắc chắn là có cách để dùng AI sao cho giảm thương vong dân thường và thiệt hại vật chất trong chiến tranh, nhưng những vũ khí tự động hoàn toàn đó sẽ gây ra một loạt tình thế tiến thoái lưỡng nan về mặt chiến lược, kỹ thuật và đạo đức.
Đó là lý do tại sao các nhà khoa học và nhà hoạt động kêu gọi Liên Hợp Quốc và chính phủ các nước cân nhắc cấm trước loại vũ khí này. Họ hy vọng robot sát thủ chỉ tồn tại trong khoa học viễn tưởng mà thôi.
Sản xuất robot sát thủ - Công nghệ dễ dàng
Máy bay không người lái quân sự đã được sử dụng trong những khu vực Mỹ có chiến dịch quân sự. Máy bay được con người điều khiển và con người quyết định khi nào khai hỏa. Vũ khí sát thương tự động thực ra chưa tồn tại, nhưng đã có công nghệ thay thế con người bằng một thuật toán.
Ông Stuart Russell, giáo sư khoa học máy tính tại Đại học California-Berkeley và là nhà nghiên cứu trí tuệ thông minh hàng đầu, cho biết: “Về mặt công nghệ, vũ khí tự động dễ làm hơn ô tô tự lái. Những người làm việc trong các lĩnh vực công nghệ liên quan cho rằng sản xuất một thứ vũ khí hiệu quả như vậy là tương đối dễ dàng trong chưa đầy 2 năm”.
Phiên bản đơn giản nhất của thứ vũ khí tự động như vậy sẽ dựa trên phần cứng của máy bay không người lái quân sự hiện nay. Các máy bay này truyền video về căn cứ quân sự để binh sĩ quyết định có khai hỏa vào mục tiêu không. Còn với vũ khí tự động, binh sĩ sẽ không ra quyết định mà là thuật toán.
Máy bay không người lái do thám của Hải quân Mỹ bên ngoài một căn cứ quân sự ở Afghanistan năm 2009. |
Thuật toán này có thể có một danh sách cố định gồm những người nó có thể nhắm vào và khai hỏa chỉ khi tin chắc rằng đã xác định được mục tiêu. Nó có thể được huấn luyện thông qua các video thực chiến để dự báo liệu con người có ra lệnh cho nó khai hỏa trong trường hợp đó không. Nó sẽ khai hỏa nếu nghĩ rằng câu trả lời là có. Hoặc nó có thể được huấn luyện để bắn bất kỳ ai trong vùng chiến sự mà cầm vật gì trông giống như súng hoặc bất kỳ ai không mặc đồng phục của lực lượng thân thiện.
Trong vài năm qua, AI đã phát triển vượt bậc. Công nghệ nhận diện khuôn mặt phần lớn chính xác và có thể nhận diện vật thể - hai kỹ năng sẽ rất cần thiết cho vũ khí sát thương tự động. Các kỹ thuật mới cho phép hệ thống AI làm những thứ mà chỉ cách đây vài năm là bất khả thi, ví dụ như viết truyện hay ra quyết định chiến thuật trong tập trận trực tuyến.
Điều đó có nghĩa là sản xuất vũ khí sát thương tự động từ chỗ bất khả thi đã tiến tới mức độ dễ dàng. Chúng ta đã đạt được công nghệ đó khi mà còn chưa thể thống nhất là có phát triển hay sử dụng hay không.
Tham vọng quân đội các nước
Dùng robot sát thủ có nhiều vấn đề kinh khủng về đạo đức nhưng tại sao nhiều nước vẫn muốn phát triển? Từ quan điểm quân sự, lập luận dễ nhất để bảo vệ việc sử dụng vũ khí tự động là nó mở ra một thế giới nhiều năng lực mới. Nếu như mỗi người chỉ điều khiển được một thiết bị bay không người lái một lúc thì với vũ khí tự động, có thể triển khai rất nhiều cùng một lúc.
Ngoài ra, thiết bị bay không người lái hiện nay cần truyền và nhận thông tin từ căn cứ, tạo ra độ trễ và hạn chế trong hoạt động, khiến chúng dễ bị tổn thương. Các thiết bị này trở nên vô dụng nếu bị kẻ thù cắt đứt kênh liên lạc với căn cứ. Vũ khí sát thương tự động sẽ thay đổi điều đó.
Ông Toby Walsh, giáo sư AI tại Đại học New South Wales và là nhà hoạt động phản đối phát triển vũ khí sát thương tự động nói: “Vì bạn không cần con người, bạn có thể triển khai hàng nghìn hoặc hàng triệu vũ khí tự động cho dù không có hàng nghìn hay hàng triệu người để để ý tới chúng”.
Tuy nhiên, lập luận thú vị nhất cho việc phát triển vũ khí tự động là “robot có thể có đạo đức hơn con người”. Con người nhiều khi gây tội ác chiến tranh, cố tình nhằm vào người vô tội hoặc giết người đã đầu hàng. Con người có thể mệt mỏi, căng thẳng, nhầm lẫn và gây ra sai lầm. Trái lại, robot thì tuân thủ tuyệt đối quy tắc.
Hình ảnh robot sát thủ trong phim ảnh. |
Chuyên gia quốc phòng của Lầu Năm Góc và là cựu thành viên biệt kích Ranger của Mỹ, ông Paul Scharre đã tìm hiểu về ý tưởng trên trong cuốn sách xuất bản năm 2018: “Army of None: Autonomous Weapons and the Future of War” (Quân đội của không ai cả: Vũ khí tự động và tương lai chiến tranh). Ông chỉ ra rằng vũ khí không bao giờ nổi giận và tìm cách trả thù.
Vũ khí cũng giỏi hơn con người khi phân biệt người cầm súng trường và người cầm cái cào. Tuy nhiên, ông Scharre cho rằng lập luận này cũng có lỗ hổng chết người vì thứ lúc này có thể hợp pháp và đúng đắn nhưng lúc khác lại không. Do đó, có trường hợp con người sẽ phán đoán tốt hơn máy móc vì bị ràng buộc bởi cả quy tắc đạo đức và pháp lý.
Bà Emilia Javorsky, sáng lập viên tổ chức Nhà khoa học phản đối vũ khí vô nhân đạo chỉ ra rằng, có cách tốt hơn nhiều để dùng robot ngăn chặn tội ác chiến tranh. Bà nói: “Con người và máy móc mắc sai lầm khác nhau. Nếu phối hợp với nhau, có thể tránh cả hai loại sai lầm trên”. Vì thế, con người có thể thiết kế, lập trình vũ khí sao cho chúng nắm rõ quy tắc trong chiến tranh và phản lệnh từ con người nếu lệnh đó vi phạm quy tắc. Vũ khí cũng không được có thẩm quyền giết chóc mà không có con người giám sát.
Các nhà khoa học phản đối vũ khí vô nhân đạo và các nhà nghiên cứu khác không phản đối những hệ thống như trên. Họ cho rằng lúc nào cũng cần con người hiện diện trong quá trình sử dụng các loại vũ khí sát thương tự động.
Nếu theo đuổi cách tiếp cận này, chúng ta sẽ tận dụng được điều tối ưu từ con người và máy móc: robot được lập trình tránh mắc sai lầm nhưng sự hiện diện của người sẽ đảm bảo quyết định tự động là quyết định đúng. Nhưng hiện nay, các nhà phân tích lo lắng chúng ta đang tiến tới phát triển vũ khí tự động hoàn toàn, tạo ra một thế giới mà robot giết người không cần con người can thiệp.
Hậu quả
Vũ khí tự động hoàn toàn sẽ làm cho việc giết chóc trở nên dễ dàng hơn và ít tốn kém hơn. Nếu rơi vào tay kẻ xấu, sẽ có vấn đề nghiêm trọng. Những người phản đối thậm chí còn cho rằng hậu quả sẽ nghiêm trọng hơn thế nhiều.
Nếu ta tiếp tục phát triển vũ khí sát thương tự động, cuối cùng loại vũ khí này sẽ vô cùng rẻ tiền. Ngày nay, những người có thú vui chơi máy bay không người lái cũng có thể tự mua hoặc tự làm với giá tương đối rẻ. Giá sẽ còn rẻ nữa khi công nghệ phát triển.
Nếu Mỹ dùng máy bay không người lái trên chiến trường, sẽ có nhiều chiếc bị thu giữ hoặc săn lùng. Từ đó, kẻ thù sẽ có thể nghiên cứu tạo ra những vũ khí hủy diệt hàng loạt rẻ tiền, phổ biến để dùng chống lại Mỹ.
Hiện nay, AI và machine learning ở Mỹ là tốt nhất thế giới, có nghĩa là quân đội Mỹ bất đắc dĩ phải cam kết rằng sẽ không tận dụng lợi thế đó trên chiến trường. Lập luận này mở ra những kịch bản đáng sợ nhất với AI. Nhiều nhà nghiên cứu cho rằng hệ thống AI tân tiến có thể tiềm ẩn nguy cơ khổng lồ gây ra sai lầm thảm họa nếu rơi vào bàn tay kẻ xấu, thảm họa tới mức con người không thể sửa chữa được và có thể xóa sổ chúng ta.
Để tránh điều đó, quá trình phát triển AI cần phải mang tính mở, hợp tác và cẩn trọng. Các nhà nghiên cứu không được bí mật nghiên cứu các dự án AI quan trọng vì không ai có thể chỉ ra sai lầm của họ. Nếu hợp tác và chia sẻ nghiên cứu AI, chúng ta có thể phát hiện và sửa chữa sai lầm nghiêm trọng trong các thiết kế AI tân tiến.
Điều quan trọng nhất, các nhà nghiên cứu AI không được vội vã. Thế giới phải tìm cách ngăn chặn chạy đua phát triển AI. Nếu Mỹ dựa quá nhiều vào lợi thế AI trong chiến tranh, các nước khác chắc chắn sẽ tăng gấp đôi nỗ lực phát triển AI quân sự. Trong bối cảnh đó, những sai lầm liên quan tới AI sẽ dễ xảy ra nhất và chết người nhất.
Có cấm được robot sát thủ?
Các nhà nghiên cứu tỏ ra lạc quan vì thế giới có thể chống lại việc phát triển robot sát thủ nếu như quyết tâm, tương tự như lệnh cấm một loại công nghệ đã khá thành công: vũ khí sinh học. Lệnh cấm vũ khí sinh học được thực thi năm 1972 trong bối cảnh có nhiều tiến bộ trong nghiên cứu vũ khí sinh học và con người ngày càng nhận thức được rủi ro của chiến tranh sinh học.
Những người phản đối vũ khí sát thương tự động đang tìm cách khiến robot sát thủ cũng có số phận tương tự vũ khí sinh học. Giáo sư Stuart Russell tập trung vào luận điểm: Con người đã chật vật suốt hơn 70 năm qua để hạn chế vũ khí hạt nhân và ngăn chúng rơi vào tay kẻ xấu. Khi được sản xuất hàng loạt, vũ khí sát thương tự động sẽ gây chết chóc tương tự và phổ biến chúng thậm chí còn rẻ hơn và dễ hơn vũ khí hạt nhân, đi ngược lại lợi ích an ninh quốc gia của các nước.
Tuy nhiên, Liên Hợp Quốc còn chưa đồng ý thảo luận về một hiệp ước vũ khí sát thương tự động. Có hai nhân tố chính cản trở. Thứ nhất, tiến trình của Liên Hợp Quốc trong xây dựng hiệp ước quốc tế thường rất chậm và phải thảo luận rất nhiều, trong khi công nghệ thì thay đổi nhanh chóng tới mức có thể thay đổi tình hình chiến thuật liên quan tới vũ khí sát thương tự động mà tiến trình nói trên sẽ sớm lạc hậu. Thứ hai và có lẽ quan trọng hơn, hiệp ước sẽ bị một số người phản đối mạnh.
Mỹ (cùng Israel, Hàn Quốc, Anh và Australia) phản đối nỗ lực xây dựng một hiệp ước của Liên Hợp Quốc để phản đối vũ khí sát thương tự động. Lý do Mỹ đưa ra là loại vũ khí này trong một số trường hợp có thể mang lại lợi ích nhân đạo, nên một lệnh cấm sẽ là quá sớm nếu chưa tìm hiểu hết những lợi ích này. Quan điểm hiện nay của Bộ Quốc phòng Mỹ là sẽ cần con người giám sát hệ thống AI.
Dù vậy, những người phản đối vẫn cho rằng cần có hiệp ước cấm càng sớm càng tốt trước khi loại vũ khí này rơi vào tay những nhân tố phi nhà nước và việc cấm sẽ dễ hơn khi mà chưa ai sở hữu chúng.