Khi hộp Pandora mở ra với công nghệ quân sự…

Thứ Ba, 13/11/2018, 06:46
Những ưu thế nổi trội về công nghệ đang khiến trí tuệ nhân tạo (AI) ngày càng được nhiều nước nghiên cứu để áp dụng trong lĩnh vực quân sự, kích hoạt một cuộc đua AI trong lĩnh vực này. Tuy nhiên, những tranh cãi về nguy cơ của việc sử dụng AI trong quân sự vẫn chưa có hồi kết.


Cuộc đua AI

Cuộc chạy đua trong lĩnh vực vũ khí tự hành và trí tuệ nhân tạo (AI) trong lĩnh vực quân sự đã bắt đầu. Đây là một trong những nhận định của giới chuyên gia về AI tại một hội nghị về lĩnh vực này diễn ra tại Bắc Kinh hồi đầu tháng 9 vừa qua.

Cách đây không lâu, Cơ quan Chỉ đạo các Dự án Nghiên cứu Quốc phòng Tiên tiến thuộc Bộ Quốc phòng Mỹ cam kết đầu tư "khủng" cho AI ứng dụng trong vũ khí Mỹ, với khoản chi 2 tỷ USD trong vòng 5 năm tới trong nỗ lực nhằm biến hệ thống vũ khí AI trở nên đáng tin cậy hơn và được giới chỉ huy quân sự chấp nhận hơn. Ê-kíp "cầm cân nảy mực" về kỹ thuật của Tổng thống Trump đều ủng hộ điều này, coi đây là cách thức cạnh tranh hiệu quả hơn với các lực lượng quân sự của Nga và Trung Quốc.

Năm 2017, Trung Quốc tuyên bố đến năm 2030 sẽ trở thành "trung tâm sáng tạo AI chính của thế giới" đồng thời ấp ủ kế hoạch "soán ngôi" Mỹ trong lĩnh vực này. Đến thời điểm đó, Trung Quốc dự báo công nghiệp AI của nước này có thể trị giá 150 tỷ USD. Trung Quốc muốn áp dụng AI trong các lĩnh vực an ninh quan trọng như lĩnh vực chiến đấu với trọng tâm đặc biệt dành cho chiến tranh hải quân.

Ví dụ, Trung Quốc có kế hoạch phát triển tàu ngầm tự hành có khả năng di chuyển đến các vùng lãnh hải chiến lược quốc tế đến năm 2020. Nước này đã thiết lập nhiều viện nghiên cứu AI, song đáng chú ý hơn cả là một trung tâm nghiên cứu mới do Học viện Khoa học Quân sự thành lập. Trung Quốc đã trình diễn xe tăng không người lái và nhiều máy bay không người lái khác. Trước đó, tháng 8-2016, Trung Quốc tuyên bố ý định áp dụng AI và kỹ thuật tự động hóa cấp độ cao cho các tên lửa hành trình thế hệ mới của nước này.

Su-57 thế hệ thứ 6 tích hợp AI của Nga.

Hiện Nga đã bắt đầu trang bị AI cho tiêm kích Su-57, nâng khả năng của dòng máy bay hiện đại nhất hiện nay của Nga này lên gần với tính năng của máy bay không người lái thế hệ thứ 6. Hãng thông tấn RIA Novosti dẫn nguồn thạo tin ngày 24-8 cho biết, Su-57 được trang bị hệ thống điều khiển và quan sát-ngắm bắn được nâng cấp để có thể thực hiện chế độ chiến đấu tự động. Trước đó, Thứ trưởng Bộ Quốc phòng Nga Aleksey Krivoruchko thông báo, chiếc Su-57 đầu tiên dạng này sẽ được phiên chế cho Không quân Nga vào năm 2019.

Dù bị coi là "chậm chân" hơn trong cuộc đua này, Ấn Độ đã bắt đầu ứng dụng trí tuệ nhân tạo trong lĩnh vực quốc phòng, chủ yếu ở khâu hậu cần, quản lý chuỗi cung ứng, các hoạt động mạng, tình báo và do thám. Hãng tin PTI hồi tháng 5-2018 đưa tin, New Delhi đang triển khai một dự án quốc phòng đầy tham vọng, trong đó áp dụng AI để tăng cường tính sẵn sàng chiến đấu của lực lượng vũ trang nước này một cách đáng kể.

Theo đó, sẽ trang bị cho những lực lượng này như xe tăng, tàu chiến, các phương tiện bay không người lái và vũ khí tự động. Động thái trên nằm trong một sáng kiến về chính sách rộng lớn hơn để chuẩn bị cho các binh chủng lục quân, hải quân và không quân nước này trong cuộc chiến tranh thế hệ mới và trong bối cảnh Bắc Kinh đang tăng cường đầu tư vào phát triển các ứng dụng chủ chốt cho AI trong quân đội.

Hồi tháng 5, Bí thư Bộ Quốc phòng Ấn Độ Ajay Kumar khẳng định: "Đây là sự chuẩn bị của Ấn Độ cho cuộc chiến tranh thế hệ mới. Chúng tôi cần tự chuẩn bị cho cuộc chiến tranh thế hệ mới, vốn sẽ áp dụng ngày càng nhiều công nghệ và ngày càng được tự động hóa". Tuy nhiên, New Delhi vẫn còn gặp phải nhiều rào cản về công nghệ và hành lang pháp lý trong cuộc chiến không đối xứng này với Bắc Kinh.

Mặc dù Nhật Bản có Hiến pháp hòa bình và Điều 9 ngăn cấm chiến tranh nhưng nước này vẫn duy trì một lực lượng quân sự mạnh về công nghệ do lo sợ các mối đe dọa từ Trung Quốc và Triều Tiên. Tokyo đã đạt được mức thành thục về công nghệ trong các ứng dụng lưỡng dụng như robot, thiết bị không người lái và AI có thể hỗ trợ các ứng dụng quân sự. Năm 2014, Nhật Bản đầu tư 372 triệu USD trong chương trình phương tiện bay không người lái sử dụng trong quân sự.

Năm 2017, Tokyo tuyên bố chi tiêu ngân sách quốc phòng cao nhất là 51 tỷ USD và Lực lượng phòng vệ trên không của Nhật Bản tiết lộ các kế hoạch về máy bay không người lái có khả năng tấn công các mục tiêu một cách tự hành. Nhật Bản cũng đang nghiên cứu phát triển công nghệ AI trong việc giám sát và do thám tàu thuyền trên biển. Dự kiến đến năm 2021, công nghệ này sẽ được thử nghiệm trên tàu thuyền của các lực lượng phòng vệ nước này. Cơ quan Quân dụng, kỹ thuật và hậu cần Nhật Bản đã ký hợp đồng với Hitachi, đơn vị sở hữu công nghệ AI.

Không muốn bị "bỏ rơi" trong cuộc đua này, Hàn Quốc cũng dõi theo sát sao những bước phát triển AI ở Trung Quốc và Nhật Bản. Năm 2016, Seoul tuyên bố đầu tư 863 triệu USD cho nghiên cứu và phát triển AI. Đầu năm 2018, quốc gia Đông Bắc Á này công bố các kế hoạch đầu tư 2,2 nghìn tỷ Won (1,9 tỷ USD) cho nghiên cứu AI trong đó có thiết lập 6 viện nghiên cứu AI mới cho đến năm 2022.

Trong số các nước nhỏ hơn ở châu Á, Singapore có lẽ đi đầu trong nỗ lực tăng cường tiềm năng của AI. Singapore hiện đang sử dụng các công cụ tích hợp AI trong các lĩnh vực an ninh và quốc phòng nội địa và an ninh hàng hải, thông qua các phương tiện không người lái trên không, trên mặt đất và trên mặt biển. Năm 2017, nước này tuyên bố chi 45 triệu đô la Singapore (32,6 triệu USD) hàng năm để tăng cường thí nghiệm và cải tiến 2 trung tâm nghiên cứu mới thuộc Cơ quan Khoa học và Công nghệ Quốc phòng và các tổ chức thuộc phòng thí nghiệm quốc gia DSO.

Lợi bất cập hại?

Rõ ràng, AI có tiềm năng định hình lại công nghệ quốc phòng và biến khoa học viễn tưởng thành sự thật. Tuy nhiên, những thách thức mới về quốc phòng và an ninh không nên bị xem nhẹ. Những câu hỏi về vấn đề đạo đức khi sử dụng AI vẫn còn bỏ ngỏ. Thêm vào đó, vũ khí tự hành và AI cho đến nay vẫn nằm trong vùng "xám" của luật pháp quốc tế.

Ấn Độ sẽ ứng dụng AI trong quân sự.

Tại hội thảo, giới chuyên gia thừa nhận công nghệ mới trong tương lai gần sẽ được các cường quốc hạt nhân sử dụng để hiện đại hóa vũ khí chiến lược của mình. Sử dụng AI "trọng yếu" (hạn chế cho một nhiệm vụ cụ thể) để cảnh báo sớm về một vụ phóng tên lửa của đối phương, hay để đánh giá khả năng về vụ phóng tên lửa sẽ giúp cho giới chỉ huy quân sự có thêm thời gian đưa ra quyết định về đòn đáp trả và quy mô của hành động này. Công nghệ mới cũng có thể tăng độ chính xác cho vũ khí hạt nhân và tính hiệu quả của phòng thủ chống tên lửa, nâng cao bảo vệ các cơ sở hạt nhân, cung cấp các thông số trinh sát chất lượng hơn.

Đồng thời, việc một bên rút ngắn thời gian đưa ra quyết định sẽ đẩy đối phương phải tìm kiếm khả năng bố trí nhanh chóng vũ khí hạt nhân. Cuộc chạy đua kiểu này giữa các cường quốc hạt nhân tiềm ẩn nguy cơ đối với sự ổn định của thế giới, vì thời gian để đánh giá nguy cơ tấn công tên lửa và sự cần thiết phải đáp trả sẽ bị rút ngắn. Vì vậy, các nước buộc phải tự động hóa việc ra quyết định đánh trả, và kéo theo những hậu quả khôn lường. Bên cạnh đó, các quốc gia hạt nhân yếu hơn, khi cảm thấy mình dễ tổn thương, có thể sớm bị tác động để triển khai hệ thống đánh trả tự động.

Michael Horowitz, nghiên cứu AI cho Lầu Năm Góc và hiện là Giáo sư Đại học Pennsylvania cho biết: "Có rất nhiều quan ngại về mức độ an toàn của AI, về những thuật toán không thể đưa vào ứng dụng trong thực tế phức tạp, do đó, gây ra sai sót khó đoán định được". Mặc dù thừa nhận tiến bộ công nghệ sẽ giúp biến vũ khí AI thành hiện thực, song một báo cáo chiến lược của Lầu Năm Góc hồi tháng 8 thừa nhận: "Mặc dù giới chỉ huy hiểu rằng họ có thể hưởng lợi từ thông tin chính xác hơn, kịp thời hơn nhờ ứng dụng của công nghệ tự hành trong chiến đấu, nhưng họ cũng bày tỏ những quan ngại đáng kể".

Trong một nỗ lực nhằm báo động về thực trạng lạm dụng công nghệ, hãng tin AFP hồi tháng 2 dẫn lời hơn 20 chuyên gia hàng đầu thế giới cảnh báo các nhà độc tài, tội phạm và những kẻ khủng bố có thể lợi dụng AI vì những mục đích xấu. Trong một thế giới ngày càng có sự liên kết gia tăng thì một vụ tấn công mạng sử dụng công nghệ AI có thể dẫn đến khả năng xâm nhập các hệ thống kiểm soát vũ khí hạt nhân, vũ khí hóa học và sinh học.

Trong đó, báo cáo của giới chuyên gia này đã cảnh báo sự nguy hiểm của việc gia tăng sử dụng máy bay không người lái và robot để tấn công các phương tiện ở khu vực tự trị, cung cấp vũ khí hoặc đe dọa các cơ sở hạ tầng quan trọng để đòi tiền chuộc.

AFP dẫn lời Giám đốc điều hành của Trung tâm Cambridge nghiên cứu về nguy cơ hiện hữu, ông Sean O hEigeartaigh nhấn mạnh: "AI có thể đặt ra các mối đe dọa mới, hoặc thay đổi bản chất của các mối đe dọa hiện tại, thông qua an ninh mạng và chính trị". Ông Sean O hEigeartaigh lưu ý: "Việc sử dụng AI, có thể giúp thực hiện các mưu đồ lừa đảo ở quy mô lớn bằng cách tự động hóa rất nhiều tiến trình" và khiến cho hành vi này khó bị phát hiện hơn.

Bất chấp sự phát triển nhanh chóng của công nghệ AI, câu chuyện về chiếc "hộp đen" khi các thuật toán ra quyết định được giữ kín đối với các nhà chế tạo, vẫn là vấn đề thời sự. Như vậy trước khi trao gửi các quyết định liên quan đến vũ khí hủy diệt vào "tay" AI cần phải nâng cao tính minh bạch của nó.

Tuy nhiên, ở đây không thể không nảy sinh xung đột giữa việc kết hợp tính minh bạch của công nghệ máy học với việc bảo vệ nó trước kẻ thù. Trong trường hợp đối đầu, các hệ thống AI có thể bị xâm nhập hoặc phá hủy bởi mã độc hoặc vi-rút. Do đó, một hệ thống AI không được kiểm soát có thể dẫn đến hậu quả là sát hại người vô tội. Bên cạnh đó, vì sự cùng tồn tại của hệ thống có sự tham gia của con người và hệ thống hoàn toàn tự vận hành, thật khó để xác định ai chịu trách nhiệm cho những sai lầm.

Ví dụ, người chịu trách nhiệm gây ra thảm họa nhân đạo do máy bay không người lái có thể là phi công, lập trình viên, nhân viên mua sắm, chỉ huy và nhiều người khác. Do đó, việc xác định ai gây ra sai lầm đối với hệ thống AI lại càng khó khăn hơn. Một điểm quan trọng nữa là do đặc thù công việc mà quân nhân nắm được khối lượng thông số ít hơn về máy học so với các công ty dân sự cùng lĩnh vực.

Nhận định trên trang mạng Project-Syndicate, bà Adrienne Mayor, học giả tại Trung tâm Nghiên cứu cấp cao về Khoa học Hành vi, Đại học Stanford, cho rằng, với việc máy học/AI nhanh chóng phát triển thành một công nghệ "hộp đen", chẳng mấy chốc, logic vận hành của các hệ thống ra quyết định AI sẽ trở nên không thể hiểu được không chỉ đối với người dùng mà còn đối với ngay cả những người sáng tạo ra chúng.

Trong số các mối đe dọa khác nhau, khả năng các hệ thống AI sẽ bị chiếm quyền điều khiển bởi những kẻ xấu hoặc được sử dụng bởi những kẻ khủng bố hiện ngày càng trở nên lớn hơn. Nữ chuyên gia ví von "hộp đen" này giống như chiếc hộp Pandora. "Một khi  chiếc hộp Pandora này được mở ra, nó sẽ rất khó để đóng lại".

Trong thời gian tới, khả năng thiết bị tự hành ở Đông Á cũng như ở khu vực khác của thế giới gây đụng độ có thể tăng mạnh, vì việc sử dụng thiết bị không người lái (bay và bơi ngầm) để kiểm soát biên giới đang trở thành một xu hướng. 

Ví dụ, hệ thống tuần tra tự hành biên giới trên mặt đất đang được Liên minh châu Âu tích cực phát triển. Ngay cả khi không được trang bị vũ khí, thiết bị không người lái cũng có thể trở thành nguyên nhân gây xung đột nếu bị mất kiểm soát, và chúng có thể vô tình vượt biên giới sang quốc gia khác. Chúng cũng có thể đụng độ với thiết bị tự hành của quốc gia khác. Ngoài ra, chưa rõ các thiết bị thuộc nhiều hệ thống khác nhau sẽ tương tác như thế nào khi đến gần nhau.

Hà Ngọc (tổng hợp)
.
.