Những hậu quả của siêu trí tuệ

Thứ Ba, 24/05/2022, 21:29

Tôi (tác giả bài viết này, nhà nghiên cứu về Thuyết vị lai, ông George Dvorsky) tin tưởng rằng trí tuệ máy móc sẽ là bước hoàn tác cuối cùng của nhân loại. Khả năng xóa sổ nhân loại của nó là thứ mà tôi đã nghĩ và liên tục viết trong suốt 20 năm qua.

Tôi rất lo lắng cho điều này, và viễn cảnh nền văn minh nhân loại bị diệt vong bởi chính các công cụ từ trí tuệ máy là thứ không thể xem thường được. Cũng có ý kiến phản đối cho rằng siêu trí tuệ nhân tạo (ASI) không thể hủy diệt loài người chúng ta, nhưng tôi thấy rằng thật nực cười. Ý kiến phản đối ngây thơ này cho rằng một chiếc máy tính siêu thông minh cũng không thể nào nghĩ ra động cơ hoặc kích động để kết liễu con người.

52-1.jpg -0
Trong một tương lai không xa, siêu trí tuệ nhân tạo (ASI) có khả năng hiểu biết vượt xa người bình thường. Ảnh: Fronty

Mất kiểm soát và hiểu biết

Quý vị hãy tưởng tượng đến các hệ thống dù là sinh học hay nhân tạo cũng có các mức độ thông minh bằng hoặc vượt xa trí tuệ con người. Bộ não con người được tăng cường triệt để (hoặc thậm chí não động vật phi con người) có thể đạt được thông minh thông qua sự hội tụ kỹ thuật di truyền, công nghệ nano, công nghệ thông tin (IT) và khoa học nhận thức, trong khi đó trí tuệ máy vượt trội con người đã xuất hiện thông qua những tiến bộ trong khoa học vi tính, khoa học nhận thức và mô phỏng toàn bộ não bộ. Và bây giờ hãy tưởng tượng đến kịch bản nếu một trong số những hệ thống này bị sự cố hoặc chúng cố tình được sử dụng làm vũ khí? Bà Susan Schneider (Giám đốc Trung tâm trí tuệ tương lai, và là tác giả cuốn sách “Trí tuệ nhân tạo: AI và Tương lai trí tuệ”) đã giải thích trong một thư điện tử: “Đó là thứ được gọi là “vấn đề kiểm soát”. Hiểu nôm na là làm thế nào để kiểm soát trí tuệ nhân tạo (AI) khôn hơn chúng ta rất nhiều”.

Làm một phép so sánh, bà Susan Schneider đã chỉ ra kịch bản cái kẹp giấy nổi tiếng, trong đó nhà sản xuất cái kẹp giấy sở hữu AI được lập trình nhằm tối ưu hóa hiệu quả sản xuất kẹp giấy. Đổi lại, nó quay ra hủy diệt hành tinh bằng cách biến mọi thứ trên trái đất thành…kẹp giấy, một phạm trù rủi ro mà triết gia Nick Bostrom của Đại học Oxford gọi là “sự giả tạo sai lầm” trong cuốn sách xuất bản năm 2014 của ông mang tựa đề “Siêu thông minh: Những con đường, hiểm họa, các chiến lược”. Hoặc hiểu đơn giản hơn thì nó là thần đèn trong chuyện cổ tích với 3 điều ước “đừng tham lam quá mức”. Mối bận tâm chung ở đây là chúng ta sẽ yêu cầu ASI làm việc gì đó mà bản thân mình không biết chi tiết về nó, hoặc ASI sẽ hiểu sai lời ước của chúng ta và vì thế sẽ cho ra kết quả không thể dự tính trước được. Ví dụ, khi yêu cầu ASI khai thác điện mặt trời, vô tình khiến siêu trí tuệ khai thác toàn bộ tài nguyên trên trái đất để cấu trúc nên một mảng mặt trời khổng lồ.

Những hậu quả của siêu trí tuệ -0
Ông Manuel Alfonseca, một nhà khoa học máy tính tại Đại học Tự động hóa Madrid (UAM). Ảnh: ResearchGate

Triết gia Nick Bostrom phỏng đoán: một khi ASI xuất hiện, sự diệt vong sẽ diễn ra theo những cách khá kỳ lạ và hoàn toàn bất ngờ. Ông Eliezer Yudkowsky, một nhà lý thuyết AI tại Viện máy về trí tuệ nhân tạo (MIAI) trong bài luận của mình mang tựa đề “AI, một nhân tố tích cực và tiêu cực trong rủi ro toàn cầu” đã viết rằng: “ASI là những quy trình tối ưu hóa, hoặc một hệ thống tấn công các mục tiêu nhỏ trong những không gian nghiên cứu lớn nhằm tạo ra những hiệu ứng nhất quán trong thế giới thực”. Nan giải ở đây là những quy trình này có khả năng khám phá những không gian rộng hơn, mà nhiều khả năng trong số đó chúng ta lại không thể tưởng tượng được. Bị tách biệt khỏi bối cảnh nhân loại và được thúc đẩy bởi lập trình dựa trên mục tiêu của nó, một cỗ máy có thể gây ra thiệt hại đáng kể khi cố gắng đi từ A đến B. Trớ trêu thay khi AI cũng có thể dùng và lạm dụng nguồn lực đã có sẵn chính là con người khi cố gắng đạt mục tiêu của nó, và theo các cách mà chúng ta không thể dự báo trước được.

Những biến hóa khó lường của siêu trí tuệ 

Một AI được lập trình với những cân nhắc về đạo đức trước có thể tránh được một số cạm bẫy nhất định, nhưng ông Eliezer Yudkowsky chỉ ra rằng: “Thật khó để dự báo mọi phương cách một khi AI đi theo”. Có một giải pháp khả thi trong việc kiểm soát ASI là phải cho nó thấm nhuần những quy tắc đạo đức tương thích với con người. Nếu chúng ta có thể làm được điều này, một cỗ máy mạnh mẽ sẽ không gây hại hoặc hoạt động vi phạm đạo đức của con người. Thực tế là nhân loại chưa khi nào nghĩ ra được một quy tắc đạo đức để mọi người cùng đồng thuận. Và vì không có quy tắc đạo đức chung nên viễn cảnh dạy đạo đức cho ASI có lẽ sẽ không hiệu quả. Ông Roman Yampolsky, giáo sư về công nghệ và khoa học máy tính tại Đại học Louisville (Kentucky, Mỹ) lý giải: “Nếu con người có thể dự đoán ASI sẽ làm gì thì chúng ta cũng thông minh ngang ngửa máy."

Siêu trí tuệ dần dần sẽ có quyền lực và ảnh hưởng lớn hơn thông qua việc mua của cải, sức mạnh CPU, khả năng lưu trữ và phạm vi tiếp cận. Ông Manuel Alfonseca, một nhà khoa học máy tính tại Đại học Tự động hóa Madrid (UAM) đã giải thích về những thách thức kinh hoàng hơn khi siêu trí tuệ có thể đưa ra những phán quyết nằm ngoài yêu cầu của con người. Ông Alfonseca nói: “Một ASI có thể đưa ra kết luận rằng “thế giới sẽ tốt đẹp hơn nếu không có con người và tự động xóa sổ chúng ta”, một số người viện dẫn khả năng nghiệt ngã này để giải thích sự thất bại của con người trong việc định vị trí tuệ ngoài trái đất. Tất cả chúng ta sẽ bị thay thế bởi một AI siêu thông minh và chúng chả cần quan tâm tới ai đó đang liên hệ với loài người, một dạng sự sống thấp hơn”. Đối với một ASI nhắm ý đồ hủy diệt nhân loại thì việc khai thác những điểm yếu sinh học của chúng ta đã thể hiện cho một con đường thành công đơn giản nhất. Con người có thể tồn tại trong khoảng 30 ngày không cần ăn, và nhịn nước từ 3 đến 4 tiếng, nhưng chỉ mất oxy vài phút là đã chết.

Một cỗ máy có đủ trí thông minh sẽ tìm cách hủy sạch ô xy trong bầu khí quyển của chúng ta, và nó có thể làm việc đó trong một dạng thức bầy đàn công nghệ nano tự tái tạo. Trong một kịch bản như vậy, các hạm đội máy phân tử được thiết kế có chủ đích sẽ tìm những nguồn lực cụ thể và biến chúng thành một thứ khác bao gồm các bản sao của chính chúng. Nguồn tài nguyên này không nhất thiết phải là ô xy, chỉ là việc loại bỏ một nguồn tài nguyên quan trọng đối với sự sống của con người.

Sự tiếp quản thế giới của trí tuệ nhân tạo 

Tất cả những điều này nghe có vẻ giống khoa học viễn tưởng, nhưng khoa học gia Manuel Alfonseca quả quyết tiểu thuyết đầu cơ có thể làm nổi bật cho những rủi ro tiềm ẩn. Bà Susan Schneider cũng tin vào sức mạnh của những câu chuyện hư cấu. Bà Susan Schneider cho biết: “Mối bận tâm về sự nguy hiểm của AI cùng đà gia tăng những cỗ máy giết người tự động như thiết bị bay không người lái (drone) có thể lấy từ phần mềm nhận dạng khuôn mặt hiện có nhằm nhắm mục tiêu vào ai đó”. Nhà nghiên cứu máy học MIT, Max Tegmark, trong cuốn sách phát hành vào năm 2017 mang tựa đề “Cuộc sống 3.0: Làm người trong thời đại trí tuệ nhân tạo” đã hình dung ra những kịch bản tinh vi hơn, thâm hiểm hơn trong đó trí tuệ máy đã chiếm lĩnh thế giới thông qua thông qua các kỹ thuật xã hội tinh ranh cùng việc thu nhập ổn định các nguồn tài nguyên hiện có.

Những hậu quả của siêu trí tuệ -0
Nhà nghiên cứu máy học MIT, Max Tegmark, tiên đoán: “Nếu nhân loại thất bại trong việc kiểm soát sự bùng nổ trí tuệ thì bản thân AI có thể tiếp quản thế giới nhanh hơn”. Ảnh nguồn: Talaforum

Trong cuốn sách của mình, tác giả Tegmark mô tả về Prometheus, một kiểu ASI giả định đã dùng trí tuệ thích ứng và tính linh hoạt của nó để “kiểm soát toàn diện con người” và những người chống lại vì “không tải Prometheus để dùng”. Về bản chất, sự ra đời của trí tuệ máy nói chung chắc chắn sẽ rất hoành tráng và là một bước ngoặt trong lịch sử nhân loại. Nhà nghiên cứu Tegmark viết: “Một AI nói chung sẽ có đủ khả năng để thiết kế ASI giả định tốt hơn khi việc đó chỉ bị giới hạn bởi các định luật vật lý, mà dường như cho phép trí thông minh vượt xa mức con người. Nói cách khác, một AI nói chung có thể dùng để tạo ra siêu trí tuệ. Trong thời đại tương ứng, chúng ta đang chứng kiến cái gọi là “sự bùng nổ trí tuệ” và có thể dẫn đến một số kết quả không mong muốn. Nhà nghiên cứu Tegmark viết: “Nếu một nhóm người quản lý để kiểm soát sự bùng nổ trí tuệ thì có họ có thể chế ngự cả thế giới trong nhiều năm. Nếu nhân loại thất bại trong việc kiểm soát sự bùng nổ trí tuệ thì bản thân AI có thể tiếp quản thế giới nhanh hơn”.

Nỗi lo vũ trang ai trong quân sự

Những thuật toán hiện đang chịu trách nhiệm về tỷ trọng khối lượng giao dịch cổ phiếu, và có lẽ khét tiếng hơn là chúng đủ khả năng để đánh bại các phi công lái chiến cơ F-16 trong các hoạt động không chiến. Càng ngày AI càng được yêu cầu đưa ra những quyết định lớn mà không cần sự can thiệp của con người. Bà Susan Schneider lo rằng “đang có một cuộc chạy đua vũ trang AI trong quân sự” và rằng “sự gia tăng lệ thuộc ngày càng nhiều vào AI sẽ làm thui chột các khả năng nhận thức của con người khi không thể phản ứng với những thách thức quân sự theo một cách thức đủ nhanh”. Bà Susan Schneider giải thích: “Chúng ta sẽ yêu cầu AI làm việc đó cho mình nhưng lại không rõ chúng ta có thể giữ con người trong vòng an toàn hay không. Có thể tưởng tượng rằng cuối cùng AI sẽ phản ứng nhằm thay mặt con người khi đương đầu với những cuộc tấn công quân sự trước khi các dữ liệu tình báo kịp đến tay người nhận”.

Con người dễ mắc sai lầm nhất là trên chiến trường, nhưng những tính toán sai lầm hoặc đánh giá sai của AI có thể lại tạo ra một lớp rủi ro bổ sung. Một sự cố có từ năm 1983 cho thấy hệ thống cảnh báo sớm của Liên Xô suýt nữa đi đến chiến tranh hạt nhân. Chúng ta có rất ít sự lựa chọn, tuy nhiên cần phải thử. Triết gia đại học Oxford, Nick Bostrom, quả quyết: “Trí tuệ của chúng ta phải đi trước công nghệ”, và ông Bostrom đã đặt ra cụm từ mới “Triết học hạn chót”. Những gì đang bị đe dọa là một loạt các thảm họa tiềm tàng trên hành tinh thậm chí trước cả khi có ASI. Và rõ ràng con người chúng ta rất kém cỏi trong các thảm họa toàn cầu, điều đó là hiển nhiên. Có rất ít sự hiểu biết tốt về SARS-CoV-2 và các biến thể rắc rối của nó, nhưng con virus này đã hoạt động rất thụ động bằng cách khai thác các lỗ hổng của con người, cho dù lổ hổng đó là về bản chất sinh học hay xã hội.

Con virus đã gây nên đại dịch COVID-19 có thể thích ứng với các biện pháp đối phó của chúng ta, nhưng chỉ thông qua các quá trình đột biến và chọn lọc ngẫu nhiên, nó luôn bị ràng buộc bởi những ràng buộc sinh học. Đáng lo hơn khi một AI hắc ám có thể tự thiết kế ra loại “virus có chỉ số IQ thấp” và liên tục điều chỉnh nó nhằm tạo ra những biến thể mới gây chết người nhiều hơn nhằm đáp trả các biện pháp đối phó của con người. Chỉ còn cách duy nhất là ra lệnh cấm toàn cầu sự phát triển của AI gần siêu thông minh, tuy rằng khó nhưng mà rất cần thiết.

Văn Chương (Tổng hợp)
.
.