Trí tuệ nhân tạo (AI) đã phát triển khả năng suy luận thô sơ, đó là nguy cơ tiềm ẩn khả năng AI tìm cách thoát khỏi kiểm soát của con người, một nhân vật hàng đầu trong lĩnh vực phát triển AI cảnh báo.

Geoffrey Hinton
Nhà tâm lý học nhận thức và nhà khoa học máy tính, được mệnh danh là “cha đẻ của AI”, ông Geoffrey Hinton. (Ảnh: Chụp màn hình video)

Giáo sư Geoffrey Hinton về khoa học máy tính tại Đại học Toronto (Canada) cho biết, các hệ thống AI có thể phát triển mong muốn giành quyền kiểm soát từ con người như một cách để chúng đạt được các mục tiêu được lập trình sẵn khác.

Phát biểu tại Hội nghị công nghệ Collision ở Toronto ngày 28/6, giáo sư Hinton nói: “Tôi nghĩ chúng ta phải nghiêm túc xem xét khả năng nếu AI trở nên thông minh hơn chúng ta (rất có khả năng xảy ra) và có được khả năng theo đuổi mục tiêu (rất có khả năng xảy ra), AI có thể phát triển khả năng để giành quyền kiểm soát”; “Nếu điều đó xảy ra, chúng ta sẽ gặp rắc rối”.

Hinton được biết đến như một trong những “cha đẻ của AI” nhờ công trình của ông về mạng lưới thần kinh. Gần đây ông đã dành một thập niên để giúp Google phát triển hệ thống AI, nhưng đã rời công ty vào tháng trước vì muốn cảnh báo mọi người về những rủi ro do AI gây ra.

Mặc dù Hinton không nghĩ rằng AI có bẩm sinh khát vọng quyền lực, nhưng ông cho rằng nó vẫn có thể tìm cách giành lấy quyền lực từ con người, điều đó có cơ sở logic hợp lý vì chúng muốn đạt được mục tiêu tốt hơn.

Ông Hinton hỏi: “Nhìn chung, nếu có thứ gì đó thông minh hơn con người rất nhiều, rất giỏi trong việc thao túng và phát triển đến mức phổ biến, thì chúng ta có tự tin sẽ nắm quyền kiểm soát được không?”; “Tôi nghĩ rằng chúng sẽ hình thành (động cơ giành quyền kiểm soát) như một cách để đạt được các mục tiêu khác”.

AI bây giờ có khả năng suy luận

Hinton từng nghi ngờ trong 30 – 50 năm tới sẽ có siêu AI (AI superintelligence) sánh ngang với con người, hiện giờ ông nghĩ rằng khả năng đó có thể xuất hiện trong vòng chưa đầy 20 năm.

Ông chỉ ra một phần lý do là các hệ thống AI sử dụng các mô hình ngôn ngữ lớn đang bắt đầu thể hiện khả năng suy luận, điều mà ông chưa hiểu rõ làm cách nào chúng có được khả năng đó.

Ông nói, “Chúng vẫn chưa thể sánh được với chúng ta, nhưng đang ở rất gần”.

Hinton đã mô tả một hệ thống AI lên kế hoạch sơn một số phòng trong một ngôi nhà. Nó có 3 màu để lựa chọn, trong đó một màu mờ dần theo thời gian và biến thành màu kia. Nó được yêu cầu sơn một số phòng nhất định bằng một màu cụ thể trong một khoảng thời gian nhất định, kết quả là AI không chỉ chọn màu sơn các phòng theo quy định, nó còn biết quyết định không sơn những phòng mà nó biết cuối cùng sẽ phai màu thành màu mong muốn để có thể tiết kiệm được tài nguyên, mặc dù nó không được lập trình để làm như vậy.

Vì vậy ông Hinton nói: “Nó biết suy nghĩ”. Ông cảnh báo không có lý do gì để nghi ngờ trong vài năm tới AI sẽ sánh được, hoặc thậm chí vượt xa trí thông minh của con người. “Chúng ta chính là một mạng lưới thần kinh lớn, cho nên không có lý do gì để phủ nhận rằng mạng lưới thần kinh nhân tạo có thể làm mọi thứ chúng ta có thể làm”, ông Hinton lưu ý. “Chúng ta đang bước vào một thời kỳ vô cùng bất ổn, không ai thực sự biết điều gì sẽ xảy ra”.

Robot chiến tranh sẽ làm thế giới bất ổn

AI thậm chí có thể không cần phải siêu thông minh để gây rủi ro cho sự tồn tại của con người. Hinton cho biết quân đội trên khắp thế giới đang chế tạo các robot thông minh nhân tạo để ứng phó trong chiến tranh, loại robot này có thể tìm cách kiểm soát để hoàn thành các nhiệm vụ mà chúng được lập trình, hoặc tìm cách phá vỡ trật tự chính trị bằng cách kích động xung đột.

Ông cảnh báo: “Chúng là vũ khí có thể đạt tới khả năng tự chủ nguy hiểm, điều đó đáng để suy nghĩ. Ngay cả khi AI không phải là siêu thông minh, nhưng nếu lĩnh vực quốc phòng sử dụng nó để chế tạo robot chiến đấu thì sẽ là một điều rất đáng sợ”.

Trong số những nước tìm cách phát triển AI tiềm ẩn rủi ro nguy hiểm này, đứng đầu chính là hai cường quốc quân sự lớn nhất thế giới: Trung Quốc và Mỹ.

Trung Quốc hiện đang phát triển các hệ thống tiềm ẩn rủi ro nguy hiểm thông qua AI, đồng thời đầu tư vào các khả năng của AI liên quan đến việc ra quyết định, chỉ huy và kiểm soát quân sự. Trong khi đó, Mỹ đang chuẩn bị cho một tương lai trong đó quân đội thế giới chủ yếu là người máy, các nhà lãnh đạo hàng đầu mong đợi điều này sẽ xảy ra trong vòng 15 năm nữa.

“Chúng tôi biết họ sẽ chế tạo robot chiến đấu và họ đang nỗ lực thực hiện điều đó trong nhiều lĩnh vực quốc phòng, vì vậy (robot) không hẳn là điều tốt vì mục đích chính của chúng là giết người”, ông Hinton nói.

Hơn nữa, ông cũng cho rằng sự xuất hiện của AI [trong quân sự] với năng lực tự chủ tiềm ẩn nguy hiểm sẽ thay đổi cơ bản cấu trúc địa chính trị, giảm đáng kể chi phí về nhân lực và chính trị cho những nước có thể mua các hệ thống như vậy. Ông nhấn mạnh: “Ngay cả khi nó không siêu thông minh, không có mục đích riêng… thì nó sẽ gây ra những vấn đề chẳng hạn như giúp các nước giàu dễ dàng hơn trong xâm lược các nước nghèo… Hiện tại, vấn đề là khi xâm lược các nước nghèo có trở ngại là công dân của nước xâm lược cũng thiệt mạng trên chiến trường; nhưng sẽ thật tuyệt nếu thiệt hại đó chỉ là robot chiến đấu, ngành công nghiệp quân sự sẽ thích điều đó”.

Cuối cùng ông cho biết cộng đồng quốc tế nên khuyến khích nghiên cứu thêm về cách bảo vệ con người khỏi sự xâm hại từ AI. Tóm lại, rất nhiều công việc đang được thực hiện để cải thiện AI, nhưng việc nghiên cứu về cách để AI an toàn còn rất hạn chế. Cách tiếp cận tốt nhất là thiết lập các quy tắc quốc tế cấm và hạn chế sự phát triển của hệ thống vũ khí AI, giống như Nghị định thư Geneva đã từng đưa ra để hạn chế chiến tranh hóa học sau Thế chiến I.

Ông Hinton nói:

Những thứ như Công ước Geneva là tuyệt vời, nhưng vấn đề là luôn đến sau khi thảm họa xảy ra. Loài người phải ý thức rằng AI đang được phát triển tiềm ẩn đầy nguy hiểm cho loài người… Tôi nghĩ điều quan trọng là loài người phải hiểu đây không chỉ là khoa học giả tưởng, AI không chỉ gieo rắc nỗi sợ hãi mà còn là một rủi ro thực sự mà chúng ta cần phải suy nghĩ, chúng ta cần sớm nghĩ về cách đối phó”.

Andrew Thornebrooke, Epoch Times