Công nghệ trí tuệ nhân tạo (AI) có đe dọa sinh tồn của loài người hay không ngày càng được chú ý. Bộ Ngoại giao Mỹ đã ủy quyền cho một tổ chức nghiên cứu khảo sát hơn 200 người gồm lãnh đạo cấp cao về AI, nhân viên an ninh quốc gia và chuyên gia, họ lo ngại các hệ thống AI tiên tiến trong trường hợp xấu nhất có thể gây nguy cơ hủy diệt loài người…

robot
(Ảnh minh họa: Blue Planet Studio/Shutterstock)

Bộ Ngoại giao Mỹ ủy quyền cho công ty tư vấn rủi ro bảo mật Gladstone AI điều tra tình hình này. Theo đó trong thời gian hơn một năm, công ty Gladstone AI đã phỏng vấn hơn 200 người bao gồm lãnh đạo cấp cao về AI, nhà nghiên cứu an ninh mạng, chuyên gia vũ khí hủy diệt hàng loạt và quan chức an ninh quốc gia.

Gladstone AI đã công bố báo cáo trong tuần này.

Báo cáo đề cập, dù tất cả các phòng thí nghiệm AI đang nỗ lực trong vòng 10 năm xây dựng được AI tổng hợp (AGI, có trí thông minh giống con người và có khả năng tự học), nhưng công nghệ mang tính cách mạng này tiềm ẩn những hậu quả sâu rộng đối với quản trị dân chủ và an ninh toàn cầu.

Báo cáo cho biết ngày càng có nhiều bằng chứng, bao gồm các nghiên cứu và phân tích thực nghiệm được công bố tại các hội nghị AI hàng đầu thế giới, cho thấy AI có thể trở nên không thể kiểm soát được nếu vượt một ngưỡng nhất định nào đó về khả năng tự chủ. Lo ngại nhất vấn đề hệ thống AI tiên tiến nhất có thể được vũ khí hóa, gây ra thiệt hại mà loài người không thể kiểm soát.

Thứ hai, nội bộ hoạt động thí nghiệm AI cũng có những lo ngại khi AI phát triển đến một mức độ nhất định các nhà phát triển sẽ “mất quyền kiểm soát” đối với hệ thống mà họ phát triển, điều này có thể gây ra “hậu quả tàn khốc” đối với an ninh toàn cầu.

Tiềm ẩn thảm họa tàn khốc của AGI

Trước phát triển nhanh chóng của công nghệ AGI, năng lực quản lý đến nay không thể theo kịp tốc độ phát triển, các nhà quản lý và nhân viên cấp cao của phòng thí nghiệm đã công khai thừa nhận sự tồn tại của những mối nguy hiểm này, nhưng áp lực cạnh tranh khiến các phòng thí nghiệm vẫn “hy sinh an toàn” để đầu tư vào tăng cường khả năng AI.

Báo cáo cảnh báo rằng điều này sẽ làm tăng khả năng các hệ thống AI tiên tiến nhất có thể bị “đánh cắp”“vũ khí hóa” để chống lại Mỹ. Ví dụ robot được trang bị vũ khí, máy bay không người lái…, hay như khoa học vật liệu và sinh học được vũ khí hóa có nguy cơ kích động chạy đua vũ trang, khiến xung đột trong trường hợp đó ở quy mô hủy diệt hàng loạt.

Các thảm họa khác bao gồm các chiến dịch thông tin sai lệch “quy mô lớn” do AI thúc đẩy – vấn đề có thể gây bất ổn cho xã hội và làm xói mòn niềm tin vào các tổ chức. Yếu tố chính tiềm ẩn thảm họa mất kiểm soát này là AGI.

Hiện nay AGI vẫn đang trong giai đoạn lý thuyết, mục tiêu là xây dựng để như con người về trí thông minh và có khả năng tự học, có thể học giữa các nhiệm vụ và thích ứng với các nhiệm vụ và môi trường mới mà không cần lập trình. Các công ty bao gồm OpenAI, Google DeepMind, Anthropic và Nvidia đã công khai tuyên bố rằng AGI có thể thành hiện thực vào năm 2028.

Cần phải can thiệp khẩn cấp

Các tác giả viết trong báo cáo: “Chính phủ Mỹ cần hành động can thiệp khẩn cấp”. Báo cáo đồng thời kêu gọi thực hiện các biện pháp mới quan trọng để đối phó với mối đe dọa, bao gồm xây dựng các biện pháp pháp lý “khẩn cấp” để bảo vệ loài người và hạn chế sức mạnh máy tính có thể được sử dụng để đào tạo các mô hình AI.

Báo cáo khuyến nghị thiết lập ngưỡng nhất định được phép đào tạo các hệ thống AI tiên tiến, giới hạn phạm vi cạnh tranh giữa các nhà phát triển AI và kiểm soát khả năng xây dựng phần cứng của ngành công nghiệp chip. Một khi các mô hình AI tiên tiến chứng minh được đầy đủ về an toàn thì cơ quan trách kiểm soát AI có thể nâng cao tiêu chuẩn; nếu phát hiện thấy các tính năng nguy hiểm trong các mẫu hiện có, chính phủ có thể hạ thấp ngưỡng an toàn.

Nhưng đề xuất này có thể gặp khó khăn về mặt chính trị.

Chính sách AI hiện tại của chính phủ Mỹ là đặt ra ngưỡng tính toán, trên ngưỡng này sẽ áp dụng các yêu cầu giám sát và quản lý bổ sung, nhưng không có hạn chế hoặc xem là bất hợp pháp. Được biết tổ chức tư vấn của Chính phủ Mỹ là Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS) cho biết, rất khó có khả năng chính phủ Mỹ sẽ áp dụng đề xuất này.

Khảo sát tại Hội nghị CEO của Đại học Yale

Ngày càng có nhiều chuyên gia cảnh báo sự phát triển nhanh chóng của AI có thể đe dọa sự sống còn của loài người.

Người được mệnh danh “bố già AI” là Geoffrey Hinton đã từ chức tại Google vào tháng 4 năm ngoái. Trong một cuộc phỏng vấn vào thời điểm đó, ông thừa nhận rằng AI đang phát triển nhanh hơn nhiều so với dự kiến, có 10% khả năng phát triển trong 30 năm tới dẫn đến nguy cơ sinh tồn của loài người.

Tháng 6 năm ngoái, Hinton đã cùng hàng chục nhà lãnh đạo, học giả trong ngành AI ký một tuyên bố chung, theo đó kêu gọi phải có biện pháp giảm thiểu nguy cơ AI hủy diệt loài người – vấn đề này phải trở thành “ưu tiên toàn cầu”.

Nhiều nhà lãnh đạo doanh nghiệp đã đầu tư hàng tỷ USD vào AI cũng chia sẻ lo lắng. Năm ngoái, 42% CEO được khảo sát tại Hội nghị thượng đỉnh CEO Đại học Yale (Yale CEO Summit) thừa nhận: 5 – 10 năm nữa AI có thể tiềm ẩn khả năng hủy diệt loài người.

Gladstone AI cũng phỏng vấn những người trong nhóm lãnh đạo và công nghệ của OpenAI (sở hữu ChatGPT), Google DeepMind, công ty mẹ Meta của Facebook và công ty Anthropic, theo đó họ cảnh báo tuy AI đã là một công nghệ mang tính cách mạng về hoạt động kinh tế, cho nên tiếp tục thu hút các nhà đầu tư và công chúng, nhưng cũng có vấn đề nguy hiểm.

Báo cáo đề cập về một nhân viên phòng thí nghiệm AI nổi tiếng cho biết, sẽ rất nguy hiểm nếu thế hệ mô hình AI tiếp theo được phát hành dưới dạng truy cập mở, những mô hình này có thể được sử dụng cho các lĩnh vực khác như can thiệp vào bầu cử, thao túng cử tri, tiềm ẩn hiểm họa đối với nền dân chủ…