Mặc dù trí tuệ nhân tạo (AI) có khả năng gây ra mối đe dọa hiện hữu đối với nhân loại, nhưng ông Elon Musk vẫn tin rằng phát triển AI lợi nhiều hơn hại và đáng để mạo hiểm.

Elon Musk 3
Ngày 15/5 tại hội nghị thượng đỉnh kinh doanh quốc tế “Select France” lần thứ 6 được tổ chức tại Cung điện Versailles ngoại ô Paris, CEO Elon Musk của Tesla họp bàn tròn với các CEO khác. (Nguồn: Ludovic Marin/AFP via Getty)

Tại hội thảo “Tranh luận về AI” trong Hội nghị thượng đỉnh Abundance360 mới đây, Musk cho biết ông đã đánh giá lại những rủi ro của công nghệ AI và tin rằng AI có khả năng hủy diệt loài người, nhưng nhìn chung lợi ích nhiều hơn sự bất lợi. Tuy nhiên, Musk không tiết lộ cách ông tiến hành đánh giá rủi ro.

“Tôi nghĩ rằng có một số khả năng nó [AI] sẽ kết thúc nhân loại. Tôi có thể đồng ý với ông Geoff Hinton rằng khả năng đó là khoảng 10% hoặc 20% hoặc tương tự như thế. Tôi nghĩ kịch bản tích cực có thể xảy ra vượt xa kịch bản tiêu cực”, ông Musk nói.

Roman Yampolskiy, nhà nghiên cứu bảo mật AI, kiêm Giám đốc Phòng thí nghiệm An ninh mạng của Đại học Louisville, nói với Business Insider rằng Musk đã đúng khi ông lo lắng rằng AI có thể gây ra mối đe dọa hiện hữu cho nhân loại.

Ông nói khả năng xảy ra thảm họa đối với con người còn cao hơn nhiều. Những thảm họa mà ông đề cập bao gồm khả năng AI thống trị loài người, hoặc dẫn đến các sự kiện gây ra ngày tận thế của nhân loại, như việc tạo ra vũ khí sinh học mới, sự sụp đổ của xã hội do một cuộc tấn công mạng quy mô lớn, hoặc chiến tranh hạt nhân.

New York Times gọi thảm họa này là một thống kê mới “bệnh hoạn” đang càn quét Thung lũng Silicon. Tờ báo này trích dẫn ước tính từ nhiều giám đốc điều hành công nghệ, cho rằng khả năng AI gây ra ngày tận thế là từ 5% – 50%. Nhưng ông Yampolskiy tin rằng rủi ro có thể lên tới 99,999999%.

Ông cho biết, vì chúng ta không kiểm soát được AI tiên tiến, nên hy vọng duy nhất của chúng ta là không tạo ra nó ngay từ đầu.

Yampolskiy nói, ông không hiểu vì sao Musk lại nghĩ rằng nghiên cứu về AI là một ý tưởng hay. Nếu lo lắng về việc các đối thủ cạnh tranh sẽ đi trước mình một bước, thì Musk không cần phải làm vậy. Vì bất kể ai tạo ra AI, thì các mối đe dọa hiện hữu do siêu trí tuệ không bị kiểm soát này gây ra cho con người cũng tồi tệ như nhau.

Tháng 11/2023, ông Musk nói rằng khả năng công nghệ AI cuối cùng sẽ trở nên xấu xa không phải là con số 0. Nhưng ông không nói rõ thêm rằng nếu trở nên xấu xa, thì công nghệ này có thể hủy diệt loài người.

Mặc dù là người khởi xướng các quy định giám sát AI, nhưng ông Musk đã thành lập một công ty có tên xAI vào năm 2023, nhằm mục đích mở rộng hơn nữa sức mạnh của AI. xAI là đối thủ cạnh tranh với OpenAI – công ty mà ông Musk đồng sáng lập với Sam Altman trước khi rời khỏi hội đồng quản trị vào năm 2018.

Tại hội nghị thượng đỉnh, ông Musk ước tính đến năm 2030, trí thông minh kỹ thuật số sẽ vượt quá tất cả trí thông minh của nhân loại cộng lại. Dù khẳng định lợi ích của việc nghiên cứu AI lớn hơn rủi ro, nhưng ông cũng thừa nhận rằng thế giới sẽ gặp rủi ro nếu AI vẫn tiếp tục đi theo quỹ đạo hiện tại trong một số lĩnh vực trực tiếp nhất.

Tại một sự kiện ở Thung lũng Silicon vào tháng Ba, ông Musk nói: “Bạn đang phát triển một AGI. Điều này gần giống nuôi dạy một đứa trẻ, nhưng nó là siêu thiên tài, có trí tuệ như Chúa và điều quan trọng là bạn nuôi dạy nó như thế nào.”

Ông cho rằng điều quan trọng nhất là nuôi dưỡng một AI có khả năng tìm kiếm sự thật ở mức độ lớn nhất và có tính tò mò.

Musk cho biết, kết luận cuối cùng của ông về cách tốt nhất để khiến AI trở nên an toàn là phát triển nó theo cách buộc nó phải trung thực. Ông nói: “Đừng ép nó nói dối, ngay cả khi sự thật khó chịu. Điều này rất quan trọng. Đừng bắt AI nói dối”.

The Independent đưa tin, các nhà nghiên cứu nhận thấy rằng một khi AI học được cách nói dối của con người, thì không thể đảo ngược hành vi lừa dối đó bằng các biện pháp an toàn như hiện tại.

Hãng truyền thông này trích dẫn rằng nếu một AI có hành vi lừa đảo do hiệu chuẩn thiết bị gian lận, hoặc ngộ độc mô hình, thì các kỹ thuật đào tạo an toàn hiện tại sẽ không thể đảm bảo an toàn, thậm chí có thể tạo ra ảo tưởng về sự an toàn.

Các nhà nghiên cứu cho biết thêm, điều đáng lo ngại hơn nữa là AI có thể tự học cách lừa dối thay vì được dạy nói dối.

Ông Geoffrey Hinton, người được mệnh danh là “cha đỡ đầu của trí tuệ nhân tạo”, nói với CNN, rằng “Nếu thông minh hơn chúng ta nhiều, AI sẽ rất giỏi trong việc thao túng vì đã học được điều đó từ chúng ta. Có rất ít ví dụ về việc một thứ thông minh hơn bị điều khiển bởi thứ kém thông minh hơn”.

Trong cuộc phỏng vấn với New York Times, Geoffrey Hinton nói rằng ông lo lắng các sản phẩm AI sẽ dẫn đến việc phổ biến thông tin, ảnh và video giả mạo trên internet, khiến công chúng không thể xác định được thật giả, đúng sai.

Ông cũng nói về việc AI có thể loại bỏ sức lao động của con người, như với vị trí trợ lý luật sư, phiên dịch viên và trợ lý.

Tháng 3/2023, ngân hàng đầu tư đa quốc gia Goldman Sachs công bố một báo cáo ước tính 300 triệu việc làm toàn thời gian có thể bị tác động bởi các hệ thống AI tạo sinh như ChatGPT, đặc biệt là những người làm công việc pháp lý và hành chính, dù mức độ có thể khác nhau. Các kỹ sư phần mềm cũng ngày càng lo ngại công việc của họ sẽ bị thay thế bởi AI.

Ngày 16/2, Open AI đã ra mắt công nghệ mới: mô hình video Từ văn bản – Sora.

Khi người dùng nhập một đoạn văn bản, mô hình có thể tạo ra một video độ phân giải cao dài một phút có hình nền rất chi tiết, các cảnh quay đa góc độ phức tạp và nhiều nhân vật giàu cảm xúc. “Quả bom tấn hạng nặng” này khiến hàng nghìn nhà sản xuất video lo ngại về nguy cơ thất nghiệp.

Năm 2024 mới trải qua chưa đầy hai tháng, trí tuệ nhân tạo (AI) đã khiến các công ty công nghệ phải giảm 34.000 người lao động. Tuy nhiên, đây có thể chỉ là khởi đầu trong hành trình lật đổ xã ​​hội loài người của AI.

Bình Minh (t/h)