Năm nay có thể nói là năm thế giới đặc biệt quan tâm các công cụ trí tuệ nhân tạo (AI) tạo sinh như ChatGPT, theo đó cũng quan tâm những hạn chế của AI và cách khắc phục, đó là lý do Từ điển Cambridge của Anh đã chọn “ảo giác” (hallucinate) là từ của năm 2023.

Cambridge
Từ điển Cambridge của Anh đã chọn “ảo giác” (hallucinate) là từ của năm 2023, định nghĩa mới của từ này có liên quan đến AI. (Ảnh: Postmodern Studio/ Shutterstock)

Đại học Cambridge (Anh) tuyên bố trên trang web của trường rằng Từ điển Cambridge chọn từ “ảo giác” (hallucinate) là từ của năm 2023, mang thêm hàm nghĩa mới liên quan AI.

Nguyên nhân vì các công cụ AI, đặc biệt là những công cụ sử dụng mô hình ngôn ngữ lớn (large language model, LLM), cho thấy tạo ra nội dung có vẻ hợp lý, nhưng tiềm ẩn khả năng cao thực hiện bằng cách sử dụng những “sự thật” sai lệch, gây hiểu lầm hoặc bịa đặt, tạo “ảo giác” (hallucinate) rằng nội dung đó khả tín.

Định nghĩa truyền thống về ảo giác là “dường như nhìn, nghe, cảm nhận hoặc ngửi thấy những thứ không tồn tại, thường là do tình trạng bệnh lý hoặc do thuốc”. Một hàm nghĩa kèm theo mới bổ sung cho động từ tâm lý học này là: “Ảo giác AI (có những phẩm chất nhất định mà bộ não con người có, chẳng hạn như khả năng tạo ra ngôn ngữ theo cách có vẻ giống con người) sẽ tạo ra thông tin giả mạo”.

Hàm nghĩa mới về “ảo giác” (hallucinate) cho thấy xu hướng nhân hóa ngày càng tăng trong công nghệ AI, đây là cách ẩn dụ chỉ máy móc khi nói, viết và suy nghĩ đã mô phỏng con người.

Ảo giác AI (AI hallucinations) đã có tác động đến thế giới thực: ví dụ có trường hợp công ty luật của Mỹ dùng ChatGPT dẫn đến một vụ án pháp lý cáo buộc tội “hư cấu”; trong một video do Google sản xuất quảng cáo cho chatbot AI Bard, công cụ AI đã sai phạm về kính viễn vọng không gian James Webb.

BBC News The Guardian của Anh đưa tin, giám đốc xuất bản của Từ điển Cambridge là Wendalyn Nichols cho biết, “ảo giác AI” cảnh báo con người cần có tư duy phê phán trong sử dụng những công cụ này. AI có sở trường trong xử lý lượng lớn dữ liệu để tích hợp các giải đáp cụ thể, nhưng AI có nhiều khả năng đi chệch hướng. Ông lưu ý rằng độ tin cậy của các mô hình ngôn ngữ lớn phụ thuộc vào thông tin mà chúng được đào tạo, có thể nói so với trước [khi có AI] thì tri thức chuyên môn của con người càng trở nên quan trọng hơn bao giờ hết…

Tiến sĩ Henry Shevlin, nhà đạo đức học AI tại Đại học Cambridge, cho biết: “Tất nhiên lâu nay những thông tin không chính xác hoặc gây hiểu lầm luôn tồn tại xung quanh chúng ta, dù dưới dạng tin đồn, tuyên truyền hay tin giả. Tuy những thông tin đó là sản phẩm của con người, nhưng ‘ảo giác’ hàm ý khi những thông tin đó tách rời hiện thực. Việc áp dụng từ này [đối với AI] hàm nghĩa ‘ảo giác’ là của AI chứ không phải của người dùng – ở đây không có nghĩa AI có tri giác mà lưu ý con người sẵn lòng gán cho AI các thuộc tính giống con người”.

Sau khi Từ điển tiếng Anh Collins chọn từ của năm 2023 là “AI”, thì Từ điển Cambridge đã chọn “Hallucinate”.