Khoa Học - Công Nghệ

Từ điển Cambridge chọn “ảo giác” là từ của năm 2023

Năm nay có thể nói là năm thế giới đặc biệt quan tâm các công cụ trí tuệ nhân tạo (AI) tạo sinh như ChatGPT, theo đó cũng quan tâm những hạn chế của AI và cách khắc phục, đó là lý do Từ điển Cambridge của Anh đã chọn “ảo giác” (hallucinate) là từ của năm 2023.

Từ điển Cambridge của Anh đã chọn “ảo giác” (hallucinate) là từ của năm 2023, định nghĩa mới của từ này có liên quan đến AI. (Ảnh: Postmodern Studio/ Shutterstock)

Đại học Cambridge (Anh) tuyên bố trên trang web của trường rằng Từ điển Cambridge chọn từ “ảo giác” (hallucinate) là từ của năm 2023, mang thêm hàm nghĩa mới liên quan AI.

Nguyên nhân vì các công cụ AI, đặc biệt là những công cụ sử dụng mô hình ngôn ngữ lớn (large language model, LLM), cho thấy tạo ra nội dung có vẻ hợp lý, nhưng tiềm ẩn khả năng cao thực hiện bằng cách sử dụng những “sự thật” sai lệch, gây hiểu lầm hoặc bịa đặt, tạo “ảo giác” (hallucinate) rằng nội dung đó khả tín.

Định nghĩa truyền thống về ảo giác là “dường như nhìn, nghe, cảm nhận hoặc ngửi thấy những thứ không tồn tại, thường là do tình trạng bệnh lý hoặc do thuốc”. Một hàm nghĩa kèm theo mới bổ sung cho động từ tâm lý học này là: “Ảo giác AI (có những phẩm chất nhất định mà bộ não con người có, chẳng hạn như khả năng tạo ra ngôn ngữ theo cách có vẻ giống con người) sẽ tạo ra thông tin giả mạo”.

Hàm nghĩa mới về “ảo giác” (hallucinate) cho thấy xu hướng nhân hóa ngày càng tăng trong công nghệ AI, đây là cách ẩn dụ chỉ máy móc khi nói, viết và suy nghĩ đã mô phỏng con người.

Ảo giác AI (AI hallucinations) đã có tác động đến thế giới thực: ví dụ có trường hợp công ty luật của Mỹ dùng ChatGPT dẫn đến một vụ án pháp lý cáo buộc tội “hư cấu”; trong một video do Google sản xuất quảng cáo cho chatbot AI Bard, công cụ AI đã sai phạm về kính viễn vọng không gian James Webb.

BBC News The Guardian của Anh đưa tin, giám đốc xuất bản của Từ điển Cambridge là Wendalyn Nichols cho biết, “ảo giác AI” cảnh báo con người cần có tư duy phê phán trong sử dụng những công cụ này. AI có sở trường trong xử lý lượng lớn dữ liệu để tích hợp các giải đáp cụ thể, nhưng AI có nhiều khả năng đi chệch hướng. Ông lưu ý rằng độ tin cậy của các mô hình ngôn ngữ lớn phụ thuộc vào thông tin mà chúng được đào tạo, có thể nói so với trước [khi có AI] thì tri thức chuyên môn của con người càng trở nên quan trọng hơn bao giờ hết…

Tiến sĩ Henry Shevlin, nhà đạo đức học AI tại Đại học Cambridge, cho biết: “Tất nhiên lâu nay những thông tin không chính xác hoặc gây hiểu lầm luôn tồn tại xung quanh chúng ta, dù dưới dạng tin đồn, tuyên truyền hay tin giả. Tuy những thông tin đó là sản phẩm của con người, nhưng ‘ảo giác’ hàm ý khi những thông tin đó tách rời hiện thực. Việc áp dụng từ này [đối với AI] hàm nghĩa ‘ảo giác’ là của AI chứ không phải của người dùng – ở đây không có nghĩa AI có tri giác mà lưu ý con người sẵn lòng gán cho AI các thuộc tính giống con người”.

Sau khi Từ điển tiếng Anh Collins chọn từ của năm 2023 là “AI”, thì Từ điển Cambridge đã chọn “Hallucinate”.

Chấn Vũ

Published by
Chấn Vũ

Recent Posts

BMW xuất qua Mỹ ít nhất 8000 xe Mini Cooper có linh kiện Trung Quốc bị cấm vận

Nhà sản xuất ô tô BMW của Đức đã xuất khẩu sang Mỹ ít nhất…

1 giờ ago

Quốc hội Mỹ thượng cờ tỏ lòng kính trọng với nhà sáng lập Pháp Luân Công nhân ngày 13.5

Tòa nhà Quốc hội Hoa Kỳ ở Washington DC đã thượng cờ Hoa Kỳ lần…

1 giờ ago

Vụ 3 học viên cai nghiện uống thuốc ho tử vong: Thêm một trưởng phòng bị bắt

Nữ trưởng phòng quản lý nhân sự công ty cung cấp bảo vệ cho Cơ…

1 giờ ago

TNS Cotton chỉ trích chính quyền Biden vì ‘chia buồn’ về cái chết của TT Iran

Hôm thứ Hai (20/5), Thượng nghị sĩ Cộng hòa bang Arkansas, ông Tom Cotton, chỉ…

2 giờ ago

Quốc hội Mỹ dọa trừng phạt Tòa án Hình sự Quốc tế

Các thành viên Đảng Cộng hòa tại Hạ viện được cho là đang soạn thảo…

3 giờ ago

Apple tung ra sự kiện “siêu giảm giá” tại Trung Quốc

Theo Reuters, trên trang thương mại điện tử Tmall tại Trung Quốc cho thấy Apple…

3 giờ ago