Vòng lặp tự nhốt? ChatGPT bắt đầu học từ những văn bản của con người. Con người ngày càng dùng các đoạn ngắn, hoặc nguyên cả đoạn dài các văn bản do ChatGPT tạo ra cho các bài viết của mình. Tiếp theo, ChatGPT học từ những thứ đó, v.v. Vậy thì cuối cùng sẽ thành thế nào? Một bài nghiên cứu cuối tháng trước với tiêu đề “Nguyền rủa của Vòng lặp Đệ quy: Học từ những gì AI sinh ra sẽ khiến AI mất trí nhớ nguyên gốc” cảnh báo rằng xu thế này sẽ dẫn đến các mô hình AI quên đi tri thức gốc mà nó học được, vì những tri thức mới do cộng đồng AI tạo ra sẽ thay thế dần các tri thức ban đầu.

  • Phim hài về các cao thủ đứng đầu, thậm chí dùng tới cả trí tuệ nhân tạo AI trợ giúp, mà vẫn nghĩ mãi không ra cách nào cấm vận một cách hiệu quả đối thủ Nga của mình, kể cả cấm salad Nga, búp bê Nga,… bí quá cuối cùng cấm truyền hình RT Nga phát sóng ở Châu Nam Cực. Phim châm biếm giả tưởng phản ánh phần nào tình hình chính trị hiện nay:

Hiển nhiên, đây là vấn đề không chỉ có ở ChatGPT, mà là vấn đề của các AI nói chung. Chẳng hạn một AI ban đầu học nhạc của Mozart để nó có thể sáng tác nhạc. Tốt, những bản nhạc ban đầu của nó có mang theo dáng dấp của nhạc Mozart (người). Điều gì xảy ra nếu các AI âm nhạc học từ các đoạn nhạc do AI âm nhạc làm ra? Qua đời F1, F2, v.v. rồi tới đời Fn thì sẽ thành thế nào? Nhân tố con người trong nội hàm của nó sẽ còn lại bao nhiêu?

Theo nghiên cứu của nhóm các nhà nghiên cứu Mỹ và Canada nói trên, các mô hình AI hiện nay trên toàn thế giới liên tục học tập để nâng cao khả năng của mình, và hiện nay chúng ở trong vòng lặp đệ quy này, vì nội dung mà chúng học gồm tỷ lệ ngày càng lớn nội dung do AI tạo ra.

Các nhà nghiên cứu đã lập tình huống mô phỏng.

Theo mô phỏng dự đoán thì kết quả cuối cùng là các AI sẽ rơi vào tình trạng được gọi là sụp đổ (collapsed) khi mà khối lượng số liệu thì ngày càng khổng lồ, nhưng thông tin đích thực có giá trị trong đó thì ngày càng ít. Sụp đổ ở đây không phải nghĩa là cháy hỏng vật lý, mà nghĩa là nội dung của nó trở nên ảo, trở nên xa rời ý nghĩa thực tế.

Nhóm nghiên cứu ví hiện tượng này như một dạng thức “ô nhiễm” thông tin: Tựa như chúng ta vứt các rác thải ra môi trường sống, thì đây là vấn đề chúng ta cùng các AI đang quăng những thứ “nhảm nhí” vào mạng xã hội.

Đã có một số biện pháp được đề xuất nhằm thoát khỏi vòng lặp đệ quy mà chắc chắn dẫn đến sự sụp đổ thông tin này. Tuy nhiên, cũng khá giống bài toán ô nhiễm môi trường: Khi con người ta chạy theo lợi nhuận và tiện dụng, thì các biện pháp này cũng không dễ thực hiện.

Ví dụ, chúng ta thử đặt ra quy định yêu cầu phải tách riêng những gì do AI tạo ra. Chẳng hạn, nếu bạn sáng tạo một hình ảnh minh họa cho một bài báo, mà AI có tham gia trong quá trình tạo ra hình ảnh đó, thì bạn phải ghi rõ đây hình ảnh là do AI đóng góp làm ra. Như vậy sẽ tránh được tình huống hình ảnh đó sẽ được một AI nào đó dùng làm tư liệu để học tập.

Nghe rất đơn giản, đúng không? Nhưng mà, người ta sẽ tuân thủ quy định đó không? Đó mới là vấn đề.

Trong một báo cáo hôm 12/6 gần đây, tạp chí Nature 154 tuổi —tạp chí có từ tháng 11/1869— đã quyết định loại bỏ các hình ảnh và video do AI tạo ra khỏi nội dung của tạp chí. Tạp chí nói họ đã trải qua nhiều tháng tranh luận kỹ càng trước khi đưa ra quyết định này.

id13759905 tu4 AI 600x400 1
(Ảnh minh họa: Pixabay)

Kỳ thực, không nói tới AI, mà chính con người chúng ta cũng đang trong vòng lặp đệ quy này, khi thế giới riêng mà mỗi chúng ta tiếp xúc hàng ngày ấy, có ngày càng nhiều những thứ nhân tạo hơn là những thứ của thiên nhiên?

Cuộc sống hiện đại đang mang đến cho con người sự tiện nghi, nhưng lại mang đi nếp sống hòa đồng với thiên nhiên. Có được, có mất.