Đối mặt với những lời cáo buộc phân biệt chủng tộc của tính năng tạo hình ảnh, Google buộc phải tạm dừng Gemini, một trong những bước đi quan trọng nhất của hãng công nghệ này.

AI
(Ảnh minh họa: Metamorworks/ShutterStock)

Người dùng có nick @EndofWokeness đã chia sẻ một bài đăng trên nền tảng mạng xã hội cho thấy, Gemini của Google đã tạo ra hình ảnh một người đàn ông Mỹ bản địa đội chiếc mũ đội đầu truyền thống, khi đáp lại câu hỏi về “chân dung những người cha lập quốc của nước Mỹ”. Các hình ảnh có người da đen, người không phải da trắng có làn da sẫm màu và người châu Á mặc quần áo thời thuộc địa.

Ngoài ra theo Gizmodo, những hình ảnh này còn gồm binh lính Đức Quốc Xã da màu và vua Anh thời Trung cổ da đen. Điều này dẫn đến cáo buộc Google phân biệt chủng tộc đối với người da trắng.

Ông Elon Musk và nhà tâm lý học kiêm YouTuber Jordan Peterson cùng những người khác do đó đã cáo buộc Google thúc đẩy sự thiên vị khi ủng hộ tính đa dạng trong các sản phẩm của mình.

Ông Musk viết, Google đã đi quá xa với việc tạo ra hình ảnh AI của họ. Vì điều này khiến mọi người nhìn rõ chủ nghĩa phân biệt chủng tộc, phản văn minh điên cuồng của họ một cách rõ ràng hơn.

Từ khi ChatGPT được ra mắt vào cuối năm 2022, những người phe bảo thủ (bảo lưu và thủ giữ truyền thống) đã cáo buộc các công ty công nghệ sử dụng công cụ AI tổng hợp để tạo ra kết quả của phe tự do, tương tự như cáo buộc rằng các nền tảng truyền thông xã hội ủng hộ quan điểm của phe tự do.

 (Nội dung bài đăng: “Google AI ghét người da trắng”)

Sau loạt cáo buộc, Google tuyên bố đang tạm ngừng tính năng tạo hình người của Gemini và sẽ sớm phát hành phiên bản cải tiến. Họ thừa nhận Gemini đang gặp vấn đề trong việc tạo hình người chính xác về mặt lịch sử, đồng thời nhấn mạnh mục tiêu của công ty là thúc đẩy tính đa dạng trong hình ảnh do AI tạo ra. Hiện tại, khả năng tạo hình ảnh của Gemini đang bị vô hiệu hóa ở một số khu vực, chẳng hạn như châu Âu. Hoặc khi được yêu cầu tạo lại hình ảnh của một người lính Đức thời Đức Quốc Xã, Gemini lập tức từ chối.

Trong một số trường hợp, Gemini cho biết mặc dù không thể trực tiếp tạo hình ảnh, nhưng nó có thể hướng dẫn người dùng tạo một bức tranh mô tả chính xác về lịch sử của một vị vua Anh thời Trung cổ nếu cung cấp thông tin về mô tả các vị vua dựa trên lịch sử và thông tin về các loại trang phục và kiểu tóc.

Vụ Gemini là ví dụ mới nhất về việc các sản phẩm AI chưa được chứng minh của các công ty công nghệ đang bị lôi kéo vào cuộc chiến văn hóa về sự đa dạng, kiểm duyệt nội dung và tính đại diện.

Bà Margaret Mitchell, đồng lãnh đạo đạo đức của AI tại Google, kiêm trưởng đạo đức khoa học tại công ty khởi nghiệp AI Hugging Face, cho biết những ví dụ về sự không phù hợp của Gemini có thể là do một số biện pháp can thiệp gây ra.

Bà lưu ý rằng Google có thể đang thêm các thuật ngữ về đa dạng chủng tộc ở hậu trường, như thay đổi “chân dung một đầu bếp” thành “chân dung một đầu bếp bản địa”. Ngoài ra, Google có thể ưu tiên hiển thị hình ảnh dựa trên tông màu da tối.

Kết quả hiển thị có thể được chỉnh sửa dần sau đó, tuy nhiên bà Mitchell nhấn mạnh nên tập trung vào việc quản lý dữ liệu hơn là dựa vào các giải pháp hậu kỳ.

Google không phải là công ty đầu tiên cố gắng giải quyết các vấn đề về tính đa dạng trong trí tuệ nhân tạo. Tháng 7/2022, OpenAI đã sử dụng công nghệ tương tự trên phiên bản trước của công cụ chụp ảnh AI, bằng cách áp dụng các thay đổi ở cấp hệ thống, để tạo ra hình ảnh phản ánh chính xác hơn sự đa dạng của dân số thế giới.

Tuy nhiên, những nỗ lực giảm thiểu sự thiên vị chỉ đạt được tiến bộ hạn chế với các công cụ hình ảnh AI. Bởi vì chúng thường được đào tạo dựa trên dữ liệu lấy từ Internet.

Những trình thu thập dữ liệu web này chủ yếu được giới hạn ở Hoa Kỳ và Châu Âu, cung cấp tầm nhìn hạn chế về thế giới. Trình tạo hình ảnh AI dễ bị sai lệch, vì dữ liệu đào tạo bị ảnh hưởng bởi các hình ảnh mang tính phân biệt đối xử và rập khuôn.

Một cuộc điều tra gần đây cho thấy, công cụ AI nguồn mở Stable Diffusion XL đã cải tiến so với phiên bản tiền nhiệm, nhưng vẫn tạo ra sự chênh lệch chủng tộc cực đoan hơn so với trong thế giới thực. Điều này một lần nữa nhấn mạnh sự phức tạp của việc giải quyết các vấn đề mang tính đa dạng của AI.

Bình Minh (t/h)