Một thử nghiệm gần đây của Wall Street Journal tiết lộ, thuật toán Reels của Instagram đã cung cấp một lượng lớn nội dung khiêu dâm cho các vận động viên thể dục, hoạt náo viên và tài khoản của thanh thiếu niên, bao gồm cảnh quay không phù hợp về trẻ em, video khiêu dâm người lớn được công khai và quảng cáo từ một số thương hiệu lớn nhất nước Mỹ.

Instagram
(Nguồn: Ink Drop/ Shutterstock)

Trung tâm Bảo vệ Trẻ em Canada cũng tiến hành các cuộc thử nghiệm tương tự và cũng tìm ra kết quả tương tự.

Dịch vụ video Reels của Instagram được thiết kế để hiển thị cho người dùng video ngắn về các chủ đề mà hệ thống này cho rằng họ quan tâm, như thể thao, thời trang hay clip hài.

Trên các thiết bị mới mua, phóng viên của tạp chí Wall Street Journal đã thiết lập những tài khoản Instagram thử nghiệm với tư cách là người lớn, theo dõi các vận động viên thể dục, hoạt náo viên và những người trẻ có ảnh hưởng khác.

Các thử nghiệm cho thấy, chỉ cần người dùng theo dõi các cô gái trẻ, Instagram sẽ bắt đầu kích hoạt cung cấp video từ các tài khoản quảng cáo có nội dung khiêu dâm người lớn, cũng như quảng cáo từ các thương hiệu tiêu dùng lớn, như quảng cáo Walmart chạy sau video quay cảnh một phụ nữ để lộ háng.

Meta, công ty sở hữu Facebook và Instagram, cho biết thử nghiệm của Tạp chí Wall Street Journal đã tạo ra trải nghiệm nhân tạo không đại diện cho những gì hàng tỷ người dùng nhìn thấy. Meta từ chối bình luận về lý do vì sao các thuật toán lại phân luồng những video riêng biệt có nội dung về trẻ em, giới tính và quảng cáo.

Tuy nhiên, một phát ngôn viên cho biết, Meta đã ra mắt các công cụ an toàn thương hiệu mới vào tháng 10, nhằm cung cấp cho các nhà quảng cáo nhiều quyền kiểm soát hơn về nơi quảng cáo của họ xuất hiện. Mỗi tháng Instagram đang xóa, hoặc hạ cấp 4 triệu quảng cáo bị cáo buộc vi phạm các tiêu chuẩn video của họ.

Tháng 6, Wall Street Journal đưa tin, các thuật toán của Meta đã kết nối cộng đồng lớn những người dùng quan tâm đến nội dung ấu dâm.

Người phát ngôn của Meta cho biết, sau khi bài viết này được công bố, một đội đặc nhiệm đã được thành lập, hệ thống tự động phát hiện người dùng có hành vi đáng ngờ đã được mở rộng, hàng chục ngàn tài khoản như vậy đã bị đóng mỗi tháng. Meta cũng tham gia một liên minh công nghiệp mới, để chia sẻ các dấu hiệu về khả năng bóc lột trẻ em.

Trong quá trình thử nghiệm, nội dung không phù hợp xuất hiện bên cạnh quảng cáo của một số công ty, bao gồm Disney, Match, Walmart và Bumble.

Sau khi Wall Street Journal liên hệ, một số công ty cho biết Meta đã nói với họ rằng công ty này đang điều tra, và sẽ trả tiền cho các cuộc kiểm tra về sự an toàn thương hiệu của các công ty.

Match bắt đầu loại bỏ dần tất cả quảng cáo Reels vào tháng 10, và ngừng quảng cáo các thương hiệu chính của mình trên bất kỳ nền tảng nào của Meta. Người phát ngôn của Match, cô Justine Sacco, cho biết họ không muốn trả tiền cho Meta để tiếp thị thương hiệu của mình cho những kẻ săn mồi, hoặc đặt quảng cáo gần loại nội dung này.

Người phát ngôn của Bumble, ông Robbie McKay, cho biết công ty này không bao giờ cố ý quảng cáo bên cạnh nội dung không phù hợp, và đang tạm dừng quảng cáo trên nền tảng Meta.

Phó chủ tịch quản lý thương hiệu của Disney, ông Charlie Cain, cho biết công ty đã đặt ra các giới hạn nghiêm ngặt đối với nội dung quảng cáo trên mạng xã hội được chấp nhận, đồng thời kêu gọi Meta và các nền tảng khác cải thiện các tính năng an toàn thương hiệu.

Người phát ngôn của Disney cho biết họ đã nỗ lực giải quyết vấn đề “ở cấp độ cao nhất của Meta” kể từ khi Wall Street Journal gửi kết quả cho công ty này.

Để cạnh tranh với TikTok, Meta đã tạo ra Reels. TikTok là nền tảng chia sẻ video thuộc sở hữu của ByteDance Bắc Kinh. Cả hai sản phẩm đều truyền phát video do người khác đăng liên tục tới người dùng, và kiếm tiền bằng cách chèn quảng cáo vào đó.

Dựa trên hành vi xem trước đây của họ, thuật toán của cả hai công ty hiển thị cho người dùng những video mà nền tảng này tính toán rằng chúng có nhiều khả năng duy trì mức độ tương tác nhất.

Trong các cuộc phỏng vấn, nhân viên hiện tại và trước đây của Meta cho biết, xu hướng tổng hợp nội dung khiêu dâm trẻ em trên nền tảng của thuật toán Instagram là một vấn đề nội bộ.

Họ cho biết, khi Instagram phân loại người dùng quan tâm đến bất kỳ chủ đề cụ thể nào, hệ thống đề xuất của nó sẽ được đào tạo để đưa ra những nội dung phù hợp hơn cho những người dùng này. Họ cho rằng cần phải có những thay đổi đáng kể đối với thuật toán đề xuất, để ngăn hệ thống đưa nội dung có hại đến những người dùng quan tâm.

Các tài liệu của công ty được Wall Street Journal xem xét cho thấy, nhân viên bảo mật của công ty này bị cấm thực hiện bất kỳ thay đổi nào đối với nền tảng có thể làm giảm số lượng người dùng hoạt động hàng ngày.

Theo các nhân viên cũ, ngay cả trước khi Reels ra mắt vào năm 2020, nhân viên của Meta đã biết sản phẩm này sẽ gây ra những lo ngại về bảo mật.

Theo hai cựu nhân viên, trong một phân tích được thực hiện ngay trước khi ra mắt Reels, nhân viên bảo mật của Meta đã chỉ ra nguy cơ sản phẩm này liên kết các video dành cho trẻ em với nội dung không phù hợp.

Vào thời điểm đó, TikTok đang phát triển nhanh chóng, thu hút người dùng Instagram trẻ tuổi và các nhà quảng cáo nhắm đến họ. Do đó, Meta đã không áp dụng bất kỳ khuyến nghị phân tích bảo mật nào vào thời điểm đó.

Các nền tảng truyền thông xã hội và các công ty quảng cáo kỹ thuật số thường mô tả quảng cáo không phù hợp là những sai lầm đáng tiếc. Nhưng các tài khoản thử nghiệm do Wall Street Journal và Trung tâm Bảo vệ Trẻ em Canada điều hành chỉ ra, rằng nền tảng của Meta dường như tiến hành một số hoạt động tiếp thị kỹ thuật số nhắm mục tiêu đến những người dùng quan tâm đến tình dục.

Meta vẫn chưa đưa ra thời gian biểu giải quyết vấn đề này, hoặc giải thích cách họ sẽ hạn chế việc quảng bá nội dung không phù hợp liên quan đến trẻ em trong tương lai.

Trung tâm Bảo vệ Trẻ em Canada kết luận, kết quả thử nghiệm cho thấy, Instagram thường xuyên cung cấp video và ảnh về những đứa trẻ mặc quần áo xuất hiện trong cơ sở dữ liệu kỹ thuật số của Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột. Các hình ảnh và video trong cơ sở dữ liệu này được xác định là tài liệu tình dục ngược đãi trẻ nhỏ.

Tổ chức này cho biết những kẻ lạm dụng trẻ em thường sử dụng hình ảnh của các bé gái để quảng bá nội dung bất hợp pháp, và bán chúng trên các diễn đàn web đen.

Bình Minh, theo Wall Street Journal