Categories: Thời sựViệt Nam

Cảnh giác ‘chiêu’ dùng deepfake để ghép mặt, giọng nói giống hệt người thân để lừa đảo

Người dùng cần cảnh giác việc người xấu sử dụng công nghệ deepfake AI để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video giả làm người thân để chiếm đoạt tiền.

Người dùng cần cảnh giác trước hành vi lừa đảo khi người xấu sử dụng công nghệ deepfake AI. (Ảnh: MDV Edwards/Shutterstock)

Đối tượng lừa đảo nắm bắt được tâm lý người dùng mạng xã hội đã biết cảnh giác với “chiêu” lừa bằng tin nhắn vay tiền, chuyển tiền nên đã chuyển qua sử dụng chiêu lừa tinh vi hơn để vay tiền bằng cách giả cuộc gọi video.

Theo đó, người xấu có thể gọi video giả làm người thân hoặc quen biết với nạn nhân để vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí. Nói chung, hầu hết đều là những tình huống cấp bách cần tiền gấp.

Thủ đoạn của đối tượng này là chiếm đoạt tài khoản cá nhân, lấy những hình ảnh, video cũ của người dùng, cắt ghép hoặc dùng công nghệ deepfake để ghép mặt và giọng nói giống hệt người thân của nạn nhân để lừa đảo.

Sau đó, chúng sử dụng tài khoản đã chiếm đoạt để gọi và phát video giả mạo dưới hình thức mờ ảo, chập chờn rồi viện lý do đang ở nơi sóng yếu để tạo lòng tin rồi nhắn tin vay tiền, chuyển tiền và dẫn giải nạn nhân chuyển đến tài khoản của chúng để chiếm đoạt.

Gần đây, với cách thức trên, một nạn nhân ở TP.HCM đã bị lừa 20 triệu đồng, mặc dù nạn nhân đã gọi video qua Facebook để kiểm chứng.

Cũng như trường hợp chị V.T.M (SN 1997, ngụ tại Long Biên, TP. Hà Nội) nhận tin nhắn mượn tiền từ tài khoản Facebook của người thân bên nước ngoài nhắn nhờ chuyển tiền vào một số tài khoản 75 triệu đồng. Nghĩ là người thân nên chị M. đã chuyển tiền theo yêu cầu.

Mặc dù chị M. đã cẩn thận gọi video để xác nhận, nhưng khi gọi thì thấy hình ảnh đúng là người thân mình nên chị đã tin tưởng chuyển khoản liền. Đến tối, thấy người thân đăng trên trang cá nhân thông báo việc Facebook đã bị hack để hỏi vay tiền một số người, chị M. gọi điện lại xác minh thì mới biết mình bị lừa.

Khi chị M. gọi xác nhận trước khi chuyển tiền, đầu dây bên kia vẫn hiện lên khuôn mặt và giọng nói của người thân, cách xưng hô hoàn toàn chính xác. Tuy nhiên, âm thanh rất khó nghe, hình ảnh cũng bị nhòe giống như sóng chập chờn.

Chuyên gia hướng dẫn cách xử lý

Theo các chuyên gia, đối tượng lừa đảo thường tìm kiếm, thu thập thông tin cá nhân được đăng tải công khai trên mạng xã hội để tạo ra chiêu lừa tinh vi. Khi nạn nhân gọi điện hoặc video cho người thân để kiểm chứng, những người này sẽ không nhận cuộc gọi hoặc sẽ sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa.

Để có thể kiểm tra phía bên gọi có sử dụng Deepfake AI để giả mạo trong những cuộc gọi video hay không, hãy yêu cầu họ quay mặt sang bên các góc 90 độ.

Thêm một phương pháp nhỏ đó là yêu cầu họ đưa tay trước mặt. Khi đưa tay lên khuôn mặt, sự chồng chéo của bàn tay và khuôn mặt khiến AI bị nhầm lẫn, thao tác này thường được gọi là “tạo mặt nạ” hoặc “xóa nền” – thông tin từ các chuyên gia bảo mật.

Qua đó, các cơ quan công an khuyến cáo người dân cần cảnh giác với thủ đoạn lừa đảo này, khi nhận bất kỳ tin nhắn hay cuộc gọi video để vay tiền, phải gọi qua số điện thoại trực tiếp cho người thân để xác minh mà không qua các ứng dụng như Zalo, Messenger, Viber, Telegram. Tuyệt đối không cung cấp mã OTP, chuyển tiền, nạp card điện thoại cho ai khi chưa biết rõ về người đó.

Khi có nghi vấn về việc giả mạo người thân trên mạng xã hội, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ xử lý.

Thạch Lam (t/h)

Thạch Lam

Published by
Thạch Lam

Recent Posts

Bức xạ hạt nhân ở Nga làm người dân TQ giáp biên giới hoảng loạn

Một "nguồn phóng xạ" được phát hiện tại Khabarovsk của Nga, gần Trung Quốc, giá…

4 phút ago

Vụ ngộ độc sau ăn bánh mì: Tổng cộng đã có 529 ca, 2 trẻ tiên lượng nặng

Liên quan vụ ngộ độc tập thể sau khi ăn bánh mì tại Đồng Nai,…

25 phút ago

Cửa hàng hoa, dịch vụ cưới hỏi cháy trong đêm, bé 12 tuổi tử vong

Cửa hàng hoa bị cháy, hệ thống điện trong nhà tự ngắt khiến cửa cuốn…

1 giờ ago

Chuyên gia: Làm những điều này vào ban đêm sẽ khiến bạn hạnh phúc hơn vào sáng hôm sau

Nếu thức dậy vào buổi sáng với một tinh thần uể oải mệt mỏi thì…

2 giờ ago

Ngoại trưởng Anh Quốc nói điều quân NATO tới Ukraine là ‘nguy hiểm’

Ngoại trưởng Anh David Cameron hôm thứ Sáu (3/5) đã lên tiếng phản đối việc…

3 giờ ago

Mẫu sổ đỏ, sổ hồng được đề xuất in thêm mã QR

Theo Bộ TN-MT, mẫu giấy chứng nhận quyền sử dụng đất mới sẽ chỉ còn…

4 giờ ago