Vừa qua, Công an TP HCM cho biết nhận được đơn tố cáo của một nạn nhân về việc bị kẻ gian dùng công nghệ cao cắt ghép clip "nhạy cảm" tống tiền hơn 2 tỉ đồng.

Sử dụng trí tuệ nhân tạo

Các đối tượng lừa đảo đã thu thập hình ảnh, thông tin đăng tải trên các trang mạng xã hội, tài khoản mạng xã hội của nạn nhân. Sau khi có hình ảnh nạn nhân, kẻ gian sử dụng trí tuệ nhân tạo (AI) và hàng loạt ứng dụng chỉnh sửa để tạo ra những clip nhạy cảm với động tác khớp với khuôn mặt của nạn nhân đang ở nhà nghỉ, khách sạn.

Khi có được hình ảnh đã chỉnh sửa, các đối tượng lừa đảo giả danh là thám tử tư gọi điện thoại thông báo về việc đối tượng phát hiện nạn nhân có mối quan hệ bất chính với những người phụ nữ khác và yêu cầu chuyển tiền. Nếu không thực hiện, nạn nhân sẽ bị đăng clip, hình ảnh lên mạng xã hội, gửi tới các nơi làm việc; còn thực hiện theo yêu cầu sẽ được chuộc lại các clip và hình ảnh nhạy cảm. Bằng thủ đoạn này, nạn nhân kể trên bị yêu cầu chuyển khoản tiền điện tử (USDT) với giá trị 80.000 USDT (tương đương hơn 2 tỉ đồng) vào ví điện tử.

12-8-chot-trang-13-17234729435141793715859-1723511676899-1723511678872890222006.png

Một clip sex được cắt ghép, chỉnh sửa bằng công nghệ Deepfake. Ảnh: HẠNH NGUYÊN

Với đơn tố cáo này, Công an TP HCM đã chỉ đạo lực lượng khẩn trương điều tra, truy xét các đối tượng để xử lý nghiêm theo quy định của pháp luật.

Trước đó, doanh nhân H.H cũng đã có đơn gửi các cơ quan chức năng nhờ can thiệp về một vụ việc nghiêm trọng. Theo đó, băng nhóm lừa đảo đã dùng hình ảnh để tạo clip sex bằng công nghệ Deepfake sau đó tống tiền. Tương tự, nữ ca sĩ P.M.C cũng có đơn cầu cứu về một clip xôn xao trên mạng xã hội bằng thủ đoạn chỉnh sửa, cắt ghép khuôn mặt cô đưa vào clip. Sự việc khiến nữ ca sĩ "mất ăn mất ngủ" vì lo sợ ảnh hưởng đến danh tiếng cũng như các hợp đồng truyền thông.

Nâng cao cảnh giác

Theo Công an TP HCM, thời gian gần đây, các đối tượng lừa đảo trên không gian mạng đã không ngừng xây dựng những kịch bản mới đánh vào tâm lý, nhu cầu, lòng tham của bị hại. Thủ đoạn dùng hình ảnh, thông tin cá nhân rồi dùng công nghệ Deepfake để tạo clip nhạy cảm là 1 trong 16 chiêu trò lừa đảo công nghệ cao đang thịnh hành hiện nay.

Trước tình hình trên, Công an TP HCM khuyến cáo người dân khi gặp các trường hợp tương tự phải nâng cao tinh thần cảnh giác với phương châm "Không hoảng sợ - Không làm theo yêu cầu chuyển tiền của đối tượng".

Đồng thời, nạn nhân liên hệ ngay với cơ quan công an gần nhất hoặc bộ phận trực ban Công an TP HCM (điện thoại 069.3187.344) hoặc trực ban Phòng Cảnh sát hình sự (điện thoại 069.3187.200) để cung cấp thông tin, phối hợp cơ quan công an nhanh chóng điều tra, xử lý.

Công an TP HCM khuyến cáo về bản chất, các thủ đoạn không mới, đối tượng chỉ thay đổi "câu chuyện lừa đảo" nhưng nhiều người vẫn bị dẫn dụ và thực hiện theo yêu cầu. "Dù dưới bất kỳ hình thức nào thì mục đích cuối cùng của chúng là lừa chuyển tiền để chiếm đoạt tài sản của nạn nhân. Người dân không cung cấp số tài khoản, thẻ tín dụng, thông tin cá nhân cho bất kỳ ai, không chuyển tiền dưới bất kỳ hình thức nào khi chưa làm việc trực tiếp với cơ quan chức năng" - Công an TP HCM khuyến cáo.

Thời gian qua, Trung tâm Xử lý tin giả, thông tin xấu độc Việt Nam (VAFC) nhận được nhiều đơn cầu cứu của người dân về việc bị bôi nhọ, đe dọa bằng clip sex sử dụng công nghệ Deepfake.

Mặc dù tạo ra các sản phẩm có độ chân thật cao nhưng VAFC cũng chỉ ra một số đặc điểm để phân biệt sản phẩm Deepfake. Cụ thể, các chi tiết trên khuôn mặt hoặc giọng nói không tự nhiên; video, hình ảnh hoặc âm thanh có thể có các điểm bất thường như ánh sáng, bóng đổ, màu sắc không tự nhiên; không phù hợp với tính cách, hành vi của người trong video.

VAFC khuyến cáo: "Người dân cần thường xuyên cập nhật các kiến thức về công nghệ, đặc biệt là các kiến thức về Deepfake để có thể nhận biết và phòng tránh các thủ đoạn lừa đảo bằng công nghệ này". 

Những việc cần làm ngay

Theo Công an TP HCM thông tin thêm, khi nhận được cuộc gọi hù dọa, cuộc gọi tống tiền bằng clip sex, việc cần làm là tắt máy, chặn liên lạc và không được cung cấp thông tin cá nhân hoặc thông tin của người thân. Bên cạnh đó, không làm theo hướng dẫn, không nhấp vào đường link lạ, không cài ứng dụng, không đăng nhập các ứng dụng lạ. Bởi vì, khi người dân đăng nhập các phần mềm thì chúng đánh cắp thông tin, dẫn dụ, đe dọa cung cấp thông tin cá nhân, thông tin tài khoản ngân hàng, chuyển tiền, góp vốn đầu tư..., từ đó chiếm đoạt tài sản.

Trước thực trạng nhiều người nổi tiếng, doanh nhân, người có địa vị bị tung clip nhạy cảm bằng công nghệ Deepfake, VAFC khuyến cáo người dân cần cẩn trọng với các thông tin được chia sẻ trên mạng xã hội.

anh-17202879442931854825757-0-20-346-574-crop-17202879516501071474446.pngThêm một chiêu lừa đảo mới ai cũng có thể mắc bẫy, hàng triệu người dân cần nâng cao cảnh giác

GĐXH - Ngày nay, với sự phát triển của khoa học công nghệ ngày càng tiến bộ, kèm theo đó là không ít những tệ nạn phát triển nhanh chóng trong thời đại 4.0.

Nguoi-noi-tieng.com (r) © 2008 - 2022