Nhiều nạn nhân 'sập bẫy' lừa bịp ghép hình ảnh nhạy cảm, video để tống tiền

(VietQ.vn) - Theo các chuyên gia công nghệ, người dân phải cảnh giác cao độ trước chiêu dùng công nghệ AI để ghép ảnh, video nhạy cảm nhằm thực hiện hành vi tống tiến. Thực tế đã có không ít nạn nhân 'sập bẫy'.
Sự kiện: AN TOÀN THÔNG TIN
Lừa đảo bằng công nghệ AI nhằm vào người lớn tuổi
Xây dựng hệ sinh thái đổi mới sáng tạo năng động, tạo ra giá trị trong cuộc chơi công nghệ
Phát triển công nghệ mới tạo ra loại kính không sử dụng hóa chất độc hại để tự làm sạch
Từ một bức ảnh sống ảo đăng trên mạng xã hội, kẻ xấu có thể dùng công cụ trí tuệ nhân tạo (AI) tạo ra bức ảnh gợi cảm, thậm chí trần truồng, hoặc ghép mặt như thật vào các đoạn video nhạy cảm để bôi nhọ, tống tiền khổ chủ.
Trước đây, khi nói về kỹ thuật cắt ghép khuôn mặt người này vào thân hình người khác, người ta hay dùng photoshop hay các phần mềm chỉnh sửa ảnh chuyên dụng - vốn tốn nhiều công sức và dễ nhận ra bằng mắt thường. Nay với công cụ AI, người ta có thể làm chuyện đó rất dễ dàng sau "vài nốt nhạc" nhưng lại không dễ phát hiện bằng mắt thường.
Với thủ đoạn làm quen, kết bạn qua mạng xã hội để gạ gẫm “chat” nhạy cảm rồi bí mật ghi lại màn hình; sau đó dùng hình ảnh, video này để tống tiền nạn nhân. Chiêu trò này không mới, nhưng lại rộ lên trong thời gian gần đây tại nhiều địa phương, và vẫn có không ít người sập bẫy, không chỉ mất tiền mà còn bị khủng bố về tinh thần.
Cụ thể, do kết nối công việc, ông H. (giám đốc một doanh nghiệp tại TP.HCM) thường xuyên tương tác trên mạng xã hội. Trong một lần, ông được một cô gái trẻ kết bạn để hỏi thăm công việc. Sau một thời gian hỏi thăm, trò chuyện, tâm sự từ công việc đến đời sống cá nhân, cả hai tỏ ra khá thân thiết với nhau. Giữa hai người còn có nhiều cuộc nhắn tin với những lời lẽ rất tình cảm, kèm cả những hình ảnh gửi qua lại, những cuộc gọi video để thấy mặt nhau.

Nhiều nạn nhân mắc bẫy những kẻ tống tiền thông qua công nghệ AI ghép ảnh, video. Ảnh minh họa
Bỗng một ngày ông H. nhận được cuộc gọi từ một người xưng là chồng của cô gái. Sau một màn "phủ đầu" ông H., "người chồng" yêu cầu ông phải chuyển tiền đền bù nếu không muốn bị gửi hình chụp các đoạn chat và video sex giữa hai người cho người thân và các đối tác. Rồi ông H. được "người chồng" nhá một video sex của ông và cô gái kia, kèm video cuộc gọi giữa hai người, những đoạn tin nhắn tình cảm được chụp lại...
"Tôi chưa bao giờ gặp cô gái kia nên chắc chắn video sex là cắt ghép" - ông H. khẳng định. Tuy nhiên, hình ảnh khuôn mặt cô gái trong đoạn video sex và cô gái trong cuộc gọi video của ông lại là một, kèm theo hình chụp tin nhắn tình cảm, khiến ông H. đành phải nhiều lần chuyển tiền cho "người chồng" để giữ gìn thanh danh của mình.
Qua tìm hiểu của Tuổi Trẻ, ông H. đã bị lừa đảo có tổ chức theo một kịch bản hoàn hảo. Trong chiêu lừa này, ông H. đã hai lần bị deepfake qua mặt. Lần thứ nhất là cuộc gọi video và lần thứ hai là video sex. Đáng chú ý, trong đoạn video sex, ông H. đã bị ghép mặt rất khéo đến mức người xem khó tin đó là video ghép mặt. Chuyên gia về AI khẳng định rằng kẻ xấu đã dùng công cụ AI mới có khả năng ghép mặt vào video hoàn hảo... như thật.
Một trường hợp tương tự trước đó tại Hà Tĩnh, từ trình báo của một người dân tại huyện Thạch Hà, Phòng Cảnh sát hình sự Công an Hà Tĩnh đã phối hợp với Công an thành phố Hồ Chí Minh, kịp thời phát hiện, ngăn chặn và bắt giữ đối tượng liên quan đến hành vi tống tiền qua mạng xã hội. Nạn nhân trong vụ việc là một nữ sinh đang theo học tại một trường THPT trên địa bàn.
Từ mối quan hệ yêu đương bình thường, đối tượng bị lôi kéo vào đường dây lừa đảo có trụ sở tại nước ngoài đã sử dụng công nghệ để cắt ghép, chỉnh sửa hình ảnh khuôn mặt của nạn nhân vào các hình ảnh, video clip nhạy cảm rồi đe dọa sẽ phát tán, gửi cho người thân, bạn bè nếu không chuyển tiền cho đối tượng. Sau khi bị đe dọa, nạn nhân lo sợ đã giấu bố mẹ chuyển tiền và hiện vật cho đối tượng. Rất may, gia đình đã kịp thời phát hiện sự bất thường trong tâm lý của con nên đã nhờ cơ quan công an vào cuộc và đã ngăn chặn kịp thời.
Anh Hoàng Văn T., trú tại thành phố Đồng Hới, tỉnh Quảng Bình cũng là một trong những nạn nhân của hình thức lừa đảo này. Thông qua mạng xã hội facebook, một tài khoản có tên là “Khánh Vân” đã chủ động làm quen, bắt chuyện qua ứng dụng tin nhắn messenger với anh T. Sau một thời gian, anh T. như kẻ mê muội, nghe theo lời dẫn dụ “chat nhạy cảm”, ngay sau khi có hình ảnh nhạy cảm và khuôn mặt của nạn nhân, lập tức “Khánh Vân” thay đổi thái độ, dùng những hình ảnh “nhạy cảm” được cắt ghép, chỉnh sửa nhằm thực hiện hành vi đe dọa, tống tiền nếu không sẽ tung lên mạng.
Sau nhiều lần chuyển tiền nhưng đối tượng vẫn tiếp tục nhắn tin thúc giục chuyển với số tiền lớn hơn, nếu không sẽ phát tán các nội dung video, hình ảnh được cắt ghép “nhạy cảm” liên quan cho người thân, bạn bè của nạn nhân. Anh T. cho biết, thủ đoạn đối tượng rất tinh vi và đáng sợ, ngày nào cũng “khủng bố” bằng tin nhắn, điện thoại yêu cầu chuyển tiền. Tổng cộng, người này đã chuyển 4 lần với số tiền hơn 10 triệu đồng nhưng đối tượng vẫn không buông tha và tiếp tục đe dọa.
Hay anh Nguyễn Xuân P., trú tại TP Huế cũng rơi vào tình cảnh tương tự, khi tài khoản "Hồng Xuân” từ mạng xã hội facebook kết bạn rồi nhắn tin làm quen, sau đó yêu cầu anh P. kết bạn viber để tiện liên lạc. Sau một hồi nhắn tin thì đối tượng yêu cầu anh P. “chat nhạy cảm”, đối tượng đã bí mật ghi lại màn hình lại toàn bộ. Có được clip nhạy cảm, "Hồng Xuân” đe dọa sẽ gửi cho người thân anh P. và yêu cầu phải chuyển tổng số tiền 50 triệu đồng vào tài khoản mà đối tượng cung cấp. Sau khi nhận đủ 50 triệu đồng, anh P. tiếp tục bị khủng bố tinh thần, yêu cầu chuyển số tiền lớn hơn nên anh này đã khóa tài khoản facebook cá nhân, chặn tin nhắn, chặn liên lạc với đối tượng và đến cơ quan Công an trình báo.
Hiện có rất nhiều công cụ ứng dụng AI có các tính năng như tạo hình người bất kỳ với khuôn mặt mong muốn, ghép mặt mong muốn vào thân hình người khác. Trong đó, có những công cụ có tính năng phục vụ mục đích xấu như biến ảnh bình thường thành ảnh khỏa thân bằng cách "lột sạch đồ" của người trong ảnh, hay thay khuôn mặt một người trong các đoạn video bằng khuôn mặt mong muốn...
Phần lớn công cụ AI này đều có cho dùng thử, khi trả phí sẽ có đầy đủ tính năng với thời gian biến hình rất nhanh. Chẳng hạn với tính năng ghép mặt sang thân hình người khác, người dùng chỉ việc tải hai bức ảnh tương ứng lên và chờ vài giây sau là có kết quả. Hay với tính năng tạo ảnh khỏa thân từ ảnh thông thường, công cụ AI có thể làm rất nhanh, chỉ vài chục giây, khiến người xem phải giật mình. Ngay cả tính năng thay khuôn mặt vào các video sex, công cụ AI cũng làm rất nhanh, mất chưa đến một phút với những video có độ dài vài giây.
Trao đổi về vấn đề này, ông Nguyễn Kim Thọ, trưởng nhóm nghiên cứu phát triển của Công ty bảo mật an ninh mạng VNetwork, phân tích thuật ngữ deepfake dùng để chỉ các video, hình ảnh giả mạo được tạo ra nhờ AI nhằm khiến người xem tưởng thật.
Công nghệ deepfake sử dụng các mô hình học sâu (deep learning) như mạng nơron để phân tích dữ liệu khuôn mặt, giọng nói của một người và tạo ra nội dung giả giống hệt người đó. Nhờ các thuật toán mạnh mẽ, kẻ xấu có thể ghép mặt nạn nhân vào video nhạy cảm (ví dụ video "giường chiếu", khiêu dâm) hoặc chỉnh sửa hình ảnh để tạo ảnh khỏa thân giả.
Các phần mềm và ứng dụng deepfake hiện nay rất phổ biến trên Internet, thậm chí có cả ứng dụng di động, mã nguồn mở hoặc dịch vụ trực tuyến miễn phí - khiến ai cũng có thể tiếp cận công cụ tạo video, ảnh giả mạo dễ dàng, vì vậy mọi người cần cảnh giác", ông Thọ cho hay.
Công an Hà Tĩnh cũng khuyến cáo, khi sự cố xảy ra, càng cứng rắn thì tội phạm càng nản chí và sẽ bỏ cuộc, ngược lại nếu tỏ ra lo sợ thì chúng càng đe dọa và uy hiếp đến khi đạt được mục đích là tống tiền và chiếm đoạt tài sản.
Cơ quan Công an cũng gửi thông điệp đến người sử dụng mạng xã hội, cần đề cao cảnh giác, tránh bị các đối tượng lợi dụng để thực hiện các hành vi phạm tội. Trong đó, chú trọng nâng cao ý thức bảo vệ dữ liệu cá nhân, không chia sẻ các hình ảnh cá nhân; tuyệt đối không quay hoặc chia sẻ hình ảnh, video clip có nội dung nhạy cảm. Khi tham gia kết bạn, làm quen trên mạng xã hội; cần phải kiểm chứng ngoài thực tế và không nên cung cấp thông tin cá nhân, hình ảnh cá nhân cho đối tượng không quen biết và không truy cập vào các trang website có đường dẫn lạ. Khi trở thành nạn nhân, tuyệt đối không chuyển tiền mà cần trình báo ngay cơ quan Công an để được hỗ trợ.
An Dương (T/h)