Cảnh báo lừa tiền thông qua AI tạo hình ảnh và giọng nói giả mạo

author 07:55 04/02/2024

(VietQ.vn) - Tập đoàn Bkav cho biết, đơn vị này liên tục nhận được các báo cáo và yêu cầu trợ giúp của nạn nhân về các vụ việc lừa đảo tiền thông qua AI tạo hình ảnh và giọng nói giả mạo.

Theo các chuyên gia của Bkav, trong trường hợp bị lừa tiền thông qua AI tạo hình ảnh và giọng nói giả mạo, kẻ xấu sẽ kiểm soát tài khoản Facebook nhưng không lập tức chiếm đoạt hoàn toàn mà âm thầm theo dõi, chờ cơ hội giả làm nạn nhân để hỏi vay tiền bạn bè, người thân của họ.

Hacker sử dụng AI để tạo sẵn một đoạn video giả mạo gương mặt và giọng nói của chủ tài khoản Facebook (Deepfake). Khi được yêu cầu gọi điện video call để chứng thực, các đối tượng này đồng ý nhận cuộc gọi nhưng sau đó nhanh chóng ngắt kết nối để tránh bị phát hiện.

Cảnh báo lừa tiền thông qua AI tạo hình ảnh và giọng nói giả mạo.

Ông Nguyễn Tiến Đạt, Tổng Giám đốc Trung tâm nghiên cứu mã độc (AntiMalware) của Bkav, cho biết, khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi. Điều này cũng có nghĩa là mức độ phức tạp của các kịch bản lừa đảo khi kết hợp giữa Deepfake và GPT sẽ ngày càng cao, khiến việc nhận diện lừa đảo sẽ khó khăn hơn rất nhiều.

Trước tình trạng trên, các chuyên gia Bkav khuyến cáo người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân (căn cước công dân, tài khoản ngân hàng, mã OTP…), không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo.

Khi có yêu cầu vay hoặc chuyển tiền vào tài khoản qua mạng xã hội, người dân nên thực hiện các phương thức xác thực khác như gọi điện thoại hay sử dụng các kênh liên lạc khác để xác nhận lại.

Nam Dương

Thích và chia sẻ bài viết:

tin liên quan

video hot

Về đầu trang