Tội phạm sử dụng AI diễn biến phức tạp

author 19:16 09/12/2024

(VietQ.vn) - Nhiều chiêu trò sử dụng công nghệ trí tuệ nhân tạo để lừa đảo, đặt ra không ít khó khăn, thách thức trong công tác đấu tranh phòng chống tội phạm.

Thông tin từ Công an tỉnh Nghệ An cho biết, trong năm 2024 đơn vị đã phát hiện, bắt 1 vụ, 7 đối tượng sử dụng công nghệ Deepfake và phần mềm hỗ trợ để mở nhiều tài khoản thanh toán nhằm mục đích chiếm đoạt tiền voucher (phiếu hoặc mã mua hàng có giá trị tương đương tiền mặt) của các ngân hàng.

Ngoài ra, xuất hiện tình trạng đối tượng sử dụng công nghệ Deepfake để tạo ra hình ảnh, video của cán bộ cơ quan nhà nước nhằm thực hiện hành vi lừa đảo chiếm đoạt tài sản của người dân; nhiều trường hợp bị đối tượng sử dụng Deepfake để cắt ghép, tạo ra các hình ảnh, video "nhạy cảm" nhằm đe dọa nạn nhân với mục đích bôi nhọ danh dự, xúc phạm nhân phẩm và tống tiền; truyền bá thông tin sai lệch, tin giả nhằm gây ảnh hưởng đến dư luận, bất ổn xã hội. Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để người nhận cuộc gọi khó xác minh thật, giả. Khi nạn nhân sử dụng video để kiểm tra, chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa, tạo niềm tin.

Nhiều chiêu trò sử dụng công nghệ trí tuệ nhân tạo để lừa đảo. (Ảnh minh họa)

Trường hợp điển hình, chị Nguyễn Thị Th. (ngụ phường Linh Tây, Thành phố Thủ Đức, Thành phố Hồ Chí Minh) bị lừa mất 20 triệu đồng với hình thức gọi video qua Facebook. Khi chị Th. đang làm việc thì nhận được tin nhắn của bạn thân qua Facebook hỏi mượn 20 triệu đồng để đáo hạn ngân hàng. Nghi ngờ việc Facebook của bạn bị kẻ gian chiếm tài khoản nên chị đã gọi video để kiểm chứng.

Mở video, chị Th. vẫn nhìn thấy mặt bạn nhưng hình ảnh mờ, tiếng thoại chập chờn và phía bên kia lý giải đang ở vùng sóng điện thoại yếu và thúc giục chị chuyển gấp. Do tin tưởng đã kiểm tra kỹ nên chị Th. đã chuyển 20 triệu đồng vào số tài khoản "bạn" yêu cầu. Nửa tiếng sau, chị Th. kiểm tra bằng điện thoại mới biết mình bị lừa.

Để thực hiện hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật-giả, có hình ảnh, giọng nói của cá nhân để lừa đảo.

Việt Nam đang đối mặt với những nguy cơ trực tiếp đến từ sự bùng nổ của AI, đặc biệt là làn sóng tội phạm sử dụng công nghệ AI. Phổ biến nhất Deepfake đang được các đối tượng lừa đảo sử dụng khá phổ biến. Các sản phẩm âm thanh, hình ảnh, video, clip... giả mạo do Deepfake tạo ra thường nhằm giả mạo cơ quan chức năng hoặc người thân của mục tiêu để thực hiện việc lừa đảo. Các thông tin về CCCD, số tài khoản ngân hàng, số điện thoại, địa chỉ, các mối quan hệ trên trang mạng xã hội (MXH)... dễ bị lộ lọt là kẽ hở lớn để đối tượng lừa đảo nhắm tới.

Thông qua sức mạnh của AI đến từ khả năng thu thập, xử lý dữ liệu khổng lồ và phân tích các mẫu phức tạp, đối tượng xấu có nhiều chiêu trò để thuyết phục nạn nhân tin vào nội dung lừa đảo, qua đó chiếm đoạt tài sản hoặc thực hiện các mục đích xấu khác.

Để chủ động phòng ngừa, đấu tranh với tội phạm sử dụng công nghệ trí tuệ nhân tạo, cơ quan chức năng đã nhiều lần thông báo các phương thức thủ đoạn phạm tội đến cán bộ, đảng viên, công chức, viên chức, người lao động để nâng cao tinh thần cảnh giác. 

Ngoài ra, tăng cường tuyên truyền về phương thức, thủ đoạn của loại tội phạm trên đến nhân dân. Trong đó tập trung tuyên truyền cá biệt đối với những người cao tuổi, trình độ công nghệ thông tin còn hạn chế; người đầu tư tài chính nhưng hiểu biết về lĩnh vực này còn hạn chế, những người đầu tư mang tính chất "ăn theo"; người thất nghiệp, người muốn tìm kiếm thêm thu nhập thông qua mạng Internet...

Đối với người dân, cơ qua chức năng khuyến cáo, cần cẩn trọng trong bảo vệ dữ liệu cá nhân, không cung cấp thông tin cá nhân, tài khoản, mã OTP của ngân hàng cho bất kỳ ai nếu chưa rõ lai lịch.

Thanh Hiền (t/h)

Thích và chia sẻ bài viết:

tin liên quan

video hot

Về đầu trang