Vấn nạn công nghệ số: Deepfake đang trở thành công cụ chỉnh sửa ảnh nóng và video nhạy cảm

author 06:10 21/04/2023

(VietQ.vn) - Công nghệ Deepfake đang dần trở thành công cụ nguy hiểm khi có thể ghép nhiều khuôn mặt khác nhau vào video và hình ảnh không lành mạnh nhằm mục đích xấu như: Khiêu dâm, uy hiếp, lừa đảo… một cách rất dễ dàng.

Khi công nghệ bị lạm dụng thành trò tiêu khiển đồi bại

Theo Reuters, Deepfake được ghép bởi “deep learning” (học sâu), một phần của AI và “fake” (giả). Thông qua quá trình “học sâu”, chương trình máy tính có thể tạo ra hình ảnh, video giả, với nhân vật có những nét biểu cảm, chuyển động và giọng nói như thật. Deepfake AI là một công nghệ mới. Theo Tech Target, Deepfake có nguồn gốc từ khả năng chỉnh sửa ảnh thông qua các chương trình như Adobe Photoshop. Vào giữa những năm 2010, sức mạnh tính toán và bộ dữ liệu lớn cho phép công nghệ máy học cải thiện đáng kể các thuật toán, giúp ảnh chỉnh sửa trở nên giống thật hơn. Bước nhảy vọt về chất lượng và khả năng tiếp cận Deepfake được ghi nhận vào năm 2014, khi nhà nghiên cứu Ian Goodfellow của Đại học Montreal (Canada) công bố mạng đối nghịch tạo sinh (GAN). Năm 2017, một người dùng ẩn danh trên Reddit bắt đầu phát tán các video Deepfake, ghép mặt của những người nổi tiếng vào cơ thể không phải của họ, đồng thời chia sẻ công cụ GAN cho phép người dùng tự tráo đổi khuôn mặt trong video. Kể từ đó, những nội dung liên quan Deepfake đã lan truyền mạnh mẽ trên internet và trên phương tiện truyền thông xã hội.

Kể từ đó, những người tạo Deepfake đã liên tục đăng tải các video và hình ảnh tương tự nhắm mục tiêu đến những người có ảnh hưởng trực tuyến, nhà báo và những người khác có hồ sơ công khai. Hàng ngàn video như vậy tồn tại trên rất nhiều trang web. Việc các công nghệ AI ngày càng dễ tiếp cận, điều này cho phép người dùng biến bất kỳ ai họ muốn thành những "ngôi sao phim kiêu dâm" mà không cần sự đồng ý của họ, hoặc nguy hiểm hơn là sử dụng công nghệ này để bôi nhọ hoặc tống tiền người khác. Các chuyên gia cho biết vấn đề có thể trở nên tồi tệ hơn với sự phát triển của các công cụ AI tổng quát được đào tạo dựa trên hàng tỷ hình ảnh từ internet và tạo ra nội dung mới bằng cách sử dụng dữ liệu hiện có.

Những người tạo Deepfake đã liên tục đăng tải các video và hình ảnh tương tự nhắm mục tiêu đến những người có ảnh hưởng trực tuyến, nhà báo và những người khác có hồ sơ công khai. Ảnh minh họa

“Thực tế là công nghệ sẽ tiếp tục sinh sôi nảy nở, sẽ tiếp tục phát triển và sẽ tiếp tục trở nên dễ dàng và dễ tiếp cận hơn", Adam Dodge, người sáng lập EndTAB, một nhóm cung cấp các khóa đào tạo về lạm dụng công nghệ cho biết. “Và chừng nào điều đó còn xảy ra, chắc chắn mọi người sẽ ... tiếp tục lạm dụng công nghệ đó để gây hại cho người khác, chủ yếu thông qua bạo lực tình dục trực tuyến, nội dung khiêu dâm Deepfake và hình ảnh khỏa thân giả".

Cô Noelle Martin ở Perth, Australia, đã trải qua thực tế đó. Cô gái 28 tuổi này đã tìm thấy Deepfake khiêu dâm của chính mình 10 năm trước khi một ngày nọ, vì tò mò, cô đã sử dụng Google để tìm kiếm hình ảnh của chính mình. Cho đến ngày nay, Martin nói rằng cô không biết ai đã tạo ra những hình ảnh hoặc video khiêu dâm giả mạo này. Cô nghi ngờ ai đó đã sử dụng các hình ảnh trên mạng xã hội của mình để tạo các video khiêu dâm. Dù Martin đã cố gắng liên hệ với các trang web để loại bỏ các video này, nhưng nỗ lực là vô vọng. Một số không trả lời. Một số khác có gỡ xuống nhưng lại nhanh chóng đăng tải trở lại. “Bạn không thể thắng”, cô Martin nói. “Điều đó sẽ mãi mãi tồn tại trên Internet và có thể hủy hoại đời bạn".

Một trường hợp khác cũng bị ảnh hưởng xấu từ Deepfake đó là Blaire, nữ streamer nổi tiếng trên Twitch, bất ngờ nhận được tin nhắn của bạn trai về hình ảnh khiêu dâm có mặt cô đang được phát tán khắp Internet. "Như một cú tát mạnh. Dù không phải cơ thể mình, tôi vẫn ghê sợ khi thấy nội dung khiêu dâm có mặt mình", Blaire nói với Vice. Tệ hơn, các bức ảnh đó đã đến tay gia đình Blaire. Họ không biết Deepfake là gì, điều duy nhất họ tin là con gái mình đã làm điều tồi tệ. Một số người khác trong gia đình thậm chí bị cộng đồng mạng tấn công.

 Blaire khóc trong buổi livestream về trải nghiệm khi trở thành nạn nhân của Deepfake

Blaire tìm mọi cách gỡ hình ảnh đó khỏi mạng xã hội nhưng bất thành. Tốc độ phát tán tăng lên theo cấp số nhân. Trong buổi livestream hồi đầu năm, cô khóc và nói không hiểu sao mọi thứ trở nên tồi tệ thế. "Tôi là nạn nhân của deepfake khiêu dâm, nhưng giờ tôi phải trả tiền để gỡ ảnh xuống", nữ streamer nói.

Nhiều người thậm chí biến lời kêu cứu của Blaire thành trò đùa, cho rằng cô chỉ đang tìm cách thu hút cộng đồng. Một số nói Deepfake không gây hại vì không có thật. Tuy nhiên, theo giáo sư Cailin O'Connor tại Đại học California, tác giả cuốn Thời đại thông tin sai lệch, Deepfake có thể gây tác hại không kém những hình ảnh thật. "Dù chúng là giả hay không, ấn tượng được gieo vào đầu người xem vẫn tồn tại. Nạn nhân của Deepfake luôn phải đón nhận ánh nhìn tò mò, giễu cợt và thiếu tôn trọng", giáo sư nói.

Nỗ lực khắc phục của các công ty công nghệ

OpenAI cho biết họ đã xóa nội dung khiêu dâm khỏi dữ liệu được sử dụng để đào tạo công cụ tạo hình ảnh DALL-E, điều sẽ hạn chế khả năng chúng bị sử dụng sai mục đích. Công ty cũng lọc các yêu cầu và cho biết họ chặn người dùng tạo hình ảnh AI của những người nổi tiếng và chính trị gia nổi tiếng. Midjourney, một mô hình khác, cũng chặn việc sử dụng một số từ khóa nhất định và khuyến khích người dùng gắn cờ các hình ảnh có vấn đề cho người kiểm duyệt. Trong khi đó, Stability AI cũng đã tung ra một bản cập nhật ngăn người dùng tạo ra các hình ảnh nhạy cảm. Những thay đổi này xuất hiện sau các báo cáo rằng một số người dùng đang tạo ra những bức ảnh khỏa thân lấy cảm hứng từ người nổi tiếng bằng công nghệ này. Người phát ngôn của Stability AI, Motez Bishara, cho biết bộ lọc sử dụng kết hợp các từ khóa và các kỹ thuật khác như nhận dạng hình ảnh để phát hiện ảnh khoả thân. Nhưng người dùng có thể thao tác phần mềm và tạo ra những gì họ muốn vì công ty đã phát hành mã mở cho ứng dụng này.  Một số công ty truyền thông xã hội cũng đã thắt chặt các quy tắc để bảo vệ nền tảng của họ tốt hơn trước các tài liệu có hại.

Tháng trước, TikTok cho biết tất cả các nội dung Deepfake hoặc bị thao túng phải được gắn nhãn để cho biết chúng là giả mạo hoặc bị thay đổi theo một cách nào đó. Nền tảng trò chơi Twitch gần đây cũng đã cập nhật các chính sách của mình về các hình ảnh Deepfake sau khi một người phát trực tiếp nổi tiếng tên là Atrioc bị phát hiện mở một trang web khiêu dâm Deepfake trên trình duyệt của mình trong một buổi phát trực tiếp vào cuối tháng 1. Apple và Google cho biết gần đây họ đã xóa một ứng dụng khỏi các cửa hàng ứng dụng của mình vì chạy các video Deepfake gợi dục để tiếp thị sản phẩm.

Những người được nhắm tới nhiều nhất là ca sỹ phương Tây và thần tượng K-pop

Nghiên cứu về Deepfake khiêu dâm không phổ biến, nhưng một báo cáo do công ty AI DeepTrace Labs công bố vào năm 2019 cho thấy nó gần như hoàn toàn được vũ khí hóa để chống lại phụ nữ. Các đối tượng bị nhắm mục tiêu nhiều nhất là các nữ diễn viên phương Tây, tiếp theo là các ca sĩ K-pop. Người phát ngôn của Meta, Dani Lever, cho biết trong một tuyên bố rằng chính sách của công ty hạn chế cả nội dung người lớn do AI và không phải AI tạo ra, đồng thời hạn chế trang của ứng dụng tạo Deepfake quảng cáo trên nền tảng của mình.

Vào tháng 2, Meta, cũng như các trang web dành cho người lớn như Only**** và Porn***, bắt đầu tham gia vào một công cụ trực tuyến có tên là Take It Down, cho phép thanh thiếu niên báo cáo các hình ảnh và video khiêu dâm của chính họ từ internet. Trang web này hỗ trợ xử lý cả các video quay lén cũng như các video do AI tạo ra.

Khánh Mai (t/h)

Thích và chia sẻ bài viết:

tin liên quan

video hot

Về đầu trang