Khi những video, âm thanh và hình ảnh giả mạo do trí tuệ nhân tạo (AI) tạo ra (Deepfake) ngày càng gia tăng, tình trạng bạo lực tình dục kỹ thuật số đối với phụ nữ cũng tăng theo. Nhiều quốc gia và khu vực đang mạnh tay kiểm soát vấn nạn này.

Phụ nữ là nạn nhân chủ yếu của nội dung khiêu dâm Deepfake. Ảnh: iStock
Khi đồng nghiệp nói với luật sư Stefanie Yuen Thio về những đoạn video và hình ảnh khiêu gợi của cô lan truyền với tốc độ chóng mặt trên mạng xã hội TikTok, trong cô dâng trào nỗi sợ hãi tột độ. Yuen Thio kể khi xem những hình ảnh đó, cô thấy chúng rất thật. “Tôi cảm thấy rất sốc và bối rối. Tuy những hình ảnh đó là giả nhưng nó lại chân thực đến đáng sợ. Bạn bè đều nói không phải là lỗi của tôi. Tuy nhiên, vẫn cần một thời gian để tôi vượt qua điều đó” - Yuen Thio, Chủ tịch SG Her Empowerment (SHE), tổ chức phi lợi nhuận về trao quyền cho trẻ em gái và phụ nữ của Singapore, cho biết.
Theo nhà tâm lý học Mahima Didwania, các video AI dù là giả vẫn gây tổn hại nghiêm trọng, khiến nạn nhân bất lực khi hình ảnh của họ bị người khác kiểm soát. Báo cáo của SHE mới đây cho thấy nạn nhân bạo lực tình dục trực tuyến thường hoảng loạn, xấu hổ, mất ngủ, lo âu và thậm chí nghĩ đến việc tự làm hại bản thân vì sợ các video giả tiếp tục tái xuất.
Được tạo ra bởi các công cụ AI dễ tiếp cận, số lượng video Deepfake ngày một gia tăng. Báo cáo của Sumsub (Anh), nền tảng xác minh người dùng an toàn hàng đầu thế giới, cho thấy khu vực châu Á - Thái Bình Dương ghi nhận mức tăng 1.530% các vụ việc liên quan tới Deepfake trong giai đoạn 2022-2023, xếp thứ hai trên toàn cầu, sau Bắc Mỹ. Báo cáo trước đó của nền tảng phát hiện mối đe dọa AI, Sensity AI (Hà Lan), cho thấy khoảng 96% nội dung Deepfake là “nội dung khiêu dâm không đồng thuận” và hơn 90% trong số đó liên quan đến phụ nữ. Đáng lo ngại, các báo cáo về nội dung quấy rối tình dục trẻ em do AI tạo ra, chủ yếu là các bé gái, cũng tăng vọt. Riêng tại Singapore, cuộc cuộc khảo sát do SHE thực hiện hồi năm 2023 cho thấy phụ nữ trong độ tuổi 15-34 có nguy cơ bị quấy rối tình dục cao gấp đôi nam giới.
Trong bối cảnh đó, cả SHE và AWARE - tổ chức tình nguyện có trụ sở tại Ireland - đều nhấn mạnh bước đầu tiên và cấp bách nhất đối với các nạn nhân Deepfake là ngăn chặn sự lan truyền của video. TikTok quy định nếu nội dung vi phạm nguyên tắc cộng đồng, nền tảng này có thể xóa, cấm tài khoản hoặc báo cáo các vụ việc lạm dụng tình dục trẻ em cho chính quyền. Tương tự, Meta cho phép người dùng báo cáo nội dung khiêu dâm không đồng thuận. Nếu bị coi là không phù hợp, nội dung sẽ bị xóa và tài khoản cũng bị vô hiệu hóa.
Trước sự bùng nổ của hình ảnh khiêu dâm giả mạo bằng AI, nhiều nước và khu vực đã nhanh chóng hành động. Singapore đề xuất thành lập Ủy ban An toàn trực tuyến - cơ chế “một cửa” hỗ trợ nạn nhân, đồng thời buộc cả người dùng và nền tảng phải chịu trách nhiệm pháp lý. Liên minh châu Âu (EU) thông qua đạo luật hình sự hóa hành vi chia sẻ ảnh thân mật không đồng thuận, quấy rối, kích động thù hận trên mạng. Ý phạt tù 1-5 năm đối với việc phát tán ảnh/video AI giả mạo mang tính khiêu dâm. Đạo luật “Take It Down” của Mỹ coi việc đăng ảnh thân mật - kể cả AI tạo ra - là tội liên bang; yêu cầu các nền tảng gỡ nội dung trong vòng 48 giờ, trong khi “Đạo luật Dữ liệu mới” của Anh coi hành vi tạo Deepfake khiêu dâm không đồng thuận là phạm tội hình sự.
Liên Hiệp Quốc cho biết 85% phụ nữ từng chứng kiến bạo lực trên không gian mạng và gần 40% từng là nạn nhân. Khoảng 90-95% video Deepfake khiêu dâm không đồng thuận nhắm vào phụ nữ. Tuy nhiên, chưa đến 40% quốc gia có luật bảo vệ họ khỏi quấy rối trực tuyến, khiến 1,8 tỉ phụ nữ và trẻ em gái không được bảo vệ pháp lý đầy đủ.
Nhân Ngày Quốc tế xóa bỏ bạo lực đối với phụ nữ (25-11), chiến dịch “UNiTE để chấm dứt bạo lực số đối với phụ nữ và trẻ em gái” kêu gọi các chính phủ siết chặt thực thi pháp luật, doanh nghiệp công nghệ tăng cường an toàn nền tảng và xử lý nhanh nội dung độc hại.
TRÍ VĂN (Theo CNA)