Không chỉ Taylor Swift, ai cũng đều có nguy cơ đối mặt với nạn ‘deepfake’!
Ngày đăng: 06/02/24
Công nghệ sử dụng AI giả mạo khuôn mặt – deepfake đang vượt quá tầm kiểm soát – và phụ nữ là nạn nhân chịu ảnh hưởng nặng nề từ công nghệ này.
Hãy tưởng tượng vào một tối rảnh rỗi, bạn đang lướt mạng xã hội và vô tình bắt gặp một video khiêu dâm. Và khi chưa kịp làm bất kỳ hành động gì, bạn giật mình và kinh hoàng nhận ra rằng: cô gái trong video có khuôn mặt của bạn.
Tuần trước, viễn cảnh này đã xảy ra với Taylor Swift. Hàng loạt bức ảnh khiêu dâm sử dụng công nghệ deepfake với khuôn mặt của ngôi sao này đã tràn lan khắp các mạng xã hội, bao gồm cả X và Meta. Những bức ảnh này không chỉ được thực hiện khi không có sự đồng thuận của nữ ca sĩ, mà chúng còn được cho là diễn tả cảnh cô bị hành hung trong các hành vi tình dục không có sự đồng thuận.
Theo NBC News, các tấm hình deepfake về Taylor Swift đã được lan truyền rộng rãi với 27 triệu lượt xem và hơn 260 nghìn lượt thích trong 19 tiếng đồng hồ, trước khi tài khoản đăng tải các hình ảnh này bị đình chỉ hoạt động. X đã phải chặn cụm từ tìm kiếm “Taylor Swift”. Joe Benarroch, trưởng bộ phận phát triển doanh nghiệp tại X, mô tả các biện pháp này là “tạm thời”, bổ sung rằng các biện pháp đã được thực hiện “hết sức thận trọng khi chúng tôi ưu tiên sự an toàn trong vấn đề này.”
Taylor Swift được hiểu là (theo tờ Daily Mail) đang cân nhắc các hành động pháp lý chống lại trang web deepfake tạo ra những bức ảnh trên. Tuy nhiên, rất nhiều nạn nhân của nội dung khiêu dâm sử dụng deepfake không có đủ hồ sơ pháp lý, cũng như tài chính để khiếu kiện.
Người phát ngôn của Meta đã lên tiếng: “Nội dung này vi phạm các quy định của chúng tôi, và chúng tôi đã gỡ bỏ nó khỏi nền tảng và hành động chống lại tài khoản đã đăng tải nội dung trên. Chúng tôi đang tiếp tục rà soát, và nếu phát hiện thêm bất kỳ nội dung nào vi phạm, chúng tôi sẽ gỡ bỏ nó và có các biện pháp xử lý.”
Taylor Swift (theo tờ Daily Mail) được cho là đang cân nhắc các hành động pháp lý chống lại trang web deepfake tạo ra những bức ảnh trên. Tuy nhiên, rất nhiều nạn nhân của nội dung khiêu dâm sử dụng deepfake không có đủ hồ sơ pháp lý, cũng như tài chính để khiếu kiện.
Ở giai đoạn cao điểm của đại dịch Covid-19, Helen Mort, một nhà thơ và giảng viên đến từ Sheffield, Anh, phát hiện ra rằng các hình ảnh khiêu dâm, được cho là của cô, được đăng tải trên một trang web khiêu dâm. Tất nhiên, đó là những hình ảnh deepfake. “Nó thật sự làm tôi cảm thấy lo âu và phiền não,” cô chia sẻ với tạp chí GLAMOUR. “Tôi cảm thấy không được an toàn.”
Trong khi những hình ảnh bị làm giả của Helen đã được xoá ngay sau khi cô phát hiện ra, những tấm hình deepfake của Taylor Swift đã làm cô nhớ lại trường hợp của mình. Helen cho rằng hình ảnh khiêu dâm sử dụng deepfake khi không có sự đồng thuận “có lẽ vô cùng phổ biến”. Đúng vậy, một chính sách tóm tắt về những hành vi xâm hại dựa trên hình ảnh cũng lưu ý rằng “những nhóm người dễ bị tổn thương, cụ thể là phụ nữ và trẻ em gái, đối mặt với rủi ro ngày càng lớn và thách thức đặc biệt trong việc chống lại lạm dụng tình dục dựa trên hình ảnh deepfake.”
Vậy Deepfake là gì?
Liên minh vì Quyền kỹ thuật số toàn cầu định nghĩa deepfake là: “Phương tiện tổng hợp đã được xử lý kỹ thuật số để thay thế hình ảnh của một người bằng hình ảnh của người khác một cách đầy thuyết phục. Việc tạo ra các tác phẩm deepfake bao gồm việc thu thập những hình ảnh thực tế hàng ngày của một ai đó và điều khiển chúng để tạo ra mô tả sai lệch về việc họ đang làm hoặc nói điều gì đó mà họ chưa hề làm.”
Có vô số các vấn đề liên quan tới deepfake, nhưng tới nay, vấn đề cấp bách nhất là việc sử dụng công nghệ này để tạo ra các nội dung khiêu dâm không có sự đồng thuận. Nó mang quan điểm vô cùng sai lệch của chủ nghĩa thù ghét phụ nữ: một báo cáo toàn diện về deepfake trong năm 2023 khẳng định rằng nội dung khiêu dâm deepfake chiếm 98% video deepfake được tìm thấy trực tuyến. Tệ hơn nữa, 99% đối tượng bị nội dung khiêu dâm deepfake nhắm tới là phụ nữ.
Một báo cáo toàn diện về deepfake trong năm 2023 khẳng định rằng nội dung khiêu dâm deepfake chiếm 98% video deepfake được tìm thấy trực tuyến. Tệ hơn nữa, 99% đối tượng bị nội dung khiêu dâm deepfake nhắm tới là phụ nữ.
“Lạm dụng tình dục dựa trên deepfake thường được thử để khiến những người phụ nữ dám lên tiếng phải im lặng,” Clare McGlynn, Giáo sư Luật pháp tại Đại học Durham – cơ quan có thẩm quyền hàng đầu về luật deepfake – cho biết. “Chúng ta chứng khiến điều này xảy ra với Taylor Swift. Chúng ta chứng kiến điều này xảy ra với nhiều chính trị gia nữ, khi nội dung khiêu dâm deepfake là một nỗ lực nhằm đe doạ họ. Chúng ta chứng kiến điều này xảy ra với rất nhiều phụ nữ của công chúng.”
Amanda Manyame, Cố vấn về quyền kỹ thuật số của tổ chức hoặt động về quyền con người Equality Now, người làm việc ở lĩnh vực giao thoa giữa công nghệ và luật pháp, đồng ý rằng phụ nữ nổi tiếng trong công chúng có nguy cơ đặc biệt bị lạm dụng dựa trên deepfake. Cô chia sẻ, “Bất kỳ ai cũng có thể là nạn nhân của lạm dụng tình dục dựa trên hình ảnh deepfake, nhưng phụ nữ nổi tiếng trong công chúng và các vị trí quyền lực – chẳng hạn như người nổi tiếng, chính trị gia, nhà báo và người bảo vệ nhân quyền – là mục tiêu đặc biệt.”
Bất kỳ ai cũng có thể là nạn nhân của lạm dụng tình dục dựa trên hình ảnh deepfake, nhưng phụ nữ nổi tiếng trong công chúng và các vị trí quyền lực – chẳng hạn như người nổi tiếng, chính trị gia, nhà báo và người bảo vệ nhân quyền – là mục tiêu đặc biệt.
Nhưng chứng kiến những người phụ nữ có địa vị cao trở thành nạn nhân trong vấn đề này cũng có tác động sâu sắc đối với phụ nữ và trẻ em gái. Khi Ellie Wilson, một người ủng hộ việc cải cách tư pháp, đăng bài về phản ứng đáng lo ngại của đại đa số về những hình ảnh deepfake của Taylor Swift, cô đã phải đối mặt với cơn thịnh nộ của cộng đồng mạng. “Họ doạ sẽ tạo ra những hình ảnh deepfake tương tự cho tôi…Những cuộc tấn công mạng chỉ vì tôi bày tỏ quan điểm của mình nhấn mạnh rằng mọi thứ đang trở nên nguy hiểm như thế nào đối với phụ nữ chỉ đơn giản là tồn tại trên mạng internet.”
Olivia DeRamus, người sáng lập và CEO của Communia, một mạng xã hội được tạo ra bởi phụ nữ và dành cho phụ nữ, lưu ý rằng ngay cả việc nêu quan điểm chống lại công nghệ deepfake cũng có thể khiến phụ nữ gặp nguy hiểm. “Chỉ là một người phụ nữ nói về deepfake cũng đã khiến tôi trở thành mục tiêu bị tấn công, cùng với vô vàn các chị em khác, như những nữ nhà báo viết về nó, những Swifties – cộng đồng người hâm mộ của Taylor Swift – phản đối nó, và cả những nữ chính trị gia muốn giải quyết vấn đề này.”
Giáo sư Clare McGlynn diễn giải rằng công nghệ deepfake đại diện cho mối đe doạ đối với mọi phụ nữ và trẻ em gái, với lý do “chúng có thể tàn phá cuộc sống công sở và riêng tư của chúng ta.”
Rõ ràng rằng công nghệ deepfake đang vượt khỏi tầm kiếm soát quá nhanh. Amanda Manyame trích dẫn “những tiến bộ nhanh chóng trong công nghệ và khả năng kết nối” khiến việc tạo ra nội dung deepfake lạm dụng tình dục “ngày càng dễ dàng và rẻ”. Cô nói thêm: “Không gian mạng tạo điều kiện thuận lợi cho việc lạm dụng vì thủ phạm không cần phải ở gần nạn nhân.
“Ngoài ra, tính năng ẩn danh do Internet mang lại tạo ra môi trường hoàn hảo cho thủ phạm gây hại trong khi vẫn ẩn danh và khó truy tìm.”
Hơn nữa, hầu hết các quốc gia đều không được trang bị đầy đủ để đối phó với những tác hại do công nghệ tạo ra, chẳng hạn như lạm dụng dựa trên hình ảnh deepfake. Ví dụ như ở Vương quốc Anh, việc chia sẻ nội dung khiêu dâm deepfake mà không có sự đồng ý là vi phạm – theo Đạo luật An toàn Trực tuyến – nhưng nó không bao gồm việc tạo ra những hình ảnh như vậy. Amanda Manyame giải thích: “Khoảng trống này đã tạo ra một môi trường thuận lợi cho những kẻ phạm tội “lách luật”, khi biết rằng họ khó có thể bị phát hiện hoặc trừng phạt. Tình hình trở nên tồi tệ hơn do sự thiếu trách nhiệm pháp lý trong việc quản lý lĩnh vực công nghệ, vốn hiện nay không cần phải đảm bảo an toàn bằng thiết kế ở giai đoạn mã hóa hoặc tạo lập.”
Trong khi đó, chính lĩnh vực công nghệ lại đang bỏ rơi các nạn nhân. Như Amanda Manyame chia sẻ, “Việc kiểm duyệt nội dung trên nền tảng công nghệ chủ yếu dựa vào báo cáo của nạn nhân, nhưng cơ chế báo cáo nhìn chung khó sử dụng và nhiều nền tảng thường không phản hồi yêu cầu xóa nội dung lạm dụng hoặc chỉ phản hồi sau một thời gian dài”.
Hy vọng rằng, những đạo luật liên quan tới việc ngăn chặn, xử lý vấn đề lạm dụng tình dục dựa trên deepfake sẽ sớm được ban hành, để mọi phụ nữ và trẻ em gái đều có thể được an toàn trên không gian mạng.
Thực hiện: Lexi Han
Theo Glamour