Metaverse'ten cinsel içerikli intikam filmleri için tepki çeken talep
Facebook'un çatı şirketi Meta, bir kişinin mahrem görüntülerinin rızası olmadan paylaşılmasını engelleyecek sistemi 2 Kasım'da hizmete sundu.
Meta'nın yanı sıra kâr amacı gütmeyen 50 kuruluşla geliştirilen StopNCII.org adlı internet sitesinde, cinsel içerikli intikam filmlerinin yayılmasını istemeyenlerin, mahrem görüntülerini sisteme yüklemesi gerekiyor. Sistem, Facebook'un ilk kez 2017'de Avustralya'da başlattığı pilot uygulamaya dayanıyor.
İnternet sitesine yüklenilen görüntü, "hash" denen dijital parmak izine dönüştürülüyor. Dolayısıyla internet sitesi, yüklenen fotoğraf veya videolara değil dijital parmak izine erişebiliyor. Veriler bunun ardından sisteme katılan platformlara aktarılıyor. Şirketler, verilerle eşleşen görüntülerin platformlarına yüklenip yüklenmediğini kontrol ediyor.
Bir eşleşme yakalandığı takdirde platformdaki içerik moderatörleri, görüntüyü inceliyor ve kuralların ihlal ettiği tespit edildiği keşfedilirse görüntüler silinip tekrar yükleme girişimleri engelleniyor.
Yalnızca 'kesin eşleşmeler' tespit edilebiliyor
Sistemin geliştirilmesinde yer alan Birleşik Krallık merkezli Revenge Porn Helpline (Yardım Hattı) adlı sivil toplum kuruluşundan Sophie Mortimer, sosyal medya şirketlerinin ve yetişkin içerikli sitelerin sisteme katılmayı düşündüğünü söyledi:
"Endüstrinin bütün bileşenlerine açık tek bir sistemin olması önemli. Materyallerin tek bir platformda paylaşılmadığını ve çok daha bütünleşik bir yaklaşım gerektiğini biliyoruz."
Meta Küresel Güvenlik Politikası Direktörü Karuna Nain, diğer şirketlerin de sistemi kolayca kullanabilmesi için bağımsız bir internet sitesi açtıklarını ifade etti.
Nain ayrıca sistemin eksikliklerine işaret etti. Zira yalnızca "kesin eşleşmeler" tespit edilebiliyor. Direktör, görüntülerde ufak değişikliklerle sistemden kaçılabileceğini ve çalışmalarını sürdürdüklerini sözlerine ekledi.