Facebook'tan bir skandal itiraf daha
Son dönemde kullanıcılarının veri gizliliği, akıl sağlığı ve mahremiyet konularında birçok tartışmanın odağında olan Facebook'un eski yöneticilerinden biri Wall Street Journal'a itirafta bulundu.
Wall Street Journal, Facebook’un geliştirdiği yapay zeka moderasyon sisteminin birçok dili tercüme edemediğini ve bu sebeple birçok ülkedeki insanların zararlı paylaşımlara ve içeriklere maruz kaldığını ortaya çıkardı.
Facebook’un otomatik içerik moderasyon sisteminin birçok dili algılayamadığını ortaya çıkaran Wall Street Journal, Facebook bünyesinde bu konuda çalışan insanların ise Facebook’un varlığını gösterdiği yabancı pazarlardaki dilleri bilmediği için bir harekete de geçemediğini yazdı.
ESKİ BAŞKAN YARDIMCISI İTİRAF ETTİ
Bu sebeple Facebook’un yanlış bilgi ve zararlı içeriklerle, şiddet görsellerine ve yasa dışı ticarete ev sahipliği yaptığı belirlendi. Wall Street Journal, Facebook bünyesinde yerel dilleri konuşan yeterli sayıda çalışanı olmadığını yazarken, “Facebook’un aylık kullanıcılarının yüzde 90’ı Kuzey Amerika dışından. Facebook bu pazarlardaki ülkelere genişledi ama yerel dili bilen çalışan sayısı az” yorumunu yaptı.
Facebook’un çift dil bilen çalışan sayısındaki eksiklik ve yazılımın da dili algılayamamasının büyük bir problem olduğu belirtildi.
Öte yandan ismini açıklamak istemeyen Facebook’un eski başkan yardımcılarından biri, “Facebook, sadece iş yapmak adına birçok yabancı ülkedeki kullanıcılarına zarar veriyor. Ve çok nadiren belirli bir alandaki bir sorunu çözmek için yatırım yapıyorlar” dedi.
Uyuşturucu tacirlerinin Facebook’u kullanarak kurbanlarını seçtiği belirtilirken gazeteye konuşan ABD’li bir yetkili, ABD’nin bir tehdit olarak gördüğü bir uyuşturucu kartelinin şiddet görselleri paylaştığını da duyurdu. Facebook içerisinde yapılan bir iç soruşturma sonrasında bu kartelin yasaklanması talebi gündeme gelse de, Facebook içerisindeki yöneticilerin daha sonra bu konuda bir adım atmadığı kaydedildi.
“TEPKİ GELİRSE İÇERİK SİLİNİYOR”
Benzer bir şekilde Etiyopya’nın Tigray bölgesinde yaşanan etnik şiddet ile ilgili de yanlış ve zararlı bilgilerin kullanıcılara aktarıldığı belirtildi. Wall Street Journal, bölgede yerel dili bilen çalışan olmadığı için bu konuda yanlış bilgilerin yayıldığını aktardı.
Wall Street Journal, “Facebook genelde, yanlış ve zararlı bir bilgi kamuoyunun tepkisini çektiğinde indiriyor. Facebook otomatik sistemini düzeltmeye çalışmadı” ifadesini kullandı. Öte yandan Facebook’un Mayıs ayında El-Aksa hashtagi ile paylaşılan bir paylaşımı da silmesi büyük tepki yaratmıştı. Facebook yazılımı El-Aksa’yı, ABD ve AB’de terör örgütü kabul eden El-Aksa Şehitleri Tugayı sandığı için bu paylaşımı sildiğini duyurdu.