Facebook’un nefret söylemi ve şiddet içeren gönderileri belirleyen yapay zekâsı çalışmıyor

Facebook’ta sular durulmuyor. Sosyal medya platformunun eski çalışanlarından yeni iddialar ortaya atılırken, platform içindeki araştırmalar da basına sızmaya devam ediyor.

Son olarak Wall Street Journal’ın haberine göre şirket içerisindeki bir araştırma platformun, nefret söylemi ve şiddet içeren gönderileri engellemek için kullandığı yapay zekânın çalışmadığını ortaya koyuyor.

Wall Street Journal’ın haberine göre; Facebook üst düzey mühendisleri, şirketin otomatik sisteminin platformda görüntülenen ve kuralları ihlal eden nefret söyleminin yalnızca yüzde 2’sini kaldırdığını söylüyor. Başka bir Facebook çalışan grubu da benzer bir sonuca varıyor ve Facebook’un yapay zekâsının platformda yer alan nefret söyleminin yalnızca yüzde 3 ila yüzde 5’ini ve Facebook’un şiddet kurallarını ihlal eden içeriğin de yüzde 0,6’sını kaldırdığını söylüyor.

ZUCKERBERG 2020’DEN ÖNCE ZARARLI İÇERİK KALDIRILACAK DEMİŞTİ

Wall Street Journal’a göre Facebook CEO’su Mark Zuckerberg, Facebook’un yapay zekâsının 2020’den önce sorunlu içeriğin büyük çoğunluğunu kaldırabileceğine inandığını söylemişti. Ve Facebook da platformdaki nefret söyleminin ve şiddet içeren içeriğin çoğunun, kullanıcılar daha görmeden yapay zekâsı tarafından kaldırıldığını iddia ediyor. Hatta Facebook’un bu yıl şubat ayında paylaştığı rapora göre; yapay zekâsının tespit oranı yüzde 97’nin üzerinde.

VERİLER TUTARSIZ

Ancak yayınlanan habere göre; sivil haklar örgütleri ve akademisyenlerden oluşan bazı gruplar, sosyal medya platformunun bildirdiği oranlar dışarıdan yapılan araştırmalarla eşleşmediği için Facebook’un istatistiklerine şüpheyle yaklaşıyor.

Medeni haklar grubu Color of Change’in başkanı Rashad Robinson, Journal’a “Çalışmalarını asla göstermeyecekler” diyor.

Facebook’tan Guy Rosen, ise Wall Street Journal’a, incelediği belgelerin güncel olmadığını belirtirken Facebook’ta nefret söyleminin nasıl azaldığına bakmanın daha önemli olduğunu söyledi.

YAPAY ZEKÂSINA VE ALGORİTMALARA FAZLA GÜVENİYOR

Frances Haugen

Araştırma, eski Facebook çalışanı Frances Haugen’in geçen hafta kongre ile sosyal medya platformunun yapay zekâ ve algoritmalara çok fazla güvendiğini tartıştıktan sonra geldi. Haugen, Facebook’un kullanıcılarına dayattığı içeriğin genellikle yanlış bilgi içeren öfkeli, bölücü, sansasyonel gönderiler olduğunu söyledi.

Facebook’un algoritmaları bazen neyin nefret söylemi, neyin şiddet olduğunu belirlemede sorun yaşayabiliyor ve bu da zararlı videoların ve gönderilerin platformda çok uzun süre kalmasına neden oluyor. Facebook, Ekim 2020’den Aralık 2020’ye kadar yaklaşık 6,7 milyon organize nefret içeriğini platformlarından kaldırdığını iddia etmişti.

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir