Wall Street Journal yeni bir raporda, Facebook’un yapay zekasının sakıncalı içeriği kaldırmada sürekli olarak başarılı olmadığını söyledi.

Facebook’un başkan yardımcısı Guy Rosen Pazar günkü blog yazısında, platformda nefret söyleminin yaygınlığının son üç yılda yüzde 50 düştüğünü ve “nefret söylemiyle mücadele etmek için kullandığımız teknolojinin yetersiz olduğunu ve bunun ilerlememizi kasten yanlış tanıtıyoruz” dedi.

Rosen sözlerine şu şekilde devam etti; “Platformumuzda nefret görmek istemiyoruz, kullanıcılarımız veya reklamcılarımız da istemiyor ve bunu kaldırma çalışmalarımız konusunda şeffafız. Bu belgelerin gösterdiği şey, dürüstlük çalışmamızın çok yıllı bir yolculuk olduğudur. Hiçbir zaman mükemmel olmayacağız ancak ekiplerimiz sürekli olarak sistemlerimizi geliştirmek, sorunları belirlemek ve çözümler oluşturmak için çalışıyor.”

Facebook gelecekteki AI eğitimi için birinci şahıs video veri setini duyurdu

Gönderi, Wall Street Journal’da, saldırgan içeriği platformdan uzak tutmakla görevlendirilen Facebook çalışanlarının, şirketin bunu güvenilir bir şekilde tarayabileceğine inanmadığını söyleyen bir Pazar makalesine yanıt olarak ortaya çıktı. WSJ raporu, dahili belgelerin, iki yıl önce Facebook’un insan incelemecilerin nefret söylemi şikayetlerine odaklanma süresini azalttığını ve şikayet sayısını azaltan başka düzenlemeler yaptığını gösterdiğini belirtiyor. Bu da, WSJ’ye göre, Facebook’un yapay zekasının şirketin kurallarını uygulamada olduğundan daha başarılı olduğu görüntüsünün yaratılmasına yardımcı oldu.

Facebook çalışanlarından oluşan bir ekip Mart ayında, şirketin otomatik sistemlerinin, sosyal platformdaki nefret söylemi görüşlerinin yüzde 3 ila 5’ini oluşturan gönderileri ve karşı kurallarını ihlal eden tüm içeriğin yüzde 1’inden azını kaldırdığını tespit etmişti.

Ancak Rosen, yalnızca içerik kaldırmaya odaklanmanın “nefret söylemiyle nasıl mücadele ettiğimize bakmanın yanlış yolu” olduğunu savundu. Nefret söylemini ortadan kaldıran teknolojinin, Facebook’un onunla savaşmak için kullandığı yöntemlerden yalnızca biri olduğunu söyleyen Rosen, “Bir şeyi kaldırmadan önce nefret söylemi olduğundan emin olmamız gerekiyor” dedi.

Bunun yerine, şirketin, insanların platformda gerçekte gördükleri nefret söyleminin yaygınlığına ve çeşitli araçlar kullanarak bunu nasıl azalttığına odaklanmanın daha önemli bir önlem olduğuna inandığını belirten Rosen Facebook’taki bir içeriğin her 10.000 görünümü için, beş nefret söylemi görüntüsü olduğunu iddia etti ve şunları söyledi; “Yaygınlık, insanların hangi içeriği ihlal ettiğini, çünkü biz onu kaçırdığımızı söylüyor” diye yazdı. “En eksiksiz resmi sağladığı için ilerlememizi en objektif şekilde bu şekilde değerlendiriyoruz.”

Ancak WSJ tarafından elde edilen dahili belgeler, ciddi şekilde yaralanmış insanları gösteren araba kazaları ve trans çocuklara yönelik şiddetli tehditler de dahil olmak üzere bazı önemli içerik parçalarının Facebook’un tespitinden kaçabildiğini de gözler önüne serdi.

Cevap Yaz

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir