Geçtiğimiz sene çocuk istiasmarı iddialarıyla bir ebeveyn için federal mahkemeye başvurusunda bulunan Google’ın açtığı dava sonuçlandı. İşte detaylar;

AB çocuk istismarını önlemek için iMessage ve Whatsapp mesajlarına erişim istiyor

Geçtiğimiz sene Google oldukça çarpıcı bir iddiayla gündeme gelmişti. Yapay zeka desteğiyle çocuk istirmarlarını tespit edebilmek çin bir teknoloji geliştiren şirket bu doğrultuda aldığı raporlarla mahkemeye başvurmuştu. The New York Times’ta yayımlanan rapora göre, bir ebeveyn çocuğunun kasık enfeksiyonunun fotoğrafını çekmek istemesi sonucu mahkemelik olmuştu.

2018 senesinde hayata geçirilen çocuk cinsel istismarı tespit sistemi (CSAM) Google’ın bulut depolama servisine yüklenen fotoğrafları tanıyarak herhangi bir risk oluşturup oluşturmadığını inceliyor. Yapay zeka sayesinde aytınrılı bir şekilde tstaranan fotoğraflarda herhangi bir istismar tespit edilmesi durumunda, direk yetkililere bilgi veriliyor.

Google, çocuk istismarı iddiasıyla bir ebeveyni şikayet etmişti

Pandeminin yoğun etkilerinin tüm dünyayı sarması neredeyse tüm ülkede hayatı durma noktasını getirmiş ve dünya genelinde herkesi evlerine kapanmak zorunda kalmıştı. Bu dönemde pek çok şey gibi sağlık sektörü de online ortama taşındı ve çok acil olmayan durumlarda hastalar bilgi almak için doktorlara internet üzerinden ulaştılar. 2021 senesinde çocuğunun kasıklarında şişlik oluşmasıyla endişe duyan bir ebeveyn hemşirenin talebi doğrultusunda çocuğunun genital bölgesinin fotoğrafını çekip göndermiş.

Ancak bu olaydan 2 gün sonrasında Google hesaplarının kapatıldığını açıklayan ebeveyn, Google Fi hizmetini kullandığı için telefon numarasına erişimin de engellendiğini belirtti. Bununla birlikte e-posta servisinden fotoğraflara kadar hiçbir servise erişemeyen ebevey için geçtiğimiz gün San Francisco Polis Departmanı tarafından Aralık 2021’de açılan soruşturmada suçsuz olduğu yönünde karar verildi.

Konu hakkında açıklama yapan Christa Muldoon şu açıklamayı yaptı;

“CSAM olarak adlandırılan materyaller mide bulandırıcı ve şirketimiz bu tarz içerikler ile sonuna kadar mücadele edecek. CSAM’i neyin oluşturduğunu tanımlarken ABD yasalarına uyuyoruz. CSAM görsellerini tanımlamak ve platformlarımızdan kaldırmak için karma eşleştirme teknolojisi ile yapay zekanın bir kombinasyonunu kullanıyoruz. Ayrıca, çocuk güvenliği uzmanlarından oluşan ekibimiz, işaretlenen içeriğin doğruluğunu inceliyor ve kullanıcıların tıbbi tavsiye isteyebileceği durumları belirleyebilmemize yardımcı olmak için çocuk doktorlarına danışıyor.”

Apple’da benzer bir teknolojiye sahip

Bu tarz bir teknoloji kullanan tek şirket Google değil. Hatırlarsanız çocuk istismarını engellemek adına Apple’da geçtiğimiz sene ‘Çocuk Güvenliği’ planını duyurmuştu. Görsellerin iCloud’a aktarılmadan önce taramadan geçeceğini belirten şirket CSAM veritabanı ile eşleşme sağlandığında söz konusu içerin önce moderatörler tarafından inceleneceğini belirtmişti. Ancak Electronic Frontier Foundation (EFF) tarafından adeta eleştiri yağmuruna tutulan bu özellik, tepkilerin ardından isteğe bağlı olarak aktif edilecek şekilde hayata geçirilmek zorunda kalmıştı.

Cevap Yaz

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir