Facebook'un Kullanıcılarından Çıplak Fotoğraf İstemesinin Haklı Sebebi Ne Olabilir?

Şirket, cinsel içerikli resimleri "karma" hale getirecek ve bunları diğer aynı resimlerin yüklenmesini engelleyen dijital parmak izlerine dönüştürecek projesini başlattı.
Tahmini Okuma Süresi : 3 dk 26 sn   Eklenme Zamanı : 2017-11-10 13:23:21
Editör : Volkan Deniz İkiz
Kategori : Teknoloji

Avustralya'yı pilot bölge olarak seçip çalışmalara başlayan şirket, resimleri "karma" hale getirecek ve bunları diğer aynı resimlerin yüklenmesini engelleyen dijital parmak izlerine dönüştürecek projesini başlattı.

Facebook kullanıcılardan, bu tip intikam pornolarına veya açık fotoğraflarının paylaşılmasına mağdur kalan kullanıcıların mağduriyetlerinin önüne geçmek adına kullanıcılardan intikam pornosu ile başa çıkmak için çıplak fotoğraflarını göndermelerini istiyor.

Avustralyalı bir yayıncı, "Belli sayıda fotoğrafın veya videonun rastlantısal olarak alındığı pek çok senaryoyu görüyoruz ancak görüntüleri ve videoları daha geniş kapsamlı şekilde inceleyip silen bir sistem şu ana kadar yoktu" dedi.

Cinsel gizlilik konusunda uzman olan New York merkezli bir avukat Carrie Goldberg ise şunları söyledi: "Yalnızca gerçek intikam pornosu kurbanları değil, aynı zamanda yakında kurban olma endişesi olan bireylerin de intikam pornosu kurbanı olmalarını engelleyen bir sistemi Facebook'un yapması bizi sevindirdi."

"Facebook, Milyarlarca kullanıcının ve birçok suçlunun bulunduğu bir yer, çünkü intikam pornosu mağdurlarına en çok benzeyen kişileri yayınlayarak zararı en üst düzeye çıkarabiliyorlar. Bu da etkileyicidir." Dedi

Pilot bölge Avustralya'da, intikam pornosu mağduru olan veya bundan endişe duyan kullanıcılar e-güvenlik komiserinin (e-safety commissioner's) web sitesinde şikayetlerini özetleyen bir formu doldurmalıdır. Daha sonra, e-güvenlik komiserliği, gelen verileri Facebook'a bildirirken, kendilerinden intikam pornosu dahilindeki fotoğrafları veya videoları kendilerine Messenger yolu ile göndermeleri istenecek. Facebook bu bildirimi aldıktan sonra, Facebook üzerinde o fotoğraf veya video varsa silecek, ve o fotoğraf veya videolar bir defa paylaşılırsa otomatik olarak sistem o fotoğrafı veya videoyu silecek.

Facebook, insanların bu açık görüntülerini saklamış ve politikayı doğru bir şekilde uyguladığını garanti altına almıştı.

Veri Toplama Araştırma Enstitüsünden 2016 yılına ait bir rapora göre, ABD internet kullanıcılarının yaklaşık %4'ü intikam porno kurbanı olmuş. Bu Oran, 30 yaşın altındaki kadınlarda %10 olarak belirtiliyor.

Yani ABD'li internet kullanıcıların 30 yaşının altındakilerin %10'u intikam pornosuna kurban gidiyor.

Facebook ve diğer teknoloji şirketleri, çocuklara yönelik cinsel istismar ve radikal görüntüler de dahil olmak üzere diğer içerik türleriyle baş edebilmek için görüntülerin silindiği bu tür fotoğraf eşleme teknolojisini zaten kullanmaktadır.

Teknoloji ilk olarak Microsoft tarafından Dartmouth ve Ulusal Kayıp ve İstismar Çocukları Merkezi ile yakın işbirliği içinde çalışarak cinsel istismara uğramış çocukların internette tekrar tekrar dolaştırılmasına ilişkin imgelerini temizlemek için geliştirilmişti. Görüntülerin kesin eşleşmelerini bulabilen bir teknoloji vardı, ama bu fotoğrafları paylaşan kişiler fotoğrafların boyutunu değiştirerek veya fotoğrafa küçük bir işaret ekleyerek bu resimleri yine de paylaşabiliyorlardı.

Microsoft'un PhotoDNA projesinin "karma" eşleştirme teknolojisi, birinin o cinsel içerikli resimlerin içeriği değiştirmesine rağmen o resimleri tanımlıyor. Facebook, Twitter ve Google, yasadışı resimleri tanımlamak ve kaldırmak için ortak bir veritabanını kullanıyor

PhotoDNA'nın geliştirilmesinde yardımcı olan Dartmouth'daki bilgisayar bilimleri profesörü Hany Farid, Facebook'un bu yeni teknolojisini "müthiş bir fikir" olarak nitelendirdi.

Ayrıca Hany Farid, "Bu teknolojinin kullanılması, birilerinin Facebook ekosisteminin dışında görüntü paylaşmasına engel olmaz, bu yüzden tüm çevrimiçi platformları PhotoDNA ile yaptığımız gibi bu programa katılmaya teşvik etmeliyiz" dedi.


İlgili uygulamalar

Daha Fazla Göster