Amazon'un işe alım yazılımı cinsiyetçilik yapıyor!

Tahmini Okuma Süresi : 2 ' 35 ''   Yayınlanma Zamanı : 2018-10-12 09:20:02
Editör : Emirkan Damar
Kategori : Yazılım

Amazon insanların işe alım sürecinde yardımcı olan yapay zeka üretmeye başlamıştı. Ancak şirket yaptıkları bu yapay zekanın kadınlara karşı olduğunu, cinsiyetçilik yaptığını farkedince projeye son verdi.

Amazon'un işe alım yazılımı cinsiyetçilik yapıyor!

Beş farklı test sisteminden geçen ve bu testlerin hepsinde yapay zeka projesi, Amazon'un İskoçya'daki Edunburgh mühendis ekibinin 2014 yılında işe alım sürecini otomasyona dönüştürmenin bir yolunu aramasıyla başladı.Şirket geçmişte başvuran adayların özgeçmişlerinin taranması ve 50 bin adet anahtar terimi anlaması için 500 bilgisayar modeli tasarladı. Kurulan bu sistem aday önerisinde bulunmak için web ortamında gezinecekti. Kaynak sahibi biri bu konuyla ilgili şu cümleleri kurdu: "Gerçekten 100 özgeçmiş verdiklerinde, bunlar arasrındaki en iyi beş adayı diğerlerinden ayırt etmek için bir araç kullanmak istediler ve biz de bu ilk beş adayı işe alacaktık."

Bu çalışmalar başlangıçta bir yıl sonra ise mühendisler, araçta bir problemin olduğunu farketti. Yazılım kadınlardan hoşlanmıyordu. Bunun nedeni ise yapay zekanın kimin işe alınacağı ile ilgili 10 yıllık Amazon başvuru verisini tararken genelde erkek adayların özgeçmişlerine rastlamasıydı.

Yapılan taramanın sonunda yapay zeka, adamların daha tercih edilebilir olduğu sonucuna vardı. Yapay zeka, içinde "kadın" kelimesi geçen özgeçmişlerin puanını düşürüyor ve kız okullarına giden adayları filtreleyerek eliyordu. Amazon bu ön yargı formlarını araçtan kaldırmak için sisteme el attı. Ancak yapay zekanın adaylar arasında ayrımcılık yapmanın yeni yollar bulacağından şüphe etti. Üstelik yapay zeka tek problemi cinsiyetçilik yapması değildi. Araç aynı zamanda pozisyon için yeterli olmayan adayları da öneriyordu.

Aslına bakarsanız bu gibi yapar zeka çalışmalarında, insanların bilinçaltındaki ön yargıları bir kez daha gözler önüne serdiğini söyleyebilmek mümkün. 2016 yılında hangi suçluların yeniden suç işleme ihtimalinin yüksek olduğunu bulmasına yarayan bir risk değerlendirme yazılımı siyahi insanlara karşı ırk ayrımı yapmıştı. Hatta işe alım, kredi değerlendirme ve şartlı tahliye kararları gibi konularda kullanılan yapay zekalar projelerinin ön yargılara sahip olduğu ve sorunlar çıkardığı daha önce de göz önüne gelmişti.

Geçtiğimiz yılın başlarında yöneticilerin araca olan şühelerinden dolayı Amazon yapay zeka projesini sonlandırmıştı. Amazon'un insan kaynakları ise bu süreçte yapay zekanın verdiği önerileri incelendiği lakin sadece kararına güvenemediğini belirtti. Şirket, iş yerinde çeşitliliğe ve eşitliliğe kendini adadığını da sözlerine ekledi.