Yapay Zeka insanlar gibi ırkçı ve cinsiyetçi davranabiliyor

Üzüm üzüme baka baka kararır

Yeni bir çalışma, algoritmalar ve robotik cihazlar üzerinde geniş anlamda kullanılan Yapay Zekanın insanlar gibi ırkçı, ve aynı zamanda cinsiyetçi olabileceğini ortaya koyuyor.

Washington Üniversitesi Psikoloji bölümünce yürütülen çalışma, insan diline bağlı olarak öğrenen yapay zekanın, insanlar gibi ön yargılı davranmaya meyilli olduğunu gösteriyor. Söz konusu ön yargılar, kadınları basmakalıp işlerle ilişkilendirmekten, Avrupa’lı ve Amerika’lı isimleri mutluluğu tarif eden isimler ve beyazları memnunluk ifade eden yüzler olarak eşleştirmeye kadar varıyor.

OKU ►  Yapay Zeka pokerde bilim adamı ve mühendisleri alt etti

Araştırma, bilgisayarların konuşma ve yazıları yorumlamalarına yardımcı olan ve ‘kelime gömme (word embedding)’ olarak bilinen bir ‘makine öğrenme aracı (machine learning tool)’na odaklanılarak gerçekleştirildi. Bu çalışma, bir kelimenin anlamının bir dizi rakama indirgendiği algoritmik bir dil oluşturuyor.

Princeton Üniversitesi’nde bilgisayar bilimcisi ve tez çalışmasının yönetici yazarı olan Arvind Narayanan “Kelime gömütlerini çalışmayı tercih etmemizin ana sebebi, bu yöntemin bilgisayarların bir dili anlamalarına yardımcı olmada önemli oranda başarı sağlamış olması” dedi.

Dünya önyargılı, tarihi verilerimiz ön yargılı. Dolayısı ile burada da ön yargılı sonuçlar almamız sürpriz değil

Çalışma, bu algoritmanın kökleşmiş ırkçı ve cinsiyetçi ön yargıları düşünce mantığı içerisine yerleştirdiğini gösteriyor. Örneğin, Avrupa’lı ve Amerika’lı isimleri ‘hediye’ ya da ‘mutlu’ gibi memnuniyet verici sözlerle eşleştirirken, Afro-Amerikalı isimlerin sıklıkla tatsız kelimelerle eşleştirildiği görüldü.

Diğer bir örnekte iki eşdeğer CV’nin karşılaştırması yapılırken Avrupa’lı ve Amerika’lı isim taşıyan öz geçmişin, Afro-Amerikan isme oranla %50’den daha fazla şansa sahip olduğu gözlemlendi.

Guardian’a konuşan Oxford Üniversitesi’nde veri etiği ve algoritmaları araştırmacısı Sandra Wachter “Dünya önyargılı, tarihi verilerimiz ön yargılı. Dolayısı ile burada da ön yargılı sonuçlar almamız sürpriz değil” dedi.

Wachter’a göre Yapay Zekanın karşı karşıya olduğu sorunu bilmek, aslında araştırmacıların ön yargı sorununu çözmesine ve imkan dahilinde etkisiz hale getirmesine yardımcı olabilir.

Wachter “En azından algoritmaların ne zaman ön yargılı davrandıklarını bilme imkanına sahip olabiliriz. Fakat insanlar, örneğin bir kişiyi neden işe almadıklarıyla ilgili olarak yanıltıcı mazeretler öne sürebilirler. Buna karşın algoritmaların bizi kandırmalarını ya da yalan söylemelerini beklemeyiz” dedi.

CEVAP VER

Please enter your comment!
Please enter your name here