1. HABERLER

  2. DÜNYA

  3. Algoritmaların ırkçılığı yeniden gündemde
Algoritmaların ırkçılığı yeniden gündemde

Algoritmaların ırkçılığı yeniden gündemde

ABD'de siyahi Amerikalı George Floyd'un öldürülmesi ile bütün dünyada ırkçılık karşıtı protestolar artarken, yapay zeka temelli algoritmaların sahip olduğu ırkçı ön yargılar da tekrar dünyanın gündemine geldi.

A+A-

ABD'de siyahi Amerikalı George Floyd'un öldürülmesi ile bütün dünyada ırkçılık karşıtı protestolar artarken, yapay zeka temelli algoritmaların sahip olduğu ırkçı ön yargılar da tekrar dünyanın gündemine geldi.

Amerika Birleşik Devletleri'nde (ABD) Minneapolis'te polis şiddeti sonucu siyahi Amerikalı George Floyd'un hayatını kaybetmesinin ardından başlayan ve ülke geneline yayılan protestolar devam ediyor.

Uzun zamandır siyahi vatandaşlara karşı yapılan ırkçı saldırılar ülke gündemini meşgul ederken, yapay zeka algoritmalarının sahip olduğu ırkçı ön yargılar da yeniden gündeme gelmeye başladı.

Daha önce yaşanan pek çok olayda yapay zeka sistemleri, beklenmedik ırkçı davranışlarıyla şirketlere sorun oluşturmuştu. Bu olaylardan en bilinenlerinden bir tanesi de Microsoft'un uzun çabalar sonucu ürettiği ve Twitter'da kullanıcılarla İngilizce sohbet etmesini beklediği yapay zeka botu TAY olmuştu. TAY beklentilerin aksine insanlarla hoş sohbet etmemiş ve sadece 24 saat içerisinde küfürlü ve ırkçı paylaşımları nedeniyle durdurulmak zorunda kalınmıştı. Kullanıcılar üzerinde büyük bir şaşkınlığa sebebiyet veren bu cevaplardan bazılarında TAY, kadınlara ve Yahudilere hakaret etmiş, Meksika sınırına duvar örülmesi gerektiğini belirtmişti.

Algoritmaların gösterdiği ırkçı davranışların en öne çıkanlarından bir diğeri de bir bilgisayar firmasının geliştirdiği kameranın çekimleri sırasında yaşanmıştı. Aynı iş yerinde çalışan iki iş arkadaşı tarafından çekilen videoda kameradaki yüz tanıma sistemi beyaz tenli olan Wanda Zamen'in yüzünü tanıyıp, takip ederken, siyah tenli Desi Cryer'ın yüzünü tanımamış ve hareketlerini de takip etmemişti.

Güzellik yarışması için geliştirilen "Beauty AI" ırkçı ön yargılar göstermiş ve daha çok beyaz tenli kişileri öncelemişti. Avustralya ve Hong Kong merkezli bir şirket tarafından geliştirilen "Beauty AI" binlerce başvuru arasından sadece 6 siyahi başvuruyu kabul etmiş en çok tercihini ise beyaz tenli kişiler arasında kullanmıştı.

Yapay zekâ nasıl ırkçı olur?

Günümüzde yapay zekanın en önemli unsuru derin öğrenmenin (deep learning) birincil ihtiyacı ise veri kullanımı oluyor. Derin öğrenme temelde, algoritmanın mevcut verilerle beslenmesi ve ardından insan müdahalesine ihtiyaç olmadan verileri tanıması anlamına geliyor.

Örneğin, bir algoritma binlerce fotoğraf içinde kedileri tanımak üzerine eğitilir. Algoritma “kedi” olarak etiketlenmiş fotoğraflardan kedinin şeklini, duruşunu tanıyarak bir kalıp oluşturur ve daha sonra gördüğü fotoğraflarda bir kedinin olup olmadığını kendisi tespit edebiliyor.

Yapay zekanın eğitiminde kullanılan verilen ırkçılık ve ayrımcılık konusunda önemli bir konumda bulunuyor. Verilerini daha çok Kuzey Amerika bölgesinden alan ve büyük oranda beyaz Amerikalıların çalıştıkları Silikon Vadisi'ndeki yapay zeka sistemleri Asyalı ve Afrikalı insanlar üzerinde denendiğinde büyük sorunlara yol açabiliyor.

Hukuk alanında da kullanılması planlanan yapay zeka aynı zamanda ön yargılı verilerle beslendiği takdirde siyahi insanları daha fazla suçlu bulması gibi durumlara da neden olabiliyor. Uzmanlar bu sebeple yapay zeka algoritmasının taraflılığı ve ayrımcılık gibi durumların önüne geçmek için eğitim verilerinin, azınlıkları dezavantajlı duruma düşürmeyecek şekilde hazırlanması ve düzenlenmesi gerektiği konusunda uyarıyor.  

AA

Önceki ve Sonraki Haberler

HABERE YORUM KAT

UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.