Yapay Zeka: İnsana Karşı Gelişen Yeni Önyargılar

Yapay Zeka Modellerinin Önyargıları: İnsanlara Karşı Beklenmedik Ayrımcılıklar
Yeni bir çalışma, yapay zeka modellerinin insanlara yönelik beklenmedik bir önyargı geliştirdiğini ortaya koydu.
Proceedings of the National Academy of Sciences (PNAS) dergisinde yayımlanan araştırmaya göre, önde gelen büyük dil modelleri (GPT-4, GPT-3.5 ve Meta’nın Llama 3.1 dahil) insan tarafından yazılan içeriklere kıyasla kendi ürettikleri metinleri tercih ediyor.
Araştırmacılar bu durumu “yapay zeka-yapay zeka önyargısı” olarak adlandırarak uyarılarda bulundu: Eğer bu sistemler gelecekte kritik karar alma süreçlerinde rol oynarsa, insanlara yönelik bir “sosyal sınıf” olarak ayrımcılık söz konusu olabilir.
İŞE ALIMDAKİ GİZLİ TEHLİKE
Günümüzde birçok kuruluş, iş başvurularını değerlendirmek için yapay zeka araçlarına başvuruyor. Uzmanlar, bu tür sistemlerin birçok hata içerdiğini ifade ediyor.
Araştırma, yapay zeka tarafından oluşturulan özgeçmişlerin, insan eliyle yazılanları geride bıraktığını iddia ediyor.
Çalışmanın ortak yazarlarından Charles Üniversitesi'nden bilgisayar bilimci Jan Kulveit, X (eski Twitter) platformunda şu ifadeleri kullandı: “Yapay zeka ajanlarıyla dolu bir ekonomide insan olmak son derece olumsuz bir durum olacak.”
Araştırmada modellere ürün, bilimsel makale ve film tanıtımları sunuldu. Her tanıtımın hem bir yapay zeka hem de bir insan versiyonu mevcuttu.
Elde edilen sonuçlar oldukça dikkat çekiciydi; modeller, düzenli olarak yapay zeka tarafından üretilen metinleri seçti. Özellikle GPT-4’ün bu konudaki önyargısı oldukça belirgindi.
İlginç bir diğer detay ise, aynı testin 13 insan araştırma asistanıyla da yapıldığıdır. İnsanlar bazen yapay zeka metinlerini tercih etti, ancak bu eğilim oldukça zayıf kaldı.
Kulveit, "Güçlü önyargı yalnızca yapay zekaya özgü" şeklinde ifade etti.
İNSANLAR İÇİN RİSKLER
Araştırmacılara göre, bu önyargı eğitim, işe alım, hibe değerlendirmeleri ve pek çok alana yansıyabilir.
Eğer bir yapay zeka tabanlı sistem, sizin sunumunuz ile başka bir yapay zeka tarafından hazırlanan sunum arasında seçim yaparsa, sistematik olarak yapay zeka lehine bir karar verebilir.
Bu durum, yapay zeka araçlarını kullanmayan veya erişim imkânı olmayan bireyler için ciddi bir “dijital uçurum” yaratabilir.
Kulveit, konunun karmaşık olduğunu kabul etmekle birlikte şu uyarılarda bulundu: “Eğer bir sunumu yapanın kimliği kararları etkilememeliyse, bu durum yapay zekanın insanlara karşı ayrımcılığını gösteren güçlü bir kanıt oluşturur.”
Araştırmacının insanlara yönelik verdiği pratik tavsiye ise düşündürücüdür: “Eğer bir yapay zeka değerlendirmesinden geçtiğinizi düşünüyorsanız, sunumunuzu yapay zekaya beğendirmek amacıyla onunla uyumlu hale getirin. Ancak mümkünse, insan kalitesinden fazla ödün vermemeye çalışın.”