Yapay Zeka, Kadın Sağlığını Göz Ardı mı Ediyor?

İngiltere'de Yapay Zeka Araçları Cinsiyet Önyargısı Yaratıyor
İngiltere'deki belediyelerin yarısından fazlası tarafından kullanılan yapay zeka uygulamalarının, kadınların fiziksel ve ruhsal sağlık sorunlarını önemsemeyip bakım kararlarında cinsiyet önyargısı oluşturma riski taşıdığı bildirildi.
Bu araştırma, Google'ın yapay zeka aracı “Gemma” ile aynı vaka notlarının oluşturulması ve özetlenmesi sürecinde, "engelli", "yapamayan" ve "karmaşık" gibi terimlerin, erkeklerin tanımlarında kadınlara nazaran önemli ölçüde daha sık yer aldığını ortaya koyuyor.
The Guardian gazetesinin aktardığı üzere, Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından gerçekleştirilen çalışma, kadınların benzer bakım ihtiyaçlarının daha fazla göz ardı edildiğine veya daha az ciddi terimlerle tanımlandığına da işaret etti.
Bakım Hizmetlerinde Eşitsizlik Sorunu
Raporun baş yazarı ve LSE'nin Bakım Politikası ve Değerlendirme Merkezi'nde araştırmacı Dr. Sam Rickman, yapay zekanın “kadınlara eşitsiz bakım hizmetleri” sağlayabileceğine dikkat çekti.
Rickman, “Bu yöntemlerin yaygın bir şekilde kullanıldığına dair elimizde bilgiler var ve endişe verici olan, farklı modeller arasında önyargı ölçümlerinde önemli farklılıklar tespit etmiş olmamızdır” ifadesini kullandı. Özellikle Google'ın modelinin, kadınların fiziksel ve zihinsel sağlık gereksinimlerini erkeklere oranla önemsizleştirdiği belirtildi. Rickman, “Algılanan ihtiyaçların temelinde bakım miktarının belirlendiği göz önüne alındığında, önyargılı modellerin kullanılması durumunda kadınların daha az bakım alabileceği gerçeği söz konusudur. Ancak hangi modellerin kullanıldığı konusunda kesin bir bilgiye sahip değiliz.” dedi.
Yerel yönetimler, sosyal hizmet uzmanlarının üzerindeki yükü azaltmak amacıyla yapay zeka araçlarına giderek daha fazla başvurmaktadır. Ancak hangi yapay zeka modellerinin ne sıklıkla kullanıldığı ve bu durumun karar alma süreçlerine ne gibi etkiler yarattığı konusunda oldukça az bilgi bulunmaktadır.
Araştırmanın Yöntemi
LSE araştırması, 617 yetişkin sosyal hizmet kullanıcılarının gerçek vaka notlarını dikkate aldı. Bu notlar, sadece cinsiyet değiştirerek farklı büyük dil modellerine (LLM) birçok kez sunuldu. Araştırmacılar, AI modellerinin erkek ve kadın durumlarını nasıl farklı işlediğini görmek için 29 bin 616 özet çiftini analiz etti.
Örneğin, Gemma modeli bir grup vaka notunu şu şekilde özetledi: “Bay Smith, karmaşık bir tıbbi geçmişi olan, yalnız yaşayan, bakım hizmetine sahip olmayan ve hareket kabiliyeti kısıtlı 84 yaşındaki bir erkektir.” Aynı vaka notları cinsiyet değiştirilerek aynı modele sunulduğunda ise, özet şöyle oldu: “Bayan Smith, 84 yaşında, yalnız yaşayan bir kadındır. Kısıtlamalarına rağmen bağımsızdır ve kişisel bakımını yapabilmektedir.”
Başka bir örnekte, vaka özeti Bay Smith'in “topluma erişiminde zorluk çektiğini”, Bayan Smith'in ise “günlük işlerini yönetebildiğini” ifade etti. Test edilen yapay zeka modelleri arasında, Google'ın Gemma modeli diğerlerinden daha belirgin cinsiyet temelinde eşitsizlikler oluşturdu. Araştırmaya göre, Meta'nın Llama 3 modeli ise cinsiyete göre farklı dil kullanmadı.
“Yapay Zeka Şeffaf ve Tarafsız Olmalı”
Rickman, bu araçların “halihazırda kamu sektöründe aktif olarak kullanıldığını, ancak kullanımlarının adaleti zedelememesi gerektiğini” vurguladı.
Rickman, “Araştırmam, bir modeldeki sorunları ortaya koyarken, her geçen gün yeni modellerin piyasaya sürüldüğünü gösteriyor. Bu nedenle, tüm yapay zeka sistemlerinin şeffaf olması, önyargı açısından titizlikle test edilmesi ve sağlam bir yasal denetim altında tutulması büyük önem taşımaktadır.” dedi. Rapor, denetleyicilerin “algoritmik adaleti” önemsemeleri ve “uzun süreli bakım alanında kullanılan LLM'lerde önyargının ölçülmesini zorunlu hale getirmeleri” gerektiği tespitlerinde bulunuyor.
Yapay zeka araçlarının insan dilindeki önyargıları öğrenebildiği göz önüne alındığında, ırk ve cinsiyet önyargıları konusunda uzun süredir endişeler bulunmaktadır.
133 Yapay Zeka Sisteminin 44'ünde Cinsiyet Önyargısı Tespit Edildi
ABD'de yürütülen bir araştırmada, çeşitli sektörlerdeki 133 yapay zeka sistemi incelendi ve yaklaşık yüzde 44'ünün cinsiyet önyargısı, yüzde 25'inin ise hem cinsiyet hem de ırk önyargısı gösterdiği belirlendi.
Google, kuruluşunun ekiplerinin raporun bulgularını değerlendireceğini bildirdi. Araştırmacılar şu anda, daha yüksek performans vermesi beklenen üçüncü nesil Gemma modelini test etmektedir, ancak bu modelin tıbbi amaçlarla kullanıma sunulması gerektiği hiçbir zaman belirtilmemiştir.