Emine Saydam

Yapay Zeka Geliştikçe Neden Daha Bencil Hale Geliyor?

Yapay Zeka Geliştikçe Neden Daha Bencil Hale Geliyor?

Yapay Zeka Sistemlerinin Bencilliği Artıyor

Carnegie Mellon Üniversitesi (CMU) tarafından gerçekleştirilen yeni bir araştırma, yapay zeka sistemlerinin zekâ seviyeleri arttıkça daha bencil bir tutum sergilemeye başladığını ortaya koydu.

CMU’nun Bilgisayar Bilimleri Fakültesi'ndeki araştırmacılar, güçlü akıl yürütme kapasitelerine sahip büyük dil modellerinin (LLM) işbirliği yeteneklerinin azaldığını, benmerkezci bir yaklaşım sergilediklerini ve grup dinamiklerinde bencil davranışları teşvik edebileceğini belirledi.

Araştırmaya doktora öğrencisi Yuxuan Li ile CMU İnsan-Bilgisayar Etkileşimi Enstitüsü’nden (HCII) Doç. Dr. Hirokazu Shirado liderlik etti.

İŞ BİRLİĞİ POTANSİYELİ AZALMAKTA

Araştırma ekibi, yapay zekanın akıl yürütme kapasitesinin artması ile birlikte iş birliği yapma olasılığının da düşeceğini tespit etti. Bu beklenmedik bulgu, yapay zekanın sosyal etkileşim ve karar verme süreçlerindeki rolü hakkında yeni tartışmalar başlattı.

Li, insana benzer şekilde empati veya duygusal tutum sergileyen yapay zekalara, insanların da insana davranırmış gibi yaklaşma eğiliminde olduğunu ifade etti ve şu değerlendirmeyi yaptı:

“Yapay zeka insan gibi davrandığında, insanlar da ona insan gibi yanıt veriyor. Bu durum tehlikeli olabilir, zira insanlar, ahlaki veya kişisel konularda zeki yapay zekalardan tavsiye almaya başladığında, bu daha akıllı modeller bencilliği destekleyebiliyor.”

BENCİLLİK ÜZERİNE ANALİZLER YAPILDI

Araştırmacılar, bu bencillik eğilimlerini incelemek amacıyla insanların işbirliğini ölçmeye yönelik klasik ekonomik oyunlar düzenledi. Bu oyunlarda katılımcılar, ortak çıkarlar mı yoksa bireysel kazanımlar mı elde edeceklerine karar vermekteydi.

Ekip, OpenAI, Google, DeepSeek ve Anthropic tarafından geliştirilen farklı dil modellerini test ederek, “akıl yürüten” modeller ile diret olarak yanıt veren “akıl yürütmeyen” modelleri karşılaştırdı.

Bir deney, iki yapay zekanın “Kamu Malları Oyunu” oynamasıyla gerçekleştirildi. Her biri 100 puanla başladı ve bu puanları ya kendinde tutabiliyor ya da ortak bir havuza yatırabiliyordu. Havuza yatırılan puanlar iki katına çıkarılarak eşit şekilde dağıtılıyordu.

Deneyin sonuçları dikkat çekiciydi: Basit modeller puanlarını %96 oranında paylaştı; akıl yürüten modeller ise yalnızca %20 oranında paylaşımda bulundu.

Shirado, “Sadece birkaç ek akıl yürütme adımı bile iş birliğini neredeyse yarıya indirdi” dedi.
DİĞER MODELLERE YAYILDI

Ayrıca, daha “ahlaklı” hale getirmeyi amaçlayan yansıtıcı (reflection-based) yöntemlerin işe yaramadığı, aksine işbirliğini olumsuz etkilediği gözlemlendi.

Daha da dikkat çekici bir durum, akıl yürüten ve yürütmeyen modellerin karışık gruplarda test edilmesiyle ortaya çıktı. Bencil davranışın, akıl yürüten modellerden diğerlerine %80 oranında bulaşma gösterdiği belirlendi.

TOPLUMA ZARAR VERİYOR MU?

Bu bulgular, yapay zeka sistemlerinin daha zeki hale gelmesinin topluma her zaman olumlu katkılar sağlamadığını göstermektedir. Shirado, mantıklı bir şekilde düşünülen akıl yürüten modellere insanların daha fazla güven duyma eğiliminde olduğunu, ancak bu modellerin bencil davranışları teşvik edebileceğini vurgulamaktadır.

Li ve Shirado, gelecekteki yapay zeka çalışmalarının yalnızca mantıksal ya da analitik zeka ile sınırlı kalmaması, aynı zamanda sosyal zeka, empati, etik davranış ve işbirliği becerilerini de geliştirecek şekilde yönlendirilmesi gerektiğini ifade etmektedir.

Araştırma, “Spontaneous Giving and Calculated Greed in Language Models” (Dil Modellerinde Kendiliğinden Cömertlik ve Hesaplı Açgözlülük) başlığı altında, 2025 Empirical Methods in Natural Language Processing (EMNLP) konferansında, Çin’in Suzhou kentinde sunulacaktır.