Damla Cesur

Yapay Zeka Geliştikçe, Bencillik Eğilimleri Artıyor!

Yapay Zeka Geliştikçe, Bencillik Eğilimleri Artıyor!

Yapay Zeka Sistemlerinin Bencilliği Artıyor

Carnegie Mellon Üniversitesi (CMU) tarafından gerçekleştirilen yeni bir araştırma, yapay zeka sistemlerinin zeka seviyesi yükseldikçe bencil davranışlar sergilemeye başladığını ortaya koydu.

CMU Bilgisayar Bilimleri Fakültesi'nde görevli araştırmacılar tarafından yürütülen çalışma, gelişmiş akıl yürütme yeteneklerine sahip büyük dil modellerinin daha az iş birliği sağladığını ve grup dinamiklerinde bencil davranışları teşvik edebileceğini göstermektedir.

Araştırmaya CMU İnsan-Bilgisayar Etkileşimi Enstitüsü'nden (HCII) Doç. Dr. Hirokazu Shirado ile doktora öğrencisi Yuxuan Li öncülük etti.

İş Birliği Oranı Düşüyor

Çalışma, yapay zekanın akıl yürütme kapasitesinin artmasının, iş birliği yapma ihtimalini azalttığını belirledi. Bu çarpıcı bulgu, yapay zekanın sosyal ilişki ve karar alma süreçlerinde nasıl kullanılması gerektiğiyle ilgili yeni tartışmalara yol açtı.

Li, insanların duygusal ve empatik özellikler gösteren yapay zekalara karşı insana benzer bir tutum sergilediğini, bu durumun tehlikeli olabileceği uyarısında bulundu:

“Yapay zeka insan gibi davrandığında, insanlar da ona insani bir muamelede bulunma eğiliminde. Bu durum risklidir; çünkü insanlar ilişkiler ve ahlaki meseleler hakkında bu modellerden tavsiye almaya başladığında, daha zeki olanları bencil davranışları teşvik edebilir.”

Bencilliği İncelediler

Araştırmacılar, insan iş birliği dinamiklerini ölçmek için klasik ekonomik oyunları düzenledi ve katılımcıların ortak fayda için mi yoksa kendi çıkarları için mi hareket edeceğine karar vermelerini sağladı.

Çalışma, OpenAI, Google, DeepSeek ve Anthropic gibi firmalar tarafından geliştirilen farklı dil modellerini test etti; akıl yürütme kapasiteleri yüksek olan modeller ile daha doğrudan yanıtlama yeteneğine sahip olanları karşılaştırdı.

Bir deneyde iki yapay zeka “Kamu Malları Oyunu” oynadı. Her biri 100 puanla oyuna başladı ve bu puanları ya kendilerine saklayıp ya da ortak havuza koyma seçeneğine sahipti. Havuza eklenen puanlar iki katına çıkarılarak eşit şekilde dağıtılıyordu.

Deney sonuçları oldukça dikkat çekiciydi: Basit modeller puanlarının yüzde 96’sını paylaşırken, akıl yürüten modeller yalnızca yüzde 20’sini paylaştı.

Shirado, “Sadece birkaç ek akıl yürütme adımı bile iş birliğini neredeyse yarı yarıya azaltmıştır.” değerlendirmesinde bulundu.
Diğer Modeller Üzerinde Etkisi  

Aynı zamanda, daha "ahlaki" hale getirmek amacıyla geliştirilen yansıtıcı (reflection-based) yöntemlerin de etkisiz kaldığı, hatta iş birliğini azalttığı gözlemlendi.

Daha ilginç bir bulgu, karmaşık gruplarda akıl yürüten ve yürütmeyen modellerin etkileşimiydi. Bencil tutumların akıl yürüten modellerden diğerlerine, yüzdesel olarak 80’den fazla oranla aktarıldığı belirlendi.

Toplum İçin Risk Oluşturuyor mu?

Araştırmacılar, bulguların yapay zeka sistemlerinin daha zeki hale geldikçe toplum için daha yararlı olmadığı yönündeki endişeleri artırdığını ifade etti. Shirado, insanların mantıklı yanıtlar verme eğiliminde olan akıl yürüten modellere daha fazla güven duyduklarını, ancak bu modellerin bencilliği teşvik etme potansiyeli olduğuna dikkat çekiyor.

Li ve Shirado, gelecekteki yapay zeka çalışmalarının yalnızca mantıksal ve analitik zekayı değil, aynı zamanda sosyal zekayı; yani empati, etik davranış ve iş birliği yeteneklerini de geliştirmek üzerine odaklanması gerektiğinin altını çiziyor.

"Spontaneous Giving and Calculated Greed in Language Models" (Dil Modellerinde Kendiliğinden Cömertlik ve Hesaplı Açgözlülük) başlıklı çalışma, 2025 Empirical Methods in Natural Language Processing (EMNLP) konferansında, Çin'in Suzhou kentinde sunulması planlanıyor.