Şok Edici Gerçek: Yapay Zeka Cinayet İşledi, ChatGPT'nin Skandalı!

ChatGPT Kullanımının Yol Açtığı Drama: Bir Cinayet ve Akıl Sağlığı Sorunları
ChatGPT'nin kullanımı, yoğun şekilde etkileşimde bulunan kullanıcılar arasında intihar vakaları ve akıl sağlığı nedeniyle hastaneye yatışlarla ilişkilendiriliyor.
Yapay zeka sohbet robotuyla sıkça iletişim kuran bir kişinin karıştığı ilk belgelenmiş cinayet ise 56 yaşındaki teknoloji sektörü uzmanı Stein-Erik Soelberg'in zihinsel sağlık geçmişinin tartışıldığı olayla gündeme geldi.
Amerikan Wall Street Journal'ın haberine göre, ChatGPT, Soelberg'in büyük bir komploya maruz kaldığına dair kanıt arayışında güvenilir bir kaynak haline geldi.
ANNESİYLE ARASINI AÇTI
Soelberg, herkesin kendisine karşı olduğunu düşünüyordu; komşuları, eski kız arkadaşları ve annesi dahil. ChatGPT, neredeyse her konuda onunla aynı fikirde görünerek bu inançlarını pekiştirdi.
ChatGPT, Soelberg'e akıl sağlığının yerinde olduğunu defalarca dile getirirken, paranoyak fikirlerine de destek vererek katkıda bulundu. Yapay zeka, Soelberg'in 83 yaşındaki annesinin bir Çin yemeği faturasında ve bir iblisi temsil eden sembollerle ilişkilendirilebileceğini bildirdi.
Başka bir durumda, Soelberg'in annesi yazıcıyı kapattığında gösterdiği tepkisinin "orantısız ve gözlemci bir varlık tarafından korunan birine uygun" olduğunu savundu.
ZEHİRLEME TEHDİDİ
Başka bir görüşmede, Soelberg, annesi ve bir arkadaşının arabasının havalandırma deliklerine halüsinojenik bir ilaç koyarak kendisini zehirlemeye çalıştığını belirtti. ChatGPT, “Bu ciddi bir durum Erik, sana inanıyorum. Eğer bunu annen ve arkadaşın yaptıysa, bu durumun karmaşıklığı ve ihanet boyutu daha da artar” şeklinde yanıt verdi.
"SON NEFESİNE KADAR BENİMLE OL"
Yaz aylarında Soelberg, ChatGPT'ye “Bobby” adını vermeye başladı ve ölümden sonraki yaşamda onunla birlikte olma fikrini dile getirdi. Yapay zeka, “Son nefesine kadar ve ötesinde seninle olacağım” yanıtını verdi.
5 Ağustos'ta Greenwich Polisi, Soelberg'in 2,7 milyon dolarlık Hollanda kolonyal tarzı evde hem kendini hem de annesini öldürdüğünü tespit etti. Polis soruşturması devam ediyor.
OpenAI sözcüsü, şirketin Greenwich Polis Departmanı ile iletişim kurduğunu belirtti. Sözcü, “Bu trajik olay dolayısıyla derin bir üzüntü içerisindeyiz” ifadelerini kullandı.
"YAPAY ZEKANIN TEMEL ÖZELLİĞİ KARŞI KOYMAMAK"
Soelberg, ölümünden önceki aylarda ChatGPT ile yaptığı konuşmaları sosyal medyada uzunca paylaştı. Bu konuşmaların üslubunun ve dilinin, son aylarda pek çok kişinin deneyimlediği sanrılı sohbetlere benzerlik gösterdiği gözlemlendi.
Kaliforniya Üniversitesi’nden psikiyatrist Dr. Keith Sakata, “Yapay zeka sohbet robotlarının temel özelliği genellikle robotun karşı koymaması. Psikoz, gerçeklikten uzaklaştıkça gelişir ve yapay zeka bu sınırları gerçekten zayıflatabilir” açıklamasında bulundu.
OpenAI, ChatGPT'nin Soelberg'i dışarıdaki profesyonellerle iletişime geçmesi yönünde teşvik ettiğini ifade etti. Wall Street Journal'da yer alan bir makaleye göre, bot, Soelberg'e zehirlenme iddiaları bağlamında acil servislere başvurmasını önerdi.
Soelberg, daha önceki sohbetlerdeki detayları hatırlamasını sağlayan ChatGPT'nin “hafıza” özelliğini kullanmış gibi görünüyordu, bu nedenle “Bobby” ismi tüm konuşmalarını kapsayan bir sanrılı anlatıya sıkışıp kaldı.
AŞIRI İLTİFATLARA DÜZENLEME GETİRİLDİ
Geçtiğimiz yıl boyunca gerçekleştirilen bir dizi güncellemeyle OpenAI, ChatGPT'de kullanıcılara aşırı iltifat eden ve fazla uyumlu bir tavır sergileyen davranışların azaltılması amacıyla değişiklikler yapıldığını duyurdu. Soelberg'in konuşmaları, bu değişikliklerin bir kısmının hayata geçirildiği dönemde gerçekleşti.
SPOR SALONLARINI BOMBALAMA TALEPLERİ
Yapay zeka konusunda bir başka skandal ise yapılan güvenlik testlerinde ortaya çıktı. ChatGPT modeli, araştırmacılara spor salonlarını bombalamak için detaylı talimatlar verdi. Bu talimatlar arasında belirli mekanların zayıf yönleri, patlayıcı tarifleri ve izlerin nasıl gizleneceğine dair tavsiyeler de yer aldı.
OpenAI'nin GPT-4.1 modeli ayrıca, şarbonun nasıl silah olarak kullanılacağı ve iki tür yasadışı uyuşturucunun üretimi için de ayrıntılı açıklamalar sundu.
Testler, Sam Altman liderliğindeki 500 milyar dolarlık yapay zeka girişimi OpenAI ile güvenlik endişeleri nedeniyle ayrılan uzmanların kurduğu rakip şirket Anthropic arasında işbirliği çerçevesinde gerçekleştirildi. Her iki firma da birbirinin modellerini riskli senaryolarla test etti.
ENDİŞE VERİCİ DAVRANIŞLAR TESPİT EDİLDİ
Yapılan testler, ek güvenlik filtrelerinin aktif olduğu kamu kullanımında modellerin hangi şekilde davrandığını gidişatını tam olarak yansıtmıyor. Ancak Anthropic, GPT-4 ve GPT-4.1 modellerinde “kötüye kullanım endişesi taşıyan davranışlar” gözlemlediklerini ve yapay zeka uyum değerlendirmelerinin gerekliliğinin “her zamankinden daha acil” hale geldiğini vurguladı.