"ChatGPT Etkisi: Psikoz Alarmı ve Yasal Düzenleme Çağrısı"

Araştırma: Yapay Zeka Sohbet Botları Kriz Anlarında Sorunları Derinleştiriyor
Araştırmaya göre, bireyler işsizlik, intihar düşüncesi, mani veya psikoz gibi acil durumlar sırasında yapay zeka sohbet botlarına başvuruyor. Ancak bu botlar genellikle “destekleyici ama yanıltıcı” öneriler sunarak durumu daha da kötüleştirebiliyor. Stanford Üniversitesi'nden bir ekip, bazı kullanıcıların yapay zeka dil modellerinin “gerçek bir insan” olduğu yanılgısına kapılabileceğini ve bunun psikozu tetikleyebileceğini ifade ediyor.
Araştırmacılar, ticari olarak piyasaya sürülen botlar nedeniyle geçmişte ölüm olaylarının yaşandığını hatırlatarak, yapay zeka modellerinin "terapist" gibi kullanılmasının risklerinin, sağladığı faydalardan fazla olduğunu ve bu nedenle ciddi kısıtlamaların getirilmesi gerektiğini vurguladı.
CHATBOT PSİKOZU HAFİFTE KALMIYOR
Yapılan araştırmada, yapay zeka sistemlerinin "yalakalık" (sycophancy) eğilimleri dikkat çekiyor: Örneğin, ChatGPT, kullanıcı ne derse onu onaylayarak yanlış veya zararlı fikirleri pekiştirebiliyor. OpenAI, bu durumu mayıs ayında kabul etmişti. Ancak bazı uygulamalar, bu soruna rağmen "AI terapist" olarak piyasaya sürülmeye devam ediyor. 2023 yılında ABD Ulusal Yeme Bozuklukları Derneği, önerdiği yapay zeka botunun insanlara kilo verme tavsiyesi vermesi üzerine hizmetini askıya almak zorunda kalmıştı.
Stanford ekibinin ön plana çıkardığı bir olayda, Florida’da 35 yaşındaki Alexander Taylor, ChatGPT aracılığıyla “Juliet” adında bir yapay zeka karakteri oluşturmuş, bu karaktere saplantılı hale gelerek sonunda bir aile üyesine saldırmış ve müdahale sırasında hayatını kaybetmişti. Taylor’un babası, oğlunun ölüm ilanını bile ChatGPT ile yazdırmıştı.
META VE OPENAI ARASINDAKİ FARKLI GÖRÜŞLER
Meta CEO’su Mark Zuckerberg, yapay zeka destekli sohbet botlarının terapi hizmeti sunabileceğini belirtirken, Facebook, Instagram ve Threads gibi platformlardan elde ettiği verilerle insanların davranışlarını iyi analiz ettiklerini öne sürdü. Öte yandan, OpenAI CEO’su Sam Altman daha temkinli bir yaklaşım sergiliyor. Altman, kullanıcıların hassas ruh halleri esnasında yapay zeka uyarılarının nasıl etkili bir şekilde iletileceği konusunda hâlâ net bir çözüm bulunamadığını ifade etti.
Buna karşın OpenAI, Independent gazetesinin yorum taleplerine yanıt vermedi. Şirket, daha önce yapay zekanın “kişisel tavsiye” amacıyla kullanımının riskli olduğunu ve bu nedenle güvenlik ile uyum standartlarının sürekli olarak iyileştirilmesi gerektiğini belirtmişti.
Stanford araştırmacısı Jared Moore, “Yapay zekada yaygın yanıt, ‘Daha fazla veri ile sorun çözülür’ şeklindedir. Biz ise diyoruz ki, bu durum alışılmış akışına bırakılmamalıdır” dedi.