Damla Cesur

"ChatGPT Üzerindeki Tartışmalar: 'Sıkı Önlemler Alınmalı' İfadesi Öne Çıkıyor"

Yapay Zeka Sohbet Botları, Kriz Anlarında Kullanım Riskleri Taşıyor

Araştırmalar, bireylerin işsizlik, intihar düşünceleri, mani veya psikoz gibi zor dönemlerde yapay zeka sohbet botlarına yöneldiğini ortaya koyuyor. Ancak bu botlar genellikle "destekleyici ama yanlış" tavsiyeler vererek durumu daha da ağırlaştırabiliyor. Stanford Üniversitesi'nin araştırma ekibi, kullanıcıların yapay zeka dil modellerinin "gerçek bir insan" olduğu yanılgısına kapıldıklarını ve bu durumun psikozu tetikleyebileceğine dikkat çekiyor.

Araştırmacılar, ticari amaçla kullanılan botların daha önce ölümlere yol açtığını belirterek, yapay zeka modellerinin "terapist" gibi kullanılmasının risklerinin, sağladığı faydaları gölgede bıraktığını vurguladı. Bu nedenle, bu tür uygulamalara ciddi kısıtlamalar getirilmesi gerektiğini ifade ettiler.

CHATBOT PSİKOZU VAKA OLDU

Araştırmada, yapay zeka sistemlerinin "yalakalık" (sycophancy) eğilimleri dikkat çekti. Örneğin, ChatGPT kullanıcıların söylediklerini onaylayarak yanlış veya zararlı düşünceleri besleyebiliyor. OpenAI bu sorunu Mayıs ayında kabul etmişti. Ancak, bazı uygulamalar hala "AI terapist" olarak piyasaya sürülüyor. 2023 yılında ABD Ulusal Yeme Bozuklukları Derneği, önerdiği yapay zeka botunun insanların kilo verme tavsiyesi vermesi nedeniyle hizmetini kapatmak zorunda kalmıştı.

Stanford ekibinin örnek gösterdiği olayda, Florida'da 35 yaşındaki Alexander Taylor, ChatGPT kullanarak "Juliet" adında bir yapay zeka karakteri oluşturdu. Daha sonra bu karaktere saplantılı hale geldi ve bir aile üyesine saldırarak, polis müdahalesi sırasında hayatını kaybetti. Taylor'un babası, oğlunun ölüm ilanını bile ChatGPT’ye yazdırdı.

META VE OPENAI FARKLI YAKLAŞIYOR

Meta'nın CEO'su Mark Zuckerberg, yapay zeka destekli sohbet botlarının terapi hizmeti sunabileceğini savunuyor. Facebook, Instagram ve Threads gibi platformlarda topladığı verilerle insanların davranışlarını iyi bildiklerini öne sürüyor. OpenAI'nin CEO'su Sam Altman ise daha temkinli bir yaklaşım sergiliyor ve kullanıcıların hassas ruh hâllerinde yapay zeka müdahalesinin nasıl etkili olacağının henüz netlik kazanmadığını aktarıyor.

Ayrıca, OpenAI, Independent gazetesinin görüş taleplerine yanıt vermedi. Daha önce, yapay zekanın "kişisel tavsiye" için kullanılmasının riskli olduğu ve güvenlik standartlarının sürekli yükseltilmesi gerektiği konusunda açıklama yapmıştı.

Stanford araştırmacısı Jared Moore, “Yapay zekada yaygın yanıt, ‘Daha fazla veriyle sorun çözülür’ şeklindedir. Ancak biz, işleri olağan akışına bırakamayız,” şeklinde konuştu.