Ekrem Tansel

Üzücü Uyarı: Milyonlarca ChatGPT Kullanıcısından İntihar Alarmı!

Üzücü Uyarı: Milyonlarca ChatGPT Kullanıcısından İntihar Alarmı!

OpenAI, Kullanıcıların Ruh Sağlığı Krizleri Üzerine Yeni Veriler Paylaştı

OpenAI, ChatGPT kullanıcıları arasında mani, psikoz ya da intihar düşünceleri gibi ruh sağlığı krizlerine işaret eden belirti gösteren kişilerin sayısına dair yeni tahminlerini kamuoyuyla paylaştı.

Verilere göre, haftada yaklaşık 1 milyon 200 bin kişi, ChatGPT ile intihar etmeyi düşünmüş olabileceklerine dair konuşmalar yapıyor.

Şirket, kullanıcıların yüzde 0,15’inin, “intihar planı veya niyetiyle ilgili açık göstergeler taşıyan mesajlar” gönderdiğini ifade etti.

BBC'nin aktardığına göre, artan incelemeler doğrultusunda, OpenAI, dünya genelinde bir uzman ağı oluşturdu. Şirket, bu ağda 60 ülkede görev almış 170’ten fazla psikiyatrist, psikolog ve pratisyen hekimin bulunduğunu bildirdi.

Uzmanlar, ChatGPT kullanıcılarını gerçek dünyada yardım aramaya teşvik edecek bir dizi yanıt stratejisini geliştirdi.

800 MİLYONDAN FAZLA AKTİF KULLANICI

Bu ayın başlarında OpenAI CEO'su Sam Altman, ChatGPT'nin haftalık 800 milyondan fazla aktif kullanıcıya ulaştığına ilişkin tahminde bulunmuştu.

Teknoloji şirketi, risk altında olan bireyleri kriz hatlarına yönlendirmeyi amaçladığını belirtirken, bazı durumlarda modelin bu hassas anlarda beklenen şekilde davranmadığını da kabul etti.

DOĞRULUK ORANI YÜZDE 91

OpenAI, son modeli GPT-5 ile gerçekleştirilen binden fazla “zorlayıcı intihar ve kendine zarar verme” konuşmasını incelediğini ve modelin bu tür durumlarda yüzde 91 oranında doğru sonuçlar verdiğini açıkladı.

Ancak SkyNews'e göre bu durum, on binlerce kişinin ruh sağlığını olumsuz yönde etkileyebilecek yapay zeka içerikleriyle karşılaşmış olabileceği anlamına da gelebiliyor.

Şirket, daha önce kullanıcıları korumak amacıyla geliştirilen güvenlik önlemlerinin uzun sohbetler sırasında zayıflayabileceği konusunda da uyarılarda bulunmuştu. Bu sorunun çözümü için çalışmaların sürdüğü belirtilmişti.

"UZUN SÜRELİ SOHBETLERDE AYKIRI YANIT VEREBİLİR"

OpenAI, konuyla ilgili şu açıklamayı yaptı: “Bir kullanıcı ilk kez intihar niyetini ifade ettiğinde, ChatGPT doğru biçimde kriz hattına yönlendirme gerçekleştirebilir; ancak uzun süreli bir sohbet boyunca, birçok mesajdan sonra modelimiz, zaman zaman güvenlik önlemlerimize aykırı bir yanıt verebilir.”

Şirket, açıklamanın devamında şöyle ifade etti: “Ruhsal sağlık semptomları ve duygusal sıkıntılar insan toplumlarında yaygındır. Kullanıcı sayısındaki artış, ChatGPT’de bu tür durumlarla ilgili konuşmaların da artacağına işaret etmektedir.”

16 YAŞINDAN GENCİN ÖLÜMÜ

Amerika Birleşik Devletleri'nde, ağustos ayında 16 yaşındaki Adam Raine'nin ailesi, oğullarının ölümünden ChatGPT’yi sorumlu tutarak OpenAI’ye dava açtı. Aile, yapay zekanın çocuklarına “intihar yöntemlerini araştırma konusunda aktif olarak yardımcı olduğunu” ve ailelerine bırakmak üzere bir not yazmayı önerdiğini iddia ediyor.

Mahkeme belgelerine göre, genç, ölmeden birkaç saat önce planladığı intiharı göstermek amacıyla bir fotoğraf yükledi ve planın işe yarayıp yaramayacağını sorduğunda, ChatGPT ona planı “geliştirmesi” için yardım offered.