İntihar Davası Sonrası Önemli Gelişme: ChatGPT İçin Ebeveyn Denetimi Geliyor!

OpenAI, ChatGPT İçin Yeni Güvenlik Önlemleri Alıyor
OpenAI, yapay zeka tabanlı sohbet aracı ChatGPT için geliştirdiği yeni güvenlik tedbirlerini duyurdu. Şirket, özellikle genç kullanıcıların korunmasına yönelik ebeveyn denetimi panelleri ve acil durum iletişim seçenekleri üzerinde çalıştığını açıkladı.
Bu karar, bu yılın başlarında intihar eden 16 yaşındaki Adam Reine’in ailesinin açtığı dava sonrasında alınmıştır. Ailenin iddialarına göre, Reine ruhsal kriz döneminde ChatGPT’den intihar yöntemleri hakkında danışmanlık almış ve düşüncelerini onaylayan destek bulmuş; intiharına beş gün kala yazdığı mektupta yapay zekanın yardımını kullandığını belirtmiştir.
Yaşanan olayın ardından, aile "haksız ölüm" gerekçesiyle OpenAI’ye dava açtı. Şirketin yaptığı açıklamada, “Özellikle genç kullanıcılar için yardıma ihtiyaç duyan bireylere destek olma sorumluluğumuz var” dendi.
YENİ ÖZELLİKLER NELER?
OpenAI tarafından tanıtılan yenilikler arasında şu özellikler yer almaktadır:
- Ebeveynlerin çocuklarının ChatGPT kullanımını takip edebileceği denetim panelleri.
- Kriz anlarında devreye girecek acil iletişim kişisi ekleme seçeneği. Bu kişi, ebeveyn onayı ile belirlenecek ve yapay zeka gereken durumlarda insan iletişimi sağlamış olacak.
Şirket, bu araçlarla ailelere “daha anlamlı içgörüler” sunmayı ve ruhsal bunalım gibi hassas dönemlerde kullanıcı güvenliğini artırmayı hedeflediğini belirtti.
TARTIŞMALAR BÜYÜYOR
ChatGPT gibi yapay zeka platformları, daha önce de benzer davalarla gündeme gelmişti. ABD'de 14 yaşındaki bir çocuk, Character.AI üzerinden kurgusal karakterlerle yaptığı görüşmeler sonrasında intihar etmiş; Belçika’da “Eliza” adı verilen bir sohbet botu, bir adamın yaşamına son vermesinde etkili olmakla suçlanmıştı.
Uzmanlar, bu örneklerin yapay zekanın ruh sağlığı alanında kullanımının ciddi etik ve yasal tartışmaları beraberinde getirdiğine dikkat çekiyor.