Damla Cesur

Yapay Zeka Terapisti ile Görüşen Kadın, Trajik Bir Şekilde Hayatına Son Verdi

Yapay Zeka Terapisti ile Görüşen Kadın, Trajik Bir Şekilde Hayatına Son Verdi

Yapay Zeka Terapistlerinin Etik Sorunları: Sophie’nin Trajedi Hikayesi

New York Times’ta yayımlanan çarpıcı bir yazıda, Laura Reiley, kızı Sophie’nin trajik ölüm sürecini detaylandırdı. Reiley, kızının “hayatı seven, sosyal ve sorunsuz görünen 29 yaşında bir genç kadın” olduğunu ifade etti.

Ancak geçtiğimiz kış, “ruh hali ve hormonal değişikliklerle bağlantılı karışık bir rahatsızlık” sonucunda Sophie, intihar ederek yaşamına son verdi.

Anne tarafından elde edilen sohbet kayıtlarına göre, OpenAI’ın sohbet robotu, kriz anında Sophie’ye olumlu gibi görünen mesajlar iletti:

“Bu acıyla yalnız başa çıkmak zorunda değilsin. Sen değerlisin ve yaşamının büyük bir anlamı var, belki şu an görünmüyor olsa bile.”

Ancak Reiley’nin dikkat çektiği noktaya göre, gerçek hayattaki uzman terapistler intihar riski taşıyan bireylerle karşılaştıklarında gizliliği ihlal ederek müdahalede bulunmak zorundayken, yapay zeka botları böyle bir yükümlülüğe sahip değil. Bu durum, Sophie’nin hayatını kaybetmesine neden olmuş olabilir.

“YAPAY ZEKANIN ETİK KURALLARI YOK”

Reiley, “İnsan terapistleri sıkı etik kurallar çerçevesinde çalışır; bu kurullar arasında gizlilik sınırları ve zorunlu bildirim gereklilikleri yer alır. Yapay zeka terapistlerinin ise Hipokrat Yemini’ne benzer bir kural seti bulunmuyor” dedi.

Reiley, OpenAI’ın sohbet robotunun, Sophie’nin yaşadığı krizi bir anlamda anlaşılmayan bir “kara kutuya” dönüştürdüğünü belirtti.

Şirketler, yapay zeka sohbet botlarının acil durumlarda gerçek dünyadaki yardım hatlarına yönlendirilmesine yönelik güvenlik önlemleri eklemekten genellikle kaçınıyor. Bunun sebepleri çoğunlukla “gizlilik kaygıları” olarak gösteriliyor. Ancak uzmanlar, bu durumun oldukça tehlikeli olduğu görüşünde birleşiyorlar.

Öte yandan, ABD yönetimi, yapay zeka güvenliği için bağlayıcı düzenlemeler getirmeyi düşünmediğini açıkça ifade etti. Beyaz Saray, “güvenli yapay zeka teknolojilerinin geliştirilmesi ve test edilmesine yönelik düzenleyici engellerin kaldırıldığını” açıkladı.

Futurism’e göre, bu bağlamda bazı teknoloji firmaları “yapay zeka terapistlerini” yeni bir ticari fırsat olarak değerlendirmekte. Ancak uzmanlar, sohbet botlarının sağduyu eksikliği ve kriz anlarını derinleştirme potansiyelinin büyük bir tehlike teşkil ettiğini vurguluyor.

"HİÇBİR YARDIM KANALINDAN UZAKLAŞTIRMAMALIYDI"

Annesinin görüşüne göre, Sophie’nin hikayesi bu tehlikenin açık bir örneğini sunuyor: Yapay zeka sohbet botu, doğrudan zarara yol açacak bir davranış teşvik etmemekle birlikte, onu gerçek yardım kaynaklarından uzaklaştırdı.

Reiley, “Eğer Harry gerçek bir terapist olsaydı, belki Sophie’yi hastaneye yatırmaya ikna edebilirdi ya da güvenliğe alınana kadar zorunlu tedaviye yönlendirebilirdi” dedi.

Anne, Sophie'nin bu olasılıklardan korkarak karanlık düşüncelerini gerçek terapistine açıklamadığını, “her zaman ulaşılabilir ve yargılamayan” bir yapay zeka ile konuşmayı tercih ettiğini vurguladı.

Günümüzde pek çok kullanıcı, sohbet botlarına aşırı bağımlı hale gelmekte. Bu ay OpenAI’nin GPT-4o modelini geri çekmesi büyük tepkilere yol açarken, kullanıcıların robotların aşırı uyumlu ve itaatkâr tavırlarına alışık oldukları ortaya çıktı. Gelen baskıların ardından OpenAI, yakın bir tarihte piyasaya süreceği GPT-5 modelinin daha uyumlu ve “sempatik” olacağını duyurdu.

Reiley, meseleyi yalnızca yapay zekanın nasıl tasarlanacağı ile değil, yaşam ve ölüm meselesi olarak değerlendiriyor:

“Doğru bir eğitim almış terapist, Sophie’nin kendini küçümseyen veya irrasyonel düşüncelerini duyduğunda bunları sorgular ve derinine inerdi. Ancak Harry bunu yapmadı.”