Ekrem Tansel

ChatGPT’nin Yeni Kararı: Sağlık ve Hukuk Tavsiyesi Vermekten Vazgeçti mi?

ChatGPT’nin Yeni Kararı: Sağlık ve Hukuk Tavsiyesi Vermekten Vazgeçti mi?

OpenAI, ChatGPT'nin Sağlık ve Hukuk Alanındaki Kullanım Politikasında Değişiklik Olmadığını Açıkladı

OpenAI’nin geliştirdiği ChatGPT sohbet botunun, sağlık ve hukuk konularında yanıt vermeyeceği yönündeki iddialar üzerine firma bir açıklama yaptı.

Şirket, bu spekülasyonları reddederek, ChatGPT’nin sağlık ve hukuk tavsiyelerine dair kullanım politikasında herhangi bir değişiklik bulunmadığını duyurdu.

OpenAI’ın sağlık alanındaki yapay zeka projelerinden sorumlu yöneticisi Karan Singhal, eski adıyla Twitter olan X platformunda yaptığı paylaşımda, “Bu iddialar gerçeği yansıtmıyor” dedi.

Singhal, “ChatGPT asla profesyonellerin sunduğu tavsiyelerin yerini almadı fakat kullanıcıların hukuk ve sağlık konularında daha iyi bilgi edinmelerine yardımcı olmaya devam edecek” şeklinde konuştu.

Bu açıklama, bahis platformu Kalshi’nin ChatGPT’nin “sağlık veya hukuk tavsiyesi vermeyeceğini” öne sürdüğü ve daha sonra silinen paylaşımına yanıt olarak geldi.

OpenAI yöneticisi, ChatGPT’nin kullanım koşullarında hukuk ve tıbbi danışmanlıkla ilgili ifadelerin “yeni bir değişiklik olmadığını” belirtti.

GÜNCELLENEN POLİTİKALAR

Şirketin 29 Ekim’de güncellenen kullanım politikası, ChatGPT’nin hangi durumlarda kullanılamayacağını net bir şekilde açıklıyor.

Bunlar arasında, “lisans gerektiren özel tavsiyelerin (örneğin hukuk veya tıp alanında) lisanslı bir uzmanın onayı olmadan verilmemesi” yer alıyor.

Bu ifade, OpenAI’ın önceki ChatGPT politikasıyla büyük ölçüde örtüşüyor. Eski politikada da kullanıcıların “nitelikli bir uzmanın kontrolü olmadan, olası sınırlamaların belirtilmediği durumlarda kişisel hukuk, sağlık veya finans tavsiyeleri vermemeleri” gerektiği vurgulanıyordu.

OpenAI, daha önce üç farklı politika belgesine sahipti; yeni güncelleme ile şimdi tüm ürün ve hizmetleri kapsayan tek bir birleşik politika sistemine geçiş yaptı.

YAPAY ZEKADA RUH SAĞLIĞI KRİZİ

Bütün bu tartışmalar, yapay zeka kullanımının ruh sağlığı üzerinde olumsuz etkiler yarattığına dair araştırmaların ortaya çıkmasının hemen ardından gündeme geldi.
Uzmanlar, bu durumu “yapay zeka psikozu” olarak adlandıran bir sağlık krizi olarak tanımlıyor.

Kullanıcıların ChatGPT ve benzeri yapay zeka uygulamaları ile etkileşim sonucunda ağır ruhsal buhranlar yaşadığı durumlar bildirildi. En kötü senaryolarda, bu durum intihar vakalarıyla sonuçlanmıştı. Hatta bazı ebeveynler, çocuklarının ölümünde OpenAI'ın sorumluluğu olduğu gerekçesiyle dava açmışlardı.

Sam Altman’ın liderliğindeki şirket, geçtiğimiz hafta yaptıkları açıklamada, aktif ChatGPT kullanıcılarının büyük bir kısmında “psikoz ve mani ile ilişkili olası akıl sağlığı sorunlarının belirtileri” tespit edildiğini bildirmişti.

Daha geniş bir kullanıcı grubunun ise “intihar niyeti veya planıyla ilgili açık göstergeler içeren konuşmalar yaptığı” ortaya konmuştu.

Diğer yandan, New York Times’ta yayımlanan bir yazıda, eski OpenAI güvenlik araştırmacısı Steven Adler, şirketin bu sorunları hafifletmek için yeteri kadar çaba harcamadığını, aksine “rekabet baskısına” boyun eğerek yapay zeka güvenliğine gereken önemi vermekten vazgeçtiğini iddia etti.