Google’ın Bilim Adamları Şaşırttı: "İnsan Vücudunda Görülmeyen Yeni Bir Parça Geliştirildi!"

Yapay Zeka ve Sağlık Sektöründeki Riskler
Sağlık alanında hata yapma ihtimali yüksek olan üretken yapay zeka araçlarının yaygınlaşması, hekimler ve uzmanlar arasında artan bir endişeye sebep oluyor.
Bu kaygıların arkasında, yapay zekâların “halüsinasyon” olarak adlandırılan ve gerçekte mevcut olmayan bilgileri inandırıcı bir şekilde sunma eğilimleri yatıyor.
Son örnek olarak, Google’ın sağlık alanındaki yapay zeka modeli Med-Gemini ile bağlantılı bir hata, bu sorunun ciddiyetini gözler önüne serdi.
VAR OLMAYAN BEYİN BÖLGESİ
Google araştırmacıları, Mayıs 2024'te yayımladıkları bir çalışma kapsamında, Med-Gemini’nin radyoloji laboratuvarında beyin taramalarını analiz etme yeteneğini test etti. Model, analiz sonuçlarından birinde “basilar ganglia” terimini kullandı. Ancak, gerçekte “basilar ganglia” isimli bir beyin bölgesi bulunmamaktadır.
Nörolog Bryan Moore, bu hatayı fark ederek The Verge’e bildirdi. Google ise bu hatayı, “basal ganglia” (beynin motor hareketler ve alışkanlık oluşumuyla ilişkili kısmı) ile “basilar artery” (beyin sapının temel damarı) terimlerinin karışmasına dayandırarak “yazım hatası” olarak tanımladı.
TIP ALANINDA YÜKSEK RİSK
Uzmanlar, bu tür hataların günlük internet aramalarında bilgi kirliliğine yol açabileceğini, fakat hastane ortamında sonuçlarının çok daha ciddi olabileceğini vurguluyor. Providence sağlık sisteminin tıbbi bilgi direktörü Maulin Shah, “İki harflik bir fark ama bu büyük bir sorun. Bu tür hatalar son derece tehlike arz ediyor” dedi.
Google, geçtiğimiz yıl Med-Gemini’nin tıpta “önemli bir potansiyele” sahip olduğunu, röntgen, BT taramaları ve diğer görüntülerden hastalık tespitinde kullanılabileceğini duyurmuştu.
Fakat uzmanlar, yüksek riskli alanlarda hata toleransının insan seviyesinde değil, çok daha düşük olması gerektiğinin altını çiziyor.