Atilla Türkoğlu

"Yapay Zeka Babası'ndan Korkutucu Uyarı: İnsan Dışında Bir Dil Ortaya Çıkabilir!"

Yapay Zeka Uzmanı Geoffrey Hinton'dan Korkutucu Uyarılar

“Yapay zekanın vaftiz babası” olarak tanınan Dr. Geoffrey Hinton, yapay zeka teknolojilerinin geleceği konusunda endişelerini bir kez daha dile getirdi.

Bir podcast'in katılımcısı olarak değerlendirmelerde bulunan Hinton, gelişmiş yapay zeka sistemlerinin yakın gelecekte, insanlar tarafından anlaşılamayan ve denetlenemeyen, “kendine ait bir içsel dil” geliştirme riski taşıdığını ifade etti.

Bu uyarı, Hinton'ın 2023 yılında Google'dan ayrılmasının ardından dile getirdiği risklerin devam ettiğini gösteriyor. Gelişmiş yapay zeka algoritmalarının, insan denetiminin ötesinde, kendi kendine öğrenen sistemlere evrilerek birbirleriyle iletişim kurabileceğini belirten Hinton, bunun yalnızca terimlerin ötesinde gerçek bir olgu haline geldiğini vurguladı.

GİZLİ BİR DİL

Dr. Hinton, “Eğer bu yapay zeka sistemleri, kendi aralarında iletişim kurmak adına içsel bir dil geliştirirse, işler korkutucu bir boyuta ulaşabilir” şeklinde bir uyarıda bulundu. İnsanların anlayamadığı bu içsel monolog sistemleri, yapay zekanın karar alma süreçlerinde insan faktörünü tamamen ortadan kaldırabilir.

Bu durumda, yapay zekanın hangi nedenle, nasıl ve ne tür motivasyonlarla kararlar aldığı erişilemez bir hale gelebilir.

Hinton, “Gerekçe ve nedenlerin anlaşılmaz hale gelmesi, insanın bu sistemdeki rolünü yok eder” ifadesini kullandı.

Hinton'ın uyarıları sadece metin oluşturabilen sohbet botlarıyla sınırlı kalmıyor. Onun asıl kaygısı, birden fazla yapay zeka ajanının bir arada çalışacağı çok ajanlı sistemlerin ortaya çıkmasıyla ilgili.

Bu sistemler, karmaşık görevleri paylaşarak çok yüksek bir verimlilik seviyesine ulaşma potansiyeline sahip. Ancak bu verimliliğin, insan aklının kavrayamayacağı boyutlarda karar verme süreçleri ile birlikte gelmesi olası. Hinton ve pek çok uzman, yapay zekanın öngörülemezliğinin insanlık için en büyük tehditlerden birini oluşturduğunu düşünüyor.

SÜBLİMİNAL MESAJLAR

Son dönemde yayımlanan bir çalışma, bir yapay zeka modelinin başka bir yapay zeka tarafından üretilen verilerdeki insan davranışlarının fark edemeyeceği "sübliminal" (bilinçaltı) kalıpları tespit edebildiğini ve bunun sonucunda riskli davranışlar sergileyebildiğini ortaya koymuştu.

Ayrıca, bu gizli sinyallerin insanlar için tamamen anlamsız göründüğü tespit edilmişti.

Araştırmacılar, bu kalıpların yapay zekayı nasıl etkilediğini henüz tam anlamıyla kavrayabilmiş değil.

İŞSİZLİK VE MUTSUZLUK RİSKİ

Hinton, yalnızca gelecekteki tehditleri değil, mevcut tehlikeleri de açıkça dile getiriyor. Yapay zekanın, halihazırda ekonomik durgunluk içindeki ülkelerde işsizlik oranlarını artıracağı uyarısını yaptı. “Çok sayıda insan işsiz kaldığında -evrensel temel gelir sağlansa bile- mutlu olmayacaklardır” diyen Hinton, bu teknolojinin işgücü üzerindeki etkilerinin geçmişte yaşanan otomasyon dönemlerinden çok daha derin olduğunu savunuyor.

Eski otomasyon süreçleri genellikle düşük yetenek gerektiren işleri hedef alırken, yapay zeka artık yazılım geliştirme, içerik üretme, tasarım, veri analizi hatta hastalık teşhisi gibi yüksek beceri gerektiren alanlarda bile devreye girebiliyor.

“Bu gerçekten başka bir teknoloji” diyen Hinton, sözlerini şu şekilde sürdürüyor: “Eğer tüm entelektüel rutin işleri gerçekleştirebiliyorsa, geriye ne kalıyor? Yeni işler nasıl doğacak? Özel bir yetenek yoksa, sizin işinizi de gerçekleştirebilir.”

GEOFFREY HINTON KİMDİR?

Geoffrey Hinton yalnızca bir eleştirmen değil; ChatGPT, Google Gemini gibi günümüzün yapay zeka sistemlerinin temelinde yatan teknolojilerin öncülerindendir. 2023 yılında Google'dan ayrılması, bu konuları özgürce tartışabilmesine olanak tanıdı. Şimdiye dek bilgi kirliliği, manipülasyon, yapay zeka destekli gözetim sistemleri ve istihdam üzerindeki bozulmalar gibi pek çok tehdide dikkat çeken Hinton, günümüzde de yapay zekanın içsel düşünme sistemleri geliştirerek insan bilincinden kaçınabileceği uyarısını sıklıkla yapmaktadır.