Yapay Zeka Güvenliğinde Şok Gelişme: Bilim İnsanları Kusur Tespit Etti!
Yapay Zeka Alanında Geçerlilik Sorunu
İngiltere Yapay Zeka Güvenlik Enstitüsü'nde görevli bilgisayar bilimcileri, Stanford, Berkeley ve Oxford üniversiteleri de dahil olmak üzere 14 farklı kurumdan toplam 29 araştırmacı, "Önemli Olanı Ölçmek: Büyük Dil Modeli Kıyaslamalarında Yapı Geçerliği" başlıklı önemli bir çalışma gerçekleştirdi.
Bilim insanları, yapay zekanın önemli alanları olan "doğal dil işleme" ve "makine öğrenimi" konularında öne çıkan konferanslardan elde edilen 445 değerlendirme testini sistematik bir şekilde inceledi.
Yapılan incelemeler sonucunda, bu testlerin neredeyse tamamının "sonuçların geçerliliğini olumsuz etkileyebilecek" hatalara sahip olduğu tespit edildi.
Oxford İnternet Enstitüsü'nden Andrew Bean, çalışmaya dair The Guardian'a verdiği bilgide, bu testlerin büyük teknoloji firmaları tarafından piyasaya sunulan en yeni yapay zeka modellerinin değerlendirilmesinde kullanıldığına dikkat çekti.
Bean, değerlendirme testlerinin yapay zekaya dair tüm iddiaların temelini oluşturduğunu vurgulayarak, ortak tanımlar ve sağlıklı ölçümler olmaksızın bu modellerin gerçekten geliştirilip geliştirilmediğini anlamanın zorlaştığını ifade etti.