Mert Doğru

Yapay Zeka Gazeteciliği Hüsrana Uğratıyor: Yanlış Bilgilerle Dolu Haberler!

Yapay Zeka Gazeteciliği Hüsrana Uğratıyor: Yanlış Bilgilerle Dolu Haberler!

Yapay Zeka Araçlarındaki Sistemik Sorunlar Tespit Edildi

BBC'nin öncülüğünde gerçekleştirilen uluslararası bir çalışma, Napoli'deki EBU Haber Meclisi'nde başlatıldı. 18 ülkede, 22 kamu hizmeti medya kuruluşunun 14 farklı dilde yer aldığı bu araştırma, dört önde gelen yapay zeka platformunda çeşitli sistemik sorunlar olduğunu ortaya çıkardı.

Çalışmaya katılan kamu servis medya (PSM) profesyonel gazetecileri, ChatGPT, Copilot, Gemini ve Perplexity gibi yapay zeka sistemlerinden gelen 3.000'den fazla yanıtı, doğruluk, kaynak, görüşü gerçeklerden ayırma ve bağlam sağlama gibi temel kriterlere göre değerlendirdi. Temel bulgular arasında şunlar yer alıyor:

  • - Yapay zeka yanıtlarının yüzde 45'inde en az bir önemli sorun tespit edildi.
  • - Yanıtların yüzde 31'inde ciddi kaynak hataları (eksik, yanıltıcı veya yanlış atıflar) gözlemlendi.
  • - Yüzde 20'sinde ise karmaşık detaylar ve güncelliğini yitirmiş bilgiler gibi önemli doğruluk sorunları mevcuttu.
  • - Gemini, yanıtların yüzde 76'sında belirgin sorunlarla en zayıf performansı sergileyerek diğer asistanların performansının iki katından fazla sorunla karşılaştı ve bu durum büyük ölçüde kaynaklardaki zayıflıktan kaynaklanıyordu.

BBC'nin daha önceki bulgularıyla bu yeni çalışmanın sonuçları karşılaştırıldığında, bazı iyileşmelerin olduğu ancak hata oranlarının hala yüksek olduğu görülüyor.

Gençlerin Yapay Zeka ile Haber Tüketimi Artıyor

Yapay zeka asistanları, birçok kullanıcının haber arama motorlarını geride bırakmasına neden olmaya başladı. Reuters Enstitüsü'nün 2025 Dijital Haber Raporu'na göre, çevrimiçi haber tüketicilerinin yüzde 7'si haberlerine ulaşmak için yapay zeka asistanlarını tercih ediyor ve bu oran 25 yaş altı kullanıcılar arasında yüzde 15'e kadar çıkıyor.

EBU Medya Direktörü ve Genel Müdür Yardımcısı Jean Philip De Tender, "Bu araştırma, belirlenen eksikliklerin tekil olaylar olmadığını net bir şekilde ortaya koyuyor. Bunlar sistemik sorunlar ve çok dilli, sınır ötesi bir durum söz konusu. Bu durum kamu güvenini tehlikeye atıyor. İnsanlar neye güveneceklerini bilmediklerinde, nihayetinde hiçbir şeye güvenmemeye başlıyorlar ve bu da demokratik katılımı olumsuz etkileyebilir," dedi.

BBC Generative AI Program Direktörü Peter Archer ise, "Yapay zeka ile ilgili olan konularda daha fazla değer sunmak için heyecanlıyız. Ancak insanların gördüklerine, okuduklarına ve izlediklerine güvenebilmeleri gerekli. Bazı iyileştirmelere rağmen, bu asistanlarda hala ciddi sorunlar olduğu açık. Bu araçların başarılı olmasını istiyoruz ve izleyicilere daha geniş topluma hizmet sunmak için yapay zeka şirketleriyle işbirliğine açığız," şeklinde açıklamada bulundu.

Araştırma ekibi, raporda ortaya çıkan sorunlara çözüm geliştirmek amacıyla, Yapay Zeka Asistanlarında Haber Bütünlüğü Araç Seti'ni yayımladı. Bu set, yapay zeka asistanlarının yanıtlarını ve kullanıcıların medya okuryazarlığını geliştirmeyi hedefliyor. Mevcut araştırmada tespit edilen içgörüler ve örnekler doğrultusunda hazırlanan Araç Seti, iki önemli soruyu ele alıyor: "İyi bir yapay zeka asistanının haber sorusuna verdiği yanıt nasıl olmalı?" ve "Düzeltilmesi gereken sorunlar nelerdir?"

Öte yandan, EBU ve Üyeleri, AB ve ulusal düzenleyicilere bilgi bütünlüğü, dijital hizmetler ve medya çeşitliliği konularında mevcut yasaları uygulamaları için baskı yapmayı sürdürüyor. Ayrıca, yapay zeka gelişiminin hızlı ilerleyişinin göz önüne alınması gerektiğini belirterek, yapay zeka asistanlarının sürekli bağımsız izlenmesinin büyük önem arz ettiğini vurguluyor ve araştırmaların devamlılığı için çeşitli seçenekler arıyor.

Bu çalışma, BBC'nin Şubat 2025'te yayınladığı ve yapay zekanın haber işleme konusundaki sorunlarını ilk kez vurgulayan rapora dayanıyor. Araştırmanın ikinci aşaması ise uluslararası düzeyde genişleyerek meselenin sistemik olduğunu ve dil, pazar ya da yapay zeka asistanları ile bağlantılı olmadığını doğruladı.

Bugün ayrıca BBC, izleyicilerin yapay zeka asistanlarının haber amaçlı kullanımına dair algılarına ilişkin bir araştırma yayınladı. Bu çalışmanın sonuçları, birçok kişinin yapay zeka asistanlarının doğru özetler üreteceğine dair güven duyduğunu ortaya koydu. İngiltere'deki yetişkinlerin üçte birinden fazlası, yapay zekanın doğru özetler sağlama kapasitesine inanırken, 35 yaş altı bireylerde bu oran neredeyse yarıya düşüyor.

Bulgular endişe verici sonuçlar doğuruyor. Birçok kişi, haber içeriklerinin yapay zeka özetlerinin doğru olduğunu varsayıyor; ancak gerçekte durum böyle değil. Hatalarla karşılaştıklarında ise, bu hataların yapay zeka asistanlarından kaynaklandığını bilseler dahi haber sağlayıcılarını ve yapay zeka geliştiricilerini suçluyor. Sonuç olarak, bu hatalar kamuoyunun haberlere ve haber markalarına olan güvenini olumsuz etkileme potansiyeline sahip.