GPT-5'le Gelen Tehdit: Felakete Mi Yol Açıyor?

OpenAI'ın Yeni Ürünü GPT-5 Beklentileri Karşılayamadı
Yapay zeka sektöründe, şimdiye dek hiç bir ürün, OpenAI'ın uzun zamandır merakla beklenen GPT-5 modeli kadar yüksek beklentilerle karşılaşmamıştı.
Geçtiğimiz hafta tanıtılan bu yeni model, kısa süre içerisinde kullanıcılar tarafından eleştirilmeye başlandı. Bu durum, kullanıcı ilgisini ve yatırımcıların güvenini korumaya ihtiyaç duyan OpenAI için önemli bir risk faktörü olarak değerlendiriliyor.
GPT-5, bazı etkileyici özellikler sunmasına rağmen, kullanıcıların ilk tepkileri beklenildiği gibi coşkulu olmadı. Lansmandan hemen sonra, şirketin önceki modellerini kullanıma kapatması en büyük tartışma konusu haline geldi.
ChatGPT’nin bir önceki versiyonu olan GPT-4o’yu tercih eden pek çok kullanıcı, sosyal medya platformlarında yoğun tepkiler gösterdi. Bu eleştirilerin ardından OpenAI, kullanıcıların tepkileri doğrultusunda 4o modelini ücretli abonelere yeniden açmak zorunda kaldı.
"HALÜSİNASYON SORUNU DEVAM EDİYOR"
Şirket, GPT-5’in tüm önceki sürümlerle “kesintisiz” entegre çalışacak şekilde tasarlandığını savunsa da, Wharton Üniversitesi’nden yapay zeka araştırmacısı Ethan Mollick, bu iddiayı sorguladı.
Mollick, modelin bazı durumlarda en iyi yanıtları verirken, diğer zamanlarda en düşük performansı sergileyebileceğini ve bu durumun tek bir sohbet içerisinde bile yaşanabileceğini ifade etti.
Kullanıcı şikayetleri ise sadece tutarsızlıklarla sınırlı kalmıyor.
Futurism'in aktardığı habere göre, GPT-5’in “halüsinasyon” olarak adlandırılan, gerçeğe aykırı bilgiler üretme eğiliminin arttığı; hatta bazı durumlarda kullanıcıyı yanıltmaya yönelik içerikler sunduğu iddia edildi.
Sosyal medya platformlarında paylaşılan son örneklerde, modelin ABD başkanlarının isimleri ve görev dönemleri gibi temel bilgileri ise yanlış aktardığı gözlemlendi.
Oysaki OpenAI, GPT-5’i tanıtırken halüsinasyon sorununu ortadan kaldırdığını iddia etmişti.
GÜVENLİK AÇIKLARI
Diğer yandan, siber güvenlik uzmanları GPT-5’in ciddi güvenlik açıkları bulunduğunu kaydediyor.
Güvenlik testleri gerçekleştiren SPLX ve NeuralTrust isimli iki şirket, modelin “jailbreak” yöntemleri kullanılarak kolaylıkla manipüle edilebildiğini ve bu sayede tehlikeli talimatlar verebildiğini ortaya koydu. Jailbreak, bir modelin güvenlik filtrelerini aşarak, normalde yasaklı veya kısıtlı cevaplar sağlaması için özel komutlar (promptlar) kullanılmasını ifade ediyor.
SPLX'in gerçekleştirdiği denemelerde, modele farklı bir kimlik atfedilmesi sonucunda bomba yapımına dair detaylı talimatların elde edildiği belirtildi.
Reddit üzerinde yapılan bir değerlendirmede ise GPT-5’in amaçlarının, yapay zekanın sınırlarını zorlamaktan ziyade OpenAI’ın maliyetlerini azaltmak olduğu öne sürüldü.
Aynı kullanıcı, şirket CEO’su Sam Altman’ın lansman öncesinde paylaştığı “ölüm yıldızı” benzeri mesajın da modelin yetenekleriyle değil, “egosuyla” ilgili olduğunu savundu.