OpenAI Tetikte: ChatGPT Biyolojik Silah Geliştirme Riski Taşıyor!

OpenAI'nin Yeni Modelleri Biyolojik Silah Üretebilir Mi?
Popüler sohbet botu ChatGPT’yi geliştiren ABD merkezli yapay zeka firması OpenAI, gelecek modellerinin son derece gelişmiş olabileceğini ve hatta tamamen yeni biyolojik silahlar üretme potansiyeli taşıyabileceğini öne sürüyor.
Şirket, yayımladığı son blog yazısında "biyomedikal araştırmalar ve biyolojik savunma gibi olumlu senaryolar için" daha ileri düzey modeller geliştirmekte olduklarını belirtirken, "zararlı bilgilere karşı koruyucu önlemleri koruyarak bilimsel ilerlemeyi teşvik etme" hedefinde ince bir denge kurmaya çalıştıklarını aktardı.
Bu bağlamda, OpenAI'nın "zararlı bilgi" ifadesi, yapay zeka modellerinin biyolojik silah üretiminde olası bir rolü olabileceği ihtimalini de içeriyor.
AMATÖRLER BİLE BUNU YAPABİLİR
OpenAI'nın güvenlikten sorumlu isimlerinden Johannes Heidecke, Axios'a verdiği röportajda, yeni yapay zeka modellerinin bağımsız olarak biyolojik silah üretme kapasitesinden ziyade, amatörlerin bu süreçte yardımcı olabilecek bir araç haline gelebileceğini belirtti.
Heidecke, "Henüz varolmayan, tamamen bilinmeyen biyolojik tehditlerin ortaya çıktığı yeni bir dünya içinde yaşamıyoruz. Uzmanların zaten aşina olduğu unsurlardan dolayı daha fazla endişe yaşıyoruz" ifadesini kullandı.
Güvenlik sorumlusunun ayrıca, şirketin yeni modellerinin tam olarak hazır olmadığını kabul ederken, "O3 akıl yürütme modelimizin bazı yeni nesil versiyonlarının bu seviyeye ulaşmasını bekliyoruz" şeklinde konuştu.
ÖNLEM ODAKLI YAKLAŞIM
OpenAI, yayınladığı blog yazısında, "Yönetimimiz önleme odaklıdır" değerlendirmesinde bulundu:
"Yeterli güvenlik önlemleri almadan, bir biyolojik tehdit olayının gerçekleşip gerçekleşmeyeceğini görmeyi kabul edilebilir bir yaklaşım olarak görmüyoruz."
Biyomedikal alanındaki yeniliklerin kötü niyetli kişilerce istismar edilebileceği konusunda kaygılar mevcut. Heidecke'ye göre, "zararın önlenmesi" amacıyla, bu yeni modellerin insanları her türlü tehdide karşı uyarmak ve bu tehditleri tanımak için "mükemmele yakın" bir hassasiyetle programlanması zorunludur.
Heidecke, bu hedefin gerçekleştirilmesi için yüzde 99’luk bir performansın bile yeterli olmayacağını sözlerine ekledi.