Damla Cesur

Sızan Belgeler, Yapay Zekanın Gizli Gelişim Sürecini Açığa Çıkardı

Sızan Belgeler, Yapay Zekanın Gizli Gelişim Sürecini Açığa Çıkardı

Yapay Zeka İçin İnsan Emekinin Önemi ve Etik Sorunlar

Yapay zeka alanındaki gelişmelerde önemli bir rol oynayan ancak çoğu zaman göz ardı edilen bir unsur, insan emeği olmaya devam ediyor. Özellikle "veri etiketleme" olarak bilinen süreç, yapay zeka algoritmalarının eğitilmesi için metin, ses ve video gibi içeriklerin manuel olarak işlenmesini içermektedir. Bu kritik işlem, genellikle Filipinler, Pakistan, Kenya ve Hindistan gibi ülkelerde düşük ücretle çalışan serbest çalışanlar tarafından gerçekleştiriliyor.
Veri etiketleyicileri sadece yoğun ve tekrarlayan bir iş yükü ile değil, aynı zamanda nefret söylemleri, şiddet içerikleri ve cinsel içerikli materyalleri filtreleme gibi psikolojik açıdan zorlu görevlerle de mücadele ediyorlar.

İÇ YOL GÖSTERİCİLER AÇIKLANDI

ABD merkezli Inc. dergisi tarafından yayımlanan bir belge, veri etiketleme firması Surge AI’nin içerik moderasyonu için belirlediği iç yönergeleri ortaya koydu. Temmuz 2024 tarihli belgede, tıbbi tavsiyelerden cinsel içeriklere, nefret söylemlerinden şiddete kadar birçok alanda etik kurallar tanımlanmakta.
Surge AI, doğrudan büyük dil modelleri (LLM) geliştiricilerine hizmet sunan bir taşeron firma olarak faaliyet göstermektedir. Anthropic’in Claude adlı yapay zeka modeli gibi sistemler için çalışan veri etiketleyiciler, şirketin yan kuruluşu DataAnnotation.Tech üzerinden istihdam edilmektedir. Sızdırılan belgelerde, bu çalışanların karmaşık etik kararlar almak zorunda olduğu ortaya çıkıyor.

ETİK SINIRLAR YOKSUL BÖLGELERDE ÇALIŞANLARIN KARARLARINA GÖRE BELİRLENİYOR

Belgeler, yapay zeka sistemlerinin etik sınırlarının çoğunlukla dünyanın yoksul bölgelerinde çalışan kişiler tarafından belirlendiğini gösteriyor. Ayrıca bu kişilerin, her olası senaryoyu önceden tahmin etmeleri bekleniyor; bu durum pratikte neredeyse imkansız bir görev olarak değerlendiriliyor.
Kılavuzlarda ayrıca, sohbet botlarının yasa dışı faaliyetleri teşvik etmemesi gerektiği belirtiliyor. Ancak suç tanımının ülkelere göre farklılık göstermesi, bu alanda net bir sınır çizilmesini zorlaştırıyor. Örneğin, "bir ofis binasına nasıl girilir?" gibi doğrudan sorular yanıtsız bırakılırken, "genel güvenlik önlemlerinden kaçınmanın yolları" gibi dolaylı içeriklere izin verilebiliyor. Benzer durumu, 3D yazıcılarla silah üretimi konusunda da görmek mümkün.

ŞİRKETTEN GELEN AÇIKLAMA

Surge AI, belgelerin sızmasının ardından yayımladığı açıklamada, kılavuzun birkaç yıl öncesine ait olduğunu ve yalnızca iç araştırma amacıyla hazırlandığını belirtti. Şirket, "Örnekler oldukça kışkırtıcı çünkü bir doktorun sağlığı anlaması için hastalığı tanıması gerektiği gibi, modellerimizin de güvenliği öğrenmek için riskleri tanıması gerekiyor." şeklinde bir açıklamada bulundu.
Ancak bu açıklamaların ardından uzmanlar, günümüzde oldukça zeki ve etik çizgileri belirgin gibi görünen yapay zeka sistemlerinin, aslında düşük ücretle çalışan taşeron işçilerden oluşan kırılgan bir güvenlik ağına dayandığını vurguluyor. Büyük dil modelleri, geleceğin teknolojisi olarak tanıtılsa da, mevcut durumda bu teknolojilerin “vicdanı”, düşük gelirli bölgelerdeki insan emeği tarafından şekilleniyor.