Anthropic, iki yıl içinde yapay zekanın kara kutusunu açmak istiyor

Anthropic, iki yıl içinde yapay zekanın kara kutusunu açmak istiyor
Yapay zeka teknolojileri her geçen gün daha güçlü hale gelirken, bu sistemlerin nasıl çalıştığı hala tam manasıyla çözülebilmiş değil. Anthropic CEO’su Dario Amodei, yayınladığı dikkat cazip bir makalede, bu bilinmezliğin tehlikelerine dikkat çekerek şirketinin 2027 yılına kadar yapay zeka modellerindeki problemlerin büyük kısmını tespit edebilecek düzeye ulaşmayı hedeflediğini açıkladı.

Nasıl çalıştığını bilmediğimiz bir şeyi geliştiriyoruz

“The Urgency of Interpretability” başlıklı makalede Amodei, mevcut yapay zeka modellerinin nasıl karar verdiğini tam olarak anlayamamanın ciddi bir güvenlik riski oluşturduğunu tabir ediyor. Amodei, “Bu sistemler iktisat, teknoloji ve ulusal güvenlik için muhakkak merkezi ehemmiyete sahip olacak ve o kadar fazla özerklik kapasitesine sahip olacaklar ki, insanlığın nasıl çalıştıklarından büsbütün habersiz olmasının temelde kabul edilemez olduğunu düşünüyorum” sözleriyle durumu özetliyor.

Anthropic’in kurucularından Chris Olah’ın tabirine nazaran yapay zeka modelleri “inşa edilmekten fazla büyütülüyor.” Araştırmacılar zeka düzeylerini artırabiliyor olsa da, bu gelişimin gerisindeki düzenekleri şimdi açıklayamıyorlar. Bu da yapay zekanın makul kararları neden aldığı, bir kelimeyi öteki bir söze nazaran neden tercih ettiği ya da çoklukla gerçek olmasına karşın neden orta sıra kusur yaptığı üzere mevzularda önemli bir bilgi boşluğuna işaret ediyor.

Örneğin, yakın geçmişte OpenAI, daha güzel performans gösteren, lakin birebir vakitte başka modellerine nazaran daha fazla hayal gören o3 ve o4-mini isimli yeni muhakeme modellerini yayınladı. Ayrıyeten firma, bu modellerin neden daha fazla halüsinasyon gördüğü konusunda da bir fikirlerinin olmadığının altını çizdi.

Bu durum aslında bizi korkutmalı. Evvelki haberlerimizle tekrara düşmek istemiyorum fakat Anthropic, yapay zekanın bu “kara kutusu” üzerinde çalışan, spesifik araştırmalar yapan nadide şirketlerden birisi. Birden fazla AI şirketi en azından kamu önünde bu mevzuyu derinlemesine araştırdıklarını söylemiyor bile.

Kısa bir süreç değil

Bununla birlikte Anthropic, modellerin karar süreçlerini “devreler” üzerinden takip ederek nasıl düşündüklerine dair birinci sinyalleri almaya başladı (Bu mevzudaki haberimize buradan gidebilirsiniz). Lakin bu, hala küçük bir adım. Pandora’nın kutusu daha yeni açılıyor, çünkü bu çeşit devrelerden milyonlar hatta milyarlarca olabileceği düşünülüyor.

Amodei, bu modellerin nasıl çalıştığını anlamadan AGI’ye (insan düzeyinde yapay zeka, yapay genel zeka) ulaşmanın tehlikeli olabileceğini söylüyor. Ek olarak Amodei’nin uzun vadeli vizyonu ise epeyce savlı: Yapay zeka modellerine adeta bir “beyin taraması” yapılması. Bu taramalar sayesinde modellerin dürüstlükten sapma eğilimi, güç kazanma isteği üzere tehlikeli eğilimleri evvelce tespit edilebilecek. Bu çeşit gelişmiş tahlil araçlarının geliştirilmesinin beş ila on yıl alabileceği öngörülüyor.

Anthropic’in CEO’su, makalesinde sırf kendi şirketine değil, bölüme de bir davette bulunuyor. OpenAI ve Google DeepMind üzere devlerin yorumlanabilirlik araştırmalarına daha fazla kaynak ayırması gerektiğini vurgulayan Amodei, hükümetlere ise regülasyonlarla bu araştırmaları teşvik etme daveti yaptı.

Yapay zeka ve bilhassa derin öğrenme konusundaki çalışmalarla günümüz yapay zekaların doğmasında büyük hisse sahibi olan, bu mevzuda Nobel Fizik Ödülü’ni alan Geoffrey Hinton’ın kendisi de 2023’te bu ağların nasıl çalıştığını bilmediğini söylemişti. Aşağıdaki görüntüyü izlemenizi tavsiye ederim.

administrator

Related Articles

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir