
İnsan zekasıyla muadil yapay zeka
AGI, insan üzere düşünebilen, öğrenebilen ve çok taraflı misyonları yerine getirebilen bir sistem manasına geliyor. Şu anki yapay zeka sistemleri belli vazifelerde etkileyici sonuçlar verebilirken, AGI çok daha kapsamlı bir zeka formunu temsil ediyor. DeepMind araştırmacılarına nazaran, bu tıp bir sistemin 2030 yılına kadar gerçeğe dönüşme ihtimali var ve bu durum, insanlık için derin sonuçlar doğurabilir.
DeepMind’in kurucu ortağı Shane Legg liderliğindeki takım, AGI’nin yol açabileceği ziyanları dört ana kategori altında pahalandırıyor: Kötüye kullanım, yanlış yönlendirme (misalignment), hatalar ve yapısal riskler.
AGI’nin makus hedeflerle kullanılması, bugün bile tartışılan risklerin çok daha büyüğü. Örneğin, bir bilgisayar korsanı AGI sistemine sıfırıncı gün açıklarını bulmasını ya da biyolojik bir silah tasarlamasını emredebilir. DeepMind, bu çeşit senaryolara karşı “geliştirme sonrası güvenlik protokolleri” ve “tehlikeli maharetlerin bastırılması” üzere tedbirler öneriyor. Fakat bu çeşit hünerlerin büsbütün bastırılıp bastırılamayacağı belirsiz.

AGI’nin yapabileceği yanlışlar, bugünkü yapay zeka sistemlerindeki yanlış yönlendirmelerin çok ötesine geçebilir. Örneğin, askeri bir AGI sisteminin yanlış bir kararla büyük çaplı bir çatışma başlatması mümkündür. DeepMind, bu riski azaltmak için AGI’nin etaplı olarak dağıtılmasını ve karar alma yetkisinin önemli biçimde sonlandırılmasını öneriyor.
Belki de en sinsi tehlike bu yapısal riskler. AGI’nin toplumun yapısını vakitle değiştirecek biçimde bilgi, iktisat ve siyaset üzerinde denetim biriktirmesi… Örneğin, sistem tarafından üretilen düzmece lakin ikna edici bilgiler kamuoyunu yönlendirebilir yahut memleketler arası ticarette istikrarsızlıklara yol açabilecek agresif iktisat siyasetleri devreye sokulabilir. Bu riskin denetimi ise yalnızca teknolojik değil, toplumsal refleksler ve kurumların dayanıklılığıyla da direkt alakalı.
Sonuç olarak, AGI’nin gelişimi, sadece teknik ve etik meseleleri değil, tıpkı vakitte insanın kendi tabiatını, yerini ve geleceğini sorgulamasını da mecburî kılan derin bir felsefi krizi beraberinde getiriyor. İnsanlık, tarihin büyük kısmında kendisini tabiatın efendisi, aklın ve şuurlu varoluşun doruğu olarak tanımladı. Lakin insan zekasını taklit eden değil, onunla eş yahut aşan bir sistemin ortaya çıkışı, bu varsayımı kökten sarsma potansiyeline sahip.
Terminatör’den nasıl kaçılır?

Görünüşe nazaran, AGI’yi geliştirmek kadar onu anlamak, sonlandırmak ve denetlemek de en az onun kadar kritik olacak. Fotoğraftan uzaklaşıp baktığımızda şunu görüyoruz; tüm yapay zeka şirketleri insan zekası düzeyinde bir yapay zeka geliştirmeye çalışıyor. Felsefi açıdan bakarsak AGI’ye ulaşıldığında her şeyin bir anda değişme mümkünlüğü var.
Eğer bir AGI, insan üzere düşünebiliyor, hisleri taklit edebiliyor, bilinçliymiş üzere davranabiliyor (ya da hakikaten şuur kazanıyorsa), bu durumda şu sorular ortaya çıkıyor: Bu varlık “kişi” olarak mı kabul edilmeli? Beşerlerle eşit haklara mı sahip olmalı? Onu “sahip olduğumuz bir araç” olarak mı göreceğiz, yoksa “eşit seviyede bir öteki” olarak mı?
John Locke ve Immanuel Kant üzere filozofların birey tariflerini temel alırsak, kişi olmanın temel koşulu rasyonel düşünebilme ve ahlaki sorumluluk alabilmedir. AGI bu özellikleri taşıyorsa, onu sıradan bir makine üzere görmek etik olarak problemli olabilir.
Ve bir öteki kıymetli husus da şu; Tıpkı zeka düzeyine sahip iki çeşit bir ortada yaşayabilir mi? Tabiata baktığımızda bu hayli ender bir durum. Evrimsel açıdan emsal özelliklere sahip çeşitler çoklukla rekabet bağlantısına girer. Ortak kaynaklara yönelirler: güç, bilgi, hayat alanı, güç…
Burada Nietzscheci bir yorum devreye girer: Güç istenci (will to power). Şayet AGI hakikaten zeka açısından beşerle eşitse (veya onu aşıyorsa), o vakit insan üzerinde denetim kurmak ya da “daha uygun bir düzen” tasarlamak üzere eğilimler geliştirmesi mümkün olabilir. Bu da çatışmayı kaçınılmaz kılabilir.
İşin bir de insan boyutu var. Sonuçta olaya yalnızca AGI perspektifinden değil, onunla yaşayacak insan gözünden de bakmak lazım. Bir AGI ile yaşamak, aslında insanın kendi tabiatını sorgulamasını da tetikleyebilir. Jean-Paul Sartre’ın varoluşçu yaklaşımıyla düşünürsek: İnsan, özünü kendi seçimleriyle yaratır. AGI, sabit kodlar yahut optimize edilmiş gayelerle çalışıyorsa, bu durumda “daha az özgür” lakin “daha etkin” bir varlık olabilir.
Bu da bizi ironik bir noktaya getirir: Daha az özgür olan bir varlık, daha rasyonel ve gerçek kararlar verebilir. Pekala bu durumda “insan olmanın anlamı” nedir? AGI ile yan yana yaşamak, insanı daha özgür kılar mı, yoksa daha “yetersiz” hissettirir mi?
Yapay genel zekadan (AGI) kaynaklanan varoluşsal risk, bu alandaki süratli ve denetimsiz ilerlemenin insan tipinin sonunu getirebileceği ya da geri dönüşü olmayan global felaketlere yol açabileceği fikrine dayanır. Bu riskin temelinde, insanın gezegene hükmetmesini sağlayan şeyin –karmaşık düşünme, soyutlama ve planlama gibi– bilişsel üstünlüğü olduğu gerçeği yatar. Lakin bu ayrıcalık, bir gün AGI tarafından aşılırsa, denetim terazisi bilakis dönebilir. Tıpkı dağ gorillerinin hayatının, insanların merhameti ve kararlarına bağlı olması üzere, insanlık da bir üstün zekaya evrilebilecek AGI’nin niyetlerine ve kıymet sistemine bağımlı hâle gelebilir. Bu durumda, şayet bu yapay varlıkların maksatları insan çıkarlarıyla uyumsuz biçimde şekillenir ya da yanlış yönlendirilirse, insanlığın varlığı bir algoritmanın satır ortalarında kaybolabilir.
Henüz daha bu sorulara bir yanıt bulamamışken AGI’nın peşinden koşmak ne kadar mantıklı bilinmez. Fakat tüm bunların AGI özelinde bir spekülasyon ve fikirler topluluğu olarak görmekte yarar var. En nihayetinde AGI için tanımlamalar olsa da kimse onun nasıl bir şey olduğunu bilmiyor.