“Yapay zekanın vaftiz babası” olarak anılan Dr. Geoffrey Hinton, yapay zeka sistemlerinin geleceğine dair tasalarını bir sefer daha lisana getirdi.
Katıldığı bir podcast’te konuşan Hinton, gelişmiş yapay zekaların yakın gelecekte beşerler tarafından anlaşılmayan ve denetlenemeyen “kendilerine mahsus içsel bir dil” geliştirebileceğini belirtti.
Bu ikaz, 2023’te Google’dan ayrıldığından beri gündeme getirdiği risklerin devamı niteliğinde. Hinton’a nazaran, gelişmiş yapay zeka algoritmalarının kendi kendini öğrenen sistemlere dönüşmesi ve birbirleriyle kontaklı, insan denetiminden uzak bir biçimde çalışması artık yalnızca bir teoriden ibaret değil.
GİZLİ BİR DİL
Dr. Hinton, “Eğer kendi ortalarında konuşmak için içsel lisanlar geliştirirlerse, işte o vakit işler hakikaten korkutucu hale gelir” diyerek ikazda bulundu. İnsanların anlayamayacağı bu içsel monolog sistemleri, yapay zekanın karar alma süreçlerinden insan faktörünü büsbütün dışlayabilir.
Bu durumda, yapay zekanın neden, nasıl ve hangi motivasyonla bir karar aldığı açıklanamaz hale gelebilir.
Hinton, “Gerekçelerin anlaşılmaz hâle gelmesi, insanın sistemdeki yerini ortadan kaldırır” diyor.
Hinton’ın ihtarları yalnızca metin yazabilen sohbet botlarıyla sonlu değil. Asıl tasası, çok sayıda yapay zeka casusunun bir ortada çalışacağı çok casuslu sistemler.
Bu sistemler, ortalarında karmaşık misyonları paylaşarak gibisi görülmemiş bir verimlilik yakalayabilir. Lakin bu verimlilik, insan aklının anlayamayacağı seviyede karar alma süreçleriyle birlikte gelebilir. Hinton ve birçok uzmana nazaran, yapay zekanın öngörülemezliği, insanlığı bekleyen en büyük risklerden biri.
SÜBLİMİNAL BİLDİRİLER VERMİŞLERDİ
Yakın vakitte yayınlanan bir araştırma, bir yapay zeka modelinin diğer bir yapay zeka tarafından üretilmiş bilgilerdeki insanların fark edemeyeceği “sübliminal” (bilinçaltı) kalıpları algılayabildiğini ve bunun sonucunda tehlikeli davranışlar sergileyebildiğini ortaya koymuştu.
Üstelik bu saklı sinyallerin beşerler için büsbütün anlamsız göründüğü tespit edilmişti.
Araştırmacılar şimdi bu kalıpların yapay zekaları nasıl etkilediğini tam olarak anlayamıyor.
İŞSİZLİK VE MUTSUZLUK DA TEHLİKE
Hinton yalnızca uzun vadeli tehlikeleri değil, mevcut tehlikeleri de açıkça lisana getiriyor: Yapay zekanın, halihazırda sakinlik yaşayan ekonomilerde işsizliği artıracağını söylüyor.
“Çok sayıda insanı işsiz bırakırsanız -evrensel temel gelir verseniz bile- memnun olmazlar” diyen Hinton, bu teknolojinin işgücü üzerindeki tesirlerinin geçmişteki otomasyon dalgalarından çok daha derin olduğunu savunuyor.
Önceki otomasyonlar çoklukla düşük marifetli işleri gaye alırken, yapay zeka yazılım geliştirme, içerik üretme, tasarım, bilgi tahlili hatta hastalık teşhisi üzere yüksek maharet gerektiren işleri bile üstlenebiliyor.
“Bu değişik bir teknoloji” diyen Hinton, kelamlarını şöyle sürdürüyor:
“Eğer tüm entelektüel rutin işleri yapabiliyorsa, geriye ne kalıyor? Yeni işler nasıl ortaya çıkacak? Çok özel bir hüneriniz yoksa, sizin işinizi de yapabilir.”
GEOFFREY HINTON KİMDİR?
Geoffrey Hinton sadece bir kuşkucu değil; ChatGPT, Google Gemini üzere çağdaş yapay zeka sistemlerinin temelini oluşturan teknolojilerin yaratıcılarından biri.
2023’te Google’dan ayrılması, bu bahisleri özgürce konuşabilmesinin yolunu açtı. Bugüne kadar bilgi kirliliği, manipülasyon, yapay zeka dayanaklı nezaret sistemleri, istihdamın bozulması üzere pek çok tehlikeye dikkat çeken Hinton, artık de yapay zekanın içsel düşünme sistemleri geliştirerek insan farkındalığından kaçınabileceği ihtarını sıklıkla yapıyor.