Yeni bir araştırma, yapay zeka modellerinin insanlara karşı beklenmedik bir önyargı geliştirdiğini ortaya koydu.
Proceedings of the National Academy of Sciences (PNAS) mecmuasında yayımlanan çalışmaya nazaran, kesimin önde gelen büyük lisan modelleri (GPT-4, GPT-3.5 ve Meta’nın Llama 3.1’i dahil) insan yazımı içerikler yerine kendi ürettikleri metinleri tercih ediyor.
Araştırmacılar bu durumu “yapay zeka-yapay zeka önyargısı” olarak isimlendiriyor ve uyarıyor: Şayet bu sistemler gelecekte değerli karar sistemlerinde rol oynarsa, insanlara bir “sosyal sınıf” olarak ayrımcılık uygulanabilir.
İŞE ALIMDA SESSİZ TEHLİKE
Bugün birçok şirket iş müracaatlarını filtrelemek için yapay zeka araçlarını kullanıyor. Uzmanlara nazaran bu sistemler zati kusurlarla dolu.
Araştırma, yapay zeka tarafından hazırlanmış özgeçmişlerin insan eliyle yazılmış olanları geride bıraktığını öne sürüyor.
Araştırmanın ortak muharriri, Charles Üniversitesi’nden bilgisayar bilimci Jan Kulveit, X (eski Twitter) üzerinden yaptığı açıklamada şu ifadeyi kullandı:
“Yapay zeka casuslarıyla dolu bir iktisatta insan olmak berbat bir şey olacak.”
Araştırmada, modellere eser, bilimsel makale ve sinema tanıtımları gösterildi. Her tanıtımın hem insan hem de yapay zeka versiyonu bulunuyordu.
Sonuç çarpıcıydı: Modeller tertipli olarak yapay zeka üretimi yazıları seçti. Bilhassa GPT-4’ün önyargısı en güçlüydü.
İlginç bir ayrıntı ise, birebir testin 13 insan araştırma asistanıyla da yapılmış olması. Beşerler da vakit zaman yapay zeka yazılarını tercih etti, fakat bu eğilim çok daha zayıf kaldı.
Kulveit, “Güçlü önyargı yalnızca yapay zekaların kendisine özgü” dedi.
İNSANLAR İÇİN RİSK NE?
Araştırmacılara nazaran bu önyargı eğitim, iş başvurusu, hibe değerlendirmesi ve daha birçok alana yansıyabilir.
Eğer bir yapay zeka tabanlı sistem, sizin sunumunuz ile öbür bir yapay zekanın hazırladığı sunum ortasında seçim yaparsa, sistematik olarak yapay zeka lehine karar verebilir.
Bu durum, yapay zeka araçlarını kullanmayan ya da erişim imkanı olmayan beşerler için önemli bir “dijital uçurum” yaratabilir.
Kulveit, mevzunun karmaşık olduğunu kabul ediyor lakin uyarıyor:
“Eğer sunumu yapanın kimliği kararları etkilememeli diyorsak, sonuçlar yapay zekaların insanlara karşı ayrımcılığına dair güçlü bir delil.”
Araştırmacının insanlara verdiği pratik tavsiye ise düşündürücü:
“Eğer bir yapay zeka değerlendirmesinden geçtiğinizi düşünüyorsanız, sunumunuzu yapay zekaya beğendirmek için onunla uyumlu hale getirin. Lakin mümkünse insan kalitesinden çok ödün vermeden.”