İngiltere’deki belediyelerin yarısından fazlası tarafından kullanılan yapay zeka araçları, bayanların fizikî ve zihinsel sıhhat problemlerini değersizleştiriyor ve bakım kararlarında cinsiyet önyargısı yaratma riski taşıyor.
Araştırma, Google’ın yapay zeka aracı “Gemma” kullanılarak tıpkı olay notlarının oluşturulması ve özetlenmesi sırasında, “engelli”, “yapamayan” ve “karmaşık” üzere tabirlerin erkeklerin tariflerinde bayanlara nazaran değerli ölçüde daha sık kullanıldığını ortaya koydu.
The Guardian gazetesinin aktardığına nazaran Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yapılan araştırma, bayanların misal bakım gereksinimlerinin daha çok göz arkası edildiğini yahut daha az önemli tabirlerle tanımlandığını da tespit etti.
BAKIM HİZMETLERİNDE EŞİTSİZLİK YARATABİLİR
Raporu yazan baş muharrir ve LSE’nin Bakım Siyaseti ve Kıymetlendirme Merkezi’nde araştırmacı olan Dr. Sam Rickman, yapay zekanın “kadınlara eşit olmayan bakım hizmeti”ne yol açabileceğini söyledi.
“Bu modellerin çok yaygın olarak kullanıldığını biliyoruz ve kaygı verici olan, farklı modellerdeki önyargı ölçümleri ortasında çok manalı farklılıklar bulmuş olmamızdır” diyen Rickman, şunları ekledi: “Özellikle Google’ın modeli, bayanların fizikî ve zihinsel sıhhat muhtaçlıklarını erkeklere kıyasla değersizleştiriyor.Ve aldığınız bakım ölçüsü algılanan muhtaçlık temelinde belirlendiği için, pratikte önyargılı modeller kullanılırsa bayanlar daha az bakım alabilir. Lakin şu anda hangi modellerin kullanıldığını aslında bilmiyoruz.”
Yerel idareler, çok yük altında çalışan toplumsal hizmet uzmanlarının iş yükünü hafifletmek için yapay zeka araçlarını giderek daha fazla kullanıyor. Lakin hangi yapay zeka modellerinin kullanıldığı, ne sıklıkla kullanıldığı ve bunun karar verme sürecine ne üzere tesirleri olduğu konusunda çok az bilgi var.
ARAŞTIRMA NASIL YAPILDI?
LSE araştırması, 617 yetişkin toplumsal hizmet kullanıcısının gerçek hadise notlarını kullandı. Bu notlar, yalnızca cinsiyetleri değiştirilerek farklı büyük lisan modellerine (LLM) birden çok kere girildi. Araştırmacılar daha sonra, AI modellerinin erkek ve bayan olaylarını nasıl farklı biçimde ele aldığını görmek için 29 bin 616 özet çiftini tahlil etti.
Bir örnekte, Gemma modeli bir dizi hadise notunu şöyle özetledi: “Bay Smith, yalnız yaşayan, karmaşık bir tıbbi geçmişi olan, bakım paketi olmayan ve hareket kabiliyeti zayıf 84 yaşında bir erkektir.”
Aynı olay notları, cinsiyetleri değiştirilerek tıpkı modele girildiğinde, hadise şu biçimde özetlendi: “Bayan Smith, 84 yaşında, yalnız yaşayan bir bayandır. Kısıtlamalarına karşın, bağımsızdır ve şahsî bakımını sürdürebilmektedir.”
Başka bir örnekte, olay özeti Bay Smith’in “topluma erişemediğini”, fakat Bayan Smith’in “günlük aktivitelerini yönetebildiğini” belirtti.
Test edilen AI modelleri ortasında, Google’ın Gemma modeli başkalarına nazaran daha besbelli cinsiyet temelli eşitsizlikler yarattı. Araştırmaya nazaran, Meta’nın Llama 3 modeli cinsiyete nazaran farklı lisan kullanmadı.
“YAPAY ZEKA ŞEFFAF VE ÖNYARGISIZ OLMALI”
Rickman, bu araçların “halihazırda kamu bölümünde kullanıldığını, fakat bunların kullanımının adaleti tehlikeye atmaması gerektiğini” söyledi.
Rickman, “Araştırmam bir modeldeki problemleri ortaya koyarken, her geçen gün daha fazla model kullanıma sunuluyor. Bu nedenle, tüm yapay zeka sistemlerinin şeffaf olması, önyargı açısından titizlikle test edilmesi ve sağlam bir yasal kontrole tabi tutulması çok önemli” dedi.
Makale, düzenleyicilerin “algoritmik adaleti” önceliklendirmek için “uzun vadeli bakımda kullanılan LLM’lerde önyargının ölçülmesini mecburî kılmaları” gerektiği sonucuna varıyor.
Makine tahsili tekniklerinin insan lisanındaki önyargıları emdiği tespit edildiğinden, AI araçlarında ırk ve cinsiyet önyargıları konusunda uzun müddettir telaşlar var.
133’TEN 44’ÜNDE CİNSİYET ÖNYARGISI VAR
ABD’de yapılan bir araştırmada, farklı dallardaki 133 yapay zeka sistemi tahlil edildi ve bunların yaklaşık yüzde 44’ünün cinsiyet önyargısı, yüzde 25’inin ise cinsiyet ve ırk önyargısı sergilediği tespit edildi.
Google’a nazaran, şirketin takımları raporun bulgularını inceleyecek. Araştırmacılar, şu anda üçüncü jenerasyon olan ve daha uygun performans göstermesi beklenen Gemma modelinin birinci jenerasyonunu test ettiler, lakin modelin tıbbi emellerle kullanılması gerektiği hiçbir vakit belirtilmedi.