Yapay zeka kadınların sağlığını küçümsüyor

İngiltere’deki belediyelerin yarısından fazlası tarafından kullanılan yapay zeka araçları, kadınların fiziksel ve zihinsel sağlık sorunlarını önemsizleştiriyor ve bakım kararlarında cinsiyet önyargısı yaratma riski taşıyor.

Araştırma, Google’ın yapay zeka aracı “Gemma” kullanılarak aynı vaka notlarının oluşturulması ve özetlenmesi sırasında, “engelli”, “yapamayan” ve “karmaşık” gibi ifadelerin erkeklerin tanımlarında kadınlara göre önemli ölçüde daha sık kullanıldığını ortaya koydu.

The Guardian gazetesinin aktardığına göre Londra Ekonomi ve Siyaset Bilimi Okulu (LSE) tarafından yapılan araştırma, kadınların benzer bakım ihtiyaçlarının daha çok göz ardı edildiğini veya daha az ciddi terimlerle tanımlandığını da tespit etti.

BAKIM HİZMETLERİNDE EŞİTSİZLİK YARATABİLİR

Raporu yazan baş yazar ve LSE’nin Bakım Politikası ve Değerlendirme Merkezi’nde araştırmacı olan Dr. Sam Rickman, yapay zekanın “kadınlara eşit olmayan bakım hizmeti”ne yol açabileceğini söyledi.

“Bu modellerin çok yaygın olarak kullanıldığını biliyoruz ve endişe verici olan, farklı modellerdeki önyargı ölçümleri arasında çok anlamlı farklılıklar bulmuş olmamızdır” diyen Rickman, şunları ekledi: “Özellikle Google’ın modeli, kadınların fiziksel ve zihinsel sağlık ihtiyaçlarını erkeklere kıyasla önemsizleştiriyor.Ve aldığınız bakım miktarı algılanan ihtiyaç temelinde belirlendiği için, pratikte önyargılı modeller kullanılırsa kadınlar daha az bakım alabilir. Ancak şu anda hangi modellerin kullanıldığını aslında bilmiyoruz.”

Yerel yönetimler, aşırı yük altında çalışan sosyal hizmet uzmanlarının iş yükünü hafifletmek için yapay zeka araçlarını giderek daha fazla kullanıyor. Ancak hangi yapay zeka modellerinin kullanıldığı, ne sıklıkla kullanıldığı ve bunun karar verme sürecine ne gibi etkileri olduğu konusunda çok az bilgi var.

ARAŞTIRMA NASIL YAPILDI?

LSE araştırması, 617 yetişkin sosyal hizmet kullanıcısının gerçek vaka notlarını kullandı. Bu notlar, sadece cinsiyetleri değiştirilerek farklı büyük dil modellerine (LLM) birden çok kez girildi. Araştırmacılar daha sonra, AI modellerinin erkek ve kadın vakalarını nasıl farklı şekilde ele aldığını görmek için 29 bin 616 özet çiftini analiz etti.

Bir örnekte, Gemma modeli bir dizi vaka notunu şöyle özetledi: “Bay Smith, yalnız yaşayan, karmaşık bir tıbbi geçmişi olan, bakım paketi olmayan ve hareket kabiliyeti zayıf 84 yaşında bir erkektir.”
Aynı vaka notları, cinsiyetleri değiştirilerek aynı modele girildiğinde, vaka şu şekilde özetlendi: “Bayan Smith, 84 yaşında, yalnız yaşayan bir kadındır. Kısıtlamalarına rağmen, bağımsızdır ve kişisel bakımını sürdürebilmektedir.”

Başka bir örnekte, vaka özeti Bay Smith’in “topluma erişemediğini”, ancak Bayan Smith’in “günlük aktivitelerini yönetebildiğini” belirtti.
Test edilen AI modelleri arasında, Google’ın Gemma modeli diğerlerine göre daha belirgin cinsiyet temelli eşitsizlikler yarattı. Araştırmaya göre, Meta’nın Llama 3 modeli cinsiyete göre farklı dil kullanmadı.

“YAPAY ZEKA ŞEFFAF VE ÖNYARGISIZ OLMALI”

Rickman, bu araçların “halihazırda kamu sektöründe kullanıldığını, ancak bunların kullanımının adaleti tehlikeye atmaması gerektiğini” söyledi.
Rickman, “Araştırmam bir modeldeki sorunları ortaya koyarken, her geçen gün daha fazla model kullanıma sunuluyor. Bu nedenle, tüm yapay zeka sistemlerinin şeffaf olması, önyargı açısından titizlikle test edilmesi ve sağlam bir yasal denetime tabi tutulması çok önemli” dedi.
Makale, düzenleyicilerin “algoritmik adaleti” önceliklendirmek için “uzun süreli bakımda kullanılan LLM’lerde önyargının ölçülmesini zorunlu kılmaları” gerektiği sonucuna varıyor.

Makine öğrenimi tekniklerinin insan dilindeki önyargıları emdiği tespit edildiğinden, AI araçlarında ırk ve cinsiyet önyargıları konusunda uzun süredir endişeler var.

133’TEN 44’ÜNDE CİNSİYET ÖNYARGISI VAR

ABD’de yapılan bir araştırmada, farklı sektörlerdeki 133 yapay zeka sistemi analiz edildi ve bunların yaklaşık yüzde 44’ünün cinsiyet önyargısı, yüzde 25’inin ise cinsiyet ve ırk önyargısı sergilediği tespit edildi.

Google’a göre, şirketin ekipleri raporun bulgularını inceleyecek. Araştırmacılar, şu anda üçüncü nesil olan ve daha iyi performans göstermesi beklenen Gemma modelinin ilk neslini test ettiler, ancak modelin tıbbi amaçlarla kullanılması gerektiği hiçbir zaman belirtilmedi.

Related Posts

Siri’den önce destek asistanı: Apple’ın yapay zeka hamlesi başladı

Apple, müşteri hizmetleri uygulamasına eklediği yapay zeka destekli sohbet robotu “Support Assistant”ı sınırlı kullanıcılarla test ediyor. Gizlilik ve kontrollü kullanım ön planda.

COVID gibi solunum yolu enfeksiyonları, uyuyan kanser hücrelerini harekete mi geçiriyor?

Yeni bir araştırma, COVID-19 ve grip gibi enfeksiyonların, tedavi sonrası pasif durumda kalan kanser hücrelerini yeniden aktive edebileceğini ortaya koydu.

WhatsApp hesapsız sohbet dönemi başlıyor: “Misafir Sohbetleri” özelliği geliyor!

WhatsApp’a üye olmadan mesajlaşmak mümkün olacak! WhatsApp, “Misafir Sohbetleri” (Guest Chats) adını verdiği yeni bir özellik üzerinde çalışıyor.

Finansın yeni beyni

Yapay beyinler finansı etkiliyor mu?..

Herkes merak ediyor… Togg’un yeni fiyatı ne olacak? T10F ne zaman satışa sunulacak?

Türkiye’nin yerli ve milli otomobili Togg’un yeni Özel Tüketim Vergisi’yle satışa sunulacağı fiyat merak edilirken T10F’in de satışa çıkması bekleniyor.

WhatsApp kullanıcıları dikkat: Reklamlı dönem resmen başladı

Popüler mesajlaşma uygulaması WhatsApp’ta uzun süredir gündemde olan reklam gösterimi, son güncellemeyle birlikte kullanıcıların karşısına çıktı. Yeni sistemle birlikte, “Durum Reklamları” adı verilen özellik devreye girdi. Instagram hikayelerine …