Facebook, Twitter, Google üzere büyük şirketler ve çeşitli boyutlardaki toplumsal medya platformlarının yazılımlarına yerleştirilen ırkçı algoritmalarla siyahiler maymunla, Filistin sözü ise terörle eşleştiriliyor.
Yapay zeka, ırkçılaşabilir mi?
Bilgisayar bilimleri, algoritmalar ve yapay zeka üzerine araştırmalar yapan Cerrahpaşa Tıp Fakültesi, Temel Tıp Bilimleri Kısmı, Biyoistatistik Ana Bilim Kısmı Öğretim Üyesi Prof. Dr. Murat Kirişçi, yapay zekanın nasıl ırkçı sistemler haline getirildiği hakkında değerlendirmelerde bulundu.
“Filistin ya da Myanmar üzere bölgelerde ayrımcı algoritmalar var”
AA’nın haberine nazaran; Prof. Dr. Kirişçi, algoritmaların, programcılarının zihnindeki ayrımcı sistemlere nazaran çalıştığını belirterek, Filistin ve Myanmar üzere bölgelere yönelik ayrımcı algoritmaların varlığına işaret etti. Kirişçi şöyle devam etti:
“Algoritmalar, beyazların tasarladığı dünyada siyahileri kötüleyecek biçimde çalışıyor. Filistin sözü geçtiğinde altyazıda teröristi kullanıyor. Kimi insanları, birtakım toplulukları ve hatta bir ülkeyi yok sayan algoritmalar var. Myanmar’ı bir yer olarak ortaya koymayan, orada yaşayanları insan olarak da tanımlamayan çok sert algoritmaların çalıştığı haber siteleriyle karşılaştık. Bu daima oluyor mu? Evet, oluyor. Zati sorun da buradan çıkıyor. O kadar çok ırkçı telaffuz var ki bir anda kriminal olaylar algoritmalarla paka çıkartılıp saf olaylar kirletiliyor.”
“Floyd’un katili polis, günahsız üzere gösterildi”
ABD’de polis şiddeti sonucu hayatını kaybeden siyahi George Floyd olayının akabinde birtakım ırkçı yazılımların fail polis memurunu günahsız gösterdiğini aktaran Kirişçi, “Floyd olayını tersten sunan algoritmaların az yahut çok olmasından çok kimi algoritmaların suçsuz bir mantıkta çalışmadığını fark etmek değerli. Siz ne yaparsanız yapın algoritmalar onu yazanın zihnindeki ayrımcı sistemlere nazaran çalışıyor.” tabirini kullandı.
“Algoritma ya da yapay zeka değil onları programlayanlar ırkçı”
Kirişçi, yapay zekanın en kolay haliyle “insanın düşünme biçimini makinalara öğretmeye çalışma” formunda tanımlanabileceğini kaydederek, bu nedenle teknolojik ürünlere “akıllı” denmesinin gerçek olmadığını söz etti.
Irkçı algoritmaları tartışırken aslında ırkçı zihniyetlerin tartışılması gerektiğinin altını çizen Kirişçi, “Irkçı olan yahut ayrımcılık yapan aslında algoritmalar değil. Tırnak içinde ‘İnsanı yok edeceğini argüman ettiğimiz algoritmalar’ mümkün değil. Biz bu sıkıntıyı konuşurken onları üreten, bu fikri veren ve onlara nasıl düşünmesi gerektiğini anlatan insanın meselelerini tartışmış oluyoruz. Aksi takdirde gerçek bireyle uğraş etmek yahut karşı durmak yerine soyut, meçhul bir şeyle uğraşıyoruz.” dedi.
Kirişçi, arama çubuğuna “ape” (maymun) yazıldığında eski ABD Lideri Barack Obama’nın eşi Michelle Obama’nın fotoğrafının çıktığı algoritma çalışmasının reaksiyonlara neden olduğunu aktararak, “Barack Obama’nın ABD Lideri olduğu periyotta Beyaz Sarayı ‘zenci sarayı’ olarak tanımlayan algoritmalar var. Bu ırkçılığı üreten yapıyı bir makine niçin yapsın ki? Bir algoritma yahut makine kendi kendine sizi yahut beni niçin kötülesin? Temelinde makinenin bu türlü bir imkanı yok ancak onun gerisindeki fikir dünyasını, yani akıl eden iradeli varlığın algoritmayı bu formda organize etmesi mümkün.” biçiminde konuştu.
“Sanal dünya aslında dehşetli baskıcı, ırkçı ve ayrımcı”
Algoritmaların, haber siteleri ve toplumsal medya platformlarında ırkçı ve manipülatif gayelerle kullanıldığına dikkati çeken Kirişçi, şunları lisana getirdi:
“Sosyal medyada üretilen algoritmalar, sizin yaptığınız çok hoş bir çalışma şayet kendilerini kodlayanlar tarafından rahatsız edici görülüyorsa, sizi platformun en ardına atıyor. Sizden kelam edildiğinde rastlanmayacak halde bloke ediyor. İnsanlara yararlı birçok şey ürettiğinizi varsayalım, şayet yaptığınız işlerin bir sanayiye ziyan verdiği düşünülüyorsa blokaj uygulanıyor. Aslında siz hala orada varsınız fakat önünüze perde çekiliyor ve arandığınız vakit bile bulunmuyorsunuz. Tırnak içinde özgür olan bu sanal dünya aslında vahim baskıcı, ırkçı ve ayrımcı bir sistem. Yalnızca bunu kurgulayanlar kendilerini çok düzgün gizlemeyi başarmış.”
“Z jenerasyonu da geride kaldı, Alfa kuşağı geldi”
Kirişçi, küçük yaştaki çocukların bile akıllı telefonları bilgi kaynağı olarak kullanabildiğini belirterek, “Z jenerasyonu da geride kaldı. Dijital dünyanın içine doğan bu çocuklara ‘Alfa nesli’ diyoruz. Çocuk toplumsal medyanın içine doğmuş. Münasebetiyle oradan yaşanan olayları öğreniyor ve hayatını ona nazaran organize ediyor. Çocukların biyolojik annesi yahut babasıyız lakin hayatlarını oraya nazaran organize ediyorlar. Bunların hepsi bir algoritmalar zinciriyle çalışıyor. Çocuklar ırkçı, ayrımcı yahut ideolojik hedeflerle da kullanılan bu algoritmalar tarafından eğitiliyor.” diye konuştu.
“Irkçılık öğretilen yapay zeka insan hayatına tehdit oluşturabilir”
Yeni data kaynaklarından elde edilen daha büyük, daha karmaşık bilgi kümelerini söz eden “Big Data” (Büyük Veri) kavramı ve ayrımcılık konusuna değinen Kirişçi, “Big Veri’nin kendisinde de algoritma akışı var. Bir değil, binlerce hatta milyonlarca algoritma çalışıyor. O algoritmalar da kim ne organize ederse bilgi ona nazaran size karşılık veriyor. Bir zincir üzere düşünürsek, halkalarının rastgele bir yerinde yeniden beşerden bulaşan ayrımcılık noktası varsa birileri oraya müdahil olarak o bilgileri ayrımcı ve ırkçı biçimde organize edebilir.” değerlendirmesinde bulundu.
Kirişçi, yapay zekanın hayatın pek çok alanında kullanıldığı üzere mahkemelerde kullanılması için çalışmalar yapıldığını anlatarak, mahkeme modellemesinde kullanılacak yapay zekanın hatalı olan beyaz kişiyi saf, temiz olan siyahiyi ise hatalı kabul edilebileceğini söyledi. Kirişçi şunları kaydetti:
“İnsanlar nasıl karar verirken ırkçı ve ayrımcı hal gösterebiliyorsa yapay zekaya ‘beyaz ve siyahi ayrımını’ ırkçı biçimde anlattığınız andan itibaren mahkeme süreçlerinin hepsi birebir sonucu verecektir. Binlerce yargıçtan tahminen birkaçı ayrımcılık yapacak tahminen de buna hiç rastlamayacak. Birebir eğilimdeki bir makina ile karşılaştığınızda bütün davalarda tıpkı ayrımcılıkla karşılaşacaksınız. Bu aslında insan hayatını tehdit eden bir durum lakin aslında insan ömrünü tehdit eden algoritma ve makinalar değil, akıllı ve iradeli varlık olan insan.”