Günümüzde yapay zeka sistemleri tarafsız araçlar olmaktan ziyade, çağımızın toplumsal dinamiklerini şekillendiren bilgi üretimi ve güç ilişkileri ağlarıyla iç içe geçmiş durumda. Bilgi üretiminin, temelde güç ilişkilerinden bağımsız olamayacağını öne süren Michel Foucault'nun iktidar ve bilgi arasındaki ilişkiye dair analizini hatırlamak, günümüzde yapay zeka sistemlerinde veri toplama, yanlılık ve mülkiyet gibi sorunların arkasındaki güç dinamiklerini eleştirel ve insan odaklı bir şekilde yeniden ele almak için bize yardımcı olabilir.
"Söylemeye gerek yok, ırkçılar çarpık modellerini eğitmek için güvenilir veri aramaya çok fazla zaman harcamıyorlar. Ve modelleri bir kez inanca dönüştüğünde, kalıcı hale geliyor. Toksik varsayımlar üretiyor, ancak bunları nadiren test ediyor, bunun yerine onları doğrulayan ve güçlendiren verilerle yetiniyor.” (O’Neill, 2016, p. 35)
Yapay zeka sistemlerinin belirli etnik kimliklere, cinsiyetlere ve cinsel yönelimlere dair önyargısı son yılların hem bir endişe kaynağı, hem de inceleme konusu. Bu sistemler yıllardır insan öznelliğinden uzak, nesnel ve tarafsız karar vericiler olarak lanse ediliyor. Fakat, son yıllarda açıkça görüldüğü üzere, yapay zeka algoritmaları; gerekli önlemler alınmadığında eğitildikleri verilerde bulunan önyargıları miras alabiliyor ve ayrımcı / ötekileştirici bilgi üretme ve karar alma gibi davranışlarda bulunabiliyor.
Yapay zeka sistemleri, eğitim, karar verme ve bilgi üretme süreçlerinde internet kullanıcılarının dijital ayak izinden toplanan veri havuzlarına ihtiyaç duyuyor. Bu büyük miktardaki veriye erişimi olan şirketler ve kurumlar bilgi üretimini şekillendirerek sosyal dinamikleri derinden etkiliyor. Toplanan verilerin seçimi, yorumlanması ve yeni bilgiye/veriye dönüştürülmesi geliştiricilerin etik değerler ve gerçeklik algısından bağımsız olmayıp, gücü elinde bulunduran teknoloji devlerini yönetenlerin önyargılarını ve çıkarlarını yansıtıyor.
Eğitim verilerinden kaynaklanan cinsiyetçi önyargılara, işe alım süreçlerinde kullanılan yapay zeka algoritmalarında ve çeviri için kullanılan dil modellerinde sıkça rastlanabiliyor. Bu önyargının bir örneği, Google Çeviri’nin cinsiyetçi kalıplar ürettiğinin ortaya çıkmasında görüldü. Eğitim verilerinin önyargılı dil örnekleri içerdiği ve toplumsal cinsiyet stereotiplerini yansıttığı için eleştirilen Google Translate, cümle içinde geçen “doktor” veya “cerrah” gibi mesleklere basmakalıp cinsiyet atamaları yapıyordu.
Yapay zeka endüstrisinin önde gelen liderleri, her ne kadar geçtiğimiz günlerde etik tartışmaları “varoluşsal tehdit” söylemi üzerine geliştirdikleri soyut gelecek kaygısına çekmeye çalışsa da, yapay zeka etiği alanındaki birçok araştırmacı; önceliğin kökü geçmişe uzanan güç dengesizliklerinin günümüzde kullanılan yapay zeka algoritmalarına taşınması olduğunu vurguluyor. Bu araştırmacılara göre, önyargılı eğitim verilerinden kaynaklanan ve çoğunlukla bilinçli olmayan ‘kazalar’ ile birlikte özellikle önyargılı/taraflı sonuçlar üretmek üzere geliştirilmiş yapay zeka algoritmaları; güncel yapay zeka etiği sorunları arasında ilk sıralarda yer alıyor.
Yapay zeka etiği alanındaki bu temel sorunları ve altında yatan güç dinamiklerini daha iyi anlayabilmek için, bilgi üretiminden sorumlu kurum ve süreçlerinin sözde nesnelliğine karşı çıkan Fransız filozof Michel Foucault’un 1960’lar ve 70’lerde ortaya attığı iktidar-bilgi kavramının ışığında bu konuyu eleştirel ve insan odaklı bir şekilde yeniden ele almak faydalı olabilir.
Bilgi, Foucault'nun anlayışında, gerçekliğin tarafsız veya nesnel bir yansıması olarak değil, iktidarla yakından bağlantılı bir kavram olarak karşımıza çıkıyor. Üretim sürecinde ortaya çıktığı toplumsal, tarihsel ve kültürel bağlamlar tarafından şekillendiriliyor. Egemen grupların çıkarlarını, değerlerini ve bakış açılarını yansıtıyor ve sosyal kontrol ve baskılama aracı olarak kullanılabiliyor. Yani, bilginin çağdaş toplumlarda sabit bir olgular bütünü değil, çeşitli iktidar yapıları tarafından üretilen, yayılan ve kontrol edilen dinamik bir sistem olarak görülmesi gerekiyor.
Foucault, iktidar ve bilginin sürekli bir geri bildirim döngüsü içinde iç içe geçtiğini vurguluyor. İktidar, belirli bir toplumsal ve tarihsel bağlamda neyin meşru, kabul edilebilir, doğru ve normal olduğunu tanımlayarak bilgi aracılığıyla işliyor. Aynı zamanda bilgi, mevcut iktidar yapılarını sürdüren gerekçeler, açıklamalar ve sınıflandırmalar sağlayarak iktidarın varlığını pekiştirip sürdürüyor. Bu güç-bilgi bağı, belirli söylemleri sürekli kılarak, alternatif bilgi biçimlerini ve bakış açılarını marjinalize ediyor.
Genel olarak, Foucault'nun iktidar-bilgi kavramı, yapay zeka tarafından üretilen bilgide nesnellik kavramını eleştirmek için değerli bir çerçeve sunuyor. Foucault'ya göre; medya, akademi ve devlet gibi kurumlar aracılığıyla iç içe geçen iktidar ve bilgi; toplumda bilginin üretimini ve yayılmasını şekillendiriyor. Yapay zeka tarafından üretilen bilgi söz konusu olduğunda ise, Foucault’un tespitleri bize öncelikle bu sistemlerin doğası gereği tarafsız veya nesnel olmadığını, ancak yaratıcılarının ve eğitildikleri verilerin hem önyargılarını hem de değerlerini yansıttığını hatırlatıyor.
Bu Perspektiften Bakınca Yapay Zeka Yanlılığı ve Önyargısı Nasıl Yorumlanmalı?
Günümüzün yapay zeka sistemlerinin önyargıları söz konusu olduğunda, Foucault’un iktidar-bilgi kavramını teorize ettiği dönemde asla öngöremeyeceği bazı zorluklar karşımıza çıkıyor. Bu sistemler tarafından üretilen ve toplumsal güç eşitsizliklerine bağlı olarak ortaya çıkan bilgi; sevgi ve nefret gibi duyguları olmayan bir makine tarafından üretildiğinden ve sözde ‘somut’ verilere dayanıyor olduğundan; yanlışlığın ve önyargılılığın tespiti ve hesap sorulması daha zor bir hal alıyor.
Yapay zeka geliştirme süreçleri, eğitim verileri ve algoritmaları hakkında yeterince şeffaflık sağlamadıkları için etik sorunların ve bu sorunların öznelerinin tespiti çok daha karmaşık bir hal alıyor. Yine de, Foucault’un iktidar-bilgi kavramı; referans alındığında yapay zeka sistemleri ve bağlı bulunduğu toplumsal güç ilişkileri ağı hakkında bazı tespitler yapmamıza olanak sağlıyor.
İlk olarak, önyargılı eğitim verilerinin ve makine önyargısının yapay zeka alanında sistematik birer sorun olduğu kabul etmemiz gerekiyor. Makine öğrenimi algoritmaları büyük miktarda veriden öğreniyor ve eğitim için kullanılan veriler önyargılıysa, yapay zeka sistemi kaçınılmaz olarak bu önyargıları karar verme sürecine yansıtıyor. Önyargılar; tarihsel toplumsal önyargılar, kültürel stereotipler veya sistemik ayrımcılık gibi çeşitli kaynaklardan kaynaklanabiliyor. Örneğin, bir yapay zeka sistemi ağırlıklı olarak belirli bir cinsiyeti, ırkı veya sosyoekonomik grubu temsil eden veriler üzerinde eğitildiğinde, istemeden de olsa önyargılı ilişkiler geliştirebiliyor veya bu özelliklere dayalı olarak haksız tahminlerde bulunabiliyor.
Bu haksız tahminlerin en çarpıcı örneklerinden biri bankacılık sektöründe finansal kaynaklara erişim konusunda yaşanıyor. Örneğin, bugün Amerika Birleşik Devletleri'nde Afrikalı-Amerikalılar yapay zeka destekli kredi riski tahminleri nedeniyle finansal dışlanmayla ve ihtiyaç duydukları krediyi temin edebilmek için mecburen tefecilere gitmek zorunda olmayla karşı karşıya kalıyor.
Dahası, eğitim verilerinde insan yargısı veya etiketlemesi nedeniyle önyargılar ortaya çıkabiliyor. Yapay zeka modellerini eğitmek için kullanılan verilerin seçilmesinde, etiketlenmesinde veya düzenlenmesinde gerçek bireyler yer aldığı için insan önyargısı veri toplama sürecinde sisteme işlenebiliyor. Bireyler tarafından verilen önyargılı kararlar, istemeden de olsa, eğitim verilerine önyargı katabiliyor ve daha sonra yapay zeka sisteminin davranışını etkileyebiliyor.
Son olarak, kasıtlı makine önyargısı, insan tasarımcılar veya geliştiriciler kasıtlı olarak yapay zeka sistemlerine önyargıları eklediğinde ortaya çıkabiliyor. Bu, sistemin kullanıcılarından veya paydaşlarından gelen açık talimatlar, geliştirme ekibindeki çeşitlilik eksikliği veya tasarım sürecinde yapılan hatalı varsayımlar gibi çeşitli nedenlerden kaynaklanabiliyor.
Sonuç: Şeffaflığın ve Hesap Verilebilirliğin Önemi
Bu noktalar göz önünde bulundurulduğunda, yapay zeka tarafından üretilen bilginin nesnel olmaktan uzak olduğu daha da belirginleşiyor. Veri toplama sırasında mevcut olan güç dinamikleri, geliştiricilerin önyargıları ve seçimleri, algoritmik karar verme sürecinin sınırlamaları ve yorumlama kapasitesinin eksikliği tarafından şekillendiriliyor. Güç-bilgi dinamiklerinin etkisini kabul etmek, yapay zeka sistemleriyle eleştirel bir şekilde ilgilenmemize ve bu teknolojilerinin geliştirilmesi ve uygulanmasında daha fazla şeffaflık, hesap verebilirlik ve etik hususların ciddi ve somut bir şekilde talep etmemize yardımcı olabilir.
Şeffaflığın ve hesap verilebilirliğin artırılması, nispeten daha masum olan önyargılı eğitim verilerinden kaynaklanan hatalara ve kasıtlı makine önyargısına karşı farklı tavır almamızı ve bu sorunları daha belirgin hale getirerek üzerine gitmemizi kolaylaştırabilir. Foucault’un da belirttiği gibi, “İktidarın olduğu yerde direniş de vardır ve yine de, daha doğrusu sonuç olarak, bu direniş hiçbir zaman iktidarla ilişkili bir dışsallık konumunda değildir”. Bu noktada, yapay zeka etikçilerine, araştırmacılarına ve dijital hak savunucularına büyük bir görev düşüyor.
Kaynaklar: