27 Mayıs 2024

gözlemevi • teknoloji ve toplum

Objektif Tonlu, Sade, Dezenformasyondan Uzak Bir Yapay Zekâ Politikası için Tavsiyeler

Av. LL.M. Sabire Sanem Yılmaz

İyi bir yapay zekâ politikasına sahip olmanız, ülkenizin yapay zekâ ile ilgili düzenlemeleri olduğu ve teknoloji şirketlerinin yapay zekâyı etik kullanması gibi alanlarda önemli bir güce sahip olduğunuz anlamına gelir. Bununla birlikte diğer ülkelerin yapay zekâ politikalarının da yapay zekânın güvenilir ve etik olması yolunda gelişmesini kontrol altında tutma anlamını taşır. Yapay zekâ politikalarının beslendiği kaynakların yapay zekâ konusunda güvenilir, objektif, tarafsız haber vermesi ve bu durumun uzmanlaşmayı da beraberinde getirdiğini ifade etmek gerekir. Yapay zekâ politikalarının objektif tonda yazılmış ve teyitli haberleri oluşturması, bu haberlerin uzmanlaşmayı beraberinde getirmesi ve uzman sistemlerin de iyi bir yapay zekâ politikasını beslemesi devam eden bir döngüdür ve döngünün nereden başladığı önemli değildir.

Her gün yapay zekâ ile ilgili binlerce haber ve gelişmeye maruz kalıyoruz. Maruz kalıyoruz diyorum çünkü bu haberlerin doğruluğunu teyit etmek için ya zamanımız olmuyor ya da nasıl teyit edeceğimizi bilmiyoruz. Teyit için bize yeterli veri vermeyen haberleri takip ederek çoğu zaman yapay zekâ konusunda ülkelerin atması gereken adımların gerisinde kalıyoruz. İnovasyonun desteklenmesi kadar inovasyon karşısında temel hakların ve etik değerlerin korunması da o kadar önemli ki ülkelerin bu konuda yasal uyum gereksinimlerini tamamlaması gerekiyor. Burada söz konusu edilen sadece yapay zekâ konusunda kendi yasal düzenlemelerini yapmak değil ancak üye oldukları, gözlemci sıfatıyla bulundukları uluslararası organizasyonların talimatlarını ve güncellemelerini takip etmeleri, onaylamaları, uygulamaya koymaları gibi somut adımlardan bahsediyorum. Özellikle çeviri haberlerde esasında henüz gerçekleşmeyen bir teknoloji servis ediliyor ve sosyal medyada bu yalan ya da yanıltıcı haberin etkisi günbegün çoğalıyor. Teknoloji şirketlerinin ya da politika yapıcıların da haberlerin teyidini sağlayabilmesi oldukça güç. Onlar genellikle yeni güncellemeler ya da politikalar üzerine çalışıyorlar. O nedenle, öncelikle, her yayınlanan haberin doğru olduğuna yüzde yüz inanmamakla başlamak ve doğru haberin nasıl teyit edileceği konusunda yöntemleri bilmek önem kazanıyor. 

Ben burada iyi bir yapay zekâ politikasının oluşması için önemli bir uzman sistem ya da haber kaynağından beslenmesi aşamasında önemli bir yapay zekâ haberi nasıl olmalıdır, biraz bundan bahsedeceğim. Haberin bir yapay zekâ bileşeninin olması başat etkendir. Örneğin, bir ülkenin veri koruma otoritesinin kendi sitesinde yayımladığı, yapay zekânın güvenilir olması için kişisel verilerin korunması alanında hazırladığı bir rapor düşünebilirsiniz. Bu önemli bir yapay zekâ politikası haberidir. Öncelikle resmî bir haber kanalında yayımlanmıştır. Yapay zekânın etik ve güvenilir olması için atılması gereken bir adımı atmış ve veri koruması için dikkat edilmesi gerekenleri bir rehberle duyurmuştur. Verilen haber, rapor ya da düzenleme konusunda mutlaka kaynak olmalıdır. Söylentilerden, ikincil kaynaklardan ve haber makalelerinden kaçınmak bizi iyi bir yapay zekâ politikasına ulaşmak için döngünün içinde tutar. (Örneğin, blog yazılarından objektif bir ton ve teyitli bir bilgiye ulaşmak her zaman mümkün değildir.) Diğer ülkelerin politikaları, G7 ve G20 gibi organizasyonların sonuçları, mahkeme kararları ülkelerin yapay zekâ politikalarının gelişimini gözlemlemek ve politikaları iyileştirmek için çok önemlidir. Burada yapay zekâda trendler ile başlayan haberlerden uzak durmak tavsiye edilebilir. Ülkelerin yapay zekâ konusunda politikalarının gelişimlerini önemli bir yapay zekâ haberi kurallarına uygun oluşturan Euractiv örnek gösterilebilir.

Yapay zekâ politikası oluşturmak çok kolay olmamakla birlikte burada kavramların sınıflandırılması ve doğru kavramları bir araya getirmek önemlidir. Bu nedenle de metrikler kullanmak ve yapay zekâ politikası oluşturmak için doğru sorulara verilecek teyitli ve güncel cevaplar önem taşımaktadır. OECD Yapay Zekâ ve gözlemevi, bunun için doğru adreslerdendir.  Niçin metrikler üzerinden hareket etmeliyiz ve OECD Güvenilir Yapay Zekâ metriklerini nasıl kullanmalıyız sorusu da hayati önem taşımaktadır. 

Yapay zekâ sayısal ve algoritmik alandan beslendiği için algoritmaya karmaşık sorular sormak yerine ona etik ve hukuk alanında kat etmesi gereken sorunlarla ilgili birtakım sorular sorarız. Bu soruların cevapları yapay zekânın güvenilir ve şeffaf olması ile ilgili birtakım skorlarla kendini belli eder. Sayısallaştırmak bize objektif sonuçlar ve adımlar konusunda nerede olduğumuz ile ilgili verileri söyler. OECD Trustworthy AI (Güvenilir Yapay Zekâ) metrikleri bize hangi kavramların hangi kavramlarla bir araya geldiğinde anlamlı bir yapay zekâ sisteminin tanımlandığı konusunda fayda sağlar. Kavramların kullanılırken farklı anlamlara gelecek bir biçimde tanımlandığını gözlemlediğimizde bu durum bizi iyi bir yapay zekâ politikasından saptırmaktadır. Örneğin güvenilir yapay zekâ dediğimizde sürdürülebilir, hesap verilebilir, adil ve açıklanabilir kavramlarını kullanırız ancak iyilik hâli kavramı ya da iyilik hâli için yapay zekâ (AIforGood) kavramı bu metriklerle birlikte ifade edilemez. Neden böyle? Çünkü bir taraf insan merkezli bir yapay zekâ sistemini ifade ederken diğer taraf daha teknik anlamda inovasyonu destekleyen ya da yapay zekâ konusunda sonradan geleceğimiz aşamayı tanımlamaktadır. Diyelim ki şeffaf ve güvenilir bir yapay zekâ aşamalarını tamamladık, insan merkezli bir yapay zekâ için tüm yükümlülüklerimizi yerine getirdik, daha iyi olmak için yapay zekâ sistemleri üretiyoruz. AIforGood denildiğinde bunun daha çok endüstri, inovasyon  tarafından ifade edildiğini düşünmeliyiz. Bu bize yapay zekâ politikamızda nerede durduğumuzu da gösterir. Bu nedenle politikada kullanılan kavramların önemli bir yeri vardır.

OECD kataloğunda tanımlanmış metriklere göz attığınızda aynı zamanda sayfada bir etiket alanı olduğunu görürsünüz. Bu etiket alanı hangi kavramların metriklerle ölçümlendiğini ve kimlerin bu metriklerin yararlanıcısı olacağını gösterir. Yapay zekâ politikanızda genel bir inceleme yerine sadece demokratik değerler üzerine bir inceleme yapıyorsanız, demokratik değerler tablonuzda hangi kavramlar için gelişmeleri araştırıyorsanız, bu alanda kullanılan kavramları etiketleyebilir ve çalışmalara ulaşabilirsiniz. Örneğin, ulusal yapay zekâ stratejisinde hangi yapay zekâ gelişmelerine ağırlık verildiği, tavsiye kararlarında hangi başlıkların onaylandığı (yüz tanıma sistemleri ile ilgili tavsiye kararları konusunda uyum sağlanacağının taahhüt edildiği gibi), insan hakları alanında yapay zekâ stratejilerine ilişkin gelişmelerin neler olduğu, yapay zekâ konusunda eğitim alanında geliştirilen projelerde risklerin hangi politika belgeleri ya da tavsiye kararları esas alınarak oluşturulduğu gibi konular üzerine yoğunlaşılan bir yapay zekâ politikası ve değerler bütünü geliştirilebilir.

YZ ile ilgili önemli gelişmeleri raporunuzda kullanacağınızda mutlaka bir metrik ve bunun sonucunda skor sistemi kullanırsınız. Bu nedenle öncelikle hangi gelişmeleri hangi fenomen altında takip edeceğinizi iyi belirlemelisiniz. Örneğin, demokratik değerler ve YZ konusundan bahsediyorsanız, “İyilik hali için Yapay Zekâ” temasını kullanamazsınız. Demokratik değerler ve Yapay Zekâ başlığı altında yapacağınız bir raporlama çalışmasında güncellenen OECD tavsiye kararları gibi kaynaklara göz atmanız ve düzenlenen kavramlar, başlıklar, katılan ülke sayısında değişiklik olup olmadığı gibi bilgileri yakalamanız için önemlidir. G7 ve G20 sürecinin yönetimini takip etmeniz yapay zekâ konusunda ülkelerin hangi başlıklara, gelişimlere katılım sağladığını ve açıklayıcı beyanlarını takip etmek açısından değer katacaktır. Bu anlamda kontrol edebileceğiniz ancak bunlarla da sınırlı olmayan bazı düzenlemeler şunlardır:

· Unesco Etik Yapay Zekâ Üzerine Tavsiye Kararları 

· EU AI Act

·   Africa CPHR Resolution 473

·   China Regulation of Recommendation Algorithms

·   EU Digital Services Act

Yapay Zekâ ve Demokratik Değerler Raporu Bir Ülke Pratiği: Meksika

Center for AI Digital Policy tarafından her yıl iki defa güncellenen Yapay Zekâ ve Demokratik Değerler İndeksi pek çok açıdan faydalı bir örnek. Ülkelerin yapay zekâda uluslararası deklarasyonlar, tavsiye kararları, insan hakları sözleşmeleri ve düzenlemeler ışığında ne kadar ilerleme kaydettiklerini takip edebileceğiniz bir kaynak. İmzalanan metinlerin uygulamaya geçirilip geçirilmediği konusunda ülkelerin pratiklerini yakından takip açısından faydalıdır. Bir bütün halinde, objektif tonda, sade bir İngilizce ile, teyitli kaynaklar eşliğinde yazılmış olan indeks, yapay zekâ okuryazarlığının geliştirilmesi açısından da yararlıdır.

Çalışmalarımızda araştırma grubu olarak sorumluluk aldığımız ve farklı ülkelerden oluşturulan gruplar ile birlikte ülke raporlarını yazmak ile ilgili tarafımıza çeşitli talimatlar ve kullanacağımız metrikler sunuldu ve metrikleri uygulama konusunda beceri kazandırıldı. İlk öğrenilen nokta, yapay zekâ ile ilgili dezenformasyona neden olabilecek kavramların hatalı kullanımlarından sakınmaktır ve objektif tonda bir dil kullanma tavsiyesi bu anlamda da müthiş bir otokontrolün başlangıcıdır. Yapay zekânın sorumlu kullanımı için iyi bir başlangıç olduğunu söyleyebilirim.

İyi bir yapay zekâ politikası için geçmemiz gereken aşamalardan biri de yapay zekâ konusunda ülkelerin hangi tarihten itibaren uluslararası deklarasyonlara katılım sağladığı ve gelişmelerin bu tarihlerden itibaren nasıl devam ettiği üzerine güncellememiz gereken Yapay Zekâ ve Demokratik Değerler İndeksi’ydi. Meksika ülkesinin indeksini hazırlarken öncelikle metriklere yanıt aradık ve bu yanıtlar doğrultusunda da evet, hayır, kısmen üzerinden çeşitli skorlamalar yaptık. Raporu hazırlarken bazı bilgilerin tekrarının faydasını, ne kadar çok tavsiye kararı ve deklarasyon olduğunu ve bir o kadar da az güvenilir kaynağın olduğunu deneyimliyorsunuz. Ülke skorlarının kimi zaman değiştiğini, kimi zaman yerinde saydığını görüyorsunuz.

Sorularla başlayan süreçte cevaplamamız gereken 12 soru bulunuyor. Bu sorulardan bir kısmı; ülkenin OECD Yapay Zekâ Prensiplerini onaylayıp onaylamadığı ve ne zaman onayladığı, onayladığı prensiplere uygulamada attığı adımların neler olduğu, İnsan Hakları konusunda uluslararası deklarasyonları onaylayıp onaylamadığı, mevzuat bakımından insan hakları koruma mekanizmalarına sahip olup olmadığı, ülkenin ulusal yapay zekâ politikasının geliştirilmesinde anlamlı kamu katılımı için bir süreç oluşturup oluşturmadığı, veri koruma alanında bir koruma mekanizmasına sahip olup olmadığı gibi sorulardır. Bu sorular, güvenilir ve teyitli kaynaklardan edinilen verilerle cevaplandırılır.

Meksika ülke raporunda, Küresel Gizlilik Asamblesinin aşamaları da metrikler üzerinde önemli rol oynamıştır. Raporda geçen, “INAI, 2018 Küresel Gizlilik Asamblesinin (GPA) Yapay Zekâ’da Etik ve Veri Koruma Deklerasyonu ve 2020 GPA Hesap Verilebilir Yapay Zekâ İlkelerinin ortak sponsorlarındandı ve 2023 GPA Üretken Yapay Zekâ Kararını da destekledi. Ancak 2022 GPA Yüz Tanıma Teknolojisi Kararını onaylamadı.” ifadesi size kullanılan dil, raporun hangi fenomenlere odaklandığı ve objektif ölçüleri konusunda bir fikir verir.

Yapay zekâ gelişmelerini, başlangıçta da belirttiğim gibi, sorumlu bir şekilde takip etmek ve teyitli olan bilginin yayılması için çaba sarf etmek yapay zekâ politikalarının güçlendirilmesi açısından önemlidir. Yapay zekânın okuryazarlığının geliştirilmesinin temelinde de veri setlerinin kaliteli ve güvenilir olmasının temelinde de bu bilgi yatar. Objektif tonun dışında oluşan kanaatlerimiz yapay zekânın gelişmesi ya da güvenilir bir yapay zekânın oluşması için bir hareket noktası olmayacaktır. Bu nedenle hukuki düzenlemelerin, uluslararası hak temelli düzenlemelerin ve insan hakları etik beyannamelerinin inovasyonun çıktıları ile doğru anlamda buluşması ve inovasyonun çıktılarının insan hakları ve etik fenomenlerinin taleplerini karşılaması böyle sağlanabilecektir.

Kaynak: CAIDP çalışmalarından ve Bahar Kliniği Derslerinden esinlenerek oluşturulmuştur. Daha fazla bilgi için : https://www.caidp.org/ ziyaret edin.

TOP