Uzman: Yapay zeka bayanlara, etnik ve dini azınlıklara karşı daha ön yargılı ve negatif kararlar almaya eğilimli
TBMM Yapay Zeka Araştırma Kurulu toplantısında sunum yapan ABD merkezli Yapay Zeka ve Dijital Politika Merkezi Başkanı Merve Hickok, “Yapay zeka sistemleri; yüz tanıma sistemleri koyu ciltli beşerler için hala büyük yanılgılar yapmaya eğilimli ve bu durum anlaşılmadığı için güvenlik kuvvetleri tarafından kullanıldığında insanların haksız yere tutuklanmasına yol açabiliyor. Denetimli ve inançlı olmadan kullanılan yapay zeka sistemleri hasta tedavilerinde önemli teşhis farklarına yol açabiliyor” dedi.
ABD merkezli Yapay Zeka ve Dijital Politika Merkezi Başkanı Merve Hickok, TBMM Yapay Zeka Araştırma Komitesi toplantısında sunum yaptı. Hickok, yapay zeka sistemlerinin insan hayatının her alanına dokunduğunu ve sistemlerin yasal çerçeveye uymaları gerektiğini söyledi. Hickok, “Yapay zekanın vaatlerinden hepimiz yararlanmak istiyoruz; lakin bunun için sistemi hakikat anlamamız gerekiyor. Bunun neden değerli olduğunu göstermek için son birkaç yıldır öne çıkan manşetleri bir ortaya getirdim. Mesela yapay zeka sistemleri; bayanlara, yaşlılara, engellilere, etnik ve dini azınlıklara karşı daha ön yargılı ve negatif kararlar veriyor. Yapay zeka sistemleri, yüz tanıma sistemleri koyu derili beşerler için hala büyük kusurlar yapmaya eğilimli ve bu durum anlaşılmadığı için güvenlik kuvvetleri tarafından kullanıldığında insanların haksız yere tutuklanmasına yol açabiliyor. Denetimli ve inançlı olmadan kullanılan yapay zeka sistemleri hasta tedavilerinde önemli teşhis farklarına yol açabiliyor. Devletlerin kullandığı birtakım yapay zeka sistemleri insanların hayatlarını altüst edebiliyor. Bunun bir örneği Hollanda’da yaşandı. Hollanda Vergi Kurumu tarafından kullanılan bir algoritma binlerce insanı, yükle göçmenleri kazara vergi kaçakçısı olarak işaretledi. Binlerce insan bu nedenle iflas etti, aileleri parçalandı ve bu skandal sonunda Hollanda Hükümetinin de istifasına kadar gitti. Emsal skandalları ABD, Avustralya, İsveç ve Fransa’nın kamu kurumlarında da görüyoruz” diye konuştu.
‘YAPAY ZEKA ŞUURUNUN OLMAYACAĞINI DÜŞÜNÜYORUM’
Hickok, üretken yapay zeka sistemlerine bakmak gerektiğini söyleyerek, “Mesela ChatGPT kullanıyorsanız ve bir soru soruyorsunuz, size verdiği yanıt aslında sorunuzu anladığı için değil ya da verdiği yanıtın sorumluluğunu, nüansını, bahsin genel manasını anladığı için değil; aslında art planda verdiği yanıt, bir sonraki kelimeyi nasıl varsayım ederim. Cümleyi çok süratli bir halde oluşturuyor; fakat art planda yaptığı, o cümleyi oluşturacak sözlere karar vermek. Örneğin, ‘Bugün hava güzel’ dediğinde, ‘Bugün’ sözünü kullandıktan sonra, ‘Hava’ sözünü, sonra, ‘Güzel’ sözünü tek tek iddia ederek yapıyor. Sistem verdiği karşılığın manasını, sonuçlarını ya da mevzunun genel manasını biz beşerler üzere anlayabilecek bir noktada değil. Halihazırdaki en gelişmiş yapay zeka mimarisi; OpenAl, DeepSeek, Claude tüm bunların hepsi benzeri teknolojileri kullanıyor ve bir sonraki kelimeyi iddia ediyorlar. O yüzden şuurları yok; lakin çok süratli bir halde karşılık verdikleri için ve büyük bilgi setlerini kullandıkları için anlıyormuş üzere karşılık veriyorlar. Çok önemli kapasiteye sahipler; ancak ben şahsen yapay zekanın, şu andaki mimariyle, teknik yaklaşımlarıyla şuurunun olmayacağını düşünüyorum” değerlendirmesinde bulundu.
‘BU SİSTEMLER YASAKLANSIN’
Bazı yapay zeka sistemlerinin yasaklanması gerektiğini aktaran Hickok, bu sistemlerin; insanların yüz, göz, parmak, yürüyüş biçimi yahut politik, sosyoekonomik, dini ya da kimlikleri ile ilgili kararlar verebildiğini kaydetti. Hickok, “Bunun en bilinen uygulaması Çin’in Uygur vatandaşları üzerinde kullandığı, ‘Biometric categorisation’ sistemleri. Yüz ve hareket bilgilerine bakarak, ‘Uygur mudur değil midir’, ‘Tehlikeli midir değil midir’, ‘Çin’e karşı mıdır değil midir’, ‘Politik niyeti nedir’ üzere, bu usul kararlar veren sistemler var. Biz bunun yasaklanması gereken bir sistem olduğunu düşünüyoruz. Emsal halde, ‘Emotion analysis’ dediğimiz; yüz ve fizikî bilgilerinize bakarak sonlu misiniz, agresif misiniz, memnun musunuz, aklınıza gelebilecek rastgele bir duyguyu tahlil etmeye çalışan sistemler var. Her iki sistem, bilimsel bazlı olmayan sistemler. Büsbütün şirketlerin ya da devletlerin makûs niyetle kullanılabileceği, insanları baskı altında tutmak için kullanabileceği sistemler. Mesela biz yıllardır, ‘Bu sistemler yasaklansın’ diyoruz. Avrupa Birliği, bu iki sistemi yasakladı ve önemli biçimde engelledi. Misal biçimde, Birleşmiş Milletler Eğitim, Bilim ve Kültür Teşkilatı (UNESCO) tavsiyelerine baktığımızda birebir yasaklar öne plana çıkıyor. Şayet 4-5 sene evvel bize, ‘Yasaklar hakkında milletlerarası bir konsensüs olacak mı?’ diye sorsaydınız, ‘Hayır’ derdik; lakin beşerler yapay zeka sistemlerinin negatif tesirlerini, şirketlerin ve kimi ülkelerin bunları nasıl makûs hedefli kullanabileceğini görüyor. O yüzden, artık bu yasaklarla ilgili daha fazla ortak anlayış var” diye konuştu.
Yorum gönder