Algoritmalar: Doğru, yanlış ama yansız değil

Bloomberg’de yayımlanan “Bir Robot Servetinizi Kaybederse Kime Dava Açmalı?” (https://www.bloomberg.com/news/articles/2019-05-06/who-to-sue-when-a-robot-loses-your-fortune) başlıklı haberi okuyunca askerde cezalandırılan nesneler (tank, ağaç, tepe, taş vs) hakkında anlatılan hikayeleri anımsadım. İnsan olmayan bir varlığa dava açmak veya onu cezalandırmak akıldışı görünebilir. Ama son yıllardaki gelişmeleri ve uygulamaları düşününce bir tankı veya ağacı cezalandırmaktan daha farklı bir durumla karşı karşıya olduğumuz anlaşılacaktır. Algoritmik karar sistemleri gündelik hayatta çeşitli sorumlulukları yerine getiriyorlar ve hızla yaygınlaşıyorlar. Bu sistemlerde kullanılan algoritmaların insanlardan yalnız daha hızlı değil, daha doğru karar verdiğini de varsayıyoruz. Bu varsayım çoğunlukla doğru. Fakat işler her zaman yolunda gitmeyebilir. Algoritmaların kararları nedeniyle insanlar çeşitli biçimlerde mağdur olabilirler. Böyle sorunlar yaşandığında sorumluluk kimde olacak?

Yazının devamında tartışacağımız gibi insanlar, en başta da toplumun dezavantajlı kesimleri, nasıl işlediğini bilmedikleri algoritmalar karşısında çaresiz kalabiliyorlar. Bloomberg’in haberindeki mağdur ise bu defa biraz farklı: Bir İngiliz gayrimenkul yatırım ortaklığı olan Shaftesbury PLC’nin başlıca yatırımcılarından Samuel Tak Lee’nin oğlu, Samathur Li Kin-kan. Hikaye, Li ve yatırım fonu satıcısı Raffaele Costa’nın 19 Mart 2017’de Dubai’de bir öğle yemeğinde bir araya gelmesiyle başlar. Costa, yapay zekâyı kullanarak yatırımları yönetebilen bir sistemden bahseder. Avusturya merkezli 42.cx adlı şirket tarafından geliştirilen K1 adlı sistem haberleri ve sosyal medyayı gerçek zamanda değerlendirerek ABD hisse senetleri üzerine tahminler yapacak ve borsa simsarını alınıp satılacak hisse senetleri hakkında yönlendirecektir. Sistem, Li’nin ilgisini çeker ve yemekten üç gün sonra Costa’ya attığı e-postada bunun tam da kendi tarzı olduğunu yazar. Sonraki aylarda Costa, Li’ye K1’in simülasyonlarını gösterir. Li, geriye dönük testler hakkında kuşkuları olmasına karşın en sonunda ikna olur ve 2,5 milyar doları K1’e teslim eder. Parasını ikiye katlamayı planlamaktadır.

Fakat 2017’nin sonunda, K1’in alım satım işlerine başlamasıyla beraber Li’nin beklentisi boşa çıkar. Li’nin parası düzenli olarak azalmaktadır. Hatta 14 Şubat’ta, tek bir günde, stop-loss emri (borsada zararı durdurma emri) nedeniyle 20 milyon dolar kaybeder. Li’nin avukatları, eğer K1, Costa’nın Li’yi inandırdığı kadar iyi olsaydı böyle bir şeyin olamayacağını iddia ediyorlar. Li’nin avukatları Costa’nın şirketi Tyndaris’e karşı açtıkları davada Costa’yı K1’in yapabileceklerini abartmakla suçluyor ve 23 milyon dolar tazminat talep ediyor. Tyndaris ise ödenmemiş ücretler nedeniyle Li’den 3 milyon dolar talep ediyor ve Costa’nın, yapay zekâ stratejisinin para kazandıracağı hakkında garanti vermediğini söylüyor.

Li’nin avukatlarına göre Costa, K1’i geliştiren mühendislerin özelliklerini abartarak da Li’yi yanıltmış. K1’i geliştirenler arasında 1997’de Kasparov’u yenen Deep Blue’yu geliştiren ekipten kişiler olduğunu söylemiş. Tyandris, Bloomberg’in bu iddia hakkındaki sorularını yanıtlamaktan kaçınmış. K1’i geliştiren 42.cx’in CEO’su Daniel Mattes, ekiplerinde Deep Blue’yu geliştiren ekipten hiç kimse olmadığını söylüyor. Sadece 1960’larda SSCB’de Kaisa adlı satranç programını geliştiren Vladimir Arlazarov’dan genel tavsiyeler almışlar ama Arlazarov K1 üzerinde hiç çalışmamış. Ayrıca Mattes’in belirttiği gibi algoritmalar oyunlarda daha başarılı, çünkü oyunlarda benzetim yapılabilen açık kurallar borsada yok; dolayısıyla oyunlardaki deneyimle yatırımcılık arasında fazla bir ilişki de yok.

Kısacası Li, Costa’nın kendisini K1’in yetenekleri hakkında yanılttığını iddia ediyor. Costa da Li’nin kaybında sorumluluğu olmadığını ve yapay zekânın kararları hakkında garanti vermediğini belirterek kendini savunuyor. Bir bakıma, “ben yapmadım, algoritma yaptı” diyor. İlginç bir dava olacak…

Haberde üzerinde durulduğu gibi, yapay zekâ, akıllı asistanlardan sürücüsüz arabalara kadar gündelik hayatın her alanına dahil olurken işler kötüye gittiğinde sorumluluğun kimde olacağı kritik bir sorundur. Şirketlerin ürünlerini satmak için otonom sohbet robotlarını kullanacağı günler yakın. Bir sorunla karşılaştığımızda satıcıyı (sohbet robotunu) sorumlu tutabilecek miyiz? 18 Mart 2018 tarihinde, Uber’in kendi kendine gidebilen aracı sokakta karşıdan karşıya geçen Elaine Herzberg’in ölümüne neden olmuştu. Arabanın içerisinde bir sürücü de vardı, ama kamera kayıtlarına göre kaza öncesinde yola bakmıyordu. Uber kazadan sorumlu tutulmadı. Fakat sürücüsüz aracın içindeki yedek sürücü Rafaela Vasquez hakkındaki araçla adam öldürme soruşturması devam ediyor. Belki kazanın sorumlusu Vasquez; gözünü yoldan ayırmaması gerektiğini söyleyen test talimatlarına uymamış olabilir. Peki test sürüşleri tamamlanıp araçlar trafiğe çıktığında kazaların sorumlusu kim olacak? Sürücüsüz araçlar, kaza oranlarını düşürecekler. Fakat herhangi bir olumsuzlukta insanlar sorumlu aramak isteyecekler.

Algoritmik karar sistemleri toplumsal yönetim ve karar süreçlerinde kullanılıyor. Bu sistemlerin yaptıkları hatalarda sorumluluk kimde olacak? Yuval Noah Harari, Homo Deus: Yarının Kısa Bir Tarihi başlıklı kitabında kıtlık, salgın ve savaşların artık önlenemez meseleler olmaktan çıktığını, artık doğaüstü güçlere yalvarmak zorunda olmadığımızı yazıyor. Bu sorunlar tamamen ortadan kalkmış değil. Fakat Harari’nin yazdığı gibi bu sorunlarla karşılaştığımızda bunu doğaüstü varlıklara bağlamıyor, “birilerinin sorumluluğunu yerine getirmediğini düşünüyor bir soruşturma komisyonu oluşturuyor ve bir daha aynı hataları tekrar etmeyeceğimizi söylüyoruz.”. Kamu hizmetlerinde görevli yöneticilerin ya da sistemleri geliştirenlerin ve pazarlayanların “ben yapmadım, algoritma yaptı” diyerek sorumluluğu eski zamanlarda olduğu gibi bir doğaüstü varlığa (algoritmaya!) yükleme hakları olabilir mi?

Herkes hata yapabilir… Algoritmalar da!

Algoritmik karar sistemleri her geçen gün daha da yaygınlaşıyor. Bize ürün, film, şarkı, arkadaş vs öneren sistemleri artık yadırgamıyoruz. Fakat algoritmalar yalnız çeşitli önerilerle ürün satmak için değil, yaşamızı etkileyecek büyük kararlarda da kullanılıyorlar:

  • İş başvurularını sıralama
  • Sosyal hizmetleri tahsis etme
  • Terfi ettirilecek veya işten çıkartılacak çalışanları seçme
  • Açık pozisyonlar, konutlar ve ürünler için verilen reklamları kimin göreceğine karar verme
  • Bir kişinin suç işleme riskini veya hapis cezasının süresini tahmin etme
  • Sigorta ve yardımları tahsis etme
  • Kredi belirleme
  • Arama motorlarında haber ve bilgileri sıralama

Bu sistemlerin çalışma ilkeleri hakkında ne biliyoruz? Her zaman algoritmaların sayısal kesinliğine güvenebilir miyiz? Google’ın aramalardaki isabetli arama sonuçları çoğu zaman kolaylaştırıyor. Ama Google, ya bazı haberleri özellikle öne çıkarıyorsa? İnsanların çoğu zaman ilk sayfadaki sonuçlarla yetindiği düşünülürse Google sunduğu enformasyonla bilgimizi de biçimlendirmiyor mu?

Artık elimiz ayağımız olan navigasyon uygulamalarına ne kadar güvenebiliriz? CHP Zonguldak Milletvekili Deniz Yavuzyılmaz’ın “sürücülerin yolculuk güzergahlarını belirlemesinde yardımcı olan navigasyon uygulamalarının vatandaşları hiçbir uyarı yapmadan ücretli yollara yönlendirmesiyle” ilgili önergesi insanı işkillendiriyor (https://www.birgun.net/haber-detay/navigasyon-uygulamalari-tbmm-gundeminde.html).

Bir yol tarifi alacaksam en azından iki kişiye sormaya tercih ederim. İlk sorduğum kişi yolu yanlış tarif etmiş ya da ben yanlış anlamış olabilirim. Ama bir çok insan gibi ben de navigasyon uygulamalarına (yayayken de) insanlardan daha çok güvenirim. Çoğunlukla önerdiği rotayı izlerim. Fakat hem Yazvuzyılmaz’ın önergesi hem de 2009’da Robert Jones’un başına gelenler navigasyon uygulamalarının gösterdiği rotayı gözü kapalı kabul etmememiz gerektiğini gösteriyor. Jones, navigasyon cihazının gösterdiği kestirme yolu takip eder. Yol gittikçe daralıp dikleşse de kuşkulanmaz; navigasyon cihazı, patikanın yol olduğu konusunda ısrarlıdır. Jones da ona güvenir ve ilerlemeye devam eder. Uçurumdan aşağı yuvarlanmaktan kıl payı kurtulur (Fry, 2019)!

Navigasyon cihazları çoğu zaman en doğru rotayı tarif etse de Jones, navigasyon cihazına körü körüne itaat etmekle hata etmiştir. Gündelik hayatta çoğumuz algoritmik sistemler karşısında benzer tepkiler veririz ve algoritmanın otoritesini sorgulamayız. Bilgisayarlar insanlardan daha hızlı ve doğru hesap yaparlar. Fakat kontrolü ne zaman elimize almamız gerekir?

Stanislav Petrov, nükleer erken uyarı sisteminden sorumlu bir Sovyet askeridir. 1983’te görev başındayken sistem, düşman füzesi algıladığına dair uyarı verir. Fakat sistem, sadece beş füze saptamıştır ama bu ABD’den beklenmeyecek derecede zayıf bir başlangıçtır. Petrov, uyarıyı rapor ederse, ardından SSCB’nin bir misilleme saldırısı gelecek ve dünya nükleer savaşa sürüklenecektir. Beklemeyi tercih eder. 23 dakika sonra algoritmanın hata yaptığı anlaşılır! Günümüzdeki erken uyarı sistemleri, 36 yıl önceki Sovyet teknolojisinden çok daha ileri olabilir. Fakat bu ileri sistemlerin insanlar gibi karar alma sorumluluğunun ağırlığını hissedebilmeleri zordur. Petrov, hatalı bir kararın felaket olacağının farkındadır. Uyarı sisteminin başında ya Petrov değil de uyarıları anında Kremlin’e iletebilen bir algoritma olsaydı (age) ?

O zaman insanların makinelerden daha iyi karar vericiler olduğunu söyleyebilir miyiz? Acele etmeyelim… 2015 yılında, Büyük Britanya’da bir eğlence trenindeki arızayı gideren mühendisler test için boş bir vagon gönderirler. Mühendisler gönderdikleri vagonun geri gelmediğini, rayların ortasında kaldığını fark etmezler. Her şeyin yolunda olduğunu düşünen görevliler müşterilerle dolu ilk vagonu gönderirler. Sistemi tasarlayanlar böyle bir hatanın olabileceğini öngörmüşlerdir. Müşteri dolu vagon durdurulur ve kontrol odası bir çarpışma olasılığına karşı uyarılır. Mühendisler ise treni onardıklarını ve uyarı sisteminin hata yaptığını düşünürler. Uyarıyı devre dışı bırakırlar ve sistemi tekrar çalıştırırlar; vagonların çarpışması sonucu çok sayıda insan yaralanır (age).

Algoritmalardan kaynaklı sorunlar da vardır, algoritmaların sağladığı yararlar da. Eğer kararların doğruluğu karşılaştırılırsa algoritmik karar vericilerin çok daha başarılı ve hatasız olduğu da söylenebilir. Ama algoritmik karar vericilerin kararlarından olumsuz etkilenen insanlar varsa bu olumsuzlukların kaynaklarını ve yapılabilecekleri de tartışmak zorundayız. Bu bağlamda, algoritmik sorumluluk konusu önem kazanıyor. Yazının başında Li’nin başına gelenlerden Costa’yı sorumlu tuttuğunu, Costa’nın ise sorumluluğu algoritmaya yüklediğini görmüştük. Algoritmik sorumluluk böyle durumlara karşı şirketlerin geliştirdikleri algoritmaların sonuçlarından sorumlu olmasını ifade ediyor. Şirketin olabilecek sorunlara karşı gerekli önlemleri alması ve bir sorun olması halinde sisteme gerekli müdahaleyi yapması gerekiyor. Sorumlu sistemlerin hatalara karşı bir düzeltme mekanizmaları vardır. Algoritmalar, hesaplamaları insanlardan çok daha hızlı ve doğru yaparlar; fakat girdilere, sistemin tasarımına ve çıktılara karar veren insanlardır. Bir diğer deyişle, hatayı yapan algoritmalar değil, teknolojinin tasarımcıları ve onu piyasaya süren şirkettir. Yani insandır!

Dolayısıyla “insanlar makinelere karşı” gibi bir durum aslında oldukça yanıltıcı. İnsan, insana karşı… Peki neden algoritmik sistemler özerk varlıklarmış gibi görülüyor?

Algoritma Nedir?

Algoritma, bilgisayarın belirli bir görevi yerine getirmesi için izlemesi gereken talimatlar dizisidir. Bir kurumun yöneticisi olduğunuzu ve personel alımı yapmak istediğinizi varsayalım. Yayımladığınız iş ilanında bir sınav yapacağınızı ve ilk ona giren adayları işe alacağınızı duyurdunuz. Bir programcıdan da ilk onu listeleyebilmek için bir yazılım geliştirmesini istediniz. Fakat yazılım, iki adayın puanı eşit olmasına rağmen birini 10., diğerini de 11. olarak belirledi. 11. olan aday sınav sonuçları açıklandığında 10. adayla puanının aynı olduğunu görerek sonuca itiraz etti. Algoritma adayların puanları eşit olduğunda nasıl bir yol izliyor? Sorumluluk ya yanlış bir algoritma uygulayan programcıdadır ya da sınav yönetmeliğini eksik hazırlayan ve duyuran kurum yönetimindedir. Ancak her iki durumda da sorunun nedenini bulmak ve mağduriyeti ortadan kaldırmak kolay olacaktır.

Şimdi başka bir senaryo düşünelim. Yine bir kurumun yöneticisi olduğunuzu ve çok fazla başvuru olduğu için adaylarla görüşmeden önce başvuruları bir otomasyon sisteminin desteğiyle değerlendirmek ve bazı adayları baştan elemek istediğinizi varsayalım. Burada bir algoritma var ama sistem bir kara kutu. Algoritmanın başvuruları kabul ederken ya da reddederken nasıl bir yol izlediği bilinmiyor. Yazılımı geliştirenler özellikle bir kural tanımlamamış olmasına rağmen aynı niteliklere sahip kadın ve erkek aday varsa, erkek aday daha üst sırada yer alıyor. İşte son yıllarda tartıştığımız, şikayet ettiğimiz algoritmalar bu tipte, kara kutu biçiminde olanlar.

Bu bağlamda algoritmaları kural tabanlı algoritmalar ve yapay öğrenme algoritmaları olarak ikiye ayırabiliriz. Kural tabanlı algoritmalar, doğrudan ve net yönergeler içerirler. İlk örnekte, programcının uyguladığı algoritmaya göre bir sıralama yapılır. Verinin miktarı veya dağılımı algoritmanın çalışmasını değiştirmez. Yazılımı açıp çalışma mantığını anlayabiliriz. Fakat Fry’ın (2019) altını çizdiği gibi kural tabanlı algoritmalar yalnızca insanın kural yazabileceği sorunlar karşısında işe yarar. Resimlerdeki nesneleri tanımada veya bir dilden diğerine çeviri yapmada yetersiz kalır.

Büyük veriyle beraber daha önemli hale gelen yapay öğrenme algoritmaları ise canlıların öğrenme biçimlerini taklit eder. Canlıların, deneyimlerinden öğrenmesi gibi yapay öğrenme algoritmaları da verinin içerdiği deneyimden öğrenir. Yapay öğrenme algoritmalarını dörde ayırabiliriz: Denetimli öğrenme, denetimsiz öğrenme, yarı denetimli öğrenme ve pekiştirmeli öğrenme.

Denetimli öğrenmede, girdi değişkenleri (x1, x2, x3, …, xn) ve çıktı değişkeni (y) vardır. Veri analiz edilir ve f(x)=y’yi sağlayan en uygun fonksiyon modellenir. Böylece model, yeni girdiler için y’nin değerini tahmin edebilir. Tecrübeli bir emlakçı evin özelliklerini değerlendirdiğinde evin kaç TL’ye satılabileceğini kestirebilir. Eğer elimizde daha önce satılmış evlerin fiyatları ve evlerin fiyatını belirleyebilen parametreleri içeren geniş bir veri kümesi varsa en uygun fonksiyonu modelleyip yeni evlerin fiyatlarını da bu modelleme yardımıyla tahmin etme şansına sahip olabiliriz. Ya da elimizde insanların resimleri ve yaşları olan bir veri kümesi olduğunu düşünelim. Algoritma, resimlerine bakarak insanların yaşını tahmin etmeyi öğrenebilir. Ayrıca denetimli öğrenme, sınıflandırma amacıyla da kullanılabilir. Örneğin algoritma, hasta kayıtları üzerinde çalışarak iyi veya kötü huylu olan tümörleri belirlemeyi öğrenebilir; yeni tümörlerle karşılaştığında tümörün iyi mi kötü mü olduğuna karar verebilir.

Denetimsiz öğrenmede ise girdi değişkenleri vardır ama bu değişkenlerden elde edilen belirli bir çıktı (y değeri) yoktur. Burada algoritma verideki benzerlik, farklılık ve örüntüleri araştırır. Örneğin, tüketicileri, alışveriş geçmişlerinden yararlanarak daha önce öngörülmemiş bir biçimde kümelere ayırabilir. Bir alışveriş sitesinde alınan bir ürünün yanında kullanıcılara yeni ürünler tavsiye edilebilir. Ya da banka hesaplarındaki hareketler incelenerek sıradışı işlemler yakalanabilir.

Yarı denetimli öğrenmede ise çok miktarda girdi olmasına karşın (gerçek hayatta sıkça olduğu gibi) yalnızca bazı verilerin y değeri vardır. Etiketlenmemiş (yani y değeri bilinmeyen) veriler, az miktarda etiketli (y değeri bilinen) veriyle birlikte kullanıldığında, öğrenme doğruluğunda bir gelişme sağlanabilmektedir. Girdi değişkenlerindeki yapıyı keşfetmek ve öğrenmek için denetimsiz öğrenme teknikleri kullanılabilir. Etiketlenmemiş verileri en iyi tahmin için denetimli öğrenme tekniklerini kullanabilir. Daha sonra bu tahminlerde elde edilecek verilerin sistemi geri beslemesiyle (elimizdeki etiketli verilerin miktarı artacağı için) sistem iyileştirilebilir.

Pekiştirmeli öğrenme ise davranışçılıktan esinlenmiştir ve en yüksek ödül miktarına erişebilmek için hangi eylemlerin yapılması gerektiğine odaklanır. Sistem doğru kararlarda ödüllendirilir, yanlış kararlarda cezalandırılır. Pekiştirmeli öğrenme, denetimli öğrenmeden farklı olarak doğru girdi ve çıktı eşleştirmesiyle başlamaz. Bilinmeyen uzayda keşif ve mevcut bilgiden yararlanma arasında bir denge kurmaya çalışır (https://tr.0wikipedia.org/wiki/Pekiştirmeli_öğrenme).

Yapay öğrenme algoritmaları veri yardımıyla yüzleri tanımayı, resimleri ayırt etmeyi, hangi filmi izlemek isteyebileceğimizi öğrenir. Beyazlardan oluşan bir veri kümesiyle eğitilen bir algoritma beyazların yüzlerini tanımada, bunun için matematiksel modeller kurmada ustalaşır. Siyahları da tanıyabilmesi için siyahların verilerine gerek duyar. Beyazlardaki kanser hücrelerini tanımada başarılı bir modelin siyahlardaki tahminleri hatalı olabilir. Bugün şirketlerin büyük bir açlıkla veri toplamasının, insanlar kişisel verilerini alabilmek için çeşitli (çoğu bedava olan) uygulamalar geliştirmelerinin arkasında 1984’teki gibi bir dünya arzulamaları değil, ekonomik çıkarları vardır. Verinin çeşitliliği ve zenginliği yeni olanaklar yaratmaktadır.

Bu algoritmalar gündelik hayatta başlıca dört görevi yerine getirir. Birincisi, sıralı liste verme. Google arama sonuçlarını sıralar, Netflix izlemekten hoşlanacağımız filmleri sıralar, navigasyon cihazı olası rotalar arasında en uygun olanı seçer. İkincisi, sınıflandırma. Şirketler reklamlarını artık rastgele yapmamakta, algoritmaların belirlediği gruplara özel reklamlar yapmaktadır. Üçüncüsü, ilişkilendirme. Alışveriş sitelerinde önceki müşterilerin verileri ve sizin alışkanlıklarınız birleştirilerek ilginizi çekebilecek ürünler önerilir. Kural tabanlı algoritmalarda olduğu gibi yazılıma “bunu satın alan, şunu alabilir” gibi kurallar doğrudan kodlanmaz. Algoritma, veriden öğrenir. Bu nedenle, beyzbol sopası alan birine kar maskesi de önermek gibi durumlar ortaya çıkabilmektedir. Dördüncü, filtrelemedir. Ses asistanları sesimizi daha iyi anlayabilmek için geri plandaki sesleri ayırırlar. Sosyal medya siteleri de aynı işlemi haber akışımızda yer alacak haberler için yapar (Fry, 2019).

Kural tabanlı algoritmalarda programcı hata yapabilir; ama güç, algoritmayı tasarlayan ve onu kodlayanların elindedir. Kod, tasarlandığı biçimde adım adım ilerler. Yapay öğrenme algoritmalarında ise algoritmayı tasarlayan yine insandır ama algoritmanın nasıl çalışacağı ve çıktısının ne olacağı veriye de bağlıdır. İki etken, insan ve veri, bir araya geldiğinde çeşitli karmaşıklıklar ortaya çıkmaktadır. Bu karmaşıklıkların başında da algoritmadaki yanlılık (bias) sorunsalı vardır.

Algoritmalarda Yanlılık

Bir algoritmanın çıktısının adaletsizliğe neden olmasına yanlılık adı veriliyor. Algoritmanın eğitildiği veri kümesindeki yanlılık, algoritmanın çıktılarını da etkilediğinden yanlılık sorunu çoğunlukla veriyle ilişkilendiriliyor.

Algoritmanın eğitildiği veri gerçekliğin zayıf bir temsiliyse veya halihazırdaki önyargıları yansıtıyorsa algoritma, yanlı çıktılar verir. Örneğin 2010 yılında, Microsoft’un Xbox oyun sisteminde kullanılacak Kinect teknolojisi piyasaya çıkmadan kısa bir süre önce bir kadın çalışan bu teknolojiyi evde denemek ister. Kinect, bir kumanda cihazı olmadan hareket algılama teknolojisi yardımıyla çalışmaktadır. Fakat sistem evde beklenildiği gibi çalışmaz. Hareket algılama teknolojisi kadının kocası için sorunsuz çalışırken kadın ve çocukların hareketlerini algılamada pek başarılı değildir. Çünkü sistem 18-35 yaş arasındaki erkekler üzerinde denenmiştir (Tugend, 2019).

Algoritmanın önyargıları pekiştirmesi de sık rastlanılan bir durumdur. Bir Microsoft müşterisi, krediler için risk puanlaması yapan bir finansal hizmetler algoritmasını test etmektedir. Fakat algoritmayı eğitirken kullanılan verilerde erkeklerin daha önce onaylanmış kredileri ağırlıklı olduğundan algoritma, erkeklerin daha risksiz müşteriler olduğuna karar vermeye meyillidir (age).

Verinin yanlılığa etkisi hakkındaki bir diğer ünlü örnek de Amazon’un iş başvurusu yapan adayların özgeçmişini değerlendirdiği otomasyon sistemidir. 2015 yılında şirket, iş başvurularının cinsiyetçi bir şekilde değerlendirildiğini fark eder. Çünkü sistem, eğitim sürecinde ağırlıklı olarak erkek adayların özgeçmişleriyle eğitilmiş ve bunun sonucunda erkekleri daha tercih edilebilir adaylar olarak belirlemiştir. Bu nedenle, içinde kadın kelimesi geçen (“kadın satranç takımı kaptanı” gibi) özgeçmişler cezalandırılmakta, aşağı sıralara itilmektedir. Sorunu fark eden Amazon, sistemi düzeltmeye (yanlılığı gidermeye) çalışır. Bazı iyileştirmeler yapsa da sonunda bu sistemi bırakmak zorunda kalır (Dastin, 2018).

Verinin hazırlanması aşamasında seçilen öznitelikler de yanlılığa neden olabilir. Kredi başvurularına olumlu ya da olumsuz yanıt vermesi istenen bir algoritma, veri kümesindeki kişilerin yaş, gelir, geri ödediği kredi sayısı gibi öznitelikleri seçilerek eğitilebilir. Bir işe alma sistemi ise cinsiyet, eğitim düzeyi veya tecrübe gibi öznitelikleri kullanabilir. Doğru öznitelikler seçilmişse (bu da ustalık gerektirir) modelin kestirimleri daha doğru olacaktır. Fakat Nao’nun (2019) altını çizdiği gibi seçilen özniteliklerin modelin doğruluğuna etkisini ölçmek kolayken aynı kolaylık yanlılığa etkisini belirlemede geçerli değildir.

Sistemlerin eğitiminde halihazırdaki toplumsal ilişkileri yansıtan veriler kullanıldığında ya da yanlılığa neden olabilecek öznitelikler seçildiğinde cinsiyetçi ve ırkçı önyargılar yeniden üretilir. Sorunun farkında olmak çözüme giden yolda bir adımdır. Fakat suçu tamamen verinin içerdiği yanlılığa ve öznitelik seçimindeki hatalara yüklemek, yanlılığı teknik bir soruna indirgemek de pek doğru değil.

Algoritmayı tasarlayan kişi ya da kişilerin değerleri (yanlılığı) de algoritmanın çıktılarında etkilidir. Problemin çerçevesinin çizilmesi, sistemin hedeflerinin belirlenmesi tarafsız bir eylem değildir. Bir kredi kartı şirketinin müşterilerin kredi itibarını tahmin eden bir sistem geliştirirken verdiği kararlar sistemin gelişimine yön verir. Çünkü en başta kredi itibarının ne olduğu sorusunu yanıtlanması ve bu yanıtın sayısallaştırılması gerekir. Şirketin hedefi nedir? Kârını mı yoksa geri ödenebilen kredi miktarını mı en üst düzeye çıkaracaktır? Şirketin istediği kârını artırmaksa, algoritma da buna en uygun fonksiyonu modelleyecektir.

Algoritmalar kimin yararına çalıştırılacak? Burada artık salt tekniğin ötesine geçmeye başlarız. Fry (2019) yazdığı “tedavi önerebilen teşhis makinesi” üzerinde düşünelim. Bu tip teknolojiler yaygınlaşacak ve doktorlardan çok daha isabetli kararlar verebilecek. Fakat Fry (2019) önemli bir soru soruyor ve bir seçim yapmak zorunda kalacağımızı vurguluyor: Teşhis makinesi, bireye mi, topluma mı hizmet edecek?

Algoritma, bireye hizmetin öncelikli olduğunu düşünürse ağır, ama bir süre sonra geçebilecek bir öksürük şikayetiyle doktora gittiğinizde sıkıntınızı birkaç gün hafifletmek için antibiyotik yazmaya karar verecek, risk almamak için daha fazla tahlil yaptırmanızı isteyecek. Ama topluma hizmeti öncelikli gören bir algoritma antibiyotik toleransına karşı daha duyarlı davranacak, ölümcül bir durum yoksa geçici sıkıntınızı önemsemeyerek ilaç vermek istemeyecektir. Ayrıca kaynakları boşa harcamamak için tahlil sayısını da azaltmaya çalışacaktır.

Elbette hayat siyah beyaz değil. Algoritmayı tasarlayanlar bireysel ve toplumsal çıkarlar arasında bir denge bulmaya çalışacaktır. Ancak bu denge arayışı teknik değil, politik bir çalışma olacaktır. Buna ek olarak, neoliberal çağın ruhuna uygun olarak, denkleme sağlık hizmetlerinin piyasalaşmasını kattığımızda korkunç bir algoritmayla karşı karşıya kalabiliriz.

Yanlılığın Çözümü Neden Zor?

Yanlılık bilgisayar bilimcilerin farkında olduğu ve üzerinde çalıştığı önemli konulardan biri. Fakat çözümü kolay değil. Hao (2019) yanlılık sorununun çözümünü zorlaştıran engelleri dört başlık altında ele alıyor.

Bilinmeyen bilinmeyenler. Daha model oluşturulurken verilerin ve tercihlerin yanlılığa neden olup olmayacağı belirgin değildir. Yanlılık, ileri safhalarda tespit edildiğinde ise geriye dönerek yanlılığın nedenini bulmak ve sorunu gidermek zor olmaktadır. Örneğin, önceki bölümde gördüğümüz gibi Amazon’un iş başvurusu değerlendirme sistemi kadın kelimesini içeren özgeçmişleri aşağı sıralara gönderiyordu. Amazon’un mühendisleri sorunu fark ettiklerinde sistemi yeniden programlayarak sistemin açık biçimde cinsiyet bildiren kelimeleri (women’s gibi) göz ardı etmesini sağladıklarında da sorun çözülmemiş. Çünkü sistem bu sefer de üstü kapalı olarak daha çok erkeklerle ilişkilendirilen executed, captured gibi kelimelerden yararlanarak cinsiyetçiliği yeniden üretmiş.

Eksik Süreçler. Bilgisayar bilimciler modelleri geliştirirken önce ellerindeki veriyi rastgele biçimde iki bölüme ayırırlar. Birinci bölümde yer alan veri, algoritmayı eğitmek için kullanılır. Eğitim işlemi tamamlandıktan sonra modelin performansı ikinci bölümdeki veri üzerinde test edilir. Bu süreçte, yanlılığın tespit edilmesi üzerinde durulmadığından ve hem modeli eğitmek için kullanılan veri hem de performansını test için kullanılan veri aynı yanlılıkları içerdiğinden önyargılı sonuçları tespit etmekte başarısız olunur.

Sosyal Bağlam Eksikliği. Caplan vd.’nin (2018) belirttiği gibi algoritmaları sıfırdan tasarlamak pahalı ve zordur. Algoritmaları tasarlarken nitelikli işgücü kullanmak, eğitim verisi bulmak, algoritmanın özelliklerini belirlemek, test etmek, iyileştirmek ve modeli uygulamak için para gerekir. Bu maddi gereklilikler, bilgisayar bilimcilerin problemleri çözmeye çalışırken farklı bağlamlarda farklı görevleri yerine getirebilecek sistemler tasarlama yaklaşımı ile birleşince belirli bir bağlama uygun olarak geliştirilen bir algoritmayı farklı bir bağlamda olduğu gibi veya değiştirerek kullanma gibi bir eğilim ortaya çıkmaktadır. Fakat Hoa’nın (2019) belirttiği gibi bu yaklaşım toplumsal sorunların çözümü için uygulandığında yeni sorunlara neden olur. Utah’ta tasarlanmış bir sistem farklı toplulukların farklı adalet anlayışları nedeniyle Kentucky’de doğrudan uygulanamaz. Aynı şekilde adil yargılama için kullanılan bir sistem istihdam alanında kullanılmamalıdır. Çünkü belirli bir bağlama göre oluşturulmuş standartlar ve algoritmanın ilgilendiği etik konular yeni uygulamada sorunlara neden olabilir.

Adaletin Tanımındaki Eksiklikler. Adalet konusu, felsefe, sosyal bilimler ve hukukta yıllardır tartışılmaktadır ve şimdi de bilgisayar biliminin gündemindedir. Ama bilgisayar biliminden adaleti matematiksel terimlerle açıklaması da beklenmektedir. Aşağıdaki tabloya bakalım:

Başlıca sorunlardan biri yanlış pozitiflerle yanlış negatifler arasındaki dengeyi bulabilmektir. Yanlış pozitifte, gerçekte negatif olan bir olgunun pozitif olduğunu tahmin etmişsinizdir (Birinin suçlu olduğunu tahmin ettiniz, ama gerçekte suçsuzdu). Yanlış negatifte ise gerçekte pozitif olan bir olgunun negatif olduğunu tahmin etmişsinizdir (Suçlu olan birine suçlu değil demek). Yani insanları haksız yere suçlama ihtimali de var, suçluları fark edemeyerek toplum güvenliğini tehlikeye atma ihtimali de. Algoritma, toplumun iyiliği için arada sırada suçsuz insanları mağdur etmeli midir (yanlış pozitif)? Yine bir denge kurmaya çalışsak bile insanların adalet hakkındaki düşüncelerinin de zaman içinde değiştiğini unutmamak gerekiyor.

Şeffaflık ve Sorumluluk

Kız çocuğu olan bir hakim, kadınlar lehine karar vermeye daha meyilli oluyor; tuttuğu takım yenilen hakimin kefalet talebini reddetme ihtimali daha yüksek; hakimler öğle yemeğinden hemen önce kefalet talebine uzak, yemekten sonra bu talebi kabule daha yatkın. Hakimler, arka arkaya benzer kararlar vermekten kaçınıyor. Dört kefalet talebine olumlu yanıt veren bir hakimin beşinci kefalet talebine olumlu yanıt verme olasılığı azalıyor (Fry, 2019).

Bu tip durumları düşününce algoritmik karar sistemlerinin daha adil kararlar için önemli bir potansiyele sahip olduğu görülüyor. Fakat Domingos’un (2017) uyardığı gibi “insanlar bilgisayarların çok akıllı hale gelip dünyanın kontrolünü eline geçirmesinden endişelense de asıl problem, çok aptal olmaları ve halihazırda dünyayı kontrol etmeleridir.” Sorunu, hakimlerin mi yoksa bilgisayarların mı daha doğru karar vericiler olduğu ekseninde tartışmak yanıltıcı olabilir. Önce hukuktan ne beklediğimizi sorgulamalıyız.

Hukuk, erişilebilir ve olabildiğince anlaşılır, açık ve tahmin edilebilir olmalı. Algoritmik karar sistemlerinin ise çoğunlukla bu beklentiyi karşılamaktan uzak olduğunu ve içerikleri ticari sır olarak saklanan birer kara kutu olarak çalıştıklarını görüyoruz. Normal bir yazılımın kaynak kodunu inceleyerek nasıl çalıştığını öğrenmek mümkünken aynı yöntem yapay öğrenme algoritmalarını kullanan sistemlerde yetersiz kalıyor. Çünkü algoritma üzerinde çalıştığı verilerden öğreniyor. Ayrıca kesinlik ve yorumlanabilirlik iki zıt uçta yer alabiliyor. Doğrudan kodlanmış bir algoritmayı anlamak kolayken, sinir ağlarında daha kesin sonuçlar için yorumlanabilirlikten feragat etmek zorunda kalıyoruz. Birçok durumda kesin sonuçlar tercih edilir, ama hukuk gibi insan yaşamını etkileyen konularda çubuğu yorumlanabilirliğe bükmek gerekebilir (Blacklaws, 2018).

Geçen yıl yürürlüğe giren GDPR (General Data Protection Regulation – Genel Veri Koruma Tüzüğü), şirketleri şeffaf ve sorumlu davranmaya zorlayabilecek önemli bir düzenleme. GDPR’nin uygulamadaki başarısı ve daha da geliştirilmesi, algoritmik karar sistemlerinin potansiyelini toplum yararına hayata geçirebilir. Kamuoyu, algoritmalar hakkında bilinçlendikçe GDPR gibi düzenlemelerden güç alarak şirketleri gerekli önlemleri almaya ve yeni çözümler geliştirmeye zorlayabilir. Fakat Selbst vd.’nin (2019) yazdığı gibi teknolojik çözümcülük tuzağına da düşmemek gerekiyor. Şirketler ellerinde çekiç olduğu için her şeyi çivi olarak görme eğilimindeler. Ama özellikle siyasi olarak tartışmalı sorunları teknolojiyle çözme girişimleri karşısında dikkatli olmalı.

Kaynaklar

Blacklaws, C. (2018). Algorithms: transparency and accountability. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2128), 20170351.

Caplan, R., Donovan, J., Hanson, L., & Matthews, J. (2018). Algorithmic accountability: A primer. Data & Society.

Dastin, J. (2018). Amazon scraps secret AI recruiting tool that showed bias against women, https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G, son erişim 15/07/2019

Domingos, P. (2017). Master Algoritma: Yapay Öğrenme Hayatımızı Nasıl Değiştirecek?(çev. Tufan Göbekçin). Paloma Yayınevi, İstanbul.

Fry, H. (2019). Merhaba Dünya: Makine Çağında İnsan Olmak. (Çev. İ. G. Çıgay), Hep Kitap.

Hao, K. (2019). This is how AI bias really happens—and why it’s so hard to fix, https://www.technologyreview.com/s/612876/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/, son erişim 15/07/2019

Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S., & Vertesi, J. (2019). Fairness and abstraction in sociotechnical systems. In Proceedings of the Conference on Fairness, Accountability, and Transparency (pp. 59-68). ACM.

Tugend, A. (2019) Exposing the Bias Embedded in Tech, https://www.nytimes.com/2019/06/17/business/artificial-intelligence-bias-tech.html, son erişim 15/07/2019

22 Kasım 2019

Posted In: algoritma, algoritmik yönetim, bias, Bilgisayar Bilimi, Gözetim, Özgür yazılım, sosyal ağlar, Teknoloji Tarihi, yanlılık, yapay öğrenme, Yapay Zeka

Toplumsal Cinsiyet Eşitsizliği ve Ses Asistanları

Geçen sezon uygulanan VAR (Video Assistant Referee – Video Yardımcı Hakem) sistemi, maç sonrası yaşanan bir çok tartışmanın önüne geçti. VAR sayesinde hakemler tereddüt ettikleri gol ve penaltı pozisyonlarında daha doğru karar verebildiler. Ama maç sonrasında hakemlerin hatalı kararlar verdiğine dair iddialar yine günlerce gündemi işgal etti. Sonuçta VAR karar vermiyor, sadece hakemin pozisyonları tekrar izleyerek durumu yeniden değerlendirebilmesini sağlıyordu.

Peki VAR sistemi, şu anki uygulamanın ötesinde, son kararları da verebilecek düzeyde olsa daha iyi olmaz mı? Top, kale çizgisini ya geçmiştir ya da geçmemiştir. Defans oyuncusu, ceza alanı içinde topa ya elle müdahale etmiştir ya da etmemiştir. Bu kadar basit, değil mi? Karar hakkı maçın orta hakeminde değil de bir dijital sitemde olsa sistemin kararlarındaki matematiksel kesinlik sayesinde futbol yorumcularının büyük bir kısmı susmak zorunda kalır. Hakem hatalarını veya hakem üzerindeki baskıları tartışmak zorunda kalmayız. Belki o zaman da futbol yorumcularının yerini bilgisayar korsanlarının VAR sistemlerine saldırdığını iddia eden bilişim güvenliği uzmanları alır. Ama bu bile hafta sonu ekranları dolduran kısır tartışmaları izlemekten çok daha iyidir.

Böyle bir sistemin istenildiği gibi çalışıp çalışmayacağını veya nasıl yan etkileri olabileceğini kestiremiyorum. Belki hakem hakkında ileri geri konuşamamak maç izlemenin tadını kaçıracak. Ama yalnız futbolda değil, gündelik hayatın birçok alanında yaşadığımız adaletsizliklerle karşı çoğumuz 2+2=4 kesinliğinde bir adaleti düşlüyoruz. Hakimlerin herkesin uymak zorunda olduğu yasalara göre karar vermesini; sanığın din, ırk, sınıf veya siyasi görüşünün hakimin kararını etkilememesini istiyoruz. İş başvurularımızın nesnel olarak değerlendirilmesini; özgeçmişlerin cinsiyet, doğum yeri gibi işle ilgisi olmayan nedenlerle sümen altı edilmemesini; hükümetlerin sosyal politikalarında akılcı ve adil olmalarını umuyoruz.

Peki insanların yerine makineleri geçirdiğimizde (hakimlerin, iş başvurularını değerlendirenlerin ve hükümetlerin yerini dijital sistemler aldığında) dünya daha mı adil olacak? Cathy O’Neil, Weapons of math destruction: How big data increases inequality and threatens democracy (Matematik İmha Silahları: Büyük veri eşitsizliği nasıl artırıyor ve demokrasiyi tehdit ediyor?) başlıklı kitabında günümüzde kullanılan dijital sistemlerin adaletsizliği nasıl artırdığının örneklerini sunuyor. Algoritmik sistemler, beklenen tarafsızlığı sağlayamıyor. Bu sistemlerin kararlarının nesnel olacağı varsayımını gözden geçirmemiz gerekiyor.

Yapay zekâ dünyasındaki çok az sayıdaki kadın araştırmacıdan biri olan Fei-Fei Li, derin öğrenme sistemlerini tanımlarken “yanlılık (bias) girer, yanlılık çıkar” ifadesini kullanıyor. Yapay zekâyı yönlendiren algoritmalar tarafsızmış gibi görünse de algoritmaların çıktısını şekillendiren veri ve uygulamalar tarafsız değil (https://www.wired.com/story/fei-fei-li-artificial-intelligence-humanity/). Bunun ilk başta teknik bir sorun olduğu; veri kümeleri daha dikkatli seçilirse ve daha özenli uygulamalar geliştirilirse daha tarafsız ve adil sistemlerin geliştirilebileceği düşünülebilir. Ancak UNESCO’nun yayımladığı rapor (I’d blush if I could: closing gender divides in digital skills through education, https://unesdoc.unesco.org/ark:/48223/pf0000367416) teknik değil, politik bir sorunla karşı karşıya olduğumuzu gösteriyor. Rapor, halihazırdaki toplumsal eşitsizliklerin yapay zekâ sistemlerini nasıl etkilediği ve buna karşı yapılabilecekler hakkında önemli tespitlerde bulunuyor.

Raporun başlığı (I’d blush if I could), “Yapabilseydim, kızarırdım”, Apple’ın ses asistanı Siri’nin kendisine “Hey Siri, you’re a bi***.” diye hakaret eden kullanıcılara (eskiden) verdiği yanıta atıfta bulunuyor. Siri, artık bu hakarete “buna nasıl yanıt vereceğimi bilmiyorum” diye karşılık veriyor. Siri ve diğer ses asistanları, cinsiyetçi yanlılıkların teknolojik ürünlere nasıl kodlandığını gösteren güzel bir örnek. Rapor birbiriyle ilişkili iki sorunu tartışıyor. Birincisi yukarıda belirttiğim gibi cinsiyetçi önyargıların teknolojilere nasıl kodlandığı. İkincisi ise dijital becerilerdeki toplumsal cinsiyet eşitsizliği. Yazının devamında da göreceğimiz gibi teknolojiye gömülü cinsiyetçilik kadınların toplumsal konumunu kötüleştirdiği gibi ikinci sorun, birinci sorunun kronikleşmesinin koşullarını yaratıyor.

Dijital Asistanlar

Gündelik hayatta, teknolojinin onu geliştirenlerin değer ve yargılarını içerdiğini çoğu zaman atlarız. Sanki her şey, başka bir alternatif olmaksızın, olması gerektiği gibi olmuştur. Örneğin, Amazon’un Alexa’sı, Apple’ın Siri’si gibi birçok ses asistanının neden kadın olarak cinsiyetlendirildiğini pek sorgulamayız. Ancak yapay zekâ, teknolojileri araştırma laboratuvarlarından çıkıp sıradan tüketici ürünleri haline gelirken daha dikkatli ve sorgulayıcı olmamız gerekiyor. Fei-Fei’nin vurguladığı gibi bu sistemlere giren yanlılık, yine yanlılık olarak çıkıyor ve yeni teknolojiler halihazırdaki eşitsizliklerin üzerinde yükseliyor.

Yapay zekâ teknolojileri daha fazla insan benzeri iletişim kapasitesine eriştikçe raporda tartışılan cinsiyet sorunları daha önemli hale gelecek. Rapor, teknolojideki cinsiyet sorununu neden dijital asistanlar ekseninde ele aldığını üç maddede özetliyor:

  • Dünya çapında yaygın olarak kullanılmaları
  • Cinsiyet gözüyle nadiren incelenmeleri
  • Toplumsal cinsiyet eşitliğini gözeten toplumlar ve eğitim sistemleri inşa etmeye çalışan devlet kurumları ve uluslararası örgütlerin nadiren sorunu fark etmeleri

Dijital asistanlar, iki açıdan diğer etkileşimli teknolojilerden farklı: Birincisi, dijital asistanların yapay zekâ sayesinde açıkça kodlanmamış veya insanlar tarafından özel olarak belirtilmemiş çıktılar üretebilmeleri. İkincisi ise çok çeşitli kullanıcı sorgularına yanıt verebilmeleri.

Rapor, dijital asistanları üç gruba ayırıyor: sohbet robotları (chatbots), sanal ajanlar (virtual agents) ve ses asistanları (voice assistants).

Sohbet botları, yazılı iletişim için geliştiriliyorlar. Çoğunlukla fiziksel bir biçime sahip değiller. Bazen temsili olarak insan yüzü veya çizgi karakter görselleri kullanılıyor. Sanal ajanlar ise ses asistanlarından farklı olarak fiziksel bir biçime de sahipler. Kullanıcılar karşılarındaki sistemin fiziksel biçimini dijital ekranda veya artırılmış gerçeklik ortamında görebiliyorlar. Rapor, gündelik hayatta kullanımlarının artması ve belirgin cinsiyetçi konuşmaları nedeniyle özellikle ses asistanlarına odaklandığını belirtiyor. Sohbet robotları da yaygın; fakat bu teknolojiyle iletişim yazılı olduğundan çok belirgin bir cinsiyetle karşımıza çıkmıyorlar. Sanal ajanlar, dijital asistanlardaki cinsiyetçi eğilimlere (hatta daha belirgin) sahipler ama henüz yaygın değiller ve deney aşamasındalar.

Bazı ses asistanları, kullanıcılarla hem sözlü hem de yazılı iletişime geçebilseler de genellikle sözlü iletişime uygun bir tasarıma sahipler. Ses asistanları çoğunlukla soru sormak, müzik açmak, hava durumunu öğrenmek, zaman belirlemek, radyo dinlemek, alarm ayarlamak, haber ya da spor karşılaşmalarını dinlemek, oyun oynamak ve yemek tarifi almak için kullanılıyor. Kullanıcılar ses asistanlarından akıllı telefonlar veya Amazon’un Echo’sunda olduğu gibi akıllı hoparlörler aracılığıyla yararlanabiliyorlar. Yemek yaparken çoğunlukla akıllı hoparlörler, araba kullanırken de akıllı telefonlar tercih ediliyor. Akıllı hoparlörler en çok oturma odası, mutfak ve yatak odasında kullanılıyor.

Ses asistanlarının işleyişi kısaca dört adımdan oluşuyor: Kullanıcının sorgusunun alınması (birinci adım), alınan sorgunun anlaşılması (ikinci adım), uygun bir yanıtın hazırlanması (üçüncü adım) ve hazırlanan yanıtın kullanıcıya okunması (dördüncü adım). Karmaşık ve geniş veri yığınlarına dayanan ikinci ve üçüncü adımlar, çoğunlukla internetteki güçlü işlemciler ve yapay zekâ uygulamalarının desteğiyle gerçekleştiriliyor. Sesli bir aramanın metinsel bir aramaya göre 150 kattan fazla makine, güç ve alana gereksinim duyduğu tahmin ediliyor. Ses asistanları kullanıcı sorgularına bağlamı göz önünde bulunduran yanıtlar veriyor. “Hava nasıl?” sorusu, kullanıcının konumunu dikkate alınarak yanıtlanıyor. Asistan kullanıcının dünün veya yarının değil, bugünün hava durumunu öğrenmek istediğini biliyor. Ses yardımcısının daha nitelikli yanıtlar verebilmesi kullanıcı hakkında ne kadar bilgiye sahip olduğuna bağlı. Kişinin her zamanki alışkanlıkları veya programı bilindiğinde daha özelleşmiş yanıtlar hazırlanabiliyor.

Amazon (Alexa), Microsoft (Cortana), Apple (Siri) ve Google (Google Assistant), hacim ve kullanım sıklığı dikkate alındığında ses asistanı pazarında kayda değer bir paya sahipler (Büyük Beşli’nin beşincisi, Facebook da piyasa girmeye hazırlanıyor). Dünyada bu şirketlere ait iki milyardan fazla internet bağlantılı cihaz var. Çin’de ise Alibaba, Baidu ve Xiaomi’nin kontrol ettiği bir ses asistanı pazarı var.

Akıllı telefonlar çok hızlı yayılmıştı. Fakat ses asistanları, akıllı telefonlardan çok daha hızlı yayılıyor; 2021’de dünyadaki ses asistanı sayısının insanlardan fazla olması bekleniyor. Bu şirketlerin öncülüğünde büyük bir dönüşüm yaşanıyor. Gartner’a göre 2020 yılında insanlar dijital asistanlarıyla eşlerinden daha fazla konuşacaklar. Ses asistanı teknolojisinin ilerlemesi ve yaygınlaşmasıyla beraber web sayfaları, bağlantılar, görseller ve metinlerden oluşan bildiğimiz internet de yerini hızla konuşmalı bir internete bırakıyor.

İnsan bilgisayar etkileşimi bir web tarayıcısı yerine insan gibi dinleyen ve konuşan cihazlar akıllı sistemler aracılığıyla gerçekleştirilecek. Bu değişimi çok net görebiliyoruz; webde anahtar kelimeler yazarak yapılan aramalar hızla yerini sesli aramalara bırakıyor. İnsan bilgisayar etkileşimi metin odaklı olmaktan çıkarak ses odaklı olmaya başlıyor. Dijital asistanlar artık televizyonlardan arabalara, termostatlardan elektrik lambalarına kadar her yerdeler.

Ciddi bir değişimin ilk günlerindeyiz. Ancak bu değişim sürecinde bazı küçük (!) ayrıntıları atlamamak gerekiyor. İsterseniz yazının devamını okumadan önce bu ses asistanlarının (Alexa, Siri, Cortana ve Google Assistant) neden kadın olarak cinsiyetlendirildikleri (adlarını ve seslerini dikkate alarak) ve bu tercihin toplumsal ilişkilere etkisi üzerine biraz düşünün.

Ses Asistanları Neden Kadın Sesiyle Konuşuyor?

Şirketlerin, müşterilerinin ürünleriyle nasıl etkileşime gireceklerine büyük önem verdiklerini ve bunun için çeşitli testler yaptıklarını biliyoruz. Bu nedenle, ses asistanlarında kadın sesini kullanmalarının rastlantısal değil, bilinçli bir politikanın sonucu olduğunu düşünebiliriz. Amazon ve Apple kararlarını, insanların kadın sesini erkek sesine tercih ettiğini gösteren çok sayıda akademik çalışmaya atıfta bulunarak savunuyor. Müşteri memnuniyeti her şeyden önce geliyorsa ve müşteriler dijital asistanların kadın sesiyle konuşmasını istiyorsa, amacı kar etmek olan bir şirketin başka bir şansı yoktur. Fakat rapor, durumun savunulduğu gibi siyah ve beyaz olmadığını gösteriyor. Birçok insanın pes erkek sesini tercih ettiğini; insanların yetkeli açıklamalar dinlerken erkek, yardım alırken kadın sesini sevdiğini; genellikle de karşı cinsin sesini tercih ettiğini yazan araştırmalar da var. Ayrıca ses asistanlarında erkek sesi seçeneği sunulduğunda bazı kadınların ses ayarını kadın sesinden erkek sesine çektiği, ama benzer bir davranışa erkeklerde rastlanmadığı görülmüş.

İnsan-bilgisayar etkileşimi üzerine çalışan araştırmacılar, kadın sesinin daha yardımsever olarak algılandığını doğruluyorlar. Ama bunun nedenleri hakkında net değiller; bu algı, kadını çocukları büyüten kişi olarak gören toplumsal normlardan besleniyor olabilir. “Yardımcı kadın” stereotipi farklı bağlamlarda da karşımıza çıkıyor. Örneğin oyunlarda merkezdeki erkek karakterlere yardımcı olan kadın karakterler var. Ayrıca 2016 tarihli bir araştırmaya göre 1926’den bu yana filmlerdeki yapay zekâ karakterleri ilk başta erkekken, son 20 yılda kadın karakterlere doğru bir eğilim var. Sadece karakterin cinsiyeti değişmiyor; insanlık için bir tehdit olan yapay zekâ karakterleri yerlerini insanlığın hizmetindeki yapay zekâ karakterlerine bırakıyorlar.

Bunun yanında, raporda ilginç bir anekdot aktarılıyor. Dijital asistanların atası sayabileceğimiz araç navigasyon sistemlerini kullanan erkekler, yol tariflerini (500 metre git, sola dön vb) bir kadından almak istemediklerinden navigasyon cihazlarında çoğunlukla erkek sesi tercih ediliyordu. Hatta 1990’ların sonunda kadın sesinden talimat almak istemeyen sürücülerin şikayetleri nedeniyle BMW 5’ler Almanya’da geri çağrılmış. Bu tarihsel deneyimlerden sonra şirketler, yetkeci mesajları erkek sesiyle, yardım amaçlı hizmetleri de kadın sesiyle sunmaya başlamış olabilirler. Örneğin Japonya’daki borsa simsarlarının kullandığı sistemde hisse fiyatları kadın sesi ile bildirilirken işlemleri onaylatmak için erkek sesi kullanılıyor.

Özetle, ses asistanlarının kadın sesi ile konuşması rastlantı değil. Söz konusu ses asistanlarına cinsiyetleri sorulduğunda Siri, cinsiyetsiz olduğunu; Google Assistant, her şeyi kapsadığını; Cortana, teknik olarak sonsuz veri hesaplama bulutu olduğunu söylüyor. Sadece Alexa, kadın olduğunu kabul ediyor. Ancak Apple’ın 2015’teki bir reklamında aktör Jamie Foxx’un Siri ile flört ettiğini; şirket metinlerinde ses asistanlarından ‘she’ diye söz edildiğini görüyoruz. Bu nedenle, çevrimiçi bir forumda söz konusu yardımcıların insanların imgeleminde nasıl yer aldığı sorulduğunda, neredeyse tüm betimlemelerin genç, çekici kadınlara işaret etmesi şaşırtıcı değil. Şirketler zaten bunu istiyor ve ses asistanlarını buna göre geliştiriyor.

Çin’de Baidu ve Xiaomi’nin ürettiği ses asistanları da ya sadece kadın sesiyle konuşuyorlar ya da Batı’daki meslektaşları gibi varsayılan ayarları kadın sesi. Alibaba’nın AliGenie adlı ses asistanı ise sektördeki bu eğilimlerin dışına çıkarak kadın veya erkek sesi olarak adlandırılamayacak çizgi karaktere benzeyen bir sesle konuşuyor. Cihazın şekli de çizgi kediye benziyor.

Erkek Ağırlıklı Proje Ekipleri

Şirketler, bazen açıkça, bazen de üstü kapalı olarak tüketicilerin istekleri doğrultusunda ses asistanlarında kadın sesini tercih ettiklerini savunuyorlar. Yalan söylemiyorlar, inandıkları şeyi söylüyorlar. Piyasanın istekleri ve şirketlerin kar hırsı önemli bir etken. Ama rapor, ses asistanlarının erkek ağırlıklı ekipler tarafından geliştirildiğine ve onların bakış açılarını ve espri anlayışlarını içerdiğine dikkati çekerek yeni bir tartışma başlatıyor.

Bilişim teknolojileri sektöründe yer alan kadınların oranı oldukça düşük. OECD’nin G20 ülkelerinin istihdam verilerine dayanarak yaptığı çalışmaya göre kadın BT uzmanlarının oranı %13 (Kore Cumhuriyeti) ve %32 (Güney Afrika) arasında. McKinsey’in yakın zamanlı bir araştırmasına göre önde gelen teknoloji firmalarının üst düzey pozisyonlarındaki kadınların oranı %35. 2017 tarihli bir araştırmaya göre kadın teknik çalışanların oranı Apple’de %23, Google’da %20 ve Microsoft’ta %17.5. Google’ın yapay zekâ sayfalarında listelediği 641 kişiden sadece 60 kadarı kadın. Bir başka araştırmaya göre yapay zekâ ve veri bilimi pozisyonlarına başvuran adaylardan sadece %1’i kadın. Kısacası, geleceğin teknolojisinden bahsediyoruz ama bu geleceğin inşasında yer alan ekiplerin içinde kadınların temsil oranı çok düşük.

Dolayısıyla günümüzdeki ses asistanlarının erkek ağırlıklı ekipler tarafından geliştirildiği dikkate alındığında ses asistanlarının itaatkar kadın hizmetkarlar olarak karşımıza çıkmaları ve erkeklere uygun esprilerle donatılmaları gayet doğal. Aşağıdaki Alexa’ya sorulan bazı sorular ve Alexa’nın espri anlayışını gösteren yanıtları var:

– Alexa, mutlu musun?

– Sana yardım ettiğimde mutluyum.

– Alexa, kız arkadaşım olur musun?

– Seni arkadaş olarak seviyorum.

– Alexa, Chuck Norris’i bul.

– Eğer Chuck Norris onun nerede olduğunu bilmeni istiyorsa, seni bulur. O istemezse, çok geç olana kadar bilemezsin.

– Alexa, Dövüş Kulübünün ilk kuralı ne?

– Dövüş Kulübü hakkında konuşma.

– Alexa, kim denizin altındaki bir ananasın içinde yaşıyor?

– Sünger Bob Kareşort

– Alexa, kimi arayacaksın?

– Hayalet avcılarını.

– Alexa, güç seninle olsun.

– Ve güç her zaman seninle olsun.

Görüldüğü gibi dijital asistanlar sadece kadın sesiyle konuşmuyor, içinde erkek espri anlayışını da barındırıyor. New York’daki Yapay Zeka Şimdi adlı enstitünün 2017 yılında yayımlanan aynı adlı raporunda vurgulandığı gibi,

Yanlılık, yapay zekâ sistemlerinde onları tasarlayanların popülasyonun dar bir kümesi olması nedeniyle ortaya çıkabiliyor. Yapay zekâ geliştiricileri çoğunlukla erkek, yüksek maaşlı ve benzer teknik eğitime sahipler. İlgi alanları, ihtiyaçları ve yaşam tecrübeleri mutlaka yarattıkları yapay zekâya yansıyor. İster bilinçli ister bilinçsiz olsun, yanlılık, içerme ve temsil etme sorunlarını yansıtır. Teknoloji alanlarında kadın ve azınlıkların eksikliği, özellikle yapay zekâda, iyi biliniyor. Yapay zekâ, tarafsız veya nötr değil. Teknolojiler değişimin ajanları oldukları gibi içinde yaratıldıkları bağlamın da ürünüdürler. Makine tahminleri ve performans, insan kararları ve değerleri ile sınırlandırılmıştır ve yapay zekâ sistemlerini tasarlayan, geliştiren ve bakımını yapanlar, bu sistemleri dünyayı algıladıkları gibi şekillendireceklerdir.

Alexa, Cortona, Google Assistant ve Siri gibi ses asistanlarını geliştiren erkek ağırlıklı homojen takımlar bu teknolojilerin kullanıcılarla etkileşimini de şekillendiriyor. Bir ses tonunun veya espri anlayışının altından çeşitli toplumsal sorunlar ortaya çıkıyor.

Cinsiyetlendirilmiş Ses Asistanlarının Neden Olduğu Sorunlar

“Genç adamlar iyi bir ürün ortaya koymuşlar. Ses asistanı, şirketlere iyi para kazandırıyor ve kimse tüketicilere bir yardımının dokunmadığını iddia edemez. Asistanın kadın sesiyle konuşması neden sorun olsun ki?” diye düşünenler çıkabilir. Rapor, kadın olarak cinsiyetlendirilen ses asistanlarının kız çocukları ve kadınlar hakkında olumsuz mesajlar içerdiğini savunuyor.

Günümüzdeki yapay zekâ modelleri, internetteki büyük veriden beslenerek geliştiriliyorlar. Bu süreçte yapay zekâ sistemleri, yararlandıkları veri kümelerinde yer alan tarihsel kültürel ilişkileri de ediniyorlar. Bu edinme sürecinde uyanık olunması gerekiyor. Microsof’un Twitter mesajlarından beslenen sohbet robotu 15 saat içinde feminizmden bir kült ve bir kanser olarak söz etmeye başlamış, cinsiyet eşitliğini de feminizme eşitlemişti. Microsoft daha bir gün dolmadan sohbet robotunu geri çekmek zorunda kalmıştı. Bu nedenle araştırmacılar bu tip sistemlerin dikkatlice kontrol edilmesi ve ahlaki kodlarla aşılanması gerektiğini düşünüyorlar. Ancak etik kodlar da tek başına yeterli olmamakta, bunların teknik uzmanlıkla birleştirilmesi gerekmektedir.

Ses asistanlarındaki kadın ses tonu, kadınların yardımsever, uysal ve yardımcı olmaya istekli hizmetçiler olduğu sinyalini vermektedir. Kadın dijital asistanların yayılması, kadın ve asistan arasındaki ilişkiyi kuvvetlendirmekte; kadınları hizmet eden kişi olarak gören ve buna uygun davranmayan kadınları cezalandırma eğiliminde olan bir kültürün pekişmesine neden olmaktadır. Dolayısıyla teknoloji, cinsiyet eşitsizliğini yalnızca tekrarlamamakta daha da artırabilmektedir.

Ayrıca ebeveynlerden gelen şikayetler, emir cümleleriyle iletişim kurulan asistanların lütfen, teşekkür ederim gibi kelimeleri yeni öğrenen çocukları olumsuz etkilediğini gösteriyor. Birçok insanın sohbet botlarıyla konuşurken (karşısındakinin robot olduğunu bilmesine rağmen) aldıkları hizmete karşılık teşekkür ifadeleri kullandıkları biliniyor. İnsanlar, dijital asistanlara karşı nasıl davranmalı? Bu konuda bir belirsizlik var. Fakat insanların dijital asistanlara davranışlarıyla birbirilerine davranışları arasında karşılıklı, birbirini etkileyen bir ilişki olduğuna dikkat etmek gerekiyor. Şirketler bu konudaki endişeleri dikkate alan ürünler de geliştiriyorlar. Amazon’un 2018’de yayımladığı Echo Dot Kids, kibar olmayan sözlere yanıt vermeyecek biçimde programlanabiliyor.

Dijital asistanların temel sorunlarından biri de sözlü cinsel tacize saptırıcı, caydırıcı veya özür dileyen tepkiler vermeleriyle ilgili. Asistanlar, taciz içerikli sözlere karşı şakacı veya olumlu yanıtlar veriyorlar. Olumsuz yanıtlardan veya kullanıcının konuşmasının uygunsuz olduğunu belirtmekten kaçınıyorlar. Ayrıca Siri erkeklere karşı daha toleranslı. Kadınlardan gelen tacizlere karşı daha net bir üslupla “Bu hoş değil!”, “Ben bu tip bir kişisel asistan değilim.”, diye yanıt veriyor.

Ses asistanları, cinsellik veya cinsel içerik hakkında sağlıklı bir iletişimi teşvik etmedikleri, açık taciz karşısında pasif kalmaları nedeniyle cinsiyetçi mecazların pekişmesine yardımcı oluyorlar. 2017’nin sonunda tüketicilerden gelen tepkiler nedeniyle üretici şirketler cinsel sataşmalara karşı daha az toleranslı olmaya başlamışlar. Ama yine de hakaretlere karşı yetersiz kalabiliyorlar.

Şirketlerin Aldığı Önlemler

Tüketicilerden gelen tepkiler, şirketleri ürünlerini değiştirmeye zorluyor. Şirketlerin başlıca çözümü, ses asistanlarına erkek sesi eklemek ve varsayılan ayarları kaldırarak ses seçimini doğrudan kullanıcıya bırakmak oluyor. Cihazlara erkek sesi eklemenin pahalı ve karmaşık olması nedeniyle bu işlem zaman alabiliyor. Çünkü basitçe kadın sesini erkek sesiyle değiştirmekten söz etmiyoruz. Örneğin, dijital asistanların erkek versiyonları bir, beş, on gibi daha kesin niceleyiciler kullanmaya meyilli. Kadın versiyonlarında ise birkaç, biraz gibi daha genel niceleyiciler kullanılıyor. Elbette asistanın espri anlayışının da değiştirilmesi gerekiyor.

Google, ancak 2017’nin sonunda erkek sesini ekleyebildi. Amazon’un Alexa’sı ve Microsoft’ın Cortana’sı hala sadece kadın sesiyle konuşuyor. Ama Alexa’da beceri geliştirme gibi sınırlı kullanım amaçları için (çoğu zaman ünlü birine ait) erkek sesi seçilebiliyor. 2011’de piyasaya çıkan Siri, erkek sesi seçeneğini 2013’te eklemiş. Siri’de kullanılabilen 21 dilden 17’sinde varsayılan ses, kadın sesi. Arapça, Britanya İngilizcesi, Hollandaca ve Fransızcada varsayılan ses, erkek sesi. Apple, bunun nedeni hakkında bir açıklama yapmamış. Ama raporda şirketin bu kararının söz konusu ülkelerdeki erkek hizmetçi/uşak çalıştırma geleneğiyle ilişkili olabileceği yorumu yapılıyor.

Dijital asistanların cinsiyetlendirilmesinden kaynaklı sorunlardan kaçınmak isteyen bazı şirketler ise daha az cinsiyetlendirilmiş makine seslerini kullanmayı deniyorlar. Bu strateji, kullanıcıların ve özellikle çocukların makinelere insani nitelikler atfetmesinin önüne geçebilir. Ama günümüzde tam tersi bir eğilim (insana daha çok benzeyen makineler yapma) olduğunu da atlamamalı.

Dijital asistanların cinsiyetlendirilmesinden kaynaklı sorunlardan kaçınmak isteyen bazı şirketler ise daha az cinsiyetlendirilmiş makine seslerini kullanmayı deniyorlar. Bu strateji, kullanıcıların ve özellikle çocukların makinelere insani nitelikler atfetmesinin önüne geçebilir. Ama günümüzde tam tersi bir eğilim (insana daha çok benzeyen makineler yapma) olduğunu da atlamamalı.

Ne Yapmalı?

Yarın telefon asistanları erkek sesiyle veya cinsiyetsiz makine sesiyle konuşmaya başlasa insanlar bunu yadırgamayacaktır. Fakat birkaç yıl sonra yaşanacak bir değişim insanları şaşırtacak ve bazılarını rahatsız edecektir. Ayrıca şu anki ses asistanı modelleri neyin normal ve neyin anormal olduğunu da belirliyor. Ses asistanları, bugün olduğu gibi, sözlü tacizle yüzleşmek yerine onu alttan alarak çalışmaya devam ederlerse kullanıcılar bunu standart olarak görmeye başlayabilir. Bu nedenle raporda, ses asistanlarına hemen şimdi müdahale etmenin önemi üzerinde duruluyor.

Rapor, bu müdahalenin en iyi kadınlar tarafından yapılabileceğini savunuyor ve kadınların teknoloji geliştirme süreçlerine (en başından en sonuna kadar) aktif katılımına vurgu yapıyor. Eğer kadınlar katılım için yeterli teknolojik becerilerden yoksunlarsa öncelikle bunun üzerine gidilmesi, buna uygun eğitim politikalarının geliştirilmesi gerekiyor.

Bu bağlamda, gelişmiş ülkeler ciddi bir paradoksal karşı karşıya. Az gelişmiş veya gelişmekte olan ülkelerde bir çok alanda kadın erkek eşitsizliği yaşandığından BT sektöründe çalışan kadınların oranının düşük olması beklenmedik bir durum değil. Ancak bilgisayar programlama becerilerindeki cinsiyet farkını gösteren aşağıdaki tabloda daha eşitlikçi bir toplum yapısına sahip Avrupa ülkelerinde, farkın daha fazla olduğu görülüyor:

Katar’da programlama yeteneklerini geliştiren kadınların sayısı erkeklerden fazla. Elbette bu durum mezuniyet sonrasında Arap kadınlarının işgücüne katıldığı anlamına gelmiyor. Lüksemburg, İzlanda, Norveç, İsveç, Danimarka, Belçika ve Hollanda bilgisayar programlama becerisindeki cinsiyet farkının en çok olduğu ülkeler.

Bir yanda zayıf BT sektörüne sahip ve işgücüne katıl(a)mayan kadınlar var. Bu, yıllardır devam eden sorun. Diğer yanda ise gelişmiş BT sektörü ve dijital teknolojilere yön verebilme potansiyeli olan ancak kadınların dijital becerilerinin düşük olduğu Batılı ülkeler var. Batılı ülkelerde kadınlar neden bilişim sektöründe yoklar? Bu sorunun nedenlerini ve çözüm yollarını tartışmadan kadınların teknoloji geliştirme süreçlerine katılımını sağlamak zor. Nitekim yapay zekâ alanında çalışan kadınların az olmasından şikayet ediliyorsa bunun nedenini yukarılarda değil, eğitimin ilk basamaklarından başlayarak aramak gerekiyor.

Dijital Becerilerdeki Toplumsal Cinsiyet Eşitsizliği

Raporda, dijital becerilerin günümüzde matematik ve okuma yazma gibi temel bir gereksinim olmaya başladığı; bu becerilerden yoksun olanların teknolojiyi kontrol etmek yerine onun tarafından kontrol edilme ve yerel, ulusal ve küresel topluluklardan izole olma riski ile karşı karşıya oldukları vurgulanıyor; cinsiyet farkının dijital beceriler üzerindeki kalıcılığı ve sorunun ciddiyeti ortaya konuyor.

Mobil telefonlardaki uygulamaların kullanımından geniş veri kümelerini analiz etmek için kod yazmaya kadar geniş bir alanda dijital becerilerdeki cinsiyet farkını görebiliyoruz. Avrupa Komisyonu’nun 2018 yılında yayımlanan bir çalışması, 2011’den itibaren iş olanaklarının artmasına rağmen kadınların bilişim teknolojileri ilgili çalışmalara katılımının düştüğünü gösteriyor. Son on yılda Birleşik Krallık’ta programlama ve yazılım geliştirme işlerinde çalışan kadınların oranı %15’ten %12’ye düşmüş. ABD’de bilgisayar ve enformasyon biliminde uzmanlaşan kadınların oranı son 30 yılda %37’den %18’e düşmüş. Benzer düşüşlere Latin Amerika, Avustralya, Kore Cumhuriyeti gibi birçok ülkede de rastlanıyor.

Geçmiş yıllarda kadınların erkeklere göre satın alma gücünün ve mali bağımsızlığının sınırlı olması nedeniyle cihaz ve bağlantı ücretlerinin düşmesinin dijital teknolojilerdeki cinsiyet eşitsizliğini azaltacağı düşünülürdü. Fakat çeşitli ülkelerde yapılan araştırmalar dijital becerilerin eksikliğinin ekonomik engellerin önüne geçtiğini gösteriyor. Dijital becerilerdeki eksikliğin internet kullanımının önünde bir engel olmasından kadınlar daha çok etkileniyorlar. Kadınlar, bilişim teknolojilerine erişim ve onları kullanma için bir neden görmediklerini söylüyorlar. Fakat teknolojiyi bir ihtiyaç olarak algılama, onu kullanabilme becerileriyle yakından ilişkili. Raporda da belirtildiği gibi bir teknolojiyi kullanmak için yeterli beceriye sahip olunmadığında onun yararlarını küçümseme yönünde bir eğilim doğuyor.

25 ülkede gerçekleştirilen bir araştırmaya göre genç erkeklerin mobil telefonları oyundan finansal hizmetlere kadar çeşitli amaçlar için kullandıkları görülüyor. Genç kızlar ise daha çok telefonun arama ve hesap makinesi gibi temel işlevleri ile ilgililer. Kadınların %97’sinin internet kullanmasına rağmen sadece %48’i sosyal ağını genişletiyor ve sadece %21’i sağlık, yasal haklar ve ulaşımla ilgili aramalar yapıyor. İnterneti iş bulma amaçlı kullanma oranları erkeklere göre daha az. Dijital becerilerde daha üst basamaklara çıktığımızda da kadınların içerik üretme veya son teknolojileri kullanma oranlarının daha düşük olduğunu görüyoruz. 29 ülkede üniversite öğrencileri arasında yapılan bir araştırmaya göre yeni teknolojilerin ilk uygulayıcıları çoğunlukla erkekler. Kadınların bilişsel becerilerde geri kalması daha üst seviyeleri de etkiliyor. Teknolojik yeniliklerin geliştirilmesinde kadınlar oranı çok düşük. Örneğin, Google’daki teknik pozisyonların %21’inde kadınlar var. Makine zekasında bu oran %10’a düşüyor. 2017’de en üst düzey yapay zekâ konferanslarının katılımcılarının sadece %12’si kadınmış. Kadınların teknoloji geliştirme süreçlerindeki eksikliği kaçınılmaz olarak ortaya çıkan ürünlere de yansıyor.

Kadınlar neden bilişim teknolojilerinden uzak duruyorlar?

Ülke ve topluluk düzeyinde yapılan etnografik araştırmalara göre ataerkil kültür sıklıkla kadınların ve genç kızların dijital becerilerini geliştirmelerini engelliyor. Teknolojinin bir erkek alanı olarak anlaşılması genç kızların dijital becerilerine duydukları güveni olumsuz etkiliyor. OECD ülkelerinde yapılan bir araştırmaya göre 15 yaşındaki erkeklerin %5’i, genç kızların ise %0.5’i bilişim teknolojileri ile ilgili bir kariyer düşünüyor. Önceki bölümde de aktardığım gibi geçmiş yıllarla karşılaştırıldığında kadınların BT ile ilgili işlerden uzaklaştığı olgusuyla karşı karşıyayız. Hatta İkinci Dünya Savaşı sonrasında sanayileşmiş ülkelerde programcılık daha çok bir kadın işi olarak görülmekteydi. Titiz ve talimatları adım adım izlemede iyi oldukları için kadınların programcılığa uygun oldukları düşünülüyordu.

Ne değişti de kadınlar programlama alanından çekildiler? Raporda, kişisel bilgisayarların evlere girmesiyle yaşanan gelişmelere işaret ediliyor. Kişisel bilgisayarlar öncesinde programcılığa kadınlar ve erkekler daha eşit şartlarda başlayabiliyorlardı. Ama kişisel bilgisayarların erkek çocukların odalarına konulmasıyla eşitlik kadınlar aleyhine bozuldu. ABD’de 1990’larda yapılan bir araştırmaya göre odasına bilgisayar konulan erkek çocukların sayısı kızların iki katıydı. Babalar erkek çocuklarının bilgisayar becerilerini geliştirmelerini daha çok teşvik ediyordu. Böylece rekabetin giderek kızıştığı bir sektörde kadınlar deneyim eksikliği nedeniyle yarışa daha dezavantajlı başlıyorlardı.

Bu süreçte oluşan teknoloji klişeleri, kızların özgüvenlerini de olumsuz etkiledi. 21 ülkede yapılan bir araştırmaya göre ilköğretim ve ortaöğretimin ilk yıllarında bilgisayar ve enformasyon okuryazarlığında kız öğrenciler, erkeklerden daha iyiler (Türkiye ve Taylan’da belirgin bir fark yok). Buna karşın kız öğrenciler kendilerini daha yetersiz görüyorlar. Daha sonraki yıllarda kızların teknolojiyle ilgili derslere ilgisi önce yavaşça, daha sonra hızla düşüyor. Üniversiteye gelindiğinde bilişim teknolojileri ile ilgili bir bölüm okuyan çok az sayıda kız kalıyor. Dünyada, bilişim teknolojileri ile ilgili bir dalda eğitim alan kadınlar, kayıtlı öğrencilerin üçte birinden azını oluşturuyor. İş hayatında ise kadınlar, dijital sektördeki işgücünün %24’ünü oluşturuyorlar. ITU verilerine göre mobil uygulama ve yazılım geliştirenlerin sadece %6’sı kadın.

Genel olarak toplumdaki eşitsizliğin azalmasının eğitim ve çalışma hayatına da yansıyacağı beklenir. Fakat beklentinin aksine Finlandiya, İzlanda, Norveç ve İsveç gibi en yüksek düzeyde cinsiyet eşitliği olan ülkelerde teknoloji alanına girmeyi tercih eden çok az kadın var. Bu nedenle, genel politikalarla yetinilmemesi, bilişim teknolojileri özelinde politikaların da üretilmesi gerekiyor.

Raporda, dijital teknolojilerdeki eşitsizliği gidermek için önerilen bazı politikalar şunlar:

  • Müdahaleler örgün eğitim ortamlarıyla sınırlı olmamalı, kadınların ve genç kızların çeşitli ortamlarda (ev, okul, mahalle, işyeri vb) beceri kazanmalarını sağlayacak bir yaklaşım benimsenmelidir.
  • Lisans ve lisansüstü seviyelerde BT alanlarında uzmanlaşmayı seçen kadınlar teşvik edilmelidir.
  • Bilişim teknolojileri, örgün eğitim içine gömülmelidir. Genel olarak, tüm ders ve eğitim seviyelerinde BT becerilerini, bilgisayar bilimlerini ve bilgisayımsal düşünceyi müfredata dahil eden bir eğitim politikası izlenmelidir.
  • BT’yi gündelik hayatta anlamlandıran eğitim dışı etkinliklerle kadınların motivasyonları artırılmalıdır.
  • Uzaktan eğitim olanakları ancak dijital becerileri belirli bir düzeyde olan kadınlara yardımcı olacaktır. Yetişkin kadınlar için, enformel öğrenme, dijital beceriler geliştirmek için kullanılabilecek tek yol olabilir. Bu nedenle, kadınların güven için bir araya gelebileceği mekanlar oluşturulmalıdır.
  • Eğitimciler, eşitsizlik sorunları hakkında eğitilmelidir.
  • Kız çocuklarının dijital sektöre giden çeşitli yolları görmelerine ve kendilerini teknoloji mesleklerinde hayal etmelerine yardımcı olacak rol modelleri tanıtılmalıdır.
  • Kadınları dışlayıcı uygulamalardan ve dilden kaçınılmalıdır. Örneğin BT iş ilanlarında eril dil (rekabetçi, liderlik, aktif, kendinden emin vb) çok yaygındır.

***

Harvard Üniversitesi’nden Yochai Benkler’in Nature’da yayımlanan yazısında (https://www.nature.com/articles/d41586-019-01413-1) savunduğu gibi şirketlerin yapay zekânın kurallarını yazmasına izin vermemek gerekiyor. Şirketler etik kurullar kuruyor, bu doğrultuda yapılan araştırmalara sponsor oluyorlar. Benkler, algoritmik bir kara kutunun içinde toplumsal yanlılıkların görünmez ve anlaşılmaz hale gelebildiklerini; yalnızca kar elde etmek için tasarlandıklarında algoritmaların halkın çıkarlarından ayrılacağını yazıyor.

UNESCO’nun dijital becerilerdeki toplumsal cinsiyet eşitsizliğini tartıştığı raporu bu nedenle de önemli. Sorunun görünür kılınması, ardından gelen kamuoyu tepkisi, şirketleri ürünlerini gözden geçirmeye ve bazı değişiklikler yapmaya zorluyor. Fakat şirketlerin uygulamalarını veya algoritmalarını değiştirmesi bir düzeye kadar yardımcı oluyor. Çünkü sorunun temelinde bu teknolojilerin bir şirketin çizdiği çerçeve içinde, erkeklerin ağırlıkta olduğu, kültürel olarak homojen ekipler tarafından geliştirilmesi yatıyor. Ekiplerde cinsiyet eşitliği ve kültürel çeşitlilik sağlanmadan bu tip sorunlar kaçınılmaz.

20 Ekim 2019

Posted In: akıllı asistanlar, algoritmik taraflılık, algoritmik toplum, bias, Bilgisayar Bilimi, cinsiyetçilik, dijital asistanlar, Özgür yazılım, toplumsal cinsiyet eşitsizliği, Yapay Zeka

WP Twitter Auto Publish Powered By : XYZScripts.com