Algoritmalar: Doğru, yanlış ama yansız değil

Bloomberg’de yayımlanan “Bir Robot Servetinizi Kaybederse Kime Dava Açmalı?” (https://www.bloomberg.com/news/articles/2019-05-06/who-to-sue-when-a-robot-loses-your-fortune) başlıklı haberi okuyunca askerde cezalandırılan nesneler (tank, ağaç, tepe, taş vs) hakkında anlatılan hikayeleri anımsadım. İnsan olmayan bir varlığa dava açmak veya onu cezalandırmak akıldışı görünebilir. Ama son yıllardaki gelişmeleri ve uygulamaları düşününce bir tankı veya ağacı cezalandırmaktan daha farklı bir durumla karşı karşıya olduğumuz anlaşılacaktır. Algoritmik karar sistemleri gündelik hayatta çeşitli sorumlulukları yerine getiriyorlar ve hızla yaygınlaşıyorlar. Bu sistemlerde kullanılan algoritmaların insanlardan yalnız daha hızlı değil, daha doğru karar verdiğini de varsayıyoruz. Bu varsayım çoğunlukla doğru. Fakat işler her zaman yolunda gitmeyebilir. Algoritmaların kararları nedeniyle insanlar çeşitli biçimlerde mağdur olabilirler. Böyle sorunlar yaşandığında sorumluluk kimde olacak?

Yazının devamında tartışacağımız gibi insanlar, en başta da toplumun dezavantajlı kesimleri, nasıl işlediğini bilmedikleri algoritmalar karşısında çaresiz kalabiliyorlar. Bloomberg’in haberindeki mağdur ise bu defa biraz farklı: Bir İngiliz gayrimenkul yatırım ortaklığı olan Shaftesbury PLC’nin başlıca yatırımcılarından Samuel Tak Lee’nin oğlu, Samathur Li Kin-kan. Hikaye, Li ve yatırım fonu satıcısı Raffaele Costa’nın 19 Mart 2017’de Dubai’de bir öğle yemeğinde bir araya gelmesiyle başlar. Costa, yapay zekâyı kullanarak yatırımları yönetebilen bir sistemden bahseder. Avusturya merkezli 42.cx adlı şirket tarafından geliştirilen K1 adlı sistem haberleri ve sosyal medyayı gerçek zamanda değerlendirerek ABD hisse senetleri üzerine tahminler yapacak ve borsa simsarını alınıp satılacak hisse senetleri hakkında yönlendirecektir. Sistem, Li’nin ilgisini çeker ve yemekten üç gün sonra Costa’ya attığı e-postada bunun tam da kendi tarzı olduğunu yazar. Sonraki aylarda Costa, Li’ye K1’in simülasyonlarını gösterir. Li, geriye dönük testler hakkında kuşkuları olmasına karşın en sonunda ikna olur ve 2,5 milyar doları K1’e teslim eder. Parasını ikiye katlamayı planlamaktadır.

Fakat 2017’nin sonunda, K1’in alım satım işlerine başlamasıyla beraber Li’nin beklentisi boşa çıkar. Li’nin parası düzenli olarak azalmaktadır. Hatta 14 Şubat’ta, tek bir günde, stop-loss emri (borsada zararı durdurma emri) nedeniyle 20 milyon dolar kaybeder. Li’nin avukatları, eğer K1, Costa’nın Li’yi inandırdığı kadar iyi olsaydı böyle bir şeyin olamayacağını iddia ediyorlar. Li’nin avukatları Costa’nın şirketi Tyndaris’e karşı açtıkları davada Costa’yı K1’in yapabileceklerini abartmakla suçluyor ve 23 milyon dolar tazminat talep ediyor. Tyndaris ise ödenmemiş ücretler nedeniyle Li’den 3 milyon dolar talep ediyor ve Costa’nın, yapay zekâ stratejisinin para kazandıracağı hakkında garanti vermediğini söylüyor.

Li’nin avukatlarına göre Costa, K1’i geliştiren mühendislerin özelliklerini abartarak da Li’yi yanıltmış. K1’i geliştirenler arasında 1997’de Kasparov’u yenen Deep Blue’yu geliştiren ekipten kişiler olduğunu söylemiş. Tyandris, Bloomberg’in bu iddia hakkındaki sorularını yanıtlamaktan kaçınmış. K1’i geliştiren 42.cx’in CEO’su Daniel Mattes, ekiplerinde Deep Blue’yu geliştiren ekipten hiç kimse olmadığını söylüyor. Sadece 1960’larda SSCB’de Kaisa adlı satranç programını geliştiren Vladimir Arlazarov’dan genel tavsiyeler almışlar ama Arlazarov K1 üzerinde hiç çalışmamış. Ayrıca Mattes’in belirttiği gibi algoritmalar oyunlarda daha başarılı, çünkü oyunlarda benzetim yapılabilen açık kurallar borsada yok; dolayısıyla oyunlardaki deneyimle yatırımcılık arasında fazla bir ilişki de yok.

Kısacası Li, Costa’nın kendisini K1’in yetenekleri hakkında yanılttığını iddia ediyor. Costa da Li’nin kaybında sorumluluğu olmadığını ve yapay zekânın kararları hakkında garanti vermediğini belirterek kendini savunuyor. Bir bakıma, “ben yapmadım, algoritma yaptı” diyor. İlginç bir dava olacak…

Haberde üzerinde durulduğu gibi, yapay zekâ, akıllı asistanlardan sürücüsüz arabalara kadar gündelik hayatın her alanına dahil olurken işler kötüye gittiğinde sorumluluğun kimde olacağı kritik bir sorundur. Şirketlerin ürünlerini satmak için otonom sohbet robotlarını kullanacağı günler yakın. Bir sorunla karşılaştığımızda satıcıyı (sohbet robotunu) sorumlu tutabilecek miyiz? 18 Mart 2018 tarihinde, Uber’in kendi kendine gidebilen aracı sokakta karşıdan karşıya geçen Elaine Herzberg’in ölümüne neden olmuştu. Arabanın içerisinde bir sürücü de vardı, ama kamera kayıtlarına göre kaza öncesinde yola bakmıyordu. Uber kazadan sorumlu tutulmadı. Fakat sürücüsüz aracın içindeki yedek sürücü Rafaela Vasquez hakkındaki araçla adam öldürme soruşturması devam ediyor. Belki kazanın sorumlusu Vasquez; gözünü yoldan ayırmaması gerektiğini söyleyen test talimatlarına uymamış olabilir. Peki test sürüşleri tamamlanıp araçlar trafiğe çıktığında kazaların sorumlusu kim olacak? Sürücüsüz araçlar, kaza oranlarını düşürecekler. Fakat herhangi bir olumsuzlukta insanlar sorumlu aramak isteyecekler.

Algoritmik karar sistemleri toplumsal yönetim ve karar süreçlerinde kullanılıyor. Bu sistemlerin yaptıkları hatalarda sorumluluk kimde olacak? Yuval Noah Harari, Homo Deus: Yarının Kısa Bir Tarihi başlıklı kitabında kıtlık, salgın ve savaşların artık önlenemez meseleler olmaktan çıktığını, artık doğaüstü güçlere yalvarmak zorunda olmadığımızı yazıyor. Bu sorunlar tamamen ortadan kalkmış değil. Fakat Harari’nin yazdığı gibi bu sorunlarla karşılaştığımızda bunu doğaüstü varlıklara bağlamıyor, “birilerinin sorumluluğunu yerine getirmediğini düşünüyor bir soruşturma komisyonu oluşturuyor ve bir daha aynı hataları tekrar etmeyeceğimizi söylüyoruz.”. Kamu hizmetlerinde görevli yöneticilerin ya da sistemleri geliştirenlerin ve pazarlayanların “ben yapmadım, algoritma yaptı” diyerek sorumluluğu eski zamanlarda olduğu gibi bir doğaüstü varlığa (algoritmaya!) yükleme hakları olabilir mi?

Herkes hata yapabilir… Algoritmalar da!

Algoritmik karar sistemleri her geçen gün daha da yaygınlaşıyor. Bize ürün, film, şarkı, arkadaş vs öneren sistemleri artık yadırgamıyoruz. Fakat algoritmalar yalnız çeşitli önerilerle ürün satmak için değil, yaşamızı etkileyecek büyük kararlarda da kullanılıyorlar:

  • İş başvurularını sıralama
  • Sosyal hizmetleri tahsis etme
  • Terfi ettirilecek veya işten çıkartılacak çalışanları seçme
  • Açık pozisyonlar, konutlar ve ürünler için verilen reklamları kimin göreceğine karar verme
  • Bir kişinin suç işleme riskini veya hapis cezasının süresini tahmin etme
  • Sigorta ve yardımları tahsis etme
  • Kredi belirleme
  • Arama motorlarında haber ve bilgileri sıralama

Bu sistemlerin çalışma ilkeleri hakkında ne biliyoruz? Her zaman algoritmaların sayısal kesinliğine güvenebilir miyiz? Google’ın aramalardaki isabetli arama sonuçları çoğu zaman kolaylaştırıyor. Ama Google, ya bazı haberleri özellikle öne çıkarıyorsa? İnsanların çoğu zaman ilk sayfadaki sonuçlarla yetindiği düşünülürse Google sunduğu enformasyonla bilgimizi de biçimlendirmiyor mu?

Artık elimiz ayağımız olan navigasyon uygulamalarına ne kadar güvenebiliriz? CHP Zonguldak Milletvekili Deniz Yavuzyılmaz’ın “sürücülerin yolculuk güzergahlarını belirlemesinde yardımcı olan navigasyon uygulamalarının vatandaşları hiçbir uyarı yapmadan ücretli yollara yönlendirmesiyle” ilgili önergesi insanı işkillendiriyor (https://www.birgun.net/haber-detay/navigasyon-uygulamalari-tbmm-gundeminde.html).

Bir yol tarifi alacaksam en azından iki kişiye sormaya tercih ederim. İlk sorduğum kişi yolu yanlış tarif etmiş ya da ben yanlış anlamış olabilirim. Ama bir çok insan gibi ben de navigasyon uygulamalarına (yayayken de) insanlardan daha çok güvenirim. Çoğunlukla önerdiği rotayı izlerim. Fakat hem Yazvuzyılmaz’ın önergesi hem de 2009’da Robert Jones’un başına gelenler navigasyon uygulamalarının gösterdiği rotayı gözü kapalı kabul etmememiz gerektiğini gösteriyor. Jones, navigasyon cihazının gösterdiği kestirme yolu takip eder. Yol gittikçe daralıp dikleşse de kuşkulanmaz; navigasyon cihazı, patikanın yol olduğu konusunda ısrarlıdır. Jones da ona güvenir ve ilerlemeye devam eder. Uçurumdan aşağı yuvarlanmaktan kıl payı kurtulur (Fry, 2019)!

Navigasyon cihazları çoğu zaman en doğru rotayı tarif etse de Jones, navigasyon cihazına körü körüne itaat etmekle hata etmiştir. Gündelik hayatta çoğumuz algoritmik sistemler karşısında benzer tepkiler veririz ve algoritmanın otoritesini sorgulamayız. Bilgisayarlar insanlardan daha hızlı ve doğru hesap yaparlar. Fakat kontrolü ne zaman elimize almamız gerekir?

Stanislav Petrov, nükleer erken uyarı sisteminden sorumlu bir Sovyet askeridir. 1983’te görev başındayken sistem, düşman füzesi algıladığına dair uyarı verir. Fakat sistem, sadece beş füze saptamıştır ama bu ABD’den beklenmeyecek derecede zayıf bir başlangıçtır. Petrov, uyarıyı rapor ederse, ardından SSCB’nin bir misilleme saldırısı gelecek ve dünya nükleer savaşa sürüklenecektir. Beklemeyi tercih eder. 23 dakika sonra algoritmanın hata yaptığı anlaşılır! Günümüzdeki erken uyarı sistemleri, 36 yıl önceki Sovyet teknolojisinden çok daha ileri olabilir. Fakat bu ileri sistemlerin insanlar gibi karar alma sorumluluğunun ağırlığını hissedebilmeleri zordur. Petrov, hatalı bir kararın felaket olacağının farkındadır. Uyarı sisteminin başında ya Petrov değil de uyarıları anında Kremlin’e iletebilen bir algoritma olsaydı (age) ?

O zaman insanların makinelerden daha iyi karar vericiler olduğunu söyleyebilir miyiz? Acele etmeyelim… 2015 yılında, Büyük Britanya’da bir eğlence trenindeki arızayı gideren mühendisler test için boş bir vagon gönderirler. Mühendisler gönderdikleri vagonun geri gelmediğini, rayların ortasında kaldığını fark etmezler. Her şeyin yolunda olduğunu düşünen görevliler müşterilerle dolu ilk vagonu gönderirler. Sistemi tasarlayanlar böyle bir hatanın olabileceğini öngörmüşlerdir. Müşteri dolu vagon durdurulur ve kontrol odası bir çarpışma olasılığına karşı uyarılır. Mühendisler ise treni onardıklarını ve uyarı sisteminin hata yaptığını düşünürler. Uyarıyı devre dışı bırakırlar ve sistemi tekrar çalıştırırlar; vagonların çarpışması sonucu çok sayıda insan yaralanır (age).

Algoritmalardan kaynaklı sorunlar da vardır, algoritmaların sağladığı yararlar da. Eğer kararların doğruluğu karşılaştırılırsa algoritmik karar vericilerin çok daha başarılı ve hatasız olduğu da söylenebilir. Ama algoritmik karar vericilerin kararlarından olumsuz etkilenen insanlar varsa bu olumsuzlukların kaynaklarını ve yapılabilecekleri de tartışmak zorundayız. Bu bağlamda, algoritmik sorumluluk konusu önem kazanıyor. Yazının başında Li’nin başına gelenlerden Costa’yı sorumlu tuttuğunu, Costa’nın ise sorumluluğu algoritmaya yüklediğini görmüştük. Algoritmik sorumluluk böyle durumlara karşı şirketlerin geliştirdikleri algoritmaların sonuçlarından sorumlu olmasını ifade ediyor. Şirketin olabilecek sorunlara karşı gerekli önlemleri alması ve bir sorun olması halinde sisteme gerekli müdahaleyi yapması gerekiyor. Sorumlu sistemlerin hatalara karşı bir düzeltme mekanizmaları vardır. Algoritmalar, hesaplamaları insanlardan çok daha hızlı ve doğru yaparlar; fakat girdilere, sistemin tasarımına ve çıktılara karar veren insanlardır. Bir diğer deyişle, hatayı yapan algoritmalar değil, teknolojinin tasarımcıları ve onu piyasaya süren şirkettir. Yani insandır!

Dolayısıyla “insanlar makinelere karşı” gibi bir durum aslında oldukça yanıltıcı. İnsan, insana karşı… Peki neden algoritmik sistemler özerk varlıklarmış gibi görülüyor?

Algoritma Nedir?

Algoritma, bilgisayarın belirli bir görevi yerine getirmesi için izlemesi gereken talimatlar dizisidir. Bir kurumun yöneticisi olduğunuzu ve personel alımı yapmak istediğinizi varsayalım. Yayımladığınız iş ilanında bir sınav yapacağınızı ve ilk ona giren adayları işe alacağınızı duyurdunuz. Bir programcıdan da ilk onu listeleyebilmek için bir yazılım geliştirmesini istediniz. Fakat yazılım, iki adayın puanı eşit olmasına rağmen birini 10., diğerini de 11. olarak belirledi. 11. olan aday sınav sonuçları açıklandığında 10. adayla puanının aynı olduğunu görerek sonuca itiraz etti. Algoritma adayların puanları eşit olduğunda nasıl bir yol izliyor? Sorumluluk ya yanlış bir algoritma uygulayan programcıdadır ya da sınav yönetmeliğini eksik hazırlayan ve duyuran kurum yönetimindedir. Ancak her iki durumda da sorunun nedenini bulmak ve mağduriyeti ortadan kaldırmak kolay olacaktır.

Şimdi başka bir senaryo düşünelim. Yine bir kurumun yöneticisi olduğunuzu ve çok fazla başvuru olduğu için adaylarla görüşmeden önce başvuruları bir otomasyon sisteminin desteğiyle değerlendirmek ve bazı adayları baştan elemek istediğinizi varsayalım. Burada bir algoritma var ama sistem bir kara kutu. Algoritmanın başvuruları kabul ederken ya da reddederken nasıl bir yol izlediği bilinmiyor. Yazılımı geliştirenler özellikle bir kural tanımlamamış olmasına rağmen aynı niteliklere sahip kadın ve erkek aday varsa, erkek aday daha üst sırada yer alıyor. İşte son yıllarda tartıştığımız, şikayet ettiğimiz algoritmalar bu tipte, kara kutu biçiminde olanlar.

Bu bağlamda algoritmaları kural tabanlı algoritmalar ve yapay öğrenme algoritmaları olarak ikiye ayırabiliriz. Kural tabanlı algoritmalar, doğrudan ve net yönergeler içerirler. İlk örnekte, programcının uyguladığı algoritmaya göre bir sıralama yapılır. Verinin miktarı veya dağılımı algoritmanın çalışmasını değiştirmez. Yazılımı açıp çalışma mantığını anlayabiliriz. Fakat Fry’ın (2019) altını çizdiği gibi kural tabanlı algoritmalar yalnızca insanın kural yazabileceği sorunlar karşısında işe yarar. Resimlerdeki nesneleri tanımada veya bir dilden diğerine çeviri yapmada yetersiz kalır.

Büyük veriyle beraber daha önemli hale gelen yapay öğrenme algoritmaları ise canlıların öğrenme biçimlerini taklit eder. Canlıların, deneyimlerinden öğrenmesi gibi yapay öğrenme algoritmaları da verinin içerdiği deneyimden öğrenir. Yapay öğrenme algoritmalarını dörde ayırabiliriz: Denetimli öğrenme, denetimsiz öğrenme, yarı denetimli öğrenme ve pekiştirmeli öğrenme.

Denetimli öğrenmede, girdi değişkenleri (x1, x2, x3, …, xn) ve çıktı değişkeni (y) vardır. Veri analiz edilir ve f(x)=y’yi sağlayan en uygun fonksiyon modellenir. Böylece model, yeni girdiler için y’nin değerini tahmin edebilir. Tecrübeli bir emlakçı evin özelliklerini değerlendirdiğinde evin kaç TL’ye satılabileceğini kestirebilir. Eğer elimizde daha önce satılmış evlerin fiyatları ve evlerin fiyatını belirleyebilen parametreleri içeren geniş bir veri kümesi varsa en uygun fonksiyonu modelleyip yeni evlerin fiyatlarını da bu modelleme yardımıyla tahmin etme şansına sahip olabiliriz. Ya da elimizde insanların resimleri ve yaşları olan bir veri kümesi olduğunu düşünelim. Algoritma, resimlerine bakarak insanların yaşını tahmin etmeyi öğrenebilir. Ayrıca denetimli öğrenme, sınıflandırma amacıyla da kullanılabilir. Örneğin algoritma, hasta kayıtları üzerinde çalışarak iyi veya kötü huylu olan tümörleri belirlemeyi öğrenebilir; yeni tümörlerle karşılaştığında tümörün iyi mi kötü mü olduğuna karar verebilir.

Denetimsiz öğrenmede ise girdi değişkenleri vardır ama bu değişkenlerden elde edilen belirli bir çıktı (y değeri) yoktur. Burada algoritma verideki benzerlik, farklılık ve örüntüleri araştırır. Örneğin, tüketicileri, alışveriş geçmişlerinden yararlanarak daha önce öngörülmemiş bir biçimde kümelere ayırabilir. Bir alışveriş sitesinde alınan bir ürünün yanında kullanıcılara yeni ürünler tavsiye edilebilir. Ya da banka hesaplarındaki hareketler incelenerek sıradışı işlemler yakalanabilir.

Yarı denetimli öğrenmede ise çok miktarda girdi olmasına karşın (gerçek hayatta sıkça olduğu gibi) yalnızca bazı verilerin y değeri vardır. Etiketlenmemiş (yani y değeri bilinmeyen) veriler, az miktarda etiketli (y değeri bilinen) veriyle birlikte kullanıldığında, öğrenme doğruluğunda bir gelişme sağlanabilmektedir. Girdi değişkenlerindeki yapıyı keşfetmek ve öğrenmek için denetimsiz öğrenme teknikleri kullanılabilir. Etiketlenmemiş verileri en iyi tahmin için denetimli öğrenme tekniklerini kullanabilir. Daha sonra bu tahminlerde elde edilecek verilerin sistemi geri beslemesiyle (elimizdeki etiketli verilerin miktarı artacağı için) sistem iyileştirilebilir.

Pekiştirmeli öğrenme ise davranışçılıktan esinlenmiştir ve en yüksek ödül miktarına erişebilmek için hangi eylemlerin yapılması gerektiğine odaklanır. Sistem doğru kararlarda ödüllendirilir, yanlış kararlarda cezalandırılır. Pekiştirmeli öğrenme, denetimli öğrenmeden farklı olarak doğru girdi ve çıktı eşleştirmesiyle başlamaz. Bilinmeyen uzayda keşif ve mevcut bilgiden yararlanma arasında bir denge kurmaya çalışır (https://tr.0wikipedia.org/wiki/Pekiştirmeli_öğrenme).

Yapay öğrenme algoritmaları veri yardımıyla yüzleri tanımayı, resimleri ayırt etmeyi, hangi filmi izlemek isteyebileceğimizi öğrenir. Beyazlardan oluşan bir veri kümesiyle eğitilen bir algoritma beyazların yüzlerini tanımada, bunun için matematiksel modeller kurmada ustalaşır. Siyahları da tanıyabilmesi için siyahların verilerine gerek duyar. Beyazlardaki kanser hücrelerini tanımada başarılı bir modelin siyahlardaki tahminleri hatalı olabilir. Bugün şirketlerin büyük bir açlıkla veri toplamasının, insanlar kişisel verilerini alabilmek için çeşitli (çoğu bedava olan) uygulamalar geliştirmelerinin arkasında 1984’teki gibi bir dünya arzulamaları değil, ekonomik çıkarları vardır. Verinin çeşitliliği ve zenginliği yeni olanaklar yaratmaktadır.

Bu algoritmalar gündelik hayatta başlıca dört görevi yerine getirir. Birincisi, sıralı liste verme. Google arama sonuçlarını sıralar, Netflix izlemekten hoşlanacağımız filmleri sıralar, navigasyon cihazı olası rotalar arasında en uygun olanı seçer. İkincisi, sınıflandırma. Şirketler reklamlarını artık rastgele yapmamakta, algoritmaların belirlediği gruplara özel reklamlar yapmaktadır. Üçüncüsü, ilişkilendirme. Alışveriş sitelerinde önceki müşterilerin verileri ve sizin alışkanlıklarınız birleştirilerek ilginizi çekebilecek ürünler önerilir. Kural tabanlı algoritmalarda olduğu gibi yazılıma “bunu satın alan, şunu alabilir” gibi kurallar doğrudan kodlanmaz. Algoritma, veriden öğrenir. Bu nedenle, beyzbol sopası alan birine kar maskesi de önermek gibi durumlar ortaya çıkabilmektedir. Dördüncü, filtrelemedir. Ses asistanları sesimizi daha iyi anlayabilmek için geri plandaki sesleri ayırırlar. Sosyal medya siteleri de aynı işlemi haber akışımızda yer alacak haberler için yapar (Fry, 2019).

Kural tabanlı algoritmalarda programcı hata yapabilir; ama güç, algoritmayı tasarlayan ve onu kodlayanların elindedir. Kod, tasarlandığı biçimde adım adım ilerler. Yapay öğrenme algoritmalarında ise algoritmayı tasarlayan yine insandır ama algoritmanın nasıl çalışacağı ve çıktısının ne olacağı veriye de bağlıdır. İki etken, insan ve veri, bir araya geldiğinde çeşitli karmaşıklıklar ortaya çıkmaktadır. Bu karmaşıklıkların başında da algoritmadaki yanlılık (bias) sorunsalı vardır.

Algoritmalarda Yanlılık

Bir algoritmanın çıktısının adaletsizliğe neden olmasına yanlılık adı veriliyor. Algoritmanın eğitildiği veri kümesindeki yanlılık, algoritmanın çıktılarını da etkilediğinden yanlılık sorunu çoğunlukla veriyle ilişkilendiriliyor.

Algoritmanın eğitildiği veri gerçekliğin zayıf bir temsiliyse veya halihazırdaki önyargıları yansıtıyorsa algoritma, yanlı çıktılar verir. Örneğin 2010 yılında, Microsoft’un Xbox oyun sisteminde kullanılacak Kinect teknolojisi piyasaya çıkmadan kısa bir süre önce bir kadın çalışan bu teknolojiyi evde denemek ister. Kinect, bir kumanda cihazı olmadan hareket algılama teknolojisi yardımıyla çalışmaktadır. Fakat sistem evde beklenildiği gibi çalışmaz. Hareket algılama teknolojisi kadının kocası için sorunsuz çalışırken kadın ve çocukların hareketlerini algılamada pek başarılı değildir. Çünkü sistem 18-35 yaş arasındaki erkekler üzerinde denenmiştir (Tugend, 2019).

Algoritmanın önyargıları pekiştirmesi de sık rastlanılan bir durumdur. Bir Microsoft müşterisi, krediler için risk puanlaması yapan bir finansal hizmetler algoritmasını test etmektedir. Fakat algoritmayı eğitirken kullanılan verilerde erkeklerin daha önce onaylanmış kredileri ağırlıklı olduğundan algoritma, erkeklerin daha risksiz müşteriler olduğuna karar vermeye meyillidir (age).

Verinin yanlılığa etkisi hakkındaki bir diğer ünlü örnek de Amazon’un iş başvurusu yapan adayların özgeçmişini değerlendirdiği otomasyon sistemidir. 2015 yılında şirket, iş başvurularının cinsiyetçi bir şekilde değerlendirildiğini fark eder. Çünkü sistem, eğitim sürecinde ağırlıklı olarak erkek adayların özgeçmişleriyle eğitilmiş ve bunun sonucunda erkekleri daha tercih edilebilir adaylar olarak belirlemiştir. Bu nedenle, içinde kadın kelimesi geçen (“kadın satranç takımı kaptanı” gibi) özgeçmişler cezalandırılmakta, aşağı sıralara itilmektedir. Sorunu fark eden Amazon, sistemi düzeltmeye (yanlılığı gidermeye) çalışır. Bazı iyileştirmeler yapsa da sonunda bu sistemi bırakmak zorunda kalır (Dastin, 2018).

Verinin hazırlanması aşamasında seçilen öznitelikler de yanlılığa neden olabilir. Kredi başvurularına olumlu ya da olumsuz yanıt vermesi istenen bir algoritma, veri kümesindeki kişilerin yaş, gelir, geri ödediği kredi sayısı gibi öznitelikleri seçilerek eğitilebilir. Bir işe alma sistemi ise cinsiyet, eğitim düzeyi veya tecrübe gibi öznitelikleri kullanabilir. Doğru öznitelikler seçilmişse (bu da ustalık gerektirir) modelin kestirimleri daha doğru olacaktır. Fakat Nao’nun (2019) altını çizdiği gibi seçilen özniteliklerin modelin doğruluğuna etkisini ölçmek kolayken aynı kolaylık yanlılığa etkisini belirlemede geçerli değildir.

Sistemlerin eğitiminde halihazırdaki toplumsal ilişkileri yansıtan veriler kullanıldığında ya da yanlılığa neden olabilecek öznitelikler seçildiğinde cinsiyetçi ve ırkçı önyargılar yeniden üretilir. Sorunun farkında olmak çözüme giden yolda bir adımdır. Fakat suçu tamamen verinin içerdiği yanlılığa ve öznitelik seçimindeki hatalara yüklemek, yanlılığı teknik bir soruna indirgemek de pek doğru değil.

Algoritmayı tasarlayan kişi ya da kişilerin değerleri (yanlılığı) de algoritmanın çıktılarında etkilidir. Problemin çerçevesinin çizilmesi, sistemin hedeflerinin belirlenmesi tarafsız bir eylem değildir. Bir kredi kartı şirketinin müşterilerin kredi itibarını tahmin eden bir sistem geliştirirken verdiği kararlar sistemin gelişimine yön verir. Çünkü en başta kredi itibarının ne olduğu sorusunu yanıtlanması ve bu yanıtın sayısallaştırılması gerekir. Şirketin hedefi nedir? Kârını mı yoksa geri ödenebilen kredi miktarını mı en üst düzeye çıkaracaktır? Şirketin istediği kârını artırmaksa, algoritma da buna en uygun fonksiyonu modelleyecektir.

Algoritmalar kimin yararına çalıştırılacak? Burada artık salt tekniğin ötesine geçmeye başlarız. Fry (2019) yazdığı “tedavi önerebilen teşhis makinesi” üzerinde düşünelim. Bu tip teknolojiler yaygınlaşacak ve doktorlardan çok daha isabetli kararlar verebilecek. Fakat Fry (2019) önemli bir soru soruyor ve bir seçim yapmak zorunda kalacağımızı vurguluyor: Teşhis makinesi, bireye mi, topluma mı hizmet edecek?

Algoritma, bireye hizmetin öncelikli olduğunu düşünürse ağır, ama bir süre sonra geçebilecek bir öksürük şikayetiyle doktora gittiğinizde sıkıntınızı birkaç gün hafifletmek için antibiyotik yazmaya karar verecek, risk almamak için daha fazla tahlil yaptırmanızı isteyecek. Ama topluma hizmeti öncelikli gören bir algoritma antibiyotik toleransına karşı daha duyarlı davranacak, ölümcül bir durum yoksa geçici sıkıntınızı önemsemeyerek ilaç vermek istemeyecektir. Ayrıca kaynakları boşa harcamamak için tahlil sayısını da azaltmaya çalışacaktır.

Elbette hayat siyah beyaz değil. Algoritmayı tasarlayanlar bireysel ve toplumsal çıkarlar arasında bir denge bulmaya çalışacaktır. Ancak bu denge arayışı teknik değil, politik bir çalışma olacaktır. Buna ek olarak, neoliberal çağın ruhuna uygun olarak, denkleme sağlık hizmetlerinin piyasalaşmasını kattığımızda korkunç bir algoritmayla karşı karşıya kalabiliriz.

Yanlılığın Çözümü Neden Zor?

Yanlılık bilgisayar bilimcilerin farkında olduğu ve üzerinde çalıştığı önemli konulardan biri. Fakat çözümü kolay değil. Hao (2019) yanlılık sorununun çözümünü zorlaştıran engelleri dört başlık altında ele alıyor.

Bilinmeyen bilinmeyenler. Daha model oluşturulurken verilerin ve tercihlerin yanlılığa neden olup olmayacağı belirgin değildir. Yanlılık, ileri safhalarda tespit edildiğinde ise geriye dönerek yanlılığın nedenini bulmak ve sorunu gidermek zor olmaktadır. Örneğin, önceki bölümde gördüğümüz gibi Amazon’un iş başvurusu değerlendirme sistemi kadın kelimesini içeren özgeçmişleri aşağı sıralara gönderiyordu. Amazon’un mühendisleri sorunu fark ettiklerinde sistemi yeniden programlayarak sistemin açık biçimde cinsiyet bildiren kelimeleri (women’s gibi) göz ardı etmesini sağladıklarında da sorun çözülmemiş. Çünkü sistem bu sefer de üstü kapalı olarak daha çok erkeklerle ilişkilendirilen executed, captured gibi kelimelerden yararlanarak cinsiyetçiliği yeniden üretmiş.

Eksik Süreçler. Bilgisayar bilimciler modelleri geliştirirken önce ellerindeki veriyi rastgele biçimde iki bölüme ayırırlar. Birinci bölümde yer alan veri, algoritmayı eğitmek için kullanılır. Eğitim işlemi tamamlandıktan sonra modelin performansı ikinci bölümdeki veri üzerinde test edilir. Bu süreçte, yanlılığın tespit edilmesi üzerinde durulmadığından ve hem modeli eğitmek için kullanılan veri hem de performansını test için kullanılan veri aynı yanlılıkları içerdiğinden önyargılı sonuçları tespit etmekte başarısız olunur.

Sosyal Bağlam Eksikliği. Caplan vd.’nin (2018) belirttiği gibi algoritmaları sıfırdan tasarlamak pahalı ve zordur. Algoritmaları tasarlarken nitelikli işgücü kullanmak, eğitim verisi bulmak, algoritmanın özelliklerini belirlemek, test etmek, iyileştirmek ve modeli uygulamak için para gerekir. Bu maddi gereklilikler, bilgisayar bilimcilerin problemleri çözmeye çalışırken farklı bağlamlarda farklı görevleri yerine getirebilecek sistemler tasarlama yaklaşımı ile birleşince belirli bir bağlama uygun olarak geliştirilen bir algoritmayı farklı bir bağlamda olduğu gibi veya değiştirerek kullanma gibi bir eğilim ortaya çıkmaktadır. Fakat Hoa’nın (2019) belirttiği gibi bu yaklaşım toplumsal sorunların çözümü için uygulandığında yeni sorunlara neden olur. Utah’ta tasarlanmış bir sistem farklı toplulukların farklı adalet anlayışları nedeniyle Kentucky’de doğrudan uygulanamaz. Aynı şekilde adil yargılama için kullanılan bir sistem istihdam alanında kullanılmamalıdır. Çünkü belirli bir bağlama göre oluşturulmuş standartlar ve algoritmanın ilgilendiği etik konular yeni uygulamada sorunlara neden olabilir.

Adaletin Tanımındaki Eksiklikler. Adalet konusu, felsefe, sosyal bilimler ve hukukta yıllardır tartışılmaktadır ve şimdi de bilgisayar biliminin gündemindedir. Ama bilgisayar biliminden adaleti matematiksel terimlerle açıklaması da beklenmektedir. Aşağıdaki tabloya bakalım:

Başlıca sorunlardan biri yanlış pozitiflerle yanlış negatifler arasındaki dengeyi bulabilmektir. Yanlış pozitifte, gerçekte negatif olan bir olgunun pozitif olduğunu tahmin etmişsinizdir (Birinin suçlu olduğunu tahmin ettiniz, ama gerçekte suçsuzdu). Yanlış negatifte ise gerçekte pozitif olan bir olgunun negatif olduğunu tahmin etmişsinizdir (Suçlu olan birine suçlu değil demek). Yani insanları haksız yere suçlama ihtimali de var, suçluları fark edemeyerek toplum güvenliğini tehlikeye atma ihtimali de. Algoritma, toplumun iyiliği için arada sırada suçsuz insanları mağdur etmeli midir (yanlış pozitif)? Yine bir denge kurmaya çalışsak bile insanların adalet hakkındaki düşüncelerinin de zaman içinde değiştiğini unutmamak gerekiyor.

Şeffaflık ve Sorumluluk

Kız çocuğu olan bir hakim, kadınlar lehine karar vermeye daha meyilli oluyor; tuttuğu takım yenilen hakimin kefalet talebini reddetme ihtimali daha yüksek; hakimler öğle yemeğinden hemen önce kefalet talebine uzak, yemekten sonra bu talebi kabule daha yatkın. Hakimler, arka arkaya benzer kararlar vermekten kaçınıyor. Dört kefalet talebine olumlu yanıt veren bir hakimin beşinci kefalet talebine olumlu yanıt verme olasılığı azalıyor (Fry, 2019).

Bu tip durumları düşününce algoritmik karar sistemlerinin daha adil kararlar için önemli bir potansiyele sahip olduğu görülüyor. Fakat Domingos’un (2017) uyardığı gibi “insanlar bilgisayarların çok akıllı hale gelip dünyanın kontrolünü eline geçirmesinden endişelense de asıl problem, çok aptal olmaları ve halihazırda dünyayı kontrol etmeleridir.” Sorunu, hakimlerin mi yoksa bilgisayarların mı daha doğru karar vericiler olduğu ekseninde tartışmak yanıltıcı olabilir. Önce hukuktan ne beklediğimizi sorgulamalıyız.

Hukuk, erişilebilir ve olabildiğince anlaşılır, açık ve tahmin edilebilir olmalı. Algoritmik karar sistemlerinin ise çoğunlukla bu beklentiyi karşılamaktan uzak olduğunu ve içerikleri ticari sır olarak saklanan birer kara kutu olarak çalıştıklarını görüyoruz. Normal bir yazılımın kaynak kodunu inceleyerek nasıl çalıştığını öğrenmek mümkünken aynı yöntem yapay öğrenme algoritmalarını kullanan sistemlerde yetersiz kalıyor. Çünkü algoritma üzerinde çalıştığı verilerden öğreniyor. Ayrıca kesinlik ve yorumlanabilirlik iki zıt uçta yer alabiliyor. Doğrudan kodlanmış bir algoritmayı anlamak kolayken, sinir ağlarında daha kesin sonuçlar için yorumlanabilirlikten feragat etmek zorunda kalıyoruz. Birçok durumda kesin sonuçlar tercih edilir, ama hukuk gibi insan yaşamını etkileyen konularda çubuğu yorumlanabilirliğe bükmek gerekebilir (Blacklaws, 2018).

Geçen yıl yürürlüğe giren GDPR (General Data Protection Regulation – Genel Veri Koruma Tüzüğü), şirketleri şeffaf ve sorumlu davranmaya zorlayabilecek önemli bir düzenleme. GDPR’nin uygulamadaki başarısı ve daha da geliştirilmesi, algoritmik karar sistemlerinin potansiyelini toplum yararına hayata geçirebilir. Kamuoyu, algoritmalar hakkında bilinçlendikçe GDPR gibi düzenlemelerden güç alarak şirketleri gerekli önlemleri almaya ve yeni çözümler geliştirmeye zorlayabilir. Fakat Selbst vd.’nin (2019) yazdığı gibi teknolojik çözümcülük tuzağına da düşmemek gerekiyor. Şirketler ellerinde çekiç olduğu için her şeyi çivi olarak görme eğilimindeler. Ama özellikle siyasi olarak tartışmalı sorunları teknolojiyle çözme girişimleri karşısında dikkatli olmalı.

Kaynaklar

Blacklaws, C. (2018). Algorithms: transparency and accountability. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2128), 20170351.

Caplan, R., Donovan, J., Hanson, L., & Matthews, J. (2018). Algorithmic accountability: A primer. Data & Society.

Dastin, J. (2018). Amazon scraps secret AI recruiting tool that showed bias against women, https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G, son erişim 15/07/2019

Domingos, P. (2017). Master Algoritma: Yapay Öğrenme Hayatımızı Nasıl Değiştirecek?(çev. Tufan Göbekçin). Paloma Yayınevi, İstanbul.

Fry, H. (2019). Merhaba Dünya: Makine Çağında İnsan Olmak. (Çev. İ. G. Çıgay), Hep Kitap.

Hao, K. (2019). This is how AI bias really happens—and why it’s so hard to fix, https://www.technologyreview.com/s/612876/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/, son erişim 15/07/2019

Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian, S., & Vertesi, J. (2019). Fairness and abstraction in sociotechnical systems. In Proceedings of the Conference on Fairness, Accountability, and Transparency (pp. 59-68). ACM.

Tugend, A. (2019) Exposing the Bias Embedded in Tech, https://www.nytimes.com/2019/06/17/business/artificial-intelligence-bias-tech.html, son erişim 15/07/2019

22 Kasım 2019

Posted In: algoritma, algoritmik yönetim, bias, Bilgisayar Bilimi, Gözetim, Özgür yazılım, sosyal ağlar, Teknoloji Tarihi, yanlılık, yapay öğrenme, Yapay Zeka

İşyerinde Algoritmik Yönetim

Oxford Dictionaries, 2016 yılında ‘post-truth’u (hakikat-ötesi ya da hakikat-sonrası) yılın kelimesi seçmişti. Hakikat-ötesi, nesnel hakikatlerin kamuoyunu şekillendirmede duygulara ve kişisel kanaatlere hitap etmekten daha az etkili olmasını nitelemek için kullanılıyor. Politika kelimesinin önüne geldiğinde hakikatlerin ve olguların önemini yitirdiği bir politikadan söz ediyoruz. Hakikat-ötesi, Birleşik Krallıktaki AB referandumu ve özellikle de Trump’ın zaferiyle sonuçlanan ABD seçimleri sonrasında en çok tartışılan konulardan biri olmuştu (https://en.oxforddictionaries.com/word-of-the-year/word-of-the-year-2016). Sosyal medyada hızla yayılan sahte haberler ve politikacıların apaçık yalanları hakikat-ötesi politikanın bir parçası. The Economist dergisi 2016’da politikacıların her zaman yalan söylediğini ama artık bunun da ötesine geçilerek gerçeğin tamamen geride bırakıldığını yazıyordu (https://www.economist.com/leaders/2016/09/10/art-of-the-lie). Washington Post’un geçen ay yayınlanan bir haberine göre Trump, göreve geldiği tarihten bu yana on binden fazla yanlış ya da yanıltıcı iddiada bulunmuş (https://www.washingtonpost.com/politics/2019/04/29/president-trump-has-made-more-than-false-or-misleading-claims).

Yalan haber ve iddialar politikada (özellikle seçim dönemlerinde) etkili bir araç. Fakat neoliberalizmle yaygınlaşan daha sinsi ve etkili olmasına karşın yeterince tartışmadığımız bir yalan söyleme biçimi daha var: Üst yalanın daha etkili işlemesi için hakikatin stratejik olarak kullanılması. Neoliberalizmde şirketler hakikati gizleyerek değil, onun bir kısmını ön plana çıkararak da yalan söyleyebiliyorlar. Özellikle de hakikat artık gizlenemez boyuttaysa… Ortalık sorumluluk sahibi şirketlerden ve onların hayırsever CEO’larından geçilmiyor. Ancak şirketlerin doğaları gereği kârlarını en çoklaştırma peşinde olduklarını ve bu nedenle ister istemez çalışanlarla, tüketicilerle ve çevreyle karşı karşıya geldiklerini akıldan çıkarmamak gerekiyor. Daha önce bu karşı karşıya gelişlerde şirketler çıkarlarının meşruluğunu göstermek için hakikati gizleme ya da çarpıtma yoluna giderlerdi. Son yıllarda ise şirketlerin etik değerleri, çalışanların sağlıklarını ve çevre sorunlarını gündemlerine aldıkları görülüyor. Şirketlerin kâr peşinde koşmasıyla toplumsal çıkarlar arasında bir çelişki olmadığı; “hem kapitalizmin, hem sürdürülebilirliğin hem şirketlerin kontrolünün hem doğrudan demokratik katılımın, hem tüketim toplumunun hem yeşil çözümlerin vs bir arada olabileceği.” (Fleming, 2017) savunuluyor.

Örneğin Nestle, akılcı su idaresinin mutlak öncelikleri olduğunu söylüyor; su, şirketin değer zincirinin her aşamasında önemli bir yere sahip. Suyun tüm dünyada (özellikle de Güney’de) azaldığı bilinmekte ve şirket de bu soruna karşı duyarlı olduğunu açıklıyor. Ama başka bir yerde, Nestle yöneticisi Peter Brabeck, suyun kamusal bir hak olamayacağını, suyun diğer şeyler gibi bir gıda olduğunu, piyasa değerinin olması gerektiğini ve gıdalara değer vermenin daha iyi olduğunu da iddia ediyor. Böylece şirketin gerçek sorunlara işaret ederek gösterdiği duyarlılık, şirketin asıl politikasıyla çelişmek yerine kamuoyu önünde onu güçlendiriyor (age).

Hakikati söyleyerek aldatma stratejisiyle gelen dönüşümü tütün sanayisinde çok net görebiliyoruz. Tütün şirketleri, 1970’lerde ve 1980’lerde sigara ürünlerinde kansere neden olan maddeler bulunduğu hakkındaki kanıtları ısrarla reddettiler. Sigara ve kanser ilişkisi yerine kanserin nedenlerini bağışıklık sisteminde ve kişilik özelliklerinde arayan araştırmalara sponsor oldular. 1980’lerde sigara karşıtı kampanyaların ve devlete bağlı sağlık kurumlarının baskıları arttı. Tütün şirketleri sigaranın zararlarını inkar etmeye devam ettiler ve sigara içenlere yapılan ayrımcılığı ırk ayrımcılığına benzettiler. 1990’ların sonuna doğru tütün şirketleri meşruiyet krizini aşabilmek için hayır işlerine, kamusal işlerde sponsorluklara, çalışanların sağlık ve güvenliğiyle ilgili meselelere yöneldiler. Ama sigaranın sağlık üzerindeki etkileri hala görmezden geliniyordu. 2000’lere gelindiğinde ise tütün şirketleri, sigaranın sağlık üzerindeki olumsuz etkilerini kabul etmek zorunda kaldılar. İlginç bir şekilde artık ürünlerinin ölümcüllüğü hakkındaki hakikati inkar etmiyorlar, bunu bizzat kendileri dile getiriyorlardı. Artık ürünlerinin ciddi sağlık sorunları yarattığını ve bunlardan kaçınmanın tek yolunun hiç sigara kullanmamak olduğunu söylüyorlardı. Ne yazık ki (!) söz konusu risklere rağmen, bir çok yetişkin hâlâ sigara içmeyi tercih ediyordu. Tütün şirketlerinin yeni misyonu artık bu riskleri azaltmak, daha risksiz tütün ve nikotin içeren alternatif ürünler geliştirmekti (age).

Ancak tütün şirketlerinin sigaranın sağlık üzerindeki olumsuzluklarını reddetmemelerine (belki reddedememelerine) rağmen alt metinde, sigara kullanımının bir tercih olduğunu işlediklerine dikkat etmek gerekir. Sorun, bağımlılık yaratan nikotinde değil, yetişkinlerin bireysel tercihlerindedir. Elbette burada birçok sigara tiryakisinin sigaraya yetişkinlikte değil, ergenlik döneminde başlamış olmasının da bir önemi yoktur (age).

Fleming’in (2017) Freud’dan aktardığı bir fıkrada olduğu gibi ilginç bir durum vardır:

İki Yahudi, Galiçya’da bir tren istasyonunda karşılaşır. Biri diğerine, “Nereye gidiyorsun?” diye sorar. “Krakow’a” der beriki. “Amma da yalancısın!” diye patlatır soruyu soran. “Krakow’a gittiğini söylüyorsan, Lemberg’e gittiğine inanmamı istiyorsun demektir. Ama ben aslında senin Krakow’a gittiğini biliyorum. Neden bana yalan söylüyorsun ki?

Fleming (2017) de şöyle yazar: “Aslında insanları öldüren ürünler satarken, geniş kapsamlı sosyal yarara bağlı olduğunu düşüneyim diye neden insanları öldüren ürünler sattığını söylüyorsun bana? Neden bana yalan söylüyorsun?” (s. 175)

Benzer bir soruyu, Dördüncü Sanayi Devrimi’nde (ya da Endüstri 4.0’da) insanlara kendi yaşamları üzerinde daha fazla kontrol hakkı verecek ve onları güçlendirecek sistemler tasarlamaktan söz eden Klaus Schwab ve neoliberalizmin diğer sözcülerine soralım:

Aslında hem işçi sayısını azaltmaya çalışıyor hem de işçileri sürekli gözetleyen ve kontrol eden çalışma koşulları yaratıyorsunuz. Geniş kapsamlı sosyal yarara bağlı olduğunuzu düşünelim diye neden yeni teknolojilerin yaratacağı işsizliğe dikkati çekiyor; robotların insanların yerini almak yerine onları tamamlaması gerektiğini söylüyor; işçilerin mahremiyetini ihlal etmek yerine onlara kendi yaşamları üzerinde daha fazla seçenek ve kontrol hakkı vermekten söz ediyorsunuz? Neden bize yalan söylüyorsunuz?

Çalışmanın Dijital Dönüşümü

Kapitalistler, artı değer oranını artırmak isterler. İşçiler de buna karşı kendi hayatları üzerinde daha fazla söz sahibi olabilmek için mücadele ederler. Yapay zekâ ve robotlar, işçilerin yerini alan veya onları tamamlayan teknolojiler olabilir. Bu yönelim kendiliğinden değil, sınıf mücadelesine bağlı olarak somutlaşacak. Fakat günümüzde dijital teknolojilerin işyerlerinde kullanımına ve çalışmayı nasıl dönüştürdüğüne baktığımızda son yıllardaki gelişmelerin işçilerin (güvenceli/güvencesiz, beyaz/mavi yakalı olması fark etmeksizin) aleyhine olduğunu söyleyebiliriz.

Çalışma koşulları ve ilişkilerinde köklü değişiklikler yaşanıyor. Esnek/güvencesiz çalıştırma yaygınlaşıyor. Birçok uygulama, yönetimin hesap verme zorunluluğunu ortadan kaldırdığı gibi bu akıllı uygulamaların bazıları ara yönetim katmanını tamamen ortadan kaldırmayı hedefliyor. İşyerlerinde verimlilik ve üretkenlik artışı sağladığı iddia edilen teknolojiler, işçileri güçlendirmek yerine onların esenliği ve refahı ile çelişiyor. Fazla çalıştırma, özerklik kaybı, iş ve yaşam arasındaki sınırın belirsizleşmesi, çalışanı en son sınırına kadar zorlayan performans beklentileri işçilerde aşırı strese ve sağlık sorunlarına neden oluyor.

İşgücünün küresel düzeyde yeniden yapılandırılmasını ve çalışma ilişkilerinin kuralsızlaştırılmasını dikkate almadan, “geçmiş yıllarda bazı meslekler ortadan kalkarken onların yerini yenileri aldı. Yapay zeka ve robotlar da, benzer sonuçlar doğuracaktır.” diye düşünmek bir temenninin ötesine geçmeyecektir. Esnek çalışma koşullarına ve kuralsızlaştırmaya karşı mücadele “robotlar bizi işsiz mi bırakacak?” sorusunun da yanıtını içeriyor. Bu bağlamda, iş süreçlerinin algoritmik yönetim sistemleriyle yeniden organize edildiği geleneksel işyerlerine ve Uber, Amazon Turk, TaskRabbit, Upwork vb esnek ekonomi platformlarındaki uygulamalara bakmakta fayda var.

Elektronik Performans İzleme

1990’ların başında ABD’li bir senatör, işyerlerindeki kontrolsüz gözetime işaret ediyor ve bir çalışanın özgürlüğünden, onurundan ve sağlığından feragat etmeye zorlanamayacağını savunuyordu. Ancak 2010 yılına gelindiğinde artık ABD şirketlerinin tahminen %75’i çalışanlarının iletişimini ve diğer işyeri etkinliklerini gözetliyordu. Şirketlerin çalışanlarını gözetlemek için EPİ’ye (Elektronik Performans İzleme) yaptıkları yatırım 2007 ve 2010 yılları arasında %43 arttı. Eposta takibi, telefon dinleme, bilgisayardaki bir içeriğin ve kullanım sıklığının izlenmesi, video izleme ve GPS takibi EPİ kapsamında başvurulan araçların başında geliyor. EPİ araçlarından elde edilen konum, eposta kullanımı, web gezintisi, yazıcı kullanımı, telefon kullanımı, giyilebilir teknolojilerden sağlanan konuşmalardaki ses tonu ve fiziksel hareket gibi veriler üretkenlik göstergesi olarak değerlendiriliyor. Hatta çağrı merkezlerinde, çalışanın duygu takibi gibi EPİ uygulamaları var. Çalışanların bilgisayarlarına kurulan yazılımlarla bilgisayar başındaki hareketleri ve dikkat dağıtıcı etkinliklerle meşgul olup olmadıkları takip ediliyor (Moore, Akhtar ve Upchurch, 2018).

Çalışmanın EPİ ile takibi sonucu elde edilen veri, çalışanın performansının değerlendirilmesinde, işgücü kiralama ve işe son verme kararlarında belirleyici oluyor. Endüstri 4.0 hakkındaki yazılarda, iş-yaşam dengesine, çalışanların esenliğine bir vurgu var. Ancak günümüzdeki uygulamalar tam tersine yol açıyor, çalışanları makineleştiriyor. Önyargılı performans değerlendirmeleri, işin yoğunlaştırılması ve işçinin özerkliğinin azaltılması iş tatminini olumsuz etkiliyor (age).

EPİ kapsamında kullanılan bir diğer teknoloji olan giyilebilir teknolojiler de giderek yaygınlaşıyor ve işverenler, çalışanlarının sağlığını ve mutluluğunu geliştirmek adına giyilebilir teknolojileri kullandırıyor. Böylece işverenler (ve sigorta şirketleri!) çalışanları hakkında her zamankinden çok şey biliyor. Fakat Moore vd.’nin (2018) vurguladığı gibi yasal düzenlemeler, mahremiyet, veri koruma, işin yoğunlaştırılması, veriye dayalı kararlar vb sorunlar hakkındaki hukuksal tartışmalar güncel gelişmelerin çok gerisinde.

EPİ teknolojileri, karar süreçlerinde kullanıldığında daha büyük sorunlara neden olabiliyor. Geçen ay yayımlanan bir haberde (https://www.technologyreview.com/f/613434/amazons-system-for-tracking-its-warehouse-workers-can-automatically-fire-them/) Amazon’un kullandığı takip sisteminin ambar işçilerini otomatikman işten atabildiği yazıyordu. Amazon, verimliliğe önem verdiğini belirtmekle beraber işe otomatik son verme iddiasını reddediyor. Ancak Amazon’daki işçilerin ağır çalışma koşulları hakkında yayınlanmış çok sayıda rapor var (https://www.theverge.com/2018/4/16/17243026/amazon-warehouse-jobs-worker-conditions-bathroom-breaks). Çalışanlar, yüzlerce ürünü hızlı bir biçimde paketlemek zorundalar ve yeterince hızlı olmadıklarında kovulma riskiyle karşı karşıya kalıyorlar. Ağustos 2017 ve Eylül 2018 tarihleri arasında 300 kişi verimlilik nedeniyle işten çıkarılmış. İşten çıkarma sürecinin otomatikleştirildiği iddiası raporlarda da yer alıyor. Her bir işçinin verimliliği takip ediliyor ve işçiye özel otomatik uyarılar üretiliyor.

Fakat teknoloji desteğiyle çalışanların daha derin takibi giderek yaygınlaşıyor. Moore vd.’in (2018), Britanya’daki bir ambardan aktardığı vakada olduğu gibi işyerlerinde kullanılan yöntemler Frederick W. Taylor’un hayal bile edemeyeceği boyutlara ulaşmış durumda. Sözkonusu ambar çalışanlarından ele giyilen bir tarayıcıyla çalışmaları istenmiş. Yönetim bu cihaz yardımıyla, yapılan hataları ve bunların kimler tarafından yapıldığını tespit etmek istediğini; böylece hataların tekrarlanmasının önüne geçilebileceğini söylemiş. Fakat bu cihazlar daha sonra çalışanların verimliliğini, ne kadar çalışıp ne kadar mola verdiğini izlemek için kullanılmaya başlanmış. Bir süre sonra da yakın zamanda geçici çalışanlar arasından işten çıkarmalar olacağı duyurulmuş ve çalışanlara dikkatli olmaları söylenmiş. Bir diğer deyişle üstü kapalı olarak “biz sizi izliyor ve performansınızı ölçüyoruz. Üretkenliğiniz bizim istediğimiz gibi değilse işten çıkarılacaksınız” denmiş. Herkes hızlanmış. Olayı aktaran ambar işçisi, üç kişinin işten çıkarıldığını söylüyor. Birincisi, gerçekten tembelmiş. Ama diğer iki işçi çok iyi olmalarına rağmen işten çıkarılmışlar.

Otomatik veya yarı otomatik karar vermeyi sağlamak için çalışanların gözetimine dayanan, çeşitli teknolojik araç ve tekniklerden yararlanan algoritmik yönetim örnekleri hızla yayılıyor. İşten çıkarma kararını verenler bu kararı gözetimden elde ettikleri verileri kullanmadan da yapmış olabilirler. Fakat O’Neil’in (2016) yazdığı gibi veriden yararlanan matematiksel modeller doğrultusunda alınan çok sayıda hatalı karar var; algoritmalar yine yanılmış da olabilir.

Algoritmik yönetime yalnız geleneksel işyerlerinde başvurulmuyor. Aslında çıkış noktası paylaşım ekonomisi, esnek ekonomi olarak adlandırılan platformlar.

Platformlarda Algoritmik Yönetim

Algoritmik yönetim kavramı ilk olarak Lee vd. (2015) tarafından, Uber ve Lyft’in çalışanlarını algoritmalar ve takip verisi yardımıyla görevlendirme, en iyileme ve değerlendirmesini tanımlamak için kullanılmış. Bu platformlarda kullanılan algoritmalar, milyonlarca yolcu ve sürücüden elde ettikleri GPS bilgilerini işleyerek yolcu ve sürücüleri en uygun şekilde eşleştiriyorlar. Algoritmik yönetim sistemleri genellikle aşağıdaki ögelerden oluşuyor (Mateescu ve Nguyen, 2019):

  • Çalışanların teknoloji yardımıyla gözetimi ve haklarında veri toplama,
  • Yönetim kararlarını bildiren verilere gerçek zamanlı yanıt verme
  • Otomatik ya da yarı otomatik karar alma
  • Performans değerlendirmeleri yerine derecelendirme (rating) sistemlerine ya da diğer ölçümlere başvurma
  • Çalışanların davranışlarını dolaylı olarak etkilemek için “dürtme” ve cezalandırmadan yararlanma

Uber, Lyft ve TaskRabbit gibi çok sayıda bağımsız çalışanı yönetmek zorunda kalan platformlar algoritmik yönetimin gelişimine öncülük etmiş olsalar da algoritmik yönetim, taşımacılık ve lojistikten perakende satış, hizmet endüstrisi ve ev işlerine kadar bir çok yerde yönetim sürecinin bir parçası haline geldi.

Bir zamanlar işçilerin organizasyonunun ve eşgüdümün sağlanması, geleneksel olarak orta düzeydeki yöneticilerin işiyken artık onların yerini algoritmalar alıyor. İş başvurularının filtrelenmesi, işçiler arasında görev dağılımı, ödeme oranlarının belirlenmesi, vardiyaların ayarlanması gibi görevler artık büyük veri kümeleriyle eğitilen algoritmik yönetim sistemlerinin sorumluluğunda. Bazıları burada teknolojinin kullanımından bazıları da platform sahiplerinin girişimciliğinden etkileniyor ve fakat en kritik sorun, platformların dayandığı güvencesiz çalışma modelleri atlanıyor. Güvencesiz çalışma modelleri giderek yaygınlaşıyor ve geleneksel çalışma modellerinin yerini alıyor. Çalışanlar, sağlık güvencesi ve gebelik izni gibi haklardan yoksunlar. Çalışanların işveren karşısındaki yasal hakları sınırlı olduğu gibi platformlar, işverenin sorumluluğunu azaltacak şekilde tasarlanıyorlar. İlk başta gelişmiş ülkelerde ortaya çıkan ve daha çok bir ek gelir kaynağı olarak görülen platformlar, artık hem gelişmiş hem de gelişmekte olan ülkelerde bir çok insan için hayatını devam ettirebilmenin tek aracı haline gelmiş durumda.

Platformlar, iş gücünü sınıflandırmak ve kontrol etmek amacıyla algoritmalardan yararlanıyorlar. Platformlarda yoğun bir gözetim var. Örneğin Uber’de sürücüler hakkında sürekli veri toplanıyor ve analiz ediliyor. Uber üyesi çalışanlar sistemde oturum açma veya kapatma serbestliğine sahipler. Fakat oturum açtıkları anda yalnız GPS konumları değil, hızlanma, çalışma saati ve fren kullanım verileri de kaydediliyor. Sistemler, bu verilerden yararlanarak platform üyesi çalışanları çeşitli biçimlerde yönlendiriyor. Uber, sistemde 12 saatten fazla etkin olan sürücülerin hesaplarını askıya alıyor. Bazı durumlarda ise ücretleri yükselterek sürücüleri belirli bir yerde yoğunlaşmaya teşvik ediyor. Bazen de sistemdeki oturumunu kapatmak isteyen sürücüyü, oyunlaştırma yöntemleriyle (“330 dolar kazanmaktan 10 dolar uzaksın. Yine de oturumu kapatmak istiyor musun?” gibi sorularla) ikna ediyor. Ayrıca Uber, asimetrik bilgiden yararlanarak sürücülerin yolcu seçmesini engelliyor. Sürücüler, yolcuyu kabul etmeden önce ne kadar kazanacağını bilemediğinden ekonomik olarak dezavantajlı (örneğin kısa mesafeli) yolculukları kabul etmek zorunda kalıyor (Mateescu ve Nguyen, 2019).

Ev temizliğinde, temizlik işçileri ile hizmet almak isteyenleri buluşturan platformlar, temizlik çalışanının çalışacağı eve ne zaman vardığını takip etmesine rağmen müşterinin mahremiyeti nedeniyle gözetim olanakları daha sınırlı. Müşteri, evi üç odalı olmasına rağmen talep formuna evinin iki odalı olduğunu yazabilir. Çalışanın alacağı ücret müşteri memnuniyetiyle ilişkili olduğundan çalışanlar bu tip olumsuzluklar karşısında ya sessiz kalıyorlar ya da daha düşük puana razı geliyorlar (age).

Perakende satış ve hizmet sektöründe ise ana hedef işgücü maliyetlerini kısmak. Kronos, Onshift ve Dayforce gibi büyük şirketler hava durumu verilerinden müşterilerin adımlarının takibine kadar çeşitli kaynaklardan veri toplayarak belirli bir yer ve zamanda ne kadar işçiye gerek olacağını tahmin ediyor ve işçileri bu tahmine göre ilgili bölgeye sevk ediyor. “Tam zamanında” ve “göreve hazır” planlamalarla perakende sektöründeki işgücünün esnekleştirilmesi yeni değil; 1970’lerden beri bu yönde belirgin bir eğilim var. Fakat iş gücünün esnekleştirilmesi, düzensiz istihdamla beraber yeni bir boyut kazanıyor. İşverenler sürekli çalışan istihdam etmek yerine algoritmaların sonuçlarına göre insanları göreve çağırarak işgücü maliyetlerini kısabiliyorlar. İşverenin çıkarlarına uygun bu esnek yönetim modeliyle ortaya çıkan düzensizlik, işçiler için iş ve aile yaşamı uyuşmazlığı, gelir belirsizliği ve daha yüksek iş stresi anlamına geliyor. Araştırmalar “standart dışı” çalışma programlarının, çocuklarıyla yeterince ilgilenmekte zorlanan ebeveynler için olumsuz sonuçları olabileceğini gösteriyor (age).

Algoritmik Yönetim ve Başlıca Sorunlar

Mateescu ve Nguyen (2019), algoritmik yönetim uygulamaları nedeniyle işçilerin karşı karşıya olduğu sorunları dört başlık altında ele alıyor:

  • Gözetim ve kontrol
  • Şeffaflık
  • Yanlılık ve ayrımcılık
  • Hesap verebilirlik

Gözetim araçlarının hem zamansal hem de mekansal olarak yaygınlaşması işçilerde hız ve verimlilik baskısı yaratıyor. Endüstri 4.0 ve işsizlik tartışmalarında teknolojin insanın yerini almaması, onu tamamlaması gerektiği temennisi sık sık dile getirilse de algoritmik süreçlerin uygulandığı işyerlerinde çalışanların kişisel takdir yetkisini azaltma yönünde bir eğilim var. Ayrıca çalışanların fiziksel sınırları sonuna kadar zorlanıyor.

Giyilebilir teknolojiler, herkes için yararlı olma iddiasıyla pazarlanmasına rağmen giyilebilir teknolojilerden en büyük yararı sağlayanlar, takip cihazlarını işi yoğunlaştırmak ve çalışan sayısını azaltmak için kullanan işverenler. İngiltere’nin en büyük süpermarketler zincirini oluşturan Tesco, takip cihazlarını kullanmaya başladıktan sonra ambar çalışanı sayısını %18 azaltmış. Bunun yanında, aşırı çalışmadan kaynaklı stresin işçilerde kalp krizi ve alkol bağımlılığı risklerini artırdığı tespit edilmiş (Warin ve McCann, 2018)

Algoritmik yönetim sistemlerinin kararlarının şeffaf olmaması ise çalışanlarda huzursuzluk ve güvensizlik yaratıyor. İşçiler çoğu zaman bu sistemlerin nasıl çalıştığı hakkında bilgi sahibi değiller. Kararlarda hangi veriden ve nasıl yararlanıldığı belirsiz. Platform sahipleri çoğu zaman sistemin nasıl çalıştığını özellikle gizliyorlar; sistemin nasıl karar verdiği ve çalışanları nasıl puanlandırdığı bilinirse çalışanların sistemi kandırabileceğini düşünüyorlar. Sonraki bölümde de göreceğimiz gibi çalışanlar gerçekten de sistemi ‘hack’lemeye çalışıyorlar. Fakat araştırmalar, algoritmik kararlardaki şeffaflığın işçilerin işbirliğini artırdığını gösteriyor (Jarrahi ve Sutherland, 2019).

Dijital teknolojilerin orta düzey yöneticilerin yerini almasıyla kararların daha tarafsız olacağına dair bir inanış var. Fakat algoritmalar, onları eğitmek için kullanılan veri kümelerindeki eşitsizlikleri ve ayrımcılığı yeniden üretmeye meyilliler (Warin ve McCann, 2018).

Algoritmik yönetim sayesinde şirketler daha sorumsuz hareket edebiliyorlar. Bir çalışanın işine son verilirken ya da bir iş başvurusu reddedilirken bu durum şirketin değil, verilerden yararlanan tarafsız bir sistemin kararı oluyor. Bu durum platform sahibi şirketin, işçilerin aslında çalışanları değil bir hizmetin ağ bağlantılı kullanıcıları olduğunu ve algoritmik bir sistemin çıktılarına eriştiklerini iddia edebilmelerini de sağlıyor. Böylece işverenler, opak bir algoritmanın arkasına saklanarak geleneksel işçi-işveren ilişkisinin getirdiği sorumluluklardan kaçınabiliyorlar. En önemlisi de algoritmik yönetim retoriği, şirketlere bir sistemin nasıl işlemesi gerektiği konusunda verdikleri özel kararları gizleyebilmelerine ve bu kararların etkilerinden sıyrılabilmelerine yardımcı oluyor.

Algoritmik Yönetim Sistemlerine Karşı Tepkiler

İşçiler, algoritmik yönetim sistemlerine karşı farklı tepkiler veriyorlar. Örneğin, Britanya’daki ambar işçilerine yakında işten çıkarmalar olacağı söylendiğinde işçilerin ilk tepkisi daha hızlı çalışmak olmuş. Daha hızlı çalışma baskısı işten çıkarmalar sonrasında da devam ettiğinde bir süre sonra işçilerin çoğu artık baskıları umursamamaya, fiziksel olarak daha fazlasını yapamayacaklarını düşünmeye başlamışlar (Moore vd., 2018).

Algoritmaların verdiği kararlar çoğu zaman işçiler açısından anlaşılmaz ve erişilmez. Bazı durumlarda algoritmaların belirli bir sonuca nasıl ulaştığı gerçekten de açık değil. Ama yukarıda da belirttiğim gibi esnek iş modellerinde kullanılan algoritmaların işleyişi işçilerden özellikle saklanıyor. İşçilerin bu bilgiye sahip olmasıyla beraber sistemi aldatılabileceği düşünülüyor. İşçiler açısından baktığımızda ise kararı sorgulanamayan ve tahmin edilemeyen bir sistemin verdiği kararlar yıpratıcı ve yabancılaştırıcı bir etkiye sahip. Bu nedenle, işçiler tam da platform sahiplerinin korktuğu şeyi yapmaya çalışıyorlar: Sistemin nasıl çalıştığını öğreniyor, sistemi oyuna getirip sistemin kısıtlamalarını aşıyor ve algoritmik platformdaki özerkliklerini artırıyorlar.

Jarrahi ve Sutherland (2018), tasarım, muhasebe, çeviri, danışmanlık gibi hizmetler sunan serbest çalışanların yer aldığı Upwork adlı platformda çalışanların platformun işleyişini nasıl çözmeye çalıştıklarını ve bundan nasıl yararlandıklarını anlatıyor. Upwork platformuna ilk katılım kolay olmasına karşın platform, çok sayıda ve birbiriyle otomatik eşgüdümlü hizmetlerden oluşuyor. İşçiler platforma katıldıktan sonra Upwork’un çeşitli derecelendirme, zaman dilimi, politika ve prosedürlerini anlamak için bir hayli kafa yoruyorlar. Müşterilerin verdiği puanlar önemli olduğundan, çalışanlar öncelikle bu puanlandırma sisteminin ayrıntılarını öğrenmeye çalışıyorlar. Öğrenme sürecinde kişisel gözlemlerinin yanında sisteme hizmet almak isteyen bir müşteri olarak katıldıkları da oluyor. Webdeki forumlarda deneyimlerini paylaşıyor ve birbirlerine zorlu müşteriler ve Upwork politikaları hakkında önerilerde bulunuyorlar.

Jarrahi ve Sutherland’ın (2018) araştırması Upwork çalışanlarının algoritmik yönetim ve kontrolün karşısında pasif kalmadıklarını onu aşmanın çeşitli yollarını aradıklarını gösteriyor. Platformda kullanılan algoritmalar çalışanlarla müşteriler arasındaki etkileşimini şekillendiriyor. Fakat algoritmaların işleyişini keşfetmeye çalışan ve sistemle etkileşimini bu doğrultuda yapan çalışanlar da algoritmaların işleyişini etkiliyorlar. Örneğin, dört tane bir saatlik işten alınacak dört iyi puanlamanın dört saatlik bir puanlamadan daha kıymetli olduğunu fark eden bir çalışan, müşteriyle işbirliğine giderek işi dörde böldürme ve sistemdeki puanını yükseltme taktiğine başvurabiliyor. Bir diğer çalışan, sözleşmeleri kapatıp yeniden açarak aldığı olumlu değerlendirme sayısını artırdığını söylüyor. Elbette Upwork’un algoritmaları da sabit kalmıyor ve bu tip durumlara karşı güncelleniyor.

Bu hack biçimindeki kendiliğinden direnişler, önemli olmakla beraber çalışmadaki dijital dönüşümle ortaya çıkan sorunlar (gözetim, şeffaflık, yanlılık ve hesap verilebilirlik) karşısında yetersizler. Örgütlü mücadele daha sonuç alıcı oluyor. Daily Telegraph’ın çalışanlarını masa başında gözetleme girişimi sendikal mücadeleyle geri püskürtülmüş. Sendikalar, olumsuzluklara neden olanın teknolojinin kendisi olmadığını, sorunların teknolojinin işyerlerinde nasıl uygulandığı ile ilgili olduğunu vurguluyorlar. Sendikalara göre teknoloji, 7X24 çalışma için gerekli koşulları yaratmış olabilir ama bu sorunun kaynağı işyeri yönetim kültürleri. Telefonların her zaman açık olması işverenlerin dayattığı bir zorunluluk.

Mahremiyet ve teknoloji kullanımı, henüz toplu görüşmelerin gündeminde yer almıyor. Fakat son yıllarda sendikalar, dijital teknolojinin kullanılmasından kaynaklanan risklere karşı işçilerin haklarının savunulmasında önemli başarılar elde ettiler. Norveç Sendikalar Konfederasyonu ile Norveç İş ve Sanayi Konfederasyonu arasında yapılan anlaşmada işyerlerindeki izleme faaliyetleri de yer alıyordu. İşveren tarafından yapılan izleme ve kontrolün tarafsızlık ve orantılılık ilkeleri çerçevesinde uygulanması; uygulama aşamasından önce sendika temsilcileriyle görüşülmesi; verilerin toplanmasında ve değerlendirilmesinde sendika temsilcilerinin sürece dahil edilmesi gibi maddeler içeriyordu (Moore vd., 2018).

***

Kısacası, işçiler bu değişim sürecinin pasif gözlemcileri değiller. Ama işyerlerindeki sendikaların son yıllarda zayıfla(tıl)dığını, birçok işyerinde sendika olmadığını ve platform ekonomilerindeki çalışanların örgütsüz olduğunu da göz ardı etmemeli. Teknolojinin bir avuç kapitalist yerine toplumun esenliği için kullanılıp kullanılmayacağı teknolojinin içsel dinamiklerinden çok geleneksel ve yeni işyerlerindeki örgütlenme sorunlarının aşılmasına bağlı. Feenberg’in (2017) vurguladığı gibi teknosistem üzerindeki mücadelenin emek hareketiyle başladığını unutmayalım. Fabrikalardaki ağır çalışma koşulları, işçilerin iş sağlığı ve güvenliği talepleriyle yürüttükleri mücadelelerin sonucunda değişmişti…

Kaynaklar

Feenberg, A. (2017). Technosystem: The social life of reason. Harvard University Press.

Fleming, P. (2017). Çalışmanın Mitolojisi: Kapitalizm Kendine Rağmen Nasıl Ayakta Kalıyor, çev. Ebru Kılıç, Koç Üniversitesi Yayınları.

Jarrahi, M. H., & Sutherland, W. (2019). Algorithmic Management and Algorithmic Competencies: Understanding and Appropriating Algorithms in Gig Work. In International Conference on Information (pp. 578-589). Springer, Cham.

Lee, M. K., Kusbit, D., Metsky, E., & Dabbish, L. (2015). Working with machines: The impact of algorithmic and data-driven management on human workers. In Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems (pp. 1603-1612). ACM.

Mateescu, A.,Nguyen, A. (2019). Algorithmic Management in the Workplace, https://datasociety.net/output/explainer-algorithmic-management-in-the-workplace/, son erişim 17/05/2019.

Moore, P. V., Akhtar, P., & Upchurch, M. (2018). Digitalisation of work and resistance. In Humans and Machines at Work (pp. 17-44). Palgrave Macmillan, Cham.

O’Neil, C. (2016). Weapons of math destruction: How big data increases inequality and threatens democracy. New York: Crown Publishers.

Warin, R., & McCann, D. (2018). Who Watches The Workers?

18 Temmuz 2019

Posted In: algoritma, algoritmik yönetim, çalışma, Emek, Gözetim, işyeri, Mahremiyet, Özgür yazılım, sendika, Uber, Upwork, Yapay Zeka

WP Twitter Auto Publish Powered By : XYZScripts.com