Algoritmik Gözler Altında Çalışmak Ne Anlama Geliyor?

Verileri kimin gördüğü ve kimin kontrol ettiği son derece önemlidir; ayrıca, bağlamı gerçekten anlamayan sistemler tarafından sürekli yorumlandığını hissetmenin insanlar üzerindeki etkisi de önemlidir. İnsan emeğinin büyük bölümü, temiz ve ölçülebilir çıktılar dizisi değildir. Bu işler dağınıktır. Kötü günleriniz, toparlanma süreçleriniz, öğrenme eğrileriniz, dikkat dağınıklığınız, doğaçlamalarınız ve veri noktalarına kolayca dönüştürülemeyen yargı kararlarınız vardır.
Nisan 27, 2026
image_print

Yapay zeka gözetimi ve algoritmik yönetim, işçi özerkliğini ve haysiyetini tehdit ediyor. Hakları yeniden düşünmenin zamanı geldi. Bu yazı, yapay zekanın emek, iktidar ve çalışmanın anlamı üzerindeki etkisini ele alan “Yapay Zeka ve Amerikan İşçisinin Geleceği” başlıklı dizinin bir parçasıdır.

“Joseph K. hakkında birileri yalan söylemiş olmalı, çünkü hiçbir yanlış yapmamış olmasına rağmen bir sabah tutuklandı.” ~ Dava (1925), Franz Kafka

İşte oradasınız, ekranınıza bakıyorsunuz. İmleç donuyor, siz de tedbiren onu hafifçe itiyorsunuz. Az önce boşta mı göründünüz? Bir sorun yok. Yine de sanki varmış gibi davranıyorsunuz.

Sessiz bir yazılım programı sizi sürekli izliyor. Şirket buna “yardım” diyor. Sizi daha hızlı, daha akıllı, daha üretken — hatta daha mutlu hale getirecek bir yapay zeka “ortağı”. Yine de bu dijital sorgulayıcının bakışları altında bir şeylerin değiştiğini hissediyorsunuz. Belki de neyin izlendiğini ya da ölçüldüğünü, ya da tüm bu bilgilerin nereye gittiğini bile bilmiyorsunuz.

Bu, algoritmik gözlerin asla kırpışmadığı ofislerde hızla yeni normal haline geliyor. Bu değişim, haklar hakkında nasıl düşündüğümüz üzerinde gerçek bir baskı yaratıyor. Bazıları halihazırda yasalarda yer alıyor — her zaman kolayca uygulanabilir olmasa da — örneğin müdahaleci gözetim sınırlamaları, gizlilik korumaları ve değerlendirme ile işten çıkarma süreçlerinde adil yargılama gibi. Diğerlerini adlandırmak ise daha zordur, insanlar bunları her gün hissetse bile: bir miktar opaklık payına duyulan ihtiyaç ve kendimize dair, verilere indirgenemeyen bir benlik anlayışına sahip olduğumuz gerçeği. Bu haklar, haysiyetin ve anlamlı çalışmanın temelidir — başarılı bir işgücü, gelişen işletmeler ve müreffeh bir toplum için hayati öneme sahiptir.

İşverenler her zaman kontrol aramıştır; işçiler ise her zaman özerklik ve haysiyet için mücadele etmiştir. Yapay zeka bu hikâyenin en son bölümü ve belki de şimdiye kadarki en yoğunudur — daha önceki herhangi bir izleme biçiminden daha mahrem ve daha yaygın. Hikâyenin nereye gideceği belirsizdir, ancak hızlı ve bilinçli bir müdahale olmazsa, gidişat, tam anlamıyla Kafkaesk olan ve sorgulanamaz sistemlerin normalleşmesine doğru eğilir.

Yüzsüz Gözler

Günümüzün yapay zeka izleme sistemleri iki türe ayrılır: davranışınızı izleyen araçlar ve bu davranış hakkında otomatik kararlar alan sistemler. Bunlar birlikte genellikle “bossware” olarak adlandırılır — bu terim, halihazırda yerleşik olan “spyware” (casus yazılım) terimine rahatsız edici derecede yakındır.

Sadece izlemek ve ölçmekle yetinmeyen bossware, tahmin eder, yönlendirir ve müdahale eder: Krista, çalışma saatleri içinde onaylı uygulamaların sınırları içinde kal. Dave, katılım puanını iyileştirmek için düzeltici önlem al.

Artık sadece görevlerinizi yerine getirmek yeterli değildir. İş, sanki göremediğiniz bir tahtada bir oyun oynamaya zorlanıyormuşsunuz gibi hissettirebilir. Ne kadar çok yazarsanız, algoritma o kadar çok öğrenir. Skoru gerçekten bilen tek şey odur.

Birçok tam zamanlı, yarı zamanlı ve geçici işçi, bazılarının “insanlık dışı” olarak tanımladığı bir gözetim düzeyiyle karşı karşıyadır. Ve çoğu, özellikle örgütlü koruması veya net anlaşmaları az olan beyaz yakalı çalışanlar ve yükleniciler, yasal bir gri alanda sürüklenmektedir. Sendikaya sahip olacak kadar şanslı olanlar için bile eski güvenceler teknolojinin gerisinde kalmaktadır. Çalışanlar, tam olarak anlamadıkları casusluk teknikleriyle işleyen sistemlerde yolunu bulmaya çalışarak doğaçlama yapmak zorunda kalmaktadır.

Giderek artan şekilde gözetim, çalışanların bilgisayarları ve iş akışlarıyla nasıl etkileşime girdiğini kaydederek işin nasıl yapıldığını ve nerede optimize edilebileceğini ya da otomatikleştirilebileceğini haritalayan “görev madenciliği” yazılımı tarafından yönlendirilmektedir. Günlük dijital davranışlarınız, üretkenliğe dair sürekli bir veri kümesine dönüşür.

Bu, esasen 21. yüzyılın Taylorizmidir. İşverenler bunu verimlilik olarak sunar, ancak çalışanlar bunu çoğu zaman ifşa ve aşağılanma olarak deneyimler. Bazıları için mesele, teslim edilen paketler veya tamamlanan satışlar gibi çıktının izlenmesi değildir. Buna katlanabilirler. Sorun, girdilerin incelenmesidir: boşta geçirilen dakikalar işaretlenir, tuvalet molalarının süresi ölçülür, telefon görüşmelerindeki ton ve ritim didik didik edilir. Buna opak politikalar, her an hazır olma beklentisi ve buharda balık tarifi aramaktan bile çekinmenize neden olan sürekli ekran görüntüleri eklendiğinde, üretkenlikte elde edilebilecek kazanımlar artan bir stres dalgasında kaybolur.

Örneğin, bir Starbucks baristası ya da çok sayıda ofis veya serbest çalışan, Slack, Teams ve Zoom’u etkileşim, duygu veya “riskli davranış” olarak değerlendirilebilecek unsurlar açısından tarayan ve ardından değerlendirmelerini yöneticilerin panellerine aktaran “Aware” adlı belirli bir yapay zekanın gözetimi altında bulabilir kendini. Çalışanlar yalnızca sonuçları görür, bunları üreten mantığı değil. Bu, yazılım için güncellenmiş bir Kafka mantığıdır.

Barista bu sisteme rıza gösterdi mi? Alışılmış anlamda hayır. Algoritma isteğe bağlı değildir ve sıradan sözleşmeler ile işçi korumaları, bu kadar opak ve sisteme gömülü bir denetleyiciyi öngörmemiştir.

Daha gelişmiş araçlara sahip olan işverenler, sadece ne yaptığınızı değil, bunu yaparken nasıl hissettiğinizi de yakalamaya çalışır. Yapay zeka sistemleri yüz ifadelerini, göz hareketlerini, hatta duruşu yorumlayarak ruh halinizi bir ölçüte dönüştürür. İşyerine zaten sızmaya başlamış olan biyogözetim, Duygusal Yapay Zeka’ya dönüşerek çağrı merkezlerinden finans ofislerine kadar her yerde ortaya çıkmaktadır.

Yapay zeka programları, giyilebilir cihazlardan, metinlerden ve bilgisayar faaliyetlerinden elde edilen verileri kullanarak nasıl hissettiğinizi tespit ettiğini ileri sürer, ancak gerçekte bu yalnızca bir çıkarımdır: asla gerçekten deneyimlediğiniz şey değildir. Bilim insanlarının arkasındaki bilimin en iyi ihtimalle şüpheli olduğu yönündeki uyarılarına rağmen, çok çeşitli işverenler halihazırda Duygusal Yapay Zeka kullanmaktadır. Kaldırılmış bir kaş şüphe mi yoksa ilgi miydi? Azure Vision gibi şirketler biliyormuş gibi görünebilir, ancak Western Ontario Üniversitesi’ndeki araştırmacılar bunu açıkça ifade ediyor: “Bilgisayar bilimcilerinin, geliştirdikleri insan duyguları paradigmalarının… insan duyguları hakkında kesin gerçekler üretebileceği yönündeki sözlerini olduğu gibi kabul etmemeliyiz.”

Bunun nedenlerinden biri, makinelerin önyargılı olmasıdır. Kadınlar, yaşlı çalışanlar, nöroçeşitliliğe sahip çalışanlar ve beyaz olmayan insanlar çok daha yüksek oranda yanlış okunmakta ve yanlış ölçülmektedir. Algoritmanın “ilgisizlik” olarak işaretlediği şey, basitçe yorgunluk, kültürel bir farklılık ya da — Allah korusun — sessiz bir düşünme anı olabilir. Yine de bu yanlış yorumlamalar performans değerlendirmelerini, terfileri ve işten çıkarmaları etkileyebilir.

Ne, Ben mi Endişeleneceğim?

En iyi durumda bile, yapay zeka gözetimi ters tepebilir; çalışanları daha fazla güvencesizlik, daha kötü koşullar, adaletsiz ücret ve planlama uygulamaları ve daha fazla ayrımcılıkla baş başa bırakırken, aynı zamanda eşitsizliği daha da derinleştirir. Yine de bazı işverenler, yapay zeka gözetimini masanızdaki “Büyük Birader” yerine bir “iyilik hali” aracı olarak sunuyor.

Örneğin JPMorgan Chase’de, genç bankacıların her dijital hareketi artık “aşırı çalışmayı” tespit etmek için izleniyor. Şirket bunun tamamen “farkındalık” ve “refah” ile ilgili olduğunu iddia ediyor. Ancak denetim faydalı olarak çerçevelense bile, algoritmik izleme ve yönetim sorunlara yol açabilir. Bir deneyde katılımcılar aynı görevi iki koşul altında yerine getirdi: bir insan tarafından izlenerek ya da “AI Technology Feed” adlı bir yapay zeka sistemi tarafından izlenerek. Geri bildirim aynı olsa bile, yapay zeka grubundakiler kendilerini daha stresli, güçsüz ve daha az yaratıcı hissetti ve insan gözlemciye kıyasla yapay zekaya karşı daha fazla direnç gösterdi. 2025 tarihli bir çalışma, artan dijital gözetimin güveni aşındırdığını ve çalışanları sürekli gerginlik içinde tuttuğunu ortaya koydu.

Bremen Üniversitesi’nde iş psikolojisi araştırmacısı olan Katharina Klug, yapay zeka destekli işyeri gözetiminin “şeffaf olmayan bir şekilde yapılması durumunda… motivasyonu düşürücü etkiler yaratabileceği—hangi verilerin toplandığını ya da işvereninizin bunlarla ne yaptığını bilmezsiniz” konusunda uyarıyor. Bunun sonucunda motivasyonun dışsal ödüllere kayabileceğini ve çalışanların baskı altında ve kaygılı hissedebileceği bir durumun ortaya çıkabileceğini belirtiyor. İtalya’daki Modena Üniversitesi’nden ekonomist Nadia Garbellini, yapay zekanın işlerin kalitesini düşürebileceği ve çalışanları “giderek azalan bir özerklik düzeyine” mahkûm edebileceği konusunda uyarıda bulunmuştur.

Bu aynı zamanda bir sağlık meselesidir. Yapay zeka gözetimi, öngörülü stres üretir: her eylemin gelecekte nasıl yorumlanabileceği konusunda endişe duyarsınız. Bu durum tükenmişliğe, hayal gücünün zayıflamasına ve hatta fiziksel belirtilere yol açabilir. Alex Rosenblat, yapay zeka patronlarının, ücret hırsızlığı gibi sorunları mümkün kılmanın yanı sıra, bazen riskli davranışları da teşvik ettiğini yazmıştır; örneğin yorgun Uber sürücülerini devam etmeleri için dürtmek gibi.

Çalışanlar ölçütleri anlasalar bile, istenmeyen sorunlar ortaya çıkar. Örneğin insanlar, ölçülen şeyleri manipüle eder; bu da çoğu zaman daha büyük resmin aleyhine olur ve yüzeysel bir uyum ile ölçütlerle oynanmasına yol açar. Bazı işyerlerinde çalışanlar, fark edilmeden sigara molası verebilmek için imleçte hafif hareketleri simüle eden meşhur “fare sallayıcılar” gibi karşı önlemlere yönelir. Wells Fargo, bu tür taktikleri tespit ettikten sonra bir düzineden fazla çalışanı işten çıkardı.

Peki çalışan verileri toplandıktan sonra ne olur? Bu veriler işyeri içinde kalmayabilir. İşverenler bunları tedarikçilere, bulut hizmetlerine ve analiz firmalarına aktarabilirken, Slack veya Zoom gibi araçlar geniş hizmet anlaşmaları kapsamında birden fazla üçüncü taraf arasında dolaşan davranışsal veri akışları üretir.

İşyeri politikaları giderek daha fazla, üretkenlik ölçütlerinin, iletişim meta verilerinin ve diğer dijital izlerin geniş çapta toplanmasına ve yeniden kullanılmasına izin veriyor; bu kapsam, genellikle sonraki kullanımlar hakkında çok az açıklık sunan güncellemelerle daha da genişletiliyor. Bazı yargı bölgelerinde, Kaliforniya Tüketici Gizliliği Yasası (CCPA) gibi yasalar, kişisel bilgilerin satışı da dahil olmak üzere belirli veri kullanımlarına erişim veya bunlardan vazgeçme konusunda sınırlı haklar sunar; ancak uygulama düzensizdir ve vazgeçme süreçleri nadiren sorunsuzdur. Diğer yerlerde ise — bol şans.

Bir şirket verilerinizi satmayı amaçlamasa bile, veriler yine de ellerinden kayıp gidebilir. Gözetim uygulaması WorkComposer, 21 milyondan fazla çalışan ekran görüntüsünü güvenli olmayan bir Amazon S3 depolama alanında açıkta bıraktı. Çalışan faaliyetlerine ait hassas görüntüler sızdırıldı ve çalışanlar kimlik hırsızlığı ve diğer zararlara karşı risk altına girdi. Oops!

Yapay zeka ayrıca “gölge değerlendirme” olarak adlandırabileceğimiz bir işyeri tehlikesini de büyüttü. Yöneticiniz buna bir “eğitim programı” diyor, ancak perde arkasında yapay zeka zayıf yönlerinizi inceliyor. Siz oturumu tamamladığınızda, algoritma sizin hakkınızda önerisini çoktan oluşturmuş oluyor ve insan yöneticiye yalnızca “onayla” düğmesine basmak kalıyor.

Bu arada sistem, performansınıza dair daha kapsamlı bir tablo oluşturarak şirketin nihayetinde siz olmadan idare edip edemeyeceğine ilişkin yargılarını keskinleştiriyor. INET Araştırma Direktörü Thomas Ferguson, sektör analistlerinin, yapay zeka araçlarına aşina olmaya çalışan çalışanların bu yazılımları işverenleriyle paylaşmak yerine kendi zamanlarında denemek isteyebilecekleri konusunda özel olarak uyarıda bulunduklarını belirtiyor. “ABD’deki işgücü uygulamaları, çoğu çalışanı geçici, kolayca gözden çıkarılabilir araçlar olarak görüyor,” diyor ve ekliyor: “Bu durum, birçok sektörde yapay zekadan elde edilebilecek toplumsal faydanın ne kadar hızlı yayılabileceği üzerinde öngörülebilir şekilde yıkıcı etkilere sahiptir.” Ferguson, daha güçlü işgücü korumalarına sahip Kuzey Avrupa ülkelerinde yapay zekanın uygulanmasının daha kolay olacağını öngörmektedir.

Bu tür korumalar olmadan, Kafka’nın mahkemesinin en verimli haliyle karşı karşıya kalırız: görünmez suçlamaların görünmez bürokratlar tarafından gerçek zamanlı işlendiği bir sistem.

Bossware ayrıca “gözetim ücreti” olarak bilinen bir yöntemle maaşınızı da azaltabilir. Washington Center for Equitable Growth tarafından 500 yapay zeka tedarikçisini inceleyen bir rapor, yapay zeka sistemleri altında “farklı kişilerin büyük ölçüde aynı iş için farklı ücretler alabileceğini ve bireysel çalışanların zaman içinde gelirlerini öngöremeyeceğini” ortaya koyuyor. Sonuç, “çok çalışmanın güvenli ve adil ücretten kopmasıdır” — bu dinamik ilk olarak araç çağırma ve yemek teslimatı sürücüleri gibi geçici işçileri etkiledi ve şimdi diğer sektörlere ve işlere yayılıyor.

Son olarak — ve yapay zeka gözetimi risklerinin henüz yüzeyini bile kazımış durumdayız — şirketler sendikaları uzak tutmak için yapay zeka kullanıyor. Askeriye için geliştirilen araçlar, ofis bölmelerini ve depo koridorlarını devriye gezerek örgütlenmenin kapıdan içeri girmemesini sağlıyor. Bazı şirketler, işyeri dışındaki sosyal medyayı bile izleyerek kimin sendikalaşma niyetinde olduğunu tespit etmek için yapay zeka kullanıyor. Amazon’da ve hatta Boston Üniversitesi’nde çalışanlar, yapay zeka destekli sendika karşıtı uygulamaları deneyimledi. Yapay zekanın sendika karşıtı kullanımı, “Amerikan işgücünün Amazonlaşması” olarak adlandırılan olgunun uğursuz bir özelliği haline gelmiştir.

Daha sinsi bir biçimde, algoritmik yönetim işyerini ortak bir siyasi alandan, insanların kendi veri gölgeleriyle rekabet ettiği bir izolasyon tankına dönüştürme eğilimindedir. Deneyim, kolektif koşullardan ziyade bireysel ölçütlere dayalı hale gelir ve bu da özne olma duygusunu aşındırır.

Onur İçin Tasarım

Yapay zeka çağında, hem düzenleyici hem de kavramsal sorunlarla karşı karşıyayız. İnsanî çıkarları daha yüksek bir kesinlikle ortaya koymaya ve verimliliğin, ne kadar yararlı olursa olsun, işin amacını ya da işçi haklarının tam kapsamını tanımlamadığını vurgulamaya yönelik acil bir ihtiyaç vardır.

Daha derin sorun, işin giderek sadece insanlar hakkında bilgi toplamanın ötesine geçen, bu bilgiyi yargılara dönüştüren sistemler aracılığıyla yürütülmesidir; bu süreç çoğu zaman herhangi bir açıklama olmadan ve itiraz etmek için çok az alan — neredeyse hiç yasal hak olmaksızın — gerçekleşir.

Bazı hükümetler bu duruma yanıt vermeye başlamıştır. Avrupa Birliği’nde Yapay Zeka Yasası, işe alım, işten çıkarma, ücret ve performans değerlendirmesinde kullanılan işyeri yapay zekasını “yüksek riskli” olarak sınıflandırır; bu da şirketlerin bu sistemlerin nasıl çalıştığını belgelemesi, önyargı açısından test etmesi ve sürece bir insanı dahil etmesi gerektiği anlamına gelir. Genel Veri Koruma Tüzüğü de çalışanlara verilerine erişim ve kendilerini önemli ölçüde etkileyen tam otomatik kararlara itiraz etme konusunda bazı temel haklar tanır.

Buna karşılık Amerika Birleşik Devletleri hâlâ parçalı bir yapı içinde yol almaya çalışmaktadır. Mevcut iş ve gizlilik yasaları bazen işyeri gözetimi veya algoritmik puanlamayı kapsayacak şekilde genişletilebilir, ancak uygulama düzensizdir ve kurallar, karar vermeyi modellere devreden sistemler için tasarlanmamıştır. Hukuki çerçevenin büyük bölümü hâlâ bir yerlerde işaret edebileceğiniz, karar veren gerçek bir kişinin var olduğunu varsayar. Giderek artan şekilde böyle bir insan yoktur.

Bu boşluk önemlidir, çünkü hukuk tek başına bu dengeyi yeniden kurmayacaktır. Çalışanların, bu sistemlerin pratikte nasıl kullanılacağını gerçekten şekillendirebilecek sendikalara, toplu sözleşmelere ve örgütlenme kapasitesine ihtiyacı vardır. Sendikaların güçlü olduğu yerlerde, bunlar direnmeye başlamıştır: izleme araçları konusunda şeffaflık talep etmek, disiplin ve ücretlendirmede algoritmik puanların kullanımını sınırlamak ve otomatik sistemler çalışanları işaretlediğinde veya sıraladığında insan incelemesini zorunlu kılmak.

Bunların hiçbiri soyut değildir. Bu, nasıl değerlendirildiğiniz konusunda söz sahibi olmak ile, değerlendirildiğinizi ancak sonradan fark etmek arasındaki gerçek farktır.

Verileri kimin gördüğü ve kimin kontrol ettiği son derece önemlidir; ayrıca, bağlamı gerçekten anlamayan sistemler tarafından sürekli yorumlandığını hissetmenin insanlar üzerindeki etkisi de önemlidir. İnsan emeğinin büyük bölümü, temiz ve ölçülebilir çıktılar dizisi değildir. Bu işler dağınıktır. Kötü günleriniz, toparlanma süreçleriniz, öğrenme eğrileriniz, dikkat dağınıklığınız, doğaçlamalarınız ve veri noktalarına kolayca dönüştürülemeyen yargı kararlarınız vardır.

Sonuçta söz konusu olan, bir tür belirlenemezlik hakkıdır: geride bıraktığınız izlerden ne tür bir çalışan olduğunuzu sürekli çıkarsamaya çalışan sistemler tarafından sabitlenmeme hakkı. Hiç kimse ölçümden tamamen kurtulmayı beklemiyor — bu gerçekçi değil — ancak bu ölçümlerin ne anlama gelebileceğine ve ne kadar yetkiye sahip olabileceğine dair bir sınır bekleyebilir ve beklemeliyiz.

Bu sınırlar olmadan, iş yaptığınız bir şey olmaktan çıkıp, sürekli olarak bir şeye çevrildiğiniz hissini vermeye başlar. Bu gerçekleştiğinde, bir çalışan sürekli güncellenen ve sonsuza dek puanlanan basit bir profile indirgenir.

Bu, yapay zekanın işyerinde yeri olmadığını savunmak değildir. O tren çoktan kaçtı ve birçok araç, çalışanların katkısı da sağlanarak, düşünceli ve şeffaf biçimde uygulandığında faydalı olabilir. Asıl soru şudur: bunlar insanları ve ortak refahı destekleyen araçlar mı olacak, yoksa yönetimin daha fazla kontrol ve daha az direnç elde etmesinin en yeni aracı olmalarına izin mi vereceğiz?

Bu yollardan yalnızca biri haysiyete yer açar.

Kaynak: https://www.ineteconomics.org/perspectives/blog/what-does-it-mean-to-work-under-algorithmic-eyes

 

SOSYAL MEDYA