Temelden Paragraf

ÖSYM Tarzı Makaleler – Yazılar 40

ALGORİTMALAR KAPALI KUTU MU?

Algoritmalar, genellikle yapay öğrenme özelliğine sahip olduğu için nasıl çalıştığını mühendislerinin bile tam olarak bilmediği, şirketlerin sürekli olarak değişen hedefleri, ürünlerin niteliği ve tüketicilerin beklentileri yönünde değişim gösteren, Yazılımcılar tarafından yapılan birçok revizyonla sürekli olarak güncellenen, dolayısıyla, yanlış anlamanın ve iletişim kopukluğunun sıkça yaşanabilmesi nedeniyle amaçlanan işlevlerden zaman zaman sapan bir yapıya sahiptir. Algoritmaların amaçlarından sapması ya da nasıl ve ne amaçla çalışıyor olduklarının bilinmemesi, bilgi noksanlığından kaynaklanan sorunlara yol açmaktadır. Algoritmaların belirsizliğine sebep olan iki temel özellikleri vardır; bunlardan birincisi kodlarının teknik bilgi gerektirmesinden kaynaklanan anlaşılamama sorunu, ikincisi ise yazılımların üretim aşamalarının şeffaf olmaması ya da yazılım üretenler tarafından ticari ya da diğer amaçlarla kodların gizli tutulmasıdır. Birçok algoritmik modelin kodları kamuoyuna sunulmaz. Kaldı ki sunulsa bile nasıl çalıştıklarını anlamamız halen mümkün olmayabilir. Çünkü yapay öğrenme sayesinde bu kodların içyapısı anlık olarak bile değişebilir.

Algoritmaların yapısı sadece kodlayıcıların tercihleri ya da şirketlerin ticari politikaları sonucu şekillenmez. Algoritmalar çalışırken kodlarındaki istenmeyen “yan etkilerinin” önemli ölçüde etkileyebileceği karmaşık güç-bilgi ilişkilerinin bir parçası olarak hareket etmektedir ve bu durum onların muazzam bir güce ve mantıksal dizgeye sahip olmalarını sağlamanın yanında aynı zamanda ciddi bir belirsizlik sorununu da tetiklemektedir. Burrel’a göre algoritmalarla ilgili anlaşılmazlık/opaklık sorunun üç temel biçimi vardır; (1) Kuruluşların kasıtlı olarak kendini koruma, gizleme ve “kandırma” taktiklerinin ortaya çıkmasını engellemek istemeleri, (2) kod yazmanın ve okumanın belirli bir uzmanlık gerektirmesi, (3) yapay öğrenmenin geniş boyutlu matematiksel optimizasyonu ile insan ölçeğindeki akıl yürütmenin talepleri ve anlamsal yorumlama tarzları arasındaki uyumsuzluktan kaynaklı anlaşılmazlık.

Platformların algoritmik değişiklikler ve güncellemelerle ilgili yeterli bilgi paylaşmaması, üçüncü taraf aktörler, resmi olmayan dedikodular ve çevrim içi destek ağları tarafından doldurulan bir boşluk yaratır. Belirsizlik durumlarında algoritmik sezgi devreye girer. Yazılımın ne yaptığını gerçekte hiçbirimiz bilmeyiz ama önceki tecrübelerimize göre bazı sezgisel tahminler yürüterek onunla uyum sağlamaya ya da ona karşı stratejiler üretmeye çalışırız. Bütün bu süreç havada asılı bir belirsizlik içerisinde gerçekleşir. Dormehl’e göre algoritmalar perde arkasında birçok küçük karar alarak son raddede daha büyük bir karara varmakta ve bir çıktı olarak sadece bu “büyük kararı” bize sunmaktadır. Dolayısıyla otomatikleştirilmiş sistemler kendiliğinden denetimden kurtulmuş olur. Bunun yanında kaynak kodlar da çeşitli nedenlerle gizlenebildiği için bireyler alınan kararın süreci hakkında bilgi sahibi olamaz ve bu süreci tartışamaz. Sonuç olarak bireyler karar alma süreçlerine dâhil olmak yerine sadece alınan kararların nihai sonucunu deneyimlemiş olur.

Pasquale’ye göre Kapitalist demokrasilerin riskleri değerlendirmek ve fırsatları bölüştürmek için giderek daha fazla kullandığı otomatikleştirilmiş süreçleri kontrol eden şirketler, devasa miktardaki veriye bir düzen getirmek için genellikle kodları gizlenmiş algoritmalardan yararlanmaktadır. Önemli kurumsal aktörler, insanların günlük hayatının en ince ayrıntılarına dair benzeri görülmemiş derecede bilgiye sahipken toplum bu bilgilerin nasıl kullanıldığına veya hangi önemli kararların alındığına dair çok az şey bilmektedir. Endüstriyel veri madenciliğiyle birlikte bir taraftan insanların mahremiyet alanı daralmakta, öte taraftan ise kurumların gizliliği artmakta ve şeffaflık giderek ortadan kalkmaktadır. Bütün bu teknolojik gelişme, her ne kadar ortada kullanışlı hizmetlerin olduğu bir ortam yaratmış olsa da aynı zamanda “istikrarsız, adaletsiz ve verimsiz” bir “kara kutu” toplumunun ortaya çıkmasına neden olmuştur.

Karar alma sürecinde insanların baypas edilmesi ve alınan kararın sebebinin detaylı bilinememesi değersizleşme sorununu beraberinde getirir. Ayrıca alınan kararlar izlenemeyen ve denetlenemeyen süreçlerin sonucu olarak gerçekleştiği için doğru veya yerinde olsalar bile tartışmalı halde kalacaklardır. Ayrıca algoritmaların kara kutuya benzer yapısında içeriden insan eliyle yapılacak müdahaleler de aynı kara kutunun içinde gizleneceğinden bu tür hareketler de görünmezleşecektir. Şeffaflığın olmayışı bizi teknokrasiye karşı elimiz kolumuz bağlı bir hale getirir. Bugün büyük teknoloji şirketlerinin yöneticilerinin elindeki bilginin akışını değiştirme gücü, belki de tarihteki tüm imparatorların toplamından daha fazladır. Bir teknoloji şirketinin el değiştirmesi, başka bir şirket tarafından satın alınması, yönetim kurulunun değişmesi, ya da sadece bazı yöneticilerinin değişmesi, tüm dünyaya birkaç hafta içinde etki edebilir. Bu etkinin yazılımdaki hangi kodların değişmesiyle gerçekleştiğinden haberimiz bile olmayabilir. Bütün bunlar, tüm toplumsal yapıyı bir kara kutu haline getirebilir.

Andrejevic’e göre algoritmaların anlaşılmaz ve belirsiz yapısı, Aydınlanma Çağı felsefesinin temelinde yatan bilginin kitleler tarafından öylece kabul edilecek “okült” bildirimler değil herkes tarafından anlaşılabilecek şeyler olduğu yönündeki önermeyi tersine çevirmektedir. Yazara göre Aydınlanma sonrası evrenselleşmiş olan bilgi, büyük veri ve yapay zekânın marifetiyle tekrar az sayıda kişinin gizemlerine erişebileceği eski konumuna doğru evrilmektedir; devasa ölçekli verilerin binlerce değişkenin etkileşimiyle işlenmesiyle sunulan bilgi, tersine mühendislik vb. yöntemlerle açıklanamadığında, bir çeşit “inanç” ile kabul edilmektedir.

Kara kutuyu andıran algoritmik derecelendirme sorununun hafifletilmesi; kodlara ve algoritmik fonksiyonlara dair bazı regülasyon ve denetimlerin uygulanması, açık kaynak kodlu şeffaf alternatiflerin kullanımı, genel olarak kamunun bilinçlendirilmesi ve kodları yazma yetkisine sahip olan uzmanların daha duyarlı hale getirilmesiyle mümkün olacaktır. Algoritmaların çalışma biçimini ortaya çıkarmak, çalışma prensiplerindeki yanlılıkları ve güç dinamiklerini gündeme getirmek, demokrasi ve benzeri değerleri korumak açısından bir görev haline gelmiştir. Kara kutu yapısı hafiflemedikçe ya da tersine mühendislik gibi yöntemlerle çözülmedikçe algoritmik kültüre dair yapılacak çalışmaların bir yanıyla kadük kalacağı söylenebilir. Ancak bilinmezliklerin varlığı, etki ve sonuçları çözümlemeye engel değildir.

Algoritmaları kara kutu kavramına indirgemek ve “bilinemez” ön kabulüyle değerlendirmek, dikkatleri algoritmayla ilgili asıl sorunlardan uzaklaştıran bir kırmızı ringa balığı8 etkisi yaratmaya neden olabilir (Bucher, 2016). Kara kutu özellikleri ne kadar büyük olursa olsun algoritmanın toplumsal alandaki etki ve sonuçları dikkatle irdelenmelidir. Algoritma modelleri anlaşıl(a)maz ya da gizli kılınsa bile temel düzeydeki çalışma prensipleri ve hangi amaçlarla tasarlandıkları genelde belirgindir.

İnsanlar yapay zekânın veya algoritmaların nasıl çalıştığını anlamayabilir ancak onu nasıl yönlendireceklerini, daha önemlisi nasıl manipüle edeceklerini keşfetmeleri hiç zor değildir. Üstelik bu keşif çoğu zaman teknik bilgiye bile dayanmaz. Yapay öğrenmedeki deneme yanılma yöntemine karşı insanlar da deneme yanılma yöntemiyle ya da sezgisel olarak algoritmanın işleyişine karşı bazı taktikler geliştirebilir. Bu taktikler iyi ya da kötü niyetli olabilir. En bilinen örnek sosyal medya akışını kontrol etmek için belirli içeriklerin beğenilmesi, kaydedilmesi ya da yeniden gönderilmesidir. Bir gönderiyi gerçek anlamda beğenmesek bile benzer gönderilerin akışa düşmesi için beğen butonuna basabiliriz. Bunun gibi basit taktikler insanlar ve algoritmalar arasında belirli bir diyalektik oluşturarak süregitmektedir. Algoritmalar insanlardan, insanlar da algoritmalardan öğrenmektedir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir