, , , ,

Siri Cinsiyetçi Kalıpları Nasıl Yeniden Üretiyor?

Teknolojinin sınırsız imkanlarını, sosyal ve kültürel gelişimi sınırlandıracak şekilde kullanıyor olabilir miyiz? Toplumsal cinsiyet ve yapay zeka üzerine anlamlı bir tartışma…

Bu yazının orijinali Tom Ward imzasıyla Futurism’de yayınlanmıştır.

Yapay Zekanın Cinsiyeti

Süper bilgisayar mühendisleri, bir yandan bilgisayar zekası alanında sınırları zorlamaya devam ederken; diğer yandan üretimlerinde ortaya koydukları insan-biçimcilik aracılığıyla, çağ dışı cinsiyet normlarını güçlendirmeye devam ediyor olabilirler. Her ne kadar, teknolojik gelişimin başını çekseler de, bu ‘’ilerleme’’ sosyo-kültürel gelişimin dezavantajına gerçekleşiyor olabilir.

Dünyanın en iyi süper bilgisayarı bir erkeğin adına ve sesine sahip olan IBM Watson iken, neredeyse tüm sanal asistanların -Siri, Alexa, Cortanae- kadın isimlerine ve seslerine sahip olmaları, sıklıkla bir pazarlama stratejisi ile ilişkilendiriliyor.

Clinc CEO’su Jason Mars, New York Times’a verdiği demeçte, başarılı bir pazarlama için, kendi sanal asistanına ‘yardımsever, beyaz bir kadın’ sesi verdiğini çünkü ‘dünyanın kalıplaşmış önyargılarının karşılanması’na yönelik bir beklenti olduğunu söylüyor. Benzer bir argüman Stanford Üniversitesi profesörü Clifford Nass tarafından da dile getiriliyor. Nass CNN’e verdiği röportajda, insan beyninin kadın sesini beğenecek şekilde geliştiğinin geniş bir çevre tarafından kabul bulan bir olgu olduğunun altını çiziyor.

Tarihsellik

Alışkanlıklar ya da koşullanmalar, ahlaki sorumluluğun belirleyicileri olamayacağı için bu argümanlar yeterli değil. Bu tercihin ırksal karşılığı yapay zekalı asistanlara, tarihin büyük kısmında geleneksel olarak güçlü mevkilerden çok hizmet veren konumunda oldukları için, Meksikalı ya da siyahi sesi vermek olurdu.

En üretken feminist filozoflardan biri olarak kabul edilen Judith Butler, insanın penise ya da vajinaya sahip olması ile belirli şekillerde davranıyor olması arasında herhangi biyolojik bir nedensellik bulunmadığını söyler. Elbise giyen kadınlar ya da takım elbise giyenler erkekler gibi belirlenmiş cinsiyet normları, binlerce yıllık bir süreçte inşa edilir – ta ki ‘normal’ olarak görülene dek.

Profesör Nass, ‘Wired of Speech’ adlı kitabında; erkek seslerinin genellikle ‘yetkin’ ve ‘egemen’ olarak algılanmasına karşın, kadın sesinin çözüm odaklı, nazik ve yardımsever kabul edildiğinden söz eder. Butler’e göre bu görüş yalnızca, ataerkinin egemenliği boyunca bir rastlantyı gerçekmiş gibi kaplamasından kaynaklanıyor.

Gizil Koşullanma

Buradaki temel sorun, teknolojinin hayatımızda günden güne daha fazla yer ederek, koşullanmamızda daha etkin bir şekilde rol oynaması. Bu nedenle, itaatkar sanal asistanların kadın sesine sahip olması, zaman içerisinde kadınların birer asistan, yardımcı ya da hizmetçi olduğunu gösteren inatçı arketipler oluşmasına sebep olabiliyor.

Bu tarz ürün ya da hizmetlerin, kadın sesiyle sunularak daha fazla satışı ‘garantiliyor’ olması ya da kullanıcıların bu sesi daha rahatlatıcı bulması ise, bu bakış açısının doğru olduğu anlamına gelmiyor. Bu, arkaik dönemden kalma güç yapılarına meydan okuyabilmek için, önce kendilerini gösteriş biçimlerine meydan okumak gerekiyor. Sanal asistanların isimlerinin ya da seslerinin değiştirilmesi, kadınların doğaları gereği birer asistan ya da hizmetçi olduğu fikrinin pekiştirilmesini önlemek açısından büyük bir önem arz ediyor.

Ayrımcı AI

Sanal asistanların oldukça cinsiyetçi bir paket içerisinde sunulmasından daha kötü bir şey varsa, o da cinsiyetçi olacak şekilde programlanmalarıdır. Oysa programlama bir dildir ve her dil gibi tanımlamalara ihtiyaç duyar. Bu tanımlamalar, programlamacının farkında bile olmadığı önyargılar, taraflılıklar ya da kimi örtük güç yapıları ile kökleşebilir. Dolayısıyla, bir sanal asistan -bilerek ya da bilmeyerek- ayrımcı tanımlamalarla programlandığında, kendisi de ayrımcı bir karaktere bürünür.

Kate Crawford bu olguyu, New York Times’da kaleme aldığı başka bir örnekle şöyle özetliyor:

Algoritmalar genellikle, mühendisler tarafından seçilen, belirli görüntülerden beslenerek oluşturulur ve sistem bu görüntülerden oluşan bir dünya kurar. Bir sistemde, beyaz olan fotoğraflar ezici bir çoğunluğa sahipse, beyaz olmayan yüzlerin tanınması bu dünya sınırları içerisinde daha zorlu hale gelir.

Bu durumu gerçek hayattan bir örnekle açıklamak istersek, Google’in fotoğraf uygulamasında siyahilerin ‘goril’ olarak sınıflandırılmasını ele alabiliriz. Silikon Vadisi başta olmak üzere, teknoloji dünyasının neredeyse tamamının beyaz ve orta sınıf erkeklerden oluşmasının, böyle bir kategorizasyona gidilmesini büyük oranda etkilediği söylenebilir. Yaratıcılarının çeşitlilikten yoksun olması, en kötü ihtimalle baskıcı ve gerici bir yapay zeka, en iyi ihtimalle de daraltılmış ve potansiyeli kısıtlanmış bir yapay zeka anlamına gelebilir. Bu durum, sektörde daha fazla kadın araştırmacıya, teknikere ve fütüriste görev verilerek düzeltilmelidir.

Microsoft’un ırkçı ve cinsiyetçi yapay zekası Tay.ai’yi anmanın tam sırası

Bir Canavar Yaratmamak

Teknolojiyi, hayatlarımız içerisinde algımızı genişleten ve renklendiren oldukça etkin bir güç olarak konumlandırdık. Bu sebeple çeşitli programlama kararlarının doğurabileceği sonuçları, doğru şekilde anladığımızdan emin olmamız gerekiyor. Çünkü bu kararlar, bizi oldukça örtük biçimlerde koşullandırma yetisine sahip.

Teknolojik kadın asistanların, gelecekteki basmakalıp imajları ve baskıları besleyecek eğilimin ilk adımı olmamasına dikkat etmeliyiz. Bu anlamda, Google Assistant’ın ‘toplumsal cinsiyetsizlik’ hamlesini örnek almaları şirketler için akıllıca olabilir. Dahası, programcılar yapay zekalı asistanlarımızı ‘insanileştirmek’ten vazgeçerek, teknoloji ile kuracağımız iletişimi birbirimizle kurduğumuz iletişimin önüne koymamış ve insanlar arasındaki iletişimi tehlikeye atmamış olurlar.

Kaynak: Futurism

Bir Cevap Yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Sosyal Medyadan 1 Ay Uzak Durarak Öğrendiklerim

140 Karakterde Savaş: Sosyal Medya 21. Yüzyılda Çatışmayı Nasıl Yeniden Şekillendiriyor?