Ocak ayında internetteki en yaygın videolardan biri şuydu: Bir YouTube şöhreti olan Logan Paul, ağaca asılı haldeki ölü bir adamın önünde duruyordu. Japonya’daki bir ormanda “intihar alanı” adıyla bilinen yerde, 22 yaşındaki genç önce büyük bir şok yaşıyor ve ardından eğlenmeye başlıyor. “Dostum, elleri morarmış” diyor arkadaşlarına doğru dönmeden ve gülmeye başlamadan önce. “Daha önce ölü bir adamın yanında durmamış mıydın?"
Gazete Duvar'ın haberine göre;
YouTube kanalında, çoğunluğu genç abonelerden oluşan 16 milyon takipçisi olan Paul, 24 saat sonra ortaya çıkan öfkeli tepkiler karşısında YouTube’dan bu videoyu kaldırdı. Videoların 6 milyon görüntüleme alması ve YouTube’un beğenilen videolar listesine girmesi dikkatleri bu siteye yöneltti.
Ertesi gün, YouTube’daki videonun bir kopyasını izledim. Ardından, YouTube’un video oynatıcısının sağ kolonunda sunduğu ve önerdiği videolardan “Bir sonraki” yazan resimlere tıkladım. Otomatik olarak oynayan videoların bulunduğu sütun, bizi Google’ın video yayın platformunda daha çok zaman geçirmeye teşvik ediyor. Bunun beni nereye götürebileceğini merak ettim.
Sorumun cevabı, Logan Paul’ün çılgına dönmüş genç taraftarlarıyla dalga geçen insanların videolarından oluşan bir karışımdı; ardından CCTV’nin bir şeyler çalan gençleri gösterdiği bir video izledim ve birkaç tıklama sonrasında tuhaf, ev yapımı ıvır-zıvırla çekilen dişlerin sergilendiği bir video karşıma çıktı.
Tarayıcıdaki arama geçmişimi temizledim, çerezleri sildim ve YouTube’un önerileri kişiselleştirmediğinden emin olmak amacıyla tarayıcıyı ‘gizli mod’da açtım. Söz konusu olan, beni kendi tarifesine göre bir seyahate çıkaran bir yazılımdı ve yaklaşık beş altı yaşlarındaki iki oğlanın birbirine saldırıp hunharca vurduğu bir video ile doruk noktasına vardı.
KULLANICI SAYISI 1.5 MİLYARI AŞTI
Dünya genelinde 1,5 milyar YouTube kullanıcısı bulunuyor; televizyon sayısı ise bulunduğu hane halkının sayısından bile fazla. Kullanıcıların izlediği videolar bu yazılım eliyle biçimlendiriliyor; akıllı yazılım hem bir önceki video ile bağlantılı olanları tespit etmek hem de (istatistiksel olarak söylersek) bir kişinin ekrana takılıp kalmasını sağlamak amacıyla, “sonraki” 20 videoyu tanımlayabilmek için milyarlarca videoyu eler ve sıralar.
Şirket, kullandıkları yazılımın YouTube’un büyümesindeki en önemli güç olduğunu ifade ediyor. Formülün işleyişine dair birkaç basın açıklamasından birinde (yazılımın derin sinir ağlarını açıklayan, videolar ve bunları izleyen kişiler hakkında hazırlanmış oldukça büyük bir veri havuzu sağlayan akademik bir çalışma), YouTube mühendisleri yazılımı “yaratılmış olan en geniş ölçekli ve en kendine has endüstriyel öneri sistemi” olarak nitelendiriyor.
Yazılım, son günlerde en tartışmalı konulardan biri haline geldi. Yazılımın, Las Vegas katliamı hakkındaki komplo teorilerini desteklediği ve sunduğu önerilerle, İngiliz çizgi film karakteri olan Peppa Pig’in babasını yediği veya çamaşır suyu içtiği karikatürler gibi rahatsız edici içerikler barındırdığı, ayrıca çocukları hedef alan tehlikeli bir alt-kültür anlayışını yaygınlaştırdığı ifade ediliyor.
Google, bu tür tartışmaları “Whac-A-Mole” (1976 yılında piyasaya çıkan ve tokmaklarla bir masadaki deliklerden çıkan kuklalara hızla vurmayı gerektiren bir oyun) benzeri bir hızla cevapladı: İnsan yöneticilerinden oluşan ordusunu büyütmek, gazeteciler tarafından tespit edilen ve rahatsız edici içeriğe sahip YouTube videolarını kaldırmak ve bunları ekleyen kanalların mali gelirlerini azaltmak. Ancak bu hamlelerin hiçbirisi, YouTube’a güç veren yapay zekâya ilişkin bazı şeylerin kötüye gittiği yönünde artan tedirginliği azaltmaya yetmedi.
YouTube’un öneri programı, gerçekten rahatsız edici içeriği tanımlamak amacıyla geliştirildiyse, bunu neden yapmıyor? Peki, ya siyasi hayatımıza neler yapıyor?
ÇARPITILMIŞ GERÇEKLİK
Bunlar yanıtlaması kolay sorular değil. Bütün küresel teknoloji şirketleri gibi YouTube da yaşamımıza biçim veren yazılımlarını incelememize müsaade etmiyor. Bahsi geçenler tabi ki gizli formüller ve özel yazılımlar; yalnızca görevlendirilmiş olan mühendisler yazılım üzerinde çalışabiliyor. Yapay zekâ üzerine doktora yapmış olan 36 yaşındaki Fransız bilgisayar programcısı Guillaume Chaslot da bu mühendislerden biriydi.
Google’da çalıştığı üç yıl boyunca, tavsiye sistemi üzerinde çalışan bir YouTube mühendis ekibiyle birlikte birkaç aylığına görevlendirilmişti. Yaşadığı deneyim, YouTube’un yazılımlarının seçtiği öncelikleri tehlikeli bir biçimde çarpıttığına karar vermesine yol açmış.
Merkezi Kaliforniya eyaletindeki Berkeley kentinde olan “YouTube gerçekliği andıran bir ortam; ancak site üzerinde daha fazla zaman geçirmenizi sağlamak amacıyla çarpıtılmış durumda,” diyor. “Tavsiye yazılımı doğru veya dengeli içeriği olanı ya da demokrasi açısından sağlıklı olanı önünüze getirmiyor.”
Chaslot, algoritmanın hiçbir zaman aynı şekilde kalmadığını belirtiyor. Farklı noktalara verdiği önem sürekli biçimde değiştiriyor: Bir kullanıcının görüntüleme davranışları ya da yeni bir video tıklanmadan önce bir videonun izlenme süresi yazılım açısından önemli değil.
MÜDAHALE ETMEK İSTEYİNCE KOVULDU
Chaslot, 2013 yılında Google tarafından performans sorunları öne sürülerek işten atıldı. İnsanların izlediği içeriği çeşitlendirebilecek değişiklikleri önermek hususunda kendisiyle benzer düşünen mühendislerle birlikte, kişisel zamanlarını kullanarak bir araya gelme hususunda karar aldıktan ve şirket bünyesinde bir değişim amacıyla işe koyulduktan sonra, işten ayrılması istenmiş.
Kendisi, örneğin, insanların hoşuna gitmeyen videoları göstermeye devam eden basit bir hatadan kaynaklanabilecek çarpıklıklar hakkında kaygılanıyordu; ya da yazılım, sadece mevcut görüşleri güçlendiren bir içeriği ortaya koyan filtre balonları yaratıyordu. Chaslot, kendisi tarafından önerilen düzeltmelerinden hiçbirinin yöneticiler tarafından gerçekleştirilmediğini söylüyor. “YouTube’un sahte haberleri engellemek ve insanların gördükleri videoların kalitesini ve çeşitliliğini artırmak için yazılımlarını değiştirebilmesi için birçok yol var,” diyor. “YouTube’u içeriden değiştirmeye çalıştım ama işe yaramadı.”
YouTube, Chaslot’un şirkette çalıştığı dönemden beri öneri sisteminin geliştiğini ve günümüzde “izleme süresini artırmak için iyileştirmenin ötesine geçtiğini” beyan ediyor. Şirket, 2016 yılında, kullanıcı “memnuniyetini” göz önünde bulundurarak, örneğin anket verilerini kullanarak veya bir videonun kaç defa “beğenildiğini” göz önüne alarak “insanların seyrettiklerinden memnun kalmalarını sağlamak” amacıyla izlemeye aldığını belirtiyor. YouTube, aramalar ve öneriler kısmında gösterilen haber içeriğini iyileştirmek ve “provoke edici dinî veya ayrımcı” içerikli videoların tanıtımını engellemek için 2017’de ek değişiklikler yapıldığını da açıklamasına ekliyor.
Chaslot’un programladığı yazılım, YouTube’un şeffaf olmayan öneri yazılımına açılan ilk pencereyi sunmak üzere tasarlandı. Yazılım, bir videoda başlayan ve ardından önerilen videolar zincirini takip eden bir kullanıcının davranışını canlandırıyor (Logan Paul videosunu izledikten sonra benim de yaptığım gibi) ve geçen zamanda ortaya çıkan verileri izliyor.
Bir kelimenin aranması vasıtasıyla videoları buluyor, başlamak için “çekirdek” bir video seçiyor ve YouTube’un önerdiği “bir sonraki” sütununda birkaç katman videosu kaydediyor. Listeye alınan videoların kullanıcıya kişiselleştirilmiş videolardan ziyade YouTube’un genel önerileri olarak sunulması sağlandığındaysa, görüntüleme geçmişi olmaksızın bu işlem gerçekleştiriliyor. Ayrıca, YouTube yazılımın önerdiği seçeneklerin bir çerçevesini çizmek için, öneriler hakkındaki veri katmanlarını biriktirerek binlerce kez işlemi tekrarlıyor.
Chaslot, son 18 ay boyunca Fransız, İngiliz ve Alman seçimleri, küresel ısınma ve kitlesel olaylar esnasında sunulan YouTube içeriğindeki tarafgirliği ortaya çıkarmak amacıyla bu programı kullandı ve bulgularını web sitesinde (Algotransparency.org) yayınladı. Çalışmaların her biri farklı bir kusuru tespit ediyor; öte yandan, araştırma, YouTube’un sistematik olarak ayrımcı, sansasyonel ve karmaşık videoları öne çıkardığını ortaya koyuyor.
Mesela, Chaslot’un yazılımında “Michelle Obama kimdir?” sorusunu arayarak bir çekirdek video bulup ardından önerileri zincirini “yukarıya doğru” izlediğinizde, önerilen videolardan birçoğu “erkek” olduğunu gösteriyor. Program tarafından tespit edilen ve YouTube’un Papa’ya ilişkin önerdiği videolardan yüzde 80’inden fazlası Katolik lideri “kötü”, “şeytansı” veya “Tanrı düşmanı” olarak tanımlıyor. Chaslot, “YouTube’da kurgu gerçeklikten daha başarılı,” diyor.
Chaslot tarafından kullanılan kodu gözden geçiren ve Tow Dijital Gazetecilik Merkezi’nde araştırma müdürü olan Jonathan Albright, programı görece basit bir yazılım ve saygın bir yaklaşım olarak nitelendiriyor. “Bu araştırma, YouTube’un politik ekosisteminin belirgin yönünü yakaladı,” diyor. “Daha önce böyle bir araştırma yapılmamıştı,” diye ekliyor.
Araştırmacı bir muhabir ve veri tabanı analizinde uzman olan Erin McCormick ile videoların izini sürmek, sıralamak ve kategorilere ayırmak amacıyla haftalar boyunca çalıştım. Daha en başta, ne kadar aşırı ve karmaşık videolar önerildiğini ve neredeyse hepsinin Clinton karşıtı içeriğe sahip olduğunu gördüğümüzde şaşkına döndük.
YouTube’un önerdiği bazı videolar, görmeyi umduğumuz türdendi: Başkanlık tartışmaları, TV haber videoları, “Saturday Night Live” skeçleri. Ayrıca, iki adayın konuşmalarının videoları da mevcuttu; bunları da bulduk ama veri tabanında Trump lehine ve Clinton’dan çok daha fazla sayıda YouTube tavsiyesi olan konuşmalar bulunuyordu.
Ancak en ilgi çekici olan nokta, Chaslot’un yazılımının Clinton karşıtı komplo videolarının diğer videolarıyla kıyaslandığında “yukarıda” görünme sıklığını tespit etmesiydi.
Baktığımız örnekler, Chaslot’un vardığı sonuçların doğru olduğunu gösteriyor: YouTube’un, rakibine oranla Trump’ı destekleyen videoları altı kat daha fazla tavsiye ettiği ortadaydı. YouTube, muhtemelen yazılımını bir adayı diğeri karşısında öne çıkaracak biçimde programlamamıştı. Öte yandan, elimizdeki kanıtlara bakınca tam olarak olan şey buydu.
Yorumcuların dikkatine… • İmlası çok bozuk, • Büyük harfle yazılan, • Habere değil yorumculara yönelik, • Diğer kişilere hakaret niteliği taşıyan, • Argo, küfür ve ırkçı ifadeler içeren, • Bir iki kelimelik, konuyu zenginleştirmeyen, yorumlar KESİNLİKLE YAYIMLANMAYACAKTIR. |
Bunlar da ilginizi çekebilir...