• Anasayfa
  • Favorilere Ekle
  • Site Haritası

Bağımsız Araştırmacı Yazar Yaşar BAŞKAYA                E-Posta: ybaskaya@gmail.com

Algoritmik Kuşatma

 

Algoritmik Kuşatma: Siyasal İletişimde Dijital Manipülasyon ve Bilişsel Güvenlik

Hazırlayan: Yaşar Başkaya, Aralık 2025*

Abstract-Öz

Bu çalışma, siyasal iletişimin geleneksel araçlardan sıyrılarak yapay zekâ (YZ) ve büyük veri analitiği ekseninde geçirdiği "algoritmik dönüşümü" ve bu dönüşümün demokratik süreçler üzerindeki etkilerini incelemektedir. Dijital ayak izlerinin rızasız toplanarak psikometrik profillere dönüştürülmesi, seçmenleri rasyonel öznelerden ziyade algoritmalar tarafından yönlendirilen pasif birer "pazarlama nesnesi" konumuna itmiştir. Makalede, "Slopaganda" olarak adlandırılan kitle üretimli yapay zekâ içeriklerinin ve platformların denetlenemez "kara kutu" yapılarının, toplumda nasıl bir epistemik belirsizlik ve yankı odaları aracılığıyla kutuplaşma yarattığı analiz edilmektedir. Özellikle kurumsal denetimin zayıf olduğu Küresel Güney ülkelerinin bu manipülasyonlara karşı savunmasızlığına dikkat çekilmektedir. Çalışma, araştırmacıların veriye erişiminin kısıtlandığı "APIcalypse" krizine karşın, bağımsız denetim mekanizmalarının ve yasal akreditasyon sistemlerinin kurulmasını savunmaktadır. Sonuç olarak, algoritmik kuşatmaya karşı bireylerin dezenformasyona karşı "aşılanması" (prebunking) yoluyla bilişsel bağışıklığın güçlendirilmesi ve bireysel özerkliği piyasa çıkarlarının üstünde tutan yeni bir dijital toplumsal sözleşmenin gerekliliği vurgulanmaktadır.

Anahtar Kelimeler: Algoritmik Kuşatma, Psikometrik Profilleme, Slopaganda, Bilişsel Güvenlik, Mikro-Hedefleme, Epistemik Kriz.

* Yaşar Başkaya: Bağımsız Araştırmacı

 

1. Giriş: Siyasal İletişimin Algoritmik Dönüşümü

Siyasal iletişim, geleneksel medya araçlarının ötesine geçerek yapay zekâ (YZ) ve büyük veri analitiğini stratejik bir zorunluluk haline getiren dijital bir dönüşüm yaşamaktadır (Sayın O., 2025). Bu dönüşüm, demokrasinin "algoritmik dönüşümü" olarak adlandırılmakta ve siyasal aktörlerin kamuoyu üzerindeki etkisini daha önce görülmemiş bir boyuta taşımaktadır (Boverman, 2025). Dijital teknolojiler başlangıçta daha fazla şeffaflık ve katılım vaat etmiş olsa da gelinen noktada bu araçlar "bilgi savaşı" yöntemlerini açık propagandadan, algoritmik olarak güçlendirilmiş örtülü nüfuz operasyonlarına kaydırmıştır (Mansur, 2025).

Yapay zekâ ve büyük veri analitiği, artık siyasal iletişimin sadece bir yardımcısı değil, merkezî ve stratejik bir itici gücü haline gelmiştir. Siyasal aktörler; doğal dil işleme, makine öğrenimi ve duygu analizi gibi teknikleri kullanarak seçmenlerin davranışlarını tahmin edebilmekte ve onlara en hassas oldukları konularda özelleştirilmiş söylemler sunabilmektedir (Sayın O., 2025). Bu süreçte her bir bireyin dijital ayak izleri, onların rızası dışında ya da yanıltıcı yöntemlerle toplanarak "psikometrik profillere" dönüştürülmektedir. Özellikle Cambridge Analytica skandalıyla gün yüzüne çıkan bu yöntemler, insanların korkularını, zaaflarını ve içsel motivasyonlarını hedef alan birer "bilgi silahı" olarak kullanılmaktadır.

Doğal dil işleme (NLP) ve makine öğrenimi gibi teknikler, büyük veri setlerini işleyerek seçmen davranışlarını tahmin etme ve kişiselleştirilmiş politik söylemler sunma kapasitesine sahiptir (Sayın O., 2025). Bu süreç, teknoloji devlerinin bilgi kanalları üzerindeki hakimiyetiyle birleşerek siyasal aktörlerin kamuoyunu manipüle etme gücünü daha önce görülmemiş bir ölçeğe taşımıştır (Tanase, 2020).

Modern toplumlarda seçmenlerin büyük çoğunluğu ve hatta siyasal karar vericiler, maruz kaldıkları bu algoritmik kuşatmanın teknik detaylarından ve psikolojik derinliğinden habersizdir (Devran & Özcan, 2020). Üretken yapay zekâ teknolojileriyle (GenAI) desteklenen ve "slopaganda" olarak adlandırılan kitlesel içerik üretimi, internetteki bilgi kalitesini kalıcı olarak bozmakta ve bireylerin neyin gerçek neyin sahte olduğunu ayırt edemediği bir "epistemik belirsizlik" ortamı yaratmaktadır (Klincewicz, Alfano, & Fard, 2025). Teknoloji şirketlerinin veriye dayalı iş modelleri, toplumları kutuplaştıran "yankı odaları" oluşturarak demokratik tartışma zeminini tamamen ortadan kaldırmaktadır. Bu durum, seçmenlerin hür iradeleriyle karar vermelerini engellemekte ve onları algoritmalar tarafından yönlendirilen pasif birer "pazarlama nesnesi" konumuna itmektedir (Wilson, 2017).

Teknolojik ilerlemenin hızı ile mevcut kurumsal ve yasal düzenlemeler arasındaki büyük uçurum, demokrasileri bu yeni nesil tehditlere karşı savunmasız bırakmaktadır. Demokratik dürüstlüğün ve seçim güvenliğinin korunması, artık sadece teknik bir mesele değil, doğrudan bireylerin özerkliğini korumayı amaçlayan bir bilişsel güvenlik mücadelesidir (Mansur, 2025).

Bu makalenin temel amacı, hem bu kuşatmaya maruz kalan halkı hem de bu süreçleri yönetmekle yükümlü olan siyasetçileri, algoritmik manipülasyonun işleyişi hakkında bilgilendirmek ve bireysel özerkliği yeniden tesis edecek çözüm yollarını tartışmaktır.

Analoji: Eski tip siyasal iletişim, bir meydanda toplanan kalabalığa hoparlörle seslenmek gibidir; herkes ne söylendiğini bilir ve duyar. Algoritmik kuşatma ise, bu meydandaki her bir kişinin kulağına aynı anda ama farklı şeyler fısıldayan binlerce görünmez varlık gibidir. Birine korku dolu hikayeler anlatılırken, diğerine tam zıttı tatlı bir rüya vaat edilir; ancak kimse diğerine ne fısıldandığını bilmediği için meydandaki ortak gerçeklik algısı yok olur.

 

Şekil 1 Veri Sömürgeciliği ve Psikometrik Profilleme (Üretim Kaynağı: NotebookLM)

2. Veri Sömürgeciliği ve Psikometrik Profilleme

Dijital çağda veri, petrolü geride bırakan en değerli ekonomik ve siyasal varlık haline gelmiştir. "Veri Sömürgeciliği" (Data Colonialism), tarihsel sömürgecilik pratiklerini insanların dijital ayak izlerini ve mahrem deneyimlerini ele geçirmeye dönüştürmektedir (Özcan, 2021). Bu sistemde bireyler, kişisel deneyimlerinin "kazılıp çıkarıldığı" ve başkalarının amaçları doğrultusunda paketlendiği birer veri kaynağına dönüşmüştür.

2.1. Akademik Kökenler: "Beğeniler" Üzerinden Karakter Tahmini

Siyasal manipülasyonun merkezinde yer alan psikometrik profilleme, bireylerin Facebook "Beğeni"leri gibi basit dijital izlerinden yola çıkarak; cinsel yönelim, dini inanç ve siyasi görüş gibi hassas bilgilerin %85 ile %95 arasında bir doğrulukla tahmin edilmesini sağlar (Kosinski, Stillwell, & Graepel, 2013).

2013 yılında yapılan araştırmalar, bireylerin sadece Facebook "Beğeni"leri üzerinden cinsel yönelimlerinden siyasi görüşlerine kadar pek çok hassas bilginin yüksek doğrulukla tahmin edilebileceğini kanıtlamıştır. Bir kullanıcının profili; 70 beğeni ile bir arkadaşından, 150 beğeni ile ailesinden ve 300 beğeni ile eşinden daha iyi tanımlanabilmektedir (Robertson, 2018).

2.2. Teknik Düzenek: "This Is Your Digital Life" ve Veri Hasadı

Cambridge Analytica, bu akademik birikimi ticari ve siyasal kazanca dönüştürmek amacıyla 2014 yılında veri bilimci Aleksandr Kogan ile iş birliği yapmıştır. Cambridge Analytica, "This Is Your Digital Life" (TYDL) uygulamasıyla 270.000 kullanıcıdan yanıltıcı rıza alarak veri toplamıştır. Facebook'un Graph API v1.0 arayüzündeki bir boşluk sayesinde, testi çözenlerin milyonlarca arkadaşının verisi de hasat edilmiş ve toplamda yaklaşık 87 milyon kullanıcının profiline rızasız erişilmiştir (Kang & Frenkel, 2018).

2.3. Psikometrik Motor: OCEAN Modelinin Yapısı

Özellikle hasat edilen verilerin anlamlandırılmasında OCEAN (Açıklık, Sorumluluk, Dışadönüklük, Uyumluluk, Duygusal Dengesizlik) modeli kullanılmıştır.

Kişilik Boyutu (OCEAN)

Tanımı ve Temel Eğilimler

Siyasal Manipülasyon / Hedefleme Stratejisi

Açıklık (Openness)

Yeni deneyimlere, sanata, entelektüel meraklara ve değişime olan yatkınlık.

Düşük açıklığa sahip kitlelere geleneksel kodlar ve aidiyet vurgulu içerikler sunulur.

Sorumluluk (Conscientiousness)

Planlı, disiplinli, düzenli hareket etme ve sorumluluk alma eğilimi.

Seçmen davranışlarını tahmin etmede ve kişiselleştirilmiş politik söylemler oluşturmada kullanılır.

Dışadönüklük (Extraversion)

Sosyallik seviyesi, girişkenlik ve dış dünyadan uyarılma ihtiyacı.

Bireylerin dijital ayak izleri üzerinden sosyal etkileşim kapasitelerinin analiz edilmesini sağlar.

Uyumluluk (Agreeableness)

Başkalarıyla iş birliği yapma, şefkat gösterme ve güven duyma eğilimi.

Seçmenlerin rasyonel öznelerden ziyade psikolojik zafiyetlerine göre mesaj üretimine temel oluşturur.

Duygusal Dengesizlik (Neuroticism)

Kaygı, korku, stres ve negatif duygulara olan yatkınlık seviyesi.

Yüksek seviyedeki bireylere korku tetikleyici "karanlık reklamlar" (dark ads) sunularak manipüle edilir.

Bu model, bireylerin karakterlerini beş ana boyutta sınıflandırır:

Bu profiller üzerinden seçmenlerin psikolojik zafiyetlerine göre özelleştirilmiş mesajlar üretilmiştir. Örneğin, kaygılı bireylere korku tetikleyici "karanlık reklamlar" (dark ads) sunulurken, belirli etnik gruplarda seçmen bastırma kampanyalarıyla siyasal ilgisizlik (apatia) kurgulanmıştır (Raychaudhuri, 2025).

2.4. Siyasal Silah Haline Getirme: Davranışsal Mikro-Hedefleme

Oluşturulan psikometrik profiller, siyasal iletişimin doğasını kökten değiştirmiş ve "kitle iletişiminden" "bireysel kuşatmaya" geçişi başlatmıştır. Artık tüm seçmenlere aynı genel mesajı vermek yerine, her bireyin "psikolojik zafiyetlerine" göre özelleştirilmiş mesajlar üretilmektedir. Şirket CEO'su Alexander Nix'in "geleneksel reklamcılığın ölümü" olarak tanımladığı bu yöntemle seçmenler, 32 farklı kişilik tipine ayrılmıştır. Ancak bu noktada, mikro-hedeflemenin gerçek gücü ile bu teknolojiyi satan şirketlerin pazarlama iddiaları arasındaki farkı analiz etmek, "algoritmik determinizm" tuzağına düşmemek için kritiktir.

2.4.1. Algoritmik Determinizm mi, "Yılan Yağı" mı?

Siyasal iletişim literatüründeki bir tartışma, mikro-hedeflemeyi her şeyi belirleyen (determinist) bir güç olarak görürken, diğer taraf bunu dijital çağın bir "pazarlama efsanesi" olarak nitelemektedir. Cambridge Analytica vakasında görüldüğü üzere, şirketin kullandığı modellerin istatistiksel doğruluğu akademik çevrelerde sıklıkla sorgulanmıştır. Bazı araştırmacılar, Facebook beğenileri üzerinden yapılan tahminlerin bireysel düzeyde bazen "yazı-tura" atmaktan biraz daha iyi sonuç verdiğini belirterek, bu yöntemi etkisi abartılmış bir "yılan yağı" (pazarlama hilesi) olarak tanımlamaktadır. Buradaki asıl tehlike, algoritmanın seçmeni bir kukla gibi oynatmasından ziyade, yarattığı bilgi asimetrisi ve şeffaflık eksikliğidir.

2.4.2. İkna (Persuasion) ve Mobilizasyon Paradoksu

Mikro-hedeflemenin işleyişinde iki temel strateji öne çıkmaktadır. Yaygın kanının aksine, bu araçlar karşıt görüşlü bir seçmeni "saf değiştirmeye" ikna etmekten çok, halihazırda belirli bir yöne eğilimli olan seçmeni harekete geçirmekte (mobilizasyon) başarılıdır:

  • Korku Temelli Hedefleme: "Duygusal Dengesizlik" (Neuroticism) seviyesi yüksek, yani kaygıya yatkın bireylere; suç oranlarının arttığı veya ekonomik çöküşün eşikte olduğu gibi korku tetikleyici mesajlar sunulmaktadır. Bu reklamlar genellikle "Karanlık Reklam" (Dark Ads) statüsündedir; yani sadece hedeflenen kişi tarafından görülür ve kamusal denetimden kaçar (Benkler, Faris, & Roberts, 2018).
  • Gelenek ve Aidiyet: "Açıklığı" (Openness) düşük, geleneklerine bağlı kitlelere ise duygusal bağ kuran ve muhafazakâr kodlara hitap eden içerikler gönderilmektedir. Örneğin ABD'de silah hakları, bir "babanan oğula geçen miras" vurgusuyla bu gruba pazarlanmıştır (Nix, 2016).
  • Seçmen İlgisizliği ve Bastırma (Apatia): Belki de en yıkıcı yöntem, ikna etmek yerine seçmeni sandıktan soğutmaktır. Trinidad ve Tobago örneğinde "Do So" (Oy Verme) gibi sahte "direniş" kampanyalarıyla, belirli etnik gruplardan gençlerin siyasal ilgisizliği (apatia) kurgulanmış ve demokratik katılım sabote edilmiştir (Nix, 2016).

2.4.3. Epistemik Kuşatma ve "Kara Kutu" Etkisi

Mikro-hedeflemenin bir "efsane" olup olmadığı tartışılsa da yarattığı "Kara Kutu" (Black Box) sorunu gerçektir. Algoritmaların neden belirli bir içeriği, belirli bir kişiye, belirli bir anda gösterdiğini dışarıdan denetlemek imkansızdır. Bu durum, siyasetçilerin farklı gruplara birbirleriyle çelişen ama kimsenin aynı anda göremediği "mikro-vaatler" vermesine olanak tanır. Sonuç olarak, veri sömürgeciliği ve psikometrik profilleme; seçmenlerin rasyonel birer siyasi özne olma vasfını ellerinden almış, onları algoritmik birer laboratuvar nesnesine dönüştürmüştür.

Bu süreci bir benzetme ile netleştirelim: Veri sömürgeciliği, seçmenlerin zihin haritasını en ince kılcal damarlarına kadar çıkaran "bilişsel bir röntgen cihazı" gibidir. Siyasal aktörler, bu cihaz sayesinde bireyin neresinin ağrıdığını (korkularını) veya neresinin okşanmasından hoşlandığını (zaaflarını) görürler. Siyasal silahlandırma ise, bu röntgen bilgilerini kullanarak hastaya (seçmene) iyileştirici bir ilaç vermek yerine, onu kendi çıkarları doğrultusunda hareket etmeye zorlayan "hipnotik fısıltılar" yaymaktır.

 

 

Şekil 2 Metodolojik Kriz: APIcalypse ve Kara Kutu Sorunu (Üretim Kaynağı: NotebookLM)

3. Metodolojik Kriz: APIcalypse ve Kara Kutu Sorunu

Algoritmik kuşatmayı bilimsel yöntemlerle analiz etmenin önündeki en büyük engel, dijital ekosistemin araştırmacılara karşı giderek kapanan yapısıdır. Cambridge Analytica skandalı sonrası platformların "veri güvenliği" bahanesiyle dış dünyaya kapılarını kapatması, literatürde "APIcalypse" (API Kıyameti) olarak adlandırılan metodolojik bir krize yol açmıştır. Bu kriz, sadece veriye erişimi zorlaştırmakla kalmamış, aynı zamanda üretilen bilimsel bilginin tarafsızlığını ve temsil kabiliyetini de zedelemiştir.

3.1. APIcalypse: Araştırmacıların "Kör" Noktası

Geçmişte Facebook Graph API v1.0 gibi araçlar, araştırmacıların toplumsal eğilimleri ve manipülasyon ağlarını geniş ölçekte incelemesine olanak tanırken; günümüzde platformlar, veriyi bir "ticari sır" ve "stratejik varlık" olarak mühürlemiştir.

  • Kontrolsüz Kazıma (Scraping): Bazı araştırmacılar, resmi yollar kapalı olduğu için sitelerin kodlarını "kazıyarak" veri toplamaya çalışmaktadır. Bu yöntem hem etik bir gri alan oluşturmakta hem de Cambridge Analytica'nın kullandığı yöntemlere benzer şekilde kötüye kullanıma açık bir zemin hazırlamaktadır (Markham, 2012).
  • Akredite Erişim Sorunu: Meta ve Google gibi devlerin sunduğu kısıtlı araştırma araçları, genellikle platformun kendi belirlediği sınırlar içinde kalmakta ve "bağımsız denetim" ilkesini zedelemektedir.

3.2. "Kolay Veri" Tuzağı ve Bilimsel Yanlılık (Selection Bias)

APIcalypse sonrası araştırmacıların karşılaştığı en büyük tehlike, veriye erişimin nispeten daha kolay olduğu mecralara (özellikle X/Twitter) aşırı yoğunlaşmaktır. Bu durum, bilimsel literatürde ciddi bir "temsil krizi" yaratmaktadır.

  • X (Twitter) Odaklılık Yanılgısı: Akademik çalışmaların kahir ekseriyeti X verilerine dayanmaktadır. Ancak X kullanıcısı, demografik ve sosyo-ekonomik açıdan toplumun tamamını temsil etmemektedir. Bu mecradaki etkileşimleri "toplumun genel eğilimi" gibi okumak, "Ekolojik Yanılgı" (Ecological Fallacy) riskini doğurur.
  • Karanlık Sosyal Medya (Dark Social): Manipülasyonun en yoğun ve en az denetlenebilir olduğu mecralar olan WhatsApp, Telegram ve kapalı Facebook grupları, metodolojik olarak "erişilemez" durumdadır. Bu "karanlık alanlarda" dönen algoritmik kuşatma, bilimsel radarların altında kalmakta ve buzdağının görünmeyen kısmını oluşturmaktadır.

3.3. Linguistik ve Kültürel Kısıtlılık: Türkçe Bağlamı

Algoritmik denetim ve dezenformasyon analizi araçlarının çoğu, İngilizce odaklı veri setleriyle eğitilmiştir. Bu durum, Türkiye gibi farklı dil yapısına ve kültürel kodlara sahip coğrafyalarda ciddi bir "bilimsel körlük" yaratmaktadır.

  • Çeviri ve Bağlam Hataları: Batı merkezli algoritmalar, Türkçedeki ironiyi, yerel argoyu veya kültürel metaforları anlamakta yetersiz kalmaktadır. Bir siyasal söylemin "eleştiri" mi yoksa "dezenformasyon" mu olduğunu ayırt edemeyen modeller, yanlış sınıflandırmalara yol açmaktadır.
  • Küresel Güney ve Veri Eşitsizliği: Kaynakların kısıtlılığı nedeniyle Türkçe içeriklerin otomatik denetimi, İngilizceye oranla çok daha düşük bir başarı oranına sahiptir. Bu "linguistik boşluk", algoritmik manipülatörler için korunaklı bir oyun alanı yaratmaktadır.

3.4. "Kara Kutu" (Black Box) ve Algoritmik Sorumluluk

Algoritmalar, sadece veriyi işleyen tarafsız matematiksel formüller değil; şirketlerin ticari çıkarlarını ve bazen siyasi önyargıları barındıran "kara kutulardır".

  • Denetlenemeyen Tavsiye Sistemleri: YouTube veya TikTok'un bir kullanıcıyı neden radikalleşme eğilimi gösteren içeriklere yönlendirdiği, bu algoritmaların "iç işleyişi" bilinmediği sürece bir sır olarak kalmaktadır.
  • Tersine Mühendislik Zorlukları: Araştırmacılar, dışarıdan gözlem yaparak (çıktı üzerinden girdiyi tahmin ederek) algoritmayı anlamaya çalışsalar da platformların sürekli yaptığı "sessiz güncellemeler" bu çabaları boşa çıkarmaktadır.

Sonuç olarak, metodolojik kriz; sadece bir teknik sorun değil, demokrasinin denetlenemez bir alana itilmesi sorunudur. Algoritmik kuşatmayı kırmak için önce bu kuşatmayı bilimsel olarak "görünür" kılacak yeni veri politikalarına ve yerel dilleri önceleyen metodolojik araçlara ihtiyaç vardır.

3.5. Çözüm: Bireysel Güvenden Yasal Denetim Mekanizmalarına

Sıradan bir kullanıcının, kapısını çalan bir araştırmacının niyetini teyit etmesi ya da ona veri teslim etmesi, "This Is Your Digital Life" örneğinde görüldüğü gibi büyük bir güvenlik riskidir. Bu nedenle çözüm, bireylerin kendi verilerini araştırmacılara "bağışlaması" değil, devletlerin ve uluslararası kurumların sistemik denetim yetkisini devralmasıdır.

Bu bağlamda iki temel dayanak öne çıkmaktadır:

Yasal Olarak Zorunlu Kılınmış Bağımsız Denetim: AB'nin Dijital Hizmetler Yasası (DSA) ve Yapay Zekâ Yasası (AI Act) kapsamında önerilen model, denetim yükünü kullanıcıdan alıp devlete verir. Bu yasalara göre, çok büyük platformlar verilerini halka değil, "incelenmiş ve akredite edilmiş araştırmacılara" (vetted researchers) açmak zorundadır (EDPS, 2018).

Sistemik Akreditasyon ve Teknik Otopsi: Araştırmacıların güvenilirliği; üniversiteler, etik kurullar ve bağımsız yargı organları tarafından merkezi olarak teyit edilir. Veri, kullanıcıya bir "onay kutusu" tıklatılarak değil, platforma getirilen yasal bir zorunlulukla, sadece bu akredite kurumlara güvenli sunucular üzerinden açılır. Böylece "algoritmik hesap verebilirlik" sağlanırken, kullanıcı manipülasyondan korunmuş olur (Kröger, Errenst, Nau, & Ojanperä, 2024).

Özetle: Algoritmik kuşatmayı kırmanın yolu, her vatandaşı bir veri uzmanı olmaya zorlamak değildir. Aksine, halkın hür iradesini temsil eden bağımsız kurumların, bu teknoloji devlerini "bağışıklık denetçisi" gibi yasal olarak denetlemesini sağlamaktır.

Bu metodolojik krizi bir benzetmeyle açıklayalım: Platformlar, kapıları kilitli ve pencereleri siyah filmle kaplanmış devasa kimya fabrikaları gibidir. Fabrika sahibi (platform), "İçeride her şey yolunda, çevreye zehirli gaz (manipülasyon) yaymıyoruz" diyor. Ancak biz neyin solunduğunu bilmiyoruz. Bizim önerimiz, yoldan geçen her vatandaşa bu fabrikaya girip numune toplamasını söylemek değildir; bu hem tehlikeli hem de imkansızdır. Gerçek çözüm, devlet tarafından sertifikalandırılmış bağımsız çevre müfettişlerinin (akredite araştırmacıların) yasal bir zorunlulukla fabrikaya girmesi, bacaları (algoritmaları) ölçmesi ve sonuçları kamuoyuna açıklamasıdır.

 

 

Şekil 3 Üretken Yapay Zekâ ve Slopaganda Bilginin Değersizleştirilmesi (Üretim Kaynağı: NotebookLM)

4. Üretken Yapay Zekâ ve "Slopaganda" Bilginin Değersizleşmesi ve Epistemik İstikrarsızlık

Dijital bilgi ekosistemi, Üretken Yapay Zekâ (GenAI) ve Büyük Dil Modellerinin (LLM) yükselişiyle birlikte, geleneksel propagandanın ötesine geçen yeni ve yıkıcı bir içerik türüyle karşı karşıya kalmıştır. Literatüre "Slopaganda" (Slop/Çöp-Yapay Zekâ İçeriği ve Propaganda kavramlarının birleşimi) olarak giren bu olgu, siyasi hedeflere ulaşmak amacıyla, kitleleri manipüle etmek için LLM’ler aracılığıyla üretilen, istenmeyen ve kalitesiz yapay zekâ içeriklerini tanımlar. Bu bölümde, bilginin üretim maliyetinin düşmesiyle birlikte hakikatin nasıl bir "değersizleşme" sürecine girdiğini ve toplumların nasıl bir "epistemik istikrarsızlık" (bilginin doğruluğuna dair temel güvenin kaybı) içine itildiğini inceleyeceğiz (Klincewicz, Alfano, & Fard, 2025).

4.1. Üretim Devrimi: Ölçek, Kapsam ve Hız

Slopaganda, geleneksel propaganda yöntemlerinden ölçek, kapsam ve hız açısından kat kat daha güçlüdür. İnsan eliyle içerik üretilen "içerik çiftliklerinin" yerini alan yapay zekâ, haftada binlerce yerel görünümlü haber hikâyesini çok düşük maliyetle ve saniyeler içinde üretebilmektedir. Bu devasa üretim kapasitesi, bilgi ortamını o kadar yoğun bir "çöp" yığınıyla doldurur ki, nitelikli ve doğrulanmış bilginin bu gürültü içinde fark edilmesi imkânsız hale gelir. Bu durum, "Brandolini Yasası" (Bullshit Asymmetry Principle) ile açıklanır: “Saçma bir bilgiyi üretmek için gereken enerji, o bilgiyi çürütmek için gereken enerjiden kat kat daha azdır”. Yapay zekâ bu asimetriyi silah haline getirerek, doğruları savunmaya çalışan kurumları teknik bir felce uğratmaktadır (Spitale, Andorno, & Germani, 2023).

4.2. Kitlesel Kişiselleştirme ve "Manipülasyon Makinesi"

Slopaganda’nın en tehlikeli yönü, sadece gürültü yaratması değil, bu gürültünün her bireyin zaafına göre özelleştirilebilmesidir. Yapay zekâ destekli "Manipülasyon Makinesi", kullanıcıların dijital ayak izlerinden (beğeniler, yorumlar, okuma alışkanlıkları) kişilik özelliklerini otomatik olarak çıkarabilmekte ve hiçbir insan müdahalesine gerek duymadan, her seçmenin "korku" veya "umut" noktalarına dokunan binlerce farklı mesaj türetebilmektedir. Erken bulgular, yapay zekânın dezenformasyon üretme ve insanları ikna etme konusunda gerçek insanlardan daha başarılı olabildiğini göstermektedir (Stanley, 2015).

4.3. Epistemik Nihilizm ve "Yalancının Temettüsü" (Liar's Dividend)

Bilgi ekosistemindeki bu kirlenme, bireylerde neyin gerçek neyin sahte olduğunu ayırt edememe durumundan kaynaklanan bir "epistemik belirsizlik" yaratır. Bu süreç iki aşamalı bir çürümeye yol açar:

  • Gerçeğin Bulanıklaşması: Sahte içerikler o kadar gerçekçi hale gelir (deepfake videolar veya kusursuz yazılmış sahte makaleler gibi) ki, geleneksel doğrulama yöntemleri yetersiz kalır.
  • Yalancının Temettüsü (Liar's Dividend): Her şeyin sahtesinin üretilebildiği bir ortamda, siyasi aktörler kendileri aleyhindeki gerçek kanıtları (örneğin bir yolsuzluk kaydını) "o zaten yapay zekâ üretimi" diyerek kolayca reddedebilirler. Bu durum, toplumda hiçbir bilgiye güvenilemeyeceği inancını (epistemik nihilizm) körükleyerek demokratik tartışma zeminini tamamen yok eder(Floridi, 2025).

4.4. Bilginin Değersizleşmesi ve Kurumsal Güvenin Erozyonu

Yapay zekâ tarafından üretilen içeriklerin interneti istila etmesi, bilginin ekonomik ve sosyal değerini düşürmektedir. Bilgi artık nadir ve değerli bir varlık olmaktan çıkıp, "gözetim kapitalizminin" bir kancası olarak kullanılan ucuz bir metaya dönüşmüştür. Bu durum, seçmenlerin sadece siyasetçilere değil, haber kaynaklarına ve demokratik kurumlara olan güvenini de sarsarak kolektif akıl yürütme kapasitesini felç etmektedir (Floridi, 2025).

Bu süreci bir benzetme ile açıklayalım: Slopaganda’yı, bir şehrin su şebekesine (bilgi ekosistemi) sızan ve suyu zehirlemeyen ama tadını, kokusunu ve rengini bozan bir maddeye benzetebiliriz ki, insanlar artık susasalar bile musluktan su içmeye korkar hale gelirler. Şehirde temiz su (hakikat) hala vardır, ancak arada o kadar çok "bulanık su" (AI slop) akmaktadır ki, halk artık hangi dolan bardağın güvenli olduğunu anlamak için harcayacağı çabadan vazgeçer ve tamamen susuz (bilgisiz) kalmayı ya da sadece üretilmiş damacanalardan (yankı odaları) gelen suya güvenmeyi tercih eder. Sonuçta, suyun temiz olup olmadığına dair şüphe, suyun kendisinden daha büyük bir kriz haline gelir.

 

 

Şekil 4 İnsan-YZ Hibritleşmesi ve Bilişsel Bağışıklık (Üretim Kaynağı: NotebookLM)

5. İnsan-YZ Hibritleşmesi ve Bilişsel Bağışıklık

Algoritmik kuşatma altında, bireyler sadece pasif veri kaynakları değil, aynı zamanda bu sistemlerle sürekli etkileşim halinde olan ve kendi savunma mekanizmalarını geliştiren "hibrit özneler" haline gelmektedir. (Klincewicz & ark., 2024) Yapay zekâ teknolojilerinin bilişsel özerkliği tehdit etmesi, demokratik dürüstlüğün korunmasını sadece teknik bir siber güvenlik meselesi olmaktan çıkarıp bir bilişsel güvenlik mücadelesine dönüştürmüştür.

5.1. Aşılama Teorisi ve "Prebunking" (Önleyici Çürütme)

Algoritmik manipülasyona karşı bireyleri korumanın yolu, onları pasif kurbanlar olarak görmek yerine, bilişsel süreçlerini güçlendirmekten geçmektedir. Aşılama Teorisi (Inoculation Theory), bireylere manipülasyon tekniklerinin "zayıflatılmış dozlarını" (örneğin dezenformasyonun nasıl yapıldığını gösteren eğitsel oyunlar) önceden sunarak bilişsel bir bağışıklık kazandırmayı amaçlar (Klincewicz, Alfano, & Fard, 2025).

  • Önleyici Çürütme (Prebunking): Yanlış bilgiyle karşılaştıktan sonra yapılan düzeltmelerin (debunking) etkisi genellikle sınırlıdır; çünkü zihnimiz hatalı bilgiyi bir kez yerleştirdikten sonra onu söküp atmakta zorlanır. Buna karşın "prebunking", bireyleri karşılaşabilecekleri manipülatif içerikler ve bunların arkasındaki taktikler (örneğin korku tetikleme, sahte uzmanlık veya kutuplaştırma) hakkında önceden bilgilendirerek, dezenformasyonun zihne sızmasını en başta engeller(Lewandowsky & Linden, 2021).
  • Eğitici Oyunlar: "Bad News", "Harmony Square" ve "Go Viral!" gibi dijital oyunlar aracılığıyla bireyler, bir dezenformasyon üreticisi rolüne bürünerek manipülasyonun mutfağını öğrenirler. Bu etkileşimli deneyim, kullanıcıların gerçek dünyadaki yanıltıcı içerikleri tanıma ve onlara karşı direnç gösterme yeteneğini artırmaktadır(Axelsson, Nygren, Roozenbeek, & Linden, 2024).

5.2. Algoritmik Özne Aracılığı (Algorithmic User Agency)

Kullanıcılar, algoritmaların kendilerini hapsettiği "filtre balonlarını" fark ettiklerinde, sistemin kontrolünden çıkmak için bilinçli stratejiler geliştirmeye başlarlar. Literatürde "Algoritmik Özne Aracılığı" olarak adlandırılan bu durum, bireylerin algoritmaları kendi çıkarları doğrultusunda "eğitme" çabasıdır.

  • Algoritmayı Yönlendirme: Bazı kullanıcılar, sosyal medya platformlarının kendilerine ne sunacağını kontrol etmek için belirli içerikleri bilinçli olarak beğenmek, bazılarını ise görmezden gelmek gibi yöntemler kullanırlar. Örneğin, algoritmanın kendisine sunduğu siyasi içerikleri bozmak için alakasız konularda (örneğin kedi videoları) aşırı etkileşim kurarak dijital profilini kasten bulandırabilirler.
  • Bilinçli Etkileşim: Kullanıcılar, algoritmaların "beğenilerini" takip ettiğinin farkında olarak, gelecekte daha nitelikli içerikler görmek amacıyla etkileşimlerini seçici hale getirirler. Bu, kullanıcının pasif bir tüketiciden, sistemle pazarlık eden aktif bir aktöre dönüştüğü bilişsel bir direnç biçimidir.

5.3. Toplumsal Direnç Modeli: Tayvan Örneği

Bireysel çabaların ötesinde, toplumsal ölçekte bilişsel bağışıklık inşası için Tayvan, dünyadaki en güçlü modellerden birini sunmaktadır. Tayvan’ın başarısı, dezenformasyona karşı sadece tepki vermek değil, halkın "epistemik uyanıklığını" sistemik olarak artırmaktır (Taiwan FactCheck Center, 2024).

  • Zorunlu Medya Okuryazarlığı: Tayvan, dijital okuryazarlığı ilkokuldan itibaren müfredatın temel bir parçası haline getirmiştir. Öğrenciler, dijital içeriği eleştirel bir süzgeçten geçirmeyi, yapay zekâ üretimlerini tanımayı ve bilişsel manipülasyona karşı "epistemik direnç" göstermeyi öğrenirler(UNESCO, 2025).
  • Katılımcı Teyit Ağları: "Cofacts" gibi topluluk odaklı fact-checking (teyit) platformları aracılığıyla vatandaşlar, şüpheli bilgileri gerçek zamanlı olarak ihbar etmekte ve doğrulamaktadır. Bu model, dezenformasyonu merkezi bir otorite yerine halkın kolektif aklıyla çürütmeyi hedefler(Taiwan FactCheck Center, 2024).

5.4. Felsefi Dönüşüm: YZ'yi Bir "Sokratik Öğretmen"e Dönüştürmek

Geleceğin dünyasında bilişsel güvenliği korumanın yolu, yapay zekâyı bireyleri belirli bir karara iten "ikna makineleri" olmaktan çıkarıp, onları düşündürmeye sevk eden "felsefi ajanlar" olarak tasarlamaktır.

  • Hakikat Arayışı ve Ademi Merkeziyetçilik: Mevcut yapay zekâlar genellikle kullanıcıyı belirli bir "tercih mimarisi" (nudge) içine hapsederken, yeni nesil savunma sistemleri kullanıcıyı "açık uçlu sorgulamaya" teşvik etmelidir. Bu yaklaşım, YZ'nin kullanıcıya ne yapacağını söylemesi yerine, ona katalizör sorular sorarak kendi yargısına varmasını sağlamayı amaçlar.
  • Bireysel Özerkliğin Güçlendirilmesi: Bilişsel güvenlik, bireyin kendi kararları üzerindeki "mülkiyetini" korumasıyla mümkündür. Bu nedenle, YZ asistanlarının sadece bilgi sunan değil, kullanıcının bilişsel karmaşıklığı yönetmesine yardımcı olan ve onun özerkliğini artıran araçlar olarak yeniden tasarlanması bir zorunluluktur.

Bu süreci bir benzetme ile netleştirelim: Algoritmik manipülasyonu bir virüs gibi düşünürsek, "bilişsel bağışıklık" bu virüse karşı geliştirilen bir antikor sistemidir. "Aşılama" yöntemiyle zihnimize dezenformasyonun taktiklerini öğreterek ona karşı direnç kazanırız. "Algoritmik özne aracılığı" ise, bize sürekli aynı cins yemeği (içeriği) dayatan bir garsona (algoritmaya) mutfağın nasıl çalışması gerektiğini söylemektir. Nihai amaç, yapay zekânın bizi bir kukla gibi yönetmesi değil, bir "Sokratik hoca" gibi doğru sorularla kendi özgür irademizi keşfetmemize yardımcı olmasıdır.

 

 

Şekil 5 Algoritmik Mekanizmalar ve Toplumsal Kutuplaşma (Üretim Kaynağı: NotebookLM)

6. Algoritmik Mekanizmalar ve Toplumsal Kutuplaşma: Yankı Odalarından Filtre Balonlarına

Modern dijital medya ekosistemi, bilginin küratörlüğünü editörlerden alıp "bağlılık" (engagement) metriklerine odaklanan opak algoritmalara devretmiştir. Sosyal medya platformları, kullanıcıların platformda geçirdiği süreyi maksimize etmek amacıyla, onların geçmiş davranışlarını, beğenilerini ve etkileşimlerini analiz ederek hiper-kişiselleştirilmiş içerik akışları sunar. Bu algoritmik yapı, başlangıçta kullanıcı deneyimini iyileştiren bir "ilgi filtresi" gibi görünse de giderek demokratik toplumun ihtiyaç duyduğu ortak gerçeklik zeminini parçalayan bir kutuplaşma makinesine dönüşmüştür (GLIKSON & WOOLLEY, 2020).

6.1. Filtre Balonları: Algoritmik Tecrit

Filtre Balonları (Filter Bubbles), algoritmaların bir kullanıcının neyi görmek isteyeceğini tahmin ederek, onu kendi görüşlerini doğrulamayan bilgilerden izole etmesi durumunu tanımlar (Mansur, 2025). Bu mekanizma şu şekilde işler:

  • Görünmez Filtreleme: Kullanıcılar, gördükleri içeriğin hangi kriterlere göre seçildiğini veya hangi bilgilerin dışarıda bırakıldığını bilmezler.
  • İlgi Odaklı Daralma: Algoritma, kullanıcının sadece mevcut dünya görüşüyle uyumlu içerikleri karşısına çıkararak, bireyi entelektüel bir izolasyona hapseder.
  • Doğrulama Yanlılığının Pekiştirilmesi: Bireyler, karşıt görüşlerle karşılaşmadıkları için mevcut inançlarının tek evrensel gerçeklik olduğunu düşünmeye başlarlar.

Bu süreçte dijital platformlar, toplumsal fayda veya bilginin doğruluğu yerine, daha fazla tıklama getiren duygusal ve sansasyonel içerikleri ön plana çıkararak bu balonları daha da kalınlaştırır.

6.2. Yankı Odaları ve Epistemik Parçalanma

Yankı Odaları: "Körler ve Sağırlar Birbirini Ağırlar" Yankı Odaları (Echo Chambers), benzer düşüncelere sahip bireylerin bir araya gelerek birbirlerinin inançlarını sürekli olarak doğruladığı ve karşıt sesleri dışladığı sosyal yapıları ifade eder. Türkiye’de bu durumu tam olarak karşılayan "körler ve sağırlar birbirini ağırlar" deyimi, algoritmik sistemlerin yarattığı bu tecrit halini mükemmel özetler; zira bu odalarda bireyler, yalnızca kendi fikirlerinin yankısını duyar ve aykırı seslere karşı "sağır" hale getirilirler. Bu mekanizma, bireyin mevcut önyargılarını pekiştirirken kolektif akıl yürütme kapasitesini felç eder (Mansur, 2025).

Yankı odalarının demokratik tehlikeleri şunlardır:

  • Ortak Deneyimin Kaybı: Demokrasi, farklı grupların ortak bir bilgi temelinde tartışabilmesine dayanır; ancak yankı odaları bu paylaşılan tecrübeyi yok eder.
  • Duygusal Kutuplaşma: Odalar içinde sürekli tekrar edilen ve pekiştirilen mesajlar, karşıt görüştekilere yönelik öfke, korku ve düşmanlık duygularını besler(Klincewicz, Alfano, & Fard, 2025).
  • Manipülasyona Açıklık: Bu odalar, dezenformasyon ve komplo teorilerinin hızla yayılması için ideal laboratuvarlardır; çünkü içerideki bireyler "bizden" gelen her bilgiye sorgusuz inanmaya meyillidir(Bhanji & Delgado, 2015).

6.3. Algoritmik Radikalleşme ve "Sessizce Mühendislik"

Algoritmalar sadece mevcut görüşleri yansıtmakla kalmaz, aynı zamanda kullanıcıları daha ekstrem noktalara doğru sürükler. Tavsiye sistemleri, bağlılığı artırmak için kullanıcılara sürekli olarak bir öncekinden daha çarpıcı ve radikal içerikler sunma eğilimindedir (Bhanji & Delgado, 2015).

Özellikle siyasal kampanya dönemlerinde kullanılan "Karanlık Reklamlar" (Dark Ads), bu kutuplaşmayı bir silah olarak kullanır. Sadece hedeflenen kişiye gösterilen ve kamusal denetimden kaçan bu reklamlar, toplumun farklı kesimlerine birbirini dışlayan sahte vaatler sunarak toplumsal uzlaşıyı imkânsız hale getirir. Sonuç olarak seçmen, özgür iradesiyle karar verdiğini sanırken aslında bir "tercih mimarisi" tarafından sessizce mühendisliğe tabi tutulur.

Bu durumu bir benzetme ile açıklayacak olursak: Eski tip medya, herkesin aynı ana haber bültenini izlediği büyük bir stadyum gibidir; insanlar farklı takımları tutsa da sahada ne olduğunu herkes aynı anda görür. Algoritmik kuşatma ise, stadyumdaki her bir kişinin etrafına görünmez ve ses geçirmez cam kabinler örmek gibidir. Her kabindeki ekranda farklı bir maç, farklı bir kural ve farklı bir skor gösterilir. Bir süre sonra kabinine hapsolmuş bireyler, yanındakinin ne gördüğünü anlayamaz hale gelir ve dışarı çıktıklarında artık aynı dili konuşmaları imkansızlaşır. Bu makale, o görünmez kabinleri kırmayı ve sahayı yeniden herkes için görünür kılmayı hedeflemektedir.

 

 

Şekil 6 Düşük Dirençli Demokrasilerde Veri Güvenliği ve Siber Tehditler (Üretim Kaynağı: NotebookLM)

7. Küresel Güney Perspektifi: Düşük Dirençli Demokrasilerde Veri Güvenliği ve Siber Tehditler

Siyasal mikro-hedefleme (PMT) tartışmaları genellikle Küresel Kuzey (ABD ve AB) odaklı ilerlese de bu teknolojilerin asıl yıkıcı etkisi düşük ve orta gelirli ülkelerde, yani Küresel Güney’de görülmektedir. Bu bölgelerdeki demokrasiler; dijital okuryazarlık düşüklüğü, zayıf yasal altyapılar ve köklü toplumsal fay hatları nedeniyle algoritmik manipülasyonlara karşı çok daha savunmasızdır (Kröger, Errenst, Nau, & Ojanperä, 2024).

7.1. Bağlamsal Kırılganlıklar: Dijital Uçurum ve Kurumsal Zayıflık

Küresel Güney’deki dezenformasyon ve siber tehditlerin etkisini artıran temel faktörler şunlardır:

  • Dijital Okuryazarlık ve Eğitim: Dijital becerilerin ve eleştirel medya okuryazarlığının düşük olduğu bölgelerde, kullanıcıların "derin sahtecilik" (deepfake) veya manipülatif içerikleri ayırt etmesi çok daha zordur.
  • Yasal Boşluklar ve Uygulama Eksikliği: Birçok Küresel Güney ülkesinde veri koruma yasaları ya hiç yoktur ya da var olan yasaların denetimi ve yaptırım gücü yetersizdir. Bu durum, siyasal aktörlerin kişisel verileri yasadışı yollarla elde etmesine ve seçmen kütüklerini manipüle etmesine zemin hazırlar.
  • Toplumsal Fay Hatları: Etnik, dini ya da kültürel bölünmelerin derin olduğu toplumlarda, mikro-hedefleme yoluyla yayılan nefret söylemi, dijital bir manipülasyondan öte toplumsal şiddeti ve fiziksel saldırıları tetikleyen bir silah haline gelebilmektedir.

7.2. Vaka Analizleri: Algoritmik Silahların Sahadaki Etkisi

Kaynaklar, bu teknolojilerin Küresel Güney’deki çeşitli ülkelerde nasıl suistimal edildiğine dair somut veriler sunmaktadır (Kröger, Errenst, Nau, & Ojanperä, 2024):

  • Kenya ve Nijerya: Cambridge Analytica’nın bu ülkelerde seçmenlerin "kabile temelli korkularını" hedef alarak aşırı korku ve nefret yaydığı, hatta Nijerya'da muhalif adayların hacklenmiş e-postalarını manipülasyon için kullandığı belgelenmiştir.
  • Brezilya: Özellikle WhatsApp grupları üzerinden, dini ve bölgesel kimliklere göre segmentlere ayrılmış kitlelere yönelik "spam" operasyonları ve sahte haber kampanyaları yürütülmüştür.
  • Filipinler: Sosyal medyanın en yoğun kullanıldığı ülkelerden biri olan Filipinler, dezenformasyon salgınında "sıfır noktası" olarak tanımlanmıştır; burada mikro-etkileyiciler (micro-influencers) kullanılarak dezenformasyonun kaynağı kamufle edilmiş ve sahte bir "organik destek" algısı yaratılmıştır.

7.3. Siber Tehditler ve Çok Kutuplu Müdahale Riskleri

Küresel Güney demokrasileri, sadece bölgesel rakiplerin değil, küresel güçlerin siber operasyon alanı haline gelmiştir. Bu tehdit tek taraflı değildir; Çin, İran ve Rusya gibi aktörlerin yanı sıra, ABD ve İngiltere merkezli siyasal danışmanlık firmaları ve veri simsarları da bu ekosistemin asli parçalarıdır.

  • Kuzey Merkezli "Etki Endüstrisi": Cambridge Analytica gibi İngiliz menşeli firmaların, Trinidad ve Tobago’dan Nijerya ve Kenya’ya kadar uzanan coğrafyalarda yürüttüğü "Do So" ya da "seçmen bastırma" kampanyaları, müdahalenin Batı merkezli teknolojik altyapı ve askeri düzeydeki "bilgi operasyonları" (psy-ops) yöntemleriyle yapıldığını kanıtlamıştır.
  • Platform Mülkiyeti ve Egemenlik: Batı merkezli sosyal medya platformlarının (Meta, X, Google gibi) Küresel Güney’deki algoritmik yönetim biçimleri, yerel dezenformasyonun yayılmasında veya bastırılmasında belirleyici bir güç asimetrisi yaratmaktadır. Bu durum, veri güvenliğini bir ulusal egemenlik sorunu haline getirirken, dijital sömürgeciliğin sadece Doğu bloku değil, aynı zamanda liberal demokrasi maskesi altındaki kurumsal aktörler eliyle de yürütüldüğünü göstermektedir.

Bu durumu bir benzetme ile özetleyelim: Düşük dirençli demokrasileri, fırtınaya karşı dayanıklı beton binaları (güçlü kurumları) olmayan sahil kasabalarına benzetebiliriz. Küresel Kuzey'de bu algoritmik fırtınalar binaları sarsarken, Küresel Güney'de kurumsal koruma kalkanları olmadığı için dezenformasyon ve veri ihlalleri doğrudan toplumsal yapıyı "yıkıp geçmekte", sel suları (manipülasyon) her yere sızmaktadır.

 

 

Şekil 7 Politika Önerileri ve Hukuki Çerçeve (Üretim Kaynağı: NotebookLM)

8. Politika Önerileri ve Hukuki Çerçeve: Tasarım Yoluyla Gizlilik ve Algoritmik Hesap Verebilirlik

Yapay zekâ ve mikro-hedeflemenin yarattığı sistematik risklere karşı geliştirilecek hukuki yanıt, reaktif yaklaşımlardan ziyade, demokratik dürüstlüğü korumaya odaklanan "bütünleşik bir direnç çerçevesi" üzerine inşa edilmelidir. Bu bölüm, GDPR, DSA ve PAR gibi düzenlemelerin ışığında somut çözüm önerilerini ele almaktadır.

8.1. "Açık Rıza"dan "Bilgilendirilmiş Onam"a Geçiş

Geleneksel veri koruma modellerindeki "explicit consent" (açık rıza), karmaşık algoritma dünyasında yetersiz kalmaktadır.

  • Bağlama Saygı: Verilerin toplandığı orijinal bağlamın (örneğin akademik araştırma) dışına çıkılarak siyasal profillemede kullanılması kesin olarak yasaklanmalıdır.
  • Dinamik Bilgilendirme: Kullanıcılara sadece verilerinin toplanacağını değil, bu verilerin hangi psikometrik modellerle işleneceği ve karşılarına çıkacak içeriğin hangi kişisel zafiyetlerine hitap ettiği "basit bir dille" açıklanmalıdır.

8.2. Siyasal Reklamcılık Düzenlemesi (PAR) ve Şeffaflık Standartları

AB'nin 2024'te yürürlüğe giren Siyasal Reklamcılığın Şeffaflığı ve Hedeflenmesi Tüzüğü (PAR), bu alandaki en güncel yasal referanstır (Tanase, 2020).

  • Zorunlu Etiketleme: Her siyasal reklam, sponsorunu, ödenen miktarı ve kullanılan hedefleme kriterlerini içeren bir "transparence notice" (şeffaflık bildirimi) taşımalıdır.
  • Hassas Veri Yasağı: Etnik köken, dini inanç ya da siyasi görüş gibi "özel nitelikli kişisel verilerin" algoritmik profilleme ve mikro-hedefleme için kullanılması mutlak olarak sınırlandırılmalıdır.
  • Ad Kütüphaneleri: Siyasal reklamların kim tarafından finanse edildiğini ve hangi demografik grupları hedeflediğini gösteren Ad Library (Reklam Arşivi) uygulamaları tüm platformlar için yasal bir zorunluluk haline getirilmelidir. Ancak Meta Ad Library gibi mevcut örneklerin sunduğu kısıtlı arama arayüzleri ve toplu veri indirme (bulk download) imkânı tanımayan teknik hantallığı, araştırmacıların ve gazetecilerin gerçek zamanlı denetim yapmasını zorlaştırmaktadır. Bu nedenle, şeffaflık sadece verinin "varlığı" ile değil, bu verinin bağımsız denetime izin verecek şekilde yüksek çözünürlüklü ve API destekli erişilebilirliği ile tanımlanmalıdır.

8.3. Algoritmik Hesap Verebilirlik ve Teknik Otopsi

Algoritmaların "kara kutu" doğasını kırmak için kurumsal denetim şarttır.

  • Akredite Araştırmacı Erişimi: Bağımsız ve vetted (incelenmiş) araştırmacıların, platformların algoritmik süreçlerini ve veri setlerini toplumsal riskler (dezenformasyon, kutuplaşma) açısından denetleyebilmesi için yasal veri kapıları açılmalıdır.
  • Algoritmik Etki Değerlendirmesi: Siyasal kampanya sistemleri piyasaya sürülmeden önce "Algoritmik Etki Değerlendirmesi"nden geçmeli; ayrımcılık veya manipülasyon riski taşıyan modellerin kullanımı engellenmelidir.

8.4. Tasarım Yoluyla Gizlilik (Privacy by Design)

Teknik çözümler, hukuki düzenlemeleri desteklemelidir.

  • Diferansiyel Gizlilik (Differential Privacy): Veri analizlerinde bireysel kimliklerin tespitini imkânsız kılan, verilere gürültü ekleyerek mahremiyeti koruyan matematiksel modeller zorunlu hale getirilmelidir(Dwork & Roth, 2014).
  • Veri Minimizasyonu: Sistemler varsayılan olarak sadece amaç için gerekli olan minimum veriye erişecek şekilde tasarlanmalıdır(Dwork & Roth, 2014).

8.5. Otoriter Suistimal Riski ve Demokratik Fren-Denge Mekanizmaları

Dezenformasyonla mücadele ve algoritmik denetim arayışları, doğası gereği çift tarafı keskin bir bıçak niteliğindedir. Bir yandan kamusal alanı korumayı hedeflerken, diğer yandan devletin dijital alan üzerindeki kontrolünü aşırı ölçüde artırarak ifade özgürlüğünü kısıtlama potansiyeli taşımaktadır. Bu risk, özellikle "Bilişsel Güvenlik" kavramının otoriter rejimler tarafından muhalif sesleri susturmak için bir "silah" olarak kullanılma ihtimaliyle somutlaşmaktadır (Mansur, 2025).

8.5.1. Kavramsal Muğlaklık ve "Silahlaştırma" Riski

Otoriter suistimalin en yaygın biçimi, yasal metinlerdeki kavramsal muğlaklıktan beslenir "Dezenformasyon", "kamu düzenini bozucu içerik" veya "milli güvenliğe tehdit" gibi tanımların sınırları net çizilmediğinde, bu kavramlar iktidarlar tarafından her türlü eleştirel sesin "yalan haber" kategorisine sokularak bastırılmasına imkân tanır (UNESCO, 2025).

  • Yargısal Etiketleme: Hükümetlerin kendi gerçekliklerini "tek doğru" olarak dayattığı bir ortamda, bağımsız doğrulanmış bilgiler bile "toplumsal huzuru bozma" gerekçesiyle sansürlenebilir. Bu durum, makalede önerilen denetim mekanizmalarının devletin ideolojik aygıtı haline gelme riskini (Ideological State Apparatus) beraberinde getirir.

8.5.2. Demokratik Güvenceler: Fren ve Denge Sistemleri

Denetim önerilerinin bir sansür mekanizmasına dönüşmesini engellemek için somut "fren ve denge" mekanizmalarının sisteme entegre edilmesi zorunluluktur (Mansur, 2025).

  • Özerk ve Çok Paydaşlı Denetim Kurulları: Denetim yetkisi asla tek bir siyasi otoriteye veya hükümet organına bırakılmamalıdır. Bunun yerine; akademi, sivil toplum örgütleri, barolar, teknik uzmanlar ve muhalefet temsilcilerinden oluşan, idari ve mali açıdan tam özerk kurullar ihdas edilmelidir. Bu kurulların üyeleri, siyasi sadakat yerine liyakat ve tarafsızlık kriterlerine göre seçilmelidir.
  • Yargısal Denetim ve Şeffaflık: Her türlü içerik kaldırma veya algoritmik müdahale kararı, hızlı bir yargısal denetim mekanizmasına tabi olmalıdır. "Algoritmik Şeffaflık" ilkesi gereği, devletin hangi içeriğe neden müdahale ettiği veya hangi algoritmanın neden denetlendiği, kamusal bir veri tabanında (gizlilik prensipleri saklı kalmak kaydıyla) ilan edilmelidir(Raychaudhuri, 2025).
  • Gereklilik ve Ölçülülük İlkesi: Müdahale, uluslararası insan hakları hukukundaki "ölçülülük" ilkesine sadık kalmalıdır. Bir içeriğin dezenformasyon içermesi, onun doğrudan yasaklanmasını değil; öncelikle etiketlenmesini, erişiminin sınırlanmasını ya da karşıt argümanın (pre-bunking) sunulmasını gerektirmelidir(Klincewicz, Alfano, & Fard, 2025). Kapatma ve sansür, sadece fiziksel şiddet çağrısı gibi en uç durumlarda, "son çare" (ultima ratio) olarak düşünülmelidir.

8.5.3. Algoritmik Denetimde "Kayıt Dışı" Sansürle Mücadele

Devletlerin platformlar üzerinde kurduğu "kayıt dışı" baskılar (informal pressure), en sinsi sansür biçimidir. Platformların, yerel yasalarla tehdit edilerek algoritmalarını hükümet lehine manipüle etmeye zorlanması, "Algoritmik Kuşatma"nın devlet eliyle yürütülen bir versiyonudur. Bu noktada, platformların şeffaflık raporları sadece kaldırılan içerikleri değil, hükümetlerden gelen tüm "algoritma değiştirme" veya "veriye erişim" taleplerini de içermelidir (Mansur, 2025).

Sonuç olarak, bilişsel güvenliği korumak adına inşa edilecek her savunma hattı, aynı zamanda bireyi devlete karşı koruyacak demokratik kalkanlarla donatılmalıdır (Mansur, 2025; Başkaya, 2025). Aksi takdirde, algoritmik kuşatmadan kurtulma çabası, dijital bir panoptikonun inşasıyla sonuçlanabilir (Özcan, 2021).

Mevcut durumumuz, herkesin kendi cam fanusunda yaşadığı, dışarıdan kimin hangi rengi gördüğünü bilmediğimiz bir topluma benzemektedir. Politika önerilerimiz ise bu fanusları kırmak değil, onları şeffaf hale getirmektir. Eğer camın arkasında birinin bize fısıldadığını (mikro-hedefleme) bilirsek ve bu fısıltının kaynağını görebilirsek (hesap verebilirlik), tekrar ortak bir meydanda, yani gerçek bir demokraside buluşabiliriz.

 

 

Şekil 8 Teknoloji ve Demokrasi Arasındaki Kopan Bağı Yeniden Örmek (Üretim Kaynağı: NotebookLM)

9. Sonuç: Yeni Bir Dijital Toplumsal Sözleşme: Teknoloji ve Demokrasi Arasındaki Kopan Bağı Yeniden Örmek

Cambridge Analytica skandalıyla zirveye ulaşan süreç, dijital teknolojilerin sadece birer iletişim aracı olmadığını, aksine demokratik süreçlerin genetiğini değiştirebilen "stratejik silahlar" olduğunu kanıtlamıştır. Gelinen noktada, siyasal mikro-hedefleme (PMT) ve Üretken Yapay Zekâ (GenAI) sistemleri, seçmenin bilişsel özerkliğini tehdit eden devasa bir "manipülasyon makinesi" inşa etme potansiyeline sahiptir.

Bu çalışmada ele alınan bulgular, "APIcalypse" sonrasında araştırmacıların veriye erişiminin kısıtlanmasının, platformları denetlenemeyen birer "kara kutu" haline getirdiğini ve bu durumun kamusal şeffaflığı yok ettiğini göstermektedir. "Slopaganda" ve algoritmik yankı odaları, toplumların ortak bir gerçeklik zemininde buluşmasını imkânsız kılarak epistemik bir kriz yaratmıştır.

Demokrasinin geleceği için temel çıkarımlar şunlardır:

  1. Rıza Paradoksu: Kullanıcıların "onayla" butonuna basması, verilerinin karmaşık psikometrik modellerle işlenmesine verdikleri gerçek bir rıza değildir; bu nedenle "bilgilendirilmiş onam" doktrinine geçilmesi hukuki bir zorunluluktur.
  2. Sistemik Şeffaflık: Şeffaflık sadece reklam kütüphaneleriyle sınırlı kalmamalı, algoritmaların "teknik otopsisine" izin verecek yasal kapılar bağımsız araştırmacılara açılmalıdır.
  3. Bilişsel Bağışıklık: Demokrasinin korunması sadece yasal bir mesele değil, vatandaşların dezenformasyona karşı "aşılanması" ve eleştirel dijital okuryazarlık becerileriyle donatılması meselesidir.

Nihai olarak, teknoloji ve demokrasiyi birbirine bağlayan kordon ağır hasar görmüştür. Bu bağı yeniden örmek, sadece teknolojik bir güncelleme ile değil; bireyin özerkliğini piyasanın ve siyasi elitlerin veri açlığından üstün tutan yeni bir dijital toplumsal sözleşme ile mümkündür (Raychaudhuri, 2025).

Bir metaforla bitirecek olursak: Demokrasi, herkesin aynı pusulaya (ortak gerçeklik) bakarak kendi yolunu (özgür seçim) çizdiği bir hayat yolculuğudur. Mevcut algoritmik sistemler ise her yolcunun pusulasını gizlice farklı bir yöne saptırmakta, üstelik bunu yaparken yolcuya hayatını kendisinin yönettiği illüzyonunu vermektedir. Gerçek çözüm, pusulaları kırmak değil, yaşamlarının dümenindeki yazılımı şeffaf ve denetlenebilir kılarak herkesin tekrar aynı ufka bakabilmesini sağlamaktır.

 

 

KAYNAKÇA

Özcan, A. (2021, 1 30). Büyük veri: Fırsatlar ve tehditler. Dergipark, s. Cilt 6 Sayı 11.

Axelsson, C.-A. W., Nygren, T., Roozenbeek, J., & Linden, S. v. (2024, 4). Bad News in the civics classroom: How serious gameplay fosters teenagers’ ability to discern misinformation techniques. Journal of Research on Technology in Education, s. 1-21.

Benkler, Y., Faris, R., & Roberts, H. (2018). 'Mammon’s Algorithm: Marketing, Manipulation, and Clickbait on Facebook', Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics. Oxford University Press.

Bhanji, J. P., & Delgado, M. R. (2015, 1 1). The Social Brain and Reward: Social Information Processing in the Human Striatum. National Library of Medicine: https://pmc.ncbi.nlm.nih.gov/articles/PMC3890330/ adresinden alındı

Boverman, S. &. (2025). Regulating Political Advertising in the EU. eucrim: https://doi.org/10.30709/eucrim-2025-008 adresinden alındı

Devran, Y., & Özcan, Ö. F. (2020, 12 21). Siyasal İletişimde ‘’Araç’’ Öncelliğinden ‘’Mikro Hedefe’’ Uzanan Yaklaşımlar: Yapay Zeka Teknolojisinin Mikro Hedef Kitlenin Belirlenmesinde ve 20 İletişiminde Kullanımı. Atatürk Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, s. 1972-1992.

Dwork, C., & Roth, A. (2014). The algorithmic foundations of differential privacy. Foundations and Trends in Theoretical Computer Science. Foundations and Trends: https://www.cis.upenn.edu/~aaroth/Papers/privacybook.pdf adresinden alındı

EDPS, E. D. (2018). Opinion 3/2018 EDPS Opinion on online manipulation and personal data . edps.europa.eu: https://www.edps.europa.eu/sites/default/files/publication/18-03-19_online_manipulation_en.pdf adresinden alındı

Floridi, L. (2025). Democratic epistemology in the age of artificial intelligence. Philosophy & Technology, s. 1-21.

GLIKSON, E., & WOOLLEY, A. W. (2020). HUMANTRUSTINARTIFICIAL INTELLIGENCE: REVIEW OF EMPIRICAL RESEARCH. Academy of Management Annals: https://leeds-faculty.colorado.edu/dahe7472/OB%202022/glickson%202021.pdf adresinden alındı

Kang, C., & Frenkel, S. (2018, 4 4). Facebook Says Cambridge Analytica Harvested Data of Up to 87 Million Users. New York Times: https://www.nytimes.com/2018/04/04/technology/mark-zuckerberg-testify-congress.html adresinden alındı

Klincewicz, M., Alfano, M., & Fard, A. E. (2025). Slopaganda: The interaction between propaganda and generative AI', Filosofiska Notiser. KlincewiczAlfanoFard, s. vol. 12, no. 1, pp. 135-162.

Kosinski, M., Stillwell, D., & Graepel, T. (2013, 3 11). Private traits and attributes are predictable from digital records of human behavior. pnas.org, s. 5802 - 5805.

Kröger, J., Errenst, E., Nau, N., & Ojanperä, S. (2024, 5 31). Mitigating the Risks of Political Microtargeting – Guidance for Policymakers, Civil Society, and Development Cooperation. ssrn.com: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4850022 adresinden alındı

Lewandowsky, S., & Linden, S. v. (2021, 2 22). Countering Misinformation and Fake News Through Inoculation and Prebunking. European Review of Social Psychology, s. 348-384.

Mansur, M. A. (2025). AI and cyber-enabled threats to democracy through algorithmic manipulation and generative AI in undermining democratic integrity. European Scientific Journal, 21-26.

Markham, A. (2012). Ethical Decision-Making and Internet Research. aoir.org: https://www.aoir.org/reports/ethics2.pdf adresinden alındı

Nix, A. (2016, 9 27). The Power of Big Data and Psychographics | 2016 Concordia Annual Summit” presentation. Youtube: https://www.youtube.com/watch?v=n8Dd5aVXLCc adresinden alındı

Raychaudhuri, A. (2025, 11). The Facebook-Cambridge Analytica Data Scandal: A Case Study in Ethical AI Failures and Data Privacy Violations. irejournals: https://www.irejournals.com/formatedpaper/1711588.pdf adresinden alındı

Robertson, J. (2018, 3 20). Meet the Psychologist at the Center of Facebook's Data Scandal. Bloomberg: https://www.bloomberg.com/news/articles/2018-03-20/meet-the-psychologist-at-the-center-of-facebook-s-data-scandal adresinden alındı

Sayın O., C. A. (2025). Siyasal İletişimde Yapay Zeka ve Veri Odaklı Dönüşüm. Journal of Management Theory and Practices Research.

Spitale, G., Andorno, N. B., & Germani, F. (2023, 6 28). AI model GPT-3 (dis)informs us better than humans. science.org: https://www.science.org/doi/10.1126/sciadv.adh1850 adresinden alındı

Stanley, J. (2015). How Propaganda Works. Princeton University Press.

Taiwan FactCheck Center. (2024, 12 27). Truth Matters: The 2024 survey on what Taiwanese think about misinformation and fact-checking. Taiwan FactCheck Center: https://en.tfc-taiwan.org.tw/truth-matters-the-2024-survey-on-what-taiwanese-think-about-misinformation-and-fact-checking/ adresinden alındı

Tanase, I. L. (2020). Cambridge Analytica in the Era of Surveillance Capitalism- the impact on the democratic structures. UNIVERSITEIT LEIDEN.

UNESCO. (2025). AI and electoral integrity: Policy guidelines for member states. United Nations Educational, Scientific and Cultural Organization Report. UNESCO.

Wilson, D. G. (2017). The ethics of automated behavioral microtargeting. . AI Matters, s. VOLUME3,ISSUE3.