

Hazırlayan: Yaşar Başkaya, Aralık 2025*
Abstract-Öz
Bu çalışma, siyasal iletişimin geleneksel araçlardan sıyrılarak yapay zekâ (YZ) ve büyük veri analitiği ekseninde geçirdiği "algoritmik dönüşümü" ve bu dönüşümün demokratik süreçler üzerindeki etkilerini incelemektedir. Dijital ayak izlerinin rızasız toplanarak psikometrik profillere dönüştürülmesi, seçmenleri rasyonel öznelerden ziyade algoritmalar tarafından yönlendirilen pasif birer "pazarlama nesnesi" konumuna itmiştir. Makalede, "Slopaganda" olarak adlandırılan kitle üretimli yapay zekâ içeriklerinin ve platformların denetlenemez "kara kutu" yapılarının, toplumda nasıl bir epistemik belirsizlik ve yankı odaları aracılığıyla kutuplaşma yarattığı analiz edilmektedir. Özellikle kurumsal denetimin zayıf olduğu Küresel Güney ülkelerinin bu manipülasyonlara karşı savunmasızlığına dikkat çekilmektedir. Çalışma, araştırmacıların veriye erişiminin kısıtlandığı "APIcalypse" krizine karşın, bağımsız denetim mekanizmalarının ve yasal akreditasyon sistemlerinin kurulmasını savunmaktadır. Sonuç olarak, algoritmik kuşatmaya karşı bireylerin dezenformasyona karşı "aşılanması" (prebunking) yoluyla bilişsel bağışıklığın güçlendirilmesi ve bireysel özerkliği piyasa çıkarlarının üstünde tutan yeni bir dijital toplumsal sözleşmenin gerekliliği vurgulanmaktadır.
Anahtar Kelimeler: Algoritmik Kuşatma, Psikometrik Profilleme, Slopaganda, Bilişsel Güvenlik, Mikro-Hedefleme, Epistemik Kriz.
* Yaşar Başkaya: Bağımsız Araştırmacı
Siyasal iletişim, geleneksel medya araçlarının ötesine geçerek yapay zekâ (YZ) ve büyük veri analitiğini stratejik bir zorunluluk haline getiren dijital bir dönüşüm yaşamaktadır (Sayın O., 2025). Bu dönüşüm, demokrasinin "algoritmik dönüşümü" olarak adlandırılmakta ve siyasal aktörlerin kamuoyu üzerindeki etkisini daha önce görülmemiş bir boyuta taşımaktadır (Boverman, 2025). Dijital teknolojiler başlangıçta daha fazla şeffaflık ve katılım vaat etmiş olsa da gelinen noktada bu araçlar "bilgi savaşı" yöntemlerini açık propagandadan, algoritmik olarak güçlendirilmiş örtülü nüfuz operasyonlarına kaydırmıştır (Mansur, 2025).
Yapay zekâ ve büyük veri analitiği, artık siyasal iletişimin sadece bir yardımcısı değil, merkezî ve stratejik bir itici gücü haline gelmiştir. Siyasal aktörler; doğal dil işleme, makine öğrenimi ve duygu analizi gibi teknikleri kullanarak seçmenlerin davranışlarını tahmin edebilmekte ve onlara en hassas oldukları konularda özelleştirilmiş söylemler sunabilmektedir (Sayın O., 2025). Bu süreçte her bir bireyin dijital ayak izleri, onların rızası dışında ya da yanıltıcı yöntemlerle toplanarak "psikometrik profillere" dönüştürülmektedir. Özellikle Cambridge Analytica skandalıyla gün yüzüne çıkan bu yöntemler, insanların korkularını, zaaflarını ve içsel motivasyonlarını hedef alan birer "bilgi silahı" olarak kullanılmaktadır.
Doğal dil işleme (NLP) ve makine öğrenimi gibi teknikler, büyük veri setlerini işleyerek seçmen davranışlarını tahmin etme ve kişiselleştirilmiş politik söylemler sunma kapasitesine sahiptir (Sayın O., 2025). Bu süreç, teknoloji devlerinin bilgi kanalları üzerindeki hakimiyetiyle birleşerek siyasal aktörlerin kamuoyunu manipüle etme gücünü daha önce görülmemiş bir ölçeğe taşımıştır (Tanase, 2020).
Modern toplumlarda seçmenlerin büyük çoğunluğu ve hatta siyasal karar vericiler, maruz kaldıkları bu algoritmik kuşatmanın teknik detaylarından ve psikolojik derinliğinden habersizdir (Devran & Özcan, 2020). Üretken yapay zekâ teknolojileriyle (GenAI) desteklenen ve "slopaganda" olarak adlandırılan kitlesel içerik üretimi, internetteki bilgi kalitesini kalıcı olarak bozmakta ve bireylerin neyin gerçek neyin sahte olduğunu ayırt edemediği bir "epistemik belirsizlik" ortamı yaratmaktadır (Klincewicz, Alfano, & Fard, 2025). Teknoloji şirketlerinin veriye dayalı iş modelleri, toplumları kutuplaştıran "yankı odaları" oluşturarak demokratik tartışma zeminini tamamen ortadan kaldırmaktadır. Bu durum, seçmenlerin hür iradeleriyle karar vermelerini engellemekte ve onları algoritmalar tarafından yönlendirilen pasif birer "pazarlama nesnesi" konumuna itmektedir (Wilson, 2017).
Teknolojik ilerlemenin hızı ile mevcut kurumsal ve yasal düzenlemeler arasındaki büyük uçurum, demokrasileri bu yeni nesil tehditlere karşı savunmasız bırakmaktadır. Demokratik dürüstlüğün ve seçim güvenliğinin korunması, artık sadece teknik bir mesele değil, doğrudan bireylerin özerkliğini korumayı amaçlayan bir bilişsel güvenlik mücadelesidir (Mansur, 2025).
Bu makalenin temel amacı, hem bu kuşatmaya maruz kalan halkı hem de bu süreçleri yönetmekle yükümlü olan siyasetçileri, algoritmik manipülasyonun işleyişi hakkında bilgilendirmek ve bireysel özerkliği yeniden tesis edecek çözüm yollarını tartışmaktır.
Analoji: Eski tip siyasal iletişim, bir meydanda toplanan kalabalığa hoparlörle seslenmek gibidir; herkes ne söylendiğini bilir ve duyar. Algoritmik kuşatma ise, bu meydandaki her bir kişinin kulağına aynı anda ama farklı şeyler fısıldayan binlerce görünmez varlık gibidir. Birine korku dolu hikayeler anlatılırken, diğerine tam zıttı tatlı bir rüya vaat edilir; ancak kimse diğerine ne fısıldandığını bilmediği için meydandaki ortak gerçeklik algısı yok olur.

Şekil 1 Veri Sömürgeciliği ve Psikometrik Profilleme (Üretim Kaynağı: NotebookLM)
Dijital çağda veri, petrolü geride bırakan en değerli ekonomik ve siyasal varlık haline gelmiştir. "Veri Sömürgeciliği" (Data Colonialism), tarihsel sömürgecilik pratiklerini insanların dijital ayak izlerini ve mahrem deneyimlerini ele geçirmeye dönüştürmektedir (Özcan, 2021). Bu sistemde bireyler, kişisel deneyimlerinin "kazılıp çıkarıldığı" ve başkalarının amaçları doğrultusunda paketlendiği birer veri kaynağına dönüşmüştür.
Siyasal manipülasyonun merkezinde yer alan psikometrik profilleme, bireylerin Facebook "Beğeni"leri gibi basit dijital izlerinden yola çıkarak; cinsel yönelim, dini inanç ve siyasi görüş gibi hassas bilgilerin %85 ile %95 arasında bir doğrulukla tahmin edilmesini sağlar (Kosinski, Stillwell, & Graepel, 2013).
2013 yılında yapılan araştırmalar, bireylerin sadece Facebook "Beğeni"leri üzerinden cinsel yönelimlerinden siyasi görüşlerine kadar pek çok hassas bilginin yüksek doğrulukla tahmin edilebileceğini kanıtlamıştır. Bir kullanıcının profili; 70 beğeni ile bir arkadaşından, 150 beğeni ile ailesinden ve 300 beğeni ile eşinden daha iyi tanımlanabilmektedir (Robertson, 2018).
Cambridge Analytica, bu akademik birikimi ticari ve siyasal kazanca dönüştürmek amacıyla 2014 yılında veri bilimci Aleksandr Kogan ile iş birliği yapmıştır. Cambridge Analytica, "This Is Your Digital Life" (TYDL) uygulamasıyla 270.000 kullanıcıdan yanıltıcı rıza alarak veri toplamıştır. Facebook'un Graph API v1.0 arayüzündeki bir boşluk sayesinde, testi çözenlerin milyonlarca arkadaşının verisi de hasat edilmiş ve toplamda yaklaşık 87 milyon kullanıcının profiline rızasız erişilmiştir (Kang & Frenkel, 2018).
Özellikle hasat edilen verilerin anlamlandırılmasında OCEAN (Açıklık, Sorumluluk, Dışadönüklük, Uyumluluk, Duygusal Dengesizlik) modeli kullanılmıştır.
|
Kişilik Boyutu (OCEAN) |
Tanımı ve Temel Eğilimler |
Siyasal Manipülasyon / Hedefleme Stratejisi |
|
Açıklık (Openness) |
Yeni deneyimlere, sanata, entelektüel meraklara ve değişime olan yatkınlık. |
Düşük açıklığa sahip kitlelere geleneksel kodlar ve aidiyet vurgulu içerikler sunulur. |
|
Sorumluluk (Conscientiousness) |
Planlı, disiplinli, düzenli hareket etme ve sorumluluk alma eğilimi. |
Seçmen davranışlarını tahmin etmede ve kişiselleştirilmiş politik söylemler oluşturmada kullanılır. |
|
Dışadönüklük (Extraversion) |
Sosyallik seviyesi, girişkenlik ve dış dünyadan uyarılma ihtiyacı. |
Bireylerin dijital ayak izleri üzerinden sosyal etkileşim kapasitelerinin analiz edilmesini sağlar. |
|
Uyumluluk (Agreeableness) |
Başkalarıyla iş birliği yapma, şefkat gösterme ve güven duyma eğilimi. |
Seçmenlerin rasyonel öznelerden ziyade psikolojik zafiyetlerine göre mesaj üretimine temel oluşturur. |
|
Duygusal Dengesizlik (Neuroticism) |
Kaygı, korku, stres ve negatif duygulara olan yatkınlık seviyesi. |
Yüksek seviyedeki bireylere korku tetikleyici "karanlık reklamlar" (dark ads) sunularak manipüle edilir. |
Bu model, bireylerin karakterlerini beş ana boyutta sınıflandırır:
Bu profiller üzerinden seçmenlerin psikolojik zafiyetlerine göre özelleştirilmiş mesajlar üretilmiştir. Örneğin, kaygılı bireylere korku tetikleyici "karanlık reklamlar" (dark ads) sunulurken, belirli etnik gruplarda seçmen bastırma kampanyalarıyla siyasal ilgisizlik (apatia) kurgulanmıştır (Raychaudhuri, 2025).
Oluşturulan psikometrik profiller, siyasal iletişimin doğasını kökten değiştirmiş ve "kitle iletişiminden" "bireysel kuşatmaya" geçişi başlatmıştır. Artık tüm seçmenlere aynı genel mesajı vermek yerine, her bireyin "psikolojik zafiyetlerine" göre özelleştirilmiş mesajlar üretilmektedir. Şirket CEO'su Alexander Nix'in "geleneksel reklamcılığın ölümü" olarak tanımladığı bu yöntemle seçmenler, 32 farklı kişilik tipine ayrılmıştır. Ancak bu noktada, mikro-hedeflemenin gerçek gücü ile bu teknolojiyi satan şirketlerin pazarlama iddiaları arasındaki farkı analiz etmek, "algoritmik determinizm" tuzağına düşmemek için kritiktir.
Siyasal iletişim literatüründeki bir tartışma, mikro-hedeflemeyi her şeyi belirleyen (determinist) bir güç olarak görürken, diğer taraf bunu dijital çağın bir "pazarlama efsanesi" olarak nitelemektedir. Cambridge Analytica vakasında görüldüğü üzere, şirketin kullandığı modellerin istatistiksel doğruluğu akademik çevrelerde sıklıkla sorgulanmıştır. Bazı araştırmacılar, Facebook beğenileri üzerinden yapılan tahminlerin bireysel düzeyde bazen "yazı-tura" atmaktan biraz daha iyi sonuç verdiğini belirterek, bu yöntemi etkisi abartılmış bir "yılan yağı" (pazarlama hilesi) olarak tanımlamaktadır. Buradaki asıl tehlike, algoritmanın seçmeni bir kukla gibi oynatmasından ziyade, yarattığı bilgi asimetrisi ve şeffaflık eksikliğidir.
Mikro-hedeflemenin işleyişinde iki temel strateji öne çıkmaktadır. Yaygın kanının aksine, bu araçlar karşıt görüşlü bir seçmeni "saf değiştirmeye" ikna etmekten çok, halihazırda belirli bir yöne eğilimli olan seçmeni harekete geçirmekte (mobilizasyon) başarılıdır:
Mikro-hedeflemenin bir "efsane" olup olmadığı tartışılsa da yarattığı "Kara Kutu" (Black Box) sorunu gerçektir. Algoritmaların neden belirli bir içeriği, belirli bir kişiye, belirli bir anda gösterdiğini dışarıdan denetlemek imkansızdır. Bu durum, siyasetçilerin farklı gruplara birbirleriyle çelişen ama kimsenin aynı anda göremediği "mikro-vaatler" vermesine olanak tanır. Sonuç olarak, veri sömürgeciliği ve psikometrik profilleme; seçmenlerin rasyonel birer siyasi özne olma vasfını ellerinden almış, onları algoritmik birer laboratuvar nesnesine dönüştürmüştür.
Bu süreci bir benzetme ile netleştirelim: Veri sömürgeciliği, seçmenlerin zihin haritasını en ince kılcal damarlarına kadar çıkaran "bilişsel bir röntgen cihazı" gibidir. Siyasal aktörler, bu cihaz sayesinde bireyin neresinin ağrıdığını (korkularını) veya neresinin okşanmasından hoşlandığını (zaaflarını) görürler. Siyasal silahlandırma ise, bu röntgen bilgilerini kullanarak hastaya (seçmene) iyileştirici bir ilaç vermek yerine, onu kendi çıkarları doğrultusunda hareket etmeye zorlayan "hipnotik fısıltılar" yaymaktır.

Şekil 2 Metodolojik Kriz: APIcalypse ve Kara Kutu Sorunu (Üretim Kaynağı: NotebookLM)
Algoritmik kuşatmayı bilimsel yöntemlerle analiz etmenin önündeki en büyük engel, dijital ekosistemin araştırmacılara karşı giderek kapanan yapısıdır. Cambridge Analytica skandalı sonrası platformların "veri güvenliği" bahanesiyle dış dünyaya kapılarını kapatması, literatürde "APIcalypse" (API Kıyameti) olarak adlandırılan metodolojik bir krize yol açmıştır. Bu kriz, sadece veriye erişimi zorlaştırmakla kalmamış, aynı zamanda üretilen bilimsel bilginin tarafsızlığını ve temsil kabiliyetini de zedelemiştir.
Geçmişte Facebook Graph API v1.0 gibi araçlar, araştırmacıların toplumsal eğilimleri ve manipülasyon ağlarını geniş ölçekte incelemesine olanak tanırken; günümüzde platformlar, veriyi bir "ticari sır" ve "stratejik varlık" olarak mühürlemiştir.
APIcalypse sonrası araştırmacıların karşılaştığı en büyük tehlike, veriye erişimin nispeten daha kolay olduğu mecralara (özellikle X/Twitter) aşırı yoğunlaşmaktır. Bu durum, bilimsel literatürde ciddi bir "temsil krizi" yaratmaktadır.
Algoritmik denetim ve dezenformasyon analizi araçlarının çoğu, İngilizce odaklı veri setleriyle eğitilmiştir. Bu durum, Türkiye gibi farklı dil yapısına ve kültürel kodlara sahip coğrafyalarda ciddi bir "bilimsel körlük" yaratmaktadır.
Algoritmalar, sadece veriyi işleyen tarafsız matematiksel formüller değil; şirketlerin ticari çıkarlarını ve bazen siyasi önyargıları barındıran "kara kutulardır".
Sonuç olarak, metodolojik kriz; sadece bir teknik sorun değil, demokrasinin denetlenemez bir alana itilmesi sorunudur. Algoritmik kuşatmayı kırmak için önce bu kuşatmayı bilimsel olarak "görünür" kılacak yeni veri politikalarına ve yerel dilleri önceleyen metodolojik araçlara ihtiyaç vardır.
Sıradan bir kullanıcının, kapısını çalan bir araştırmacının niyetini teyit etmesi ya da ona veri teslim etmesi, "This Is Your Digital Life" örneğinde görüldüğü gibi büyük bir güvenlik riskidir. Bu nedenle çözüm, bireylerin kendi verilerini araştırmacılara "bağışlaması" değil, devletlerin ve uluslararası kurumların sistemik denetim yetkisini devralmasıdır.
Bu bağlamda iki temel dayanak öne çıkmaktadır:
Yasal Olarak Zorunlu Kılınmış Bağımsız Denetim: AB'nin Dijital Hizmetler Yasası (DSA) ve Yapay Zekâ Yasası (AI Act) kapsamında önerilen model, denetim yükünü kullanıcıdan alıp devlete verir. Bu yasalara göre, çok büyük platformlar verilerini halka değil, "incelenmiş ve akredite edilmiş araştırmacılara" (vetted researchers) açmak zorundadır (EDPS, 2018).
Sistemik Akreditasyon ve Teknik Otopsi: Araştırmacıların güvenilirliği; üniversiteler, etik kurullar ve bağımsız yargı organları tarafından merkezi olarak teyit edilir. Veri, kullanıcıya bir "onay kutusu" tıklatılarak değil, platforma getirilen yasal bir zorunlulukla, sadece bu akredite kurumlara güvenli sunucular üzerinden açılır. Böylece "algoritmik hesap verebilirlik" sağlanırken, kullanıcı manipülasyondan korunmuş olur (Kröger, Errenst, Nau, & Ojanperä, 2024).
Özetle: Algoritmik kuşatmayı kırmanın yolu, her vatandaşı bir veri uzmanı olmaya zorlamak değildir. Aksine, halkın hür iradesini temsil eden bağımsız kurumların, bu teknoloji devlerini "bağışıklık denetçisi" gibi yasal olarak denetlemesini sağlamaktır.
Bu metodolojik krizi bir benzetmeyle açıklayalım: Platformlar, kapıları kilitli ve pencereleri siyah filmle kaplanmış devasa kimya fabrikaları gibidir. Fabrika sahibi (platform), "İçeride her şey yolunda, çevreye zehirli gaz (manipülasyon) yaymıyoruz" diyor. Ancak biz neyin solunduğunu bilmiyoruz. Bizim önerimiz, yoldan geçen her vatandaşa bu fabrikaya girip numune toplamasını söylemek değildir; bu hem tehlikeli hem de imkansızdır. Gerçek çözüm, devlet tarafından sertifikalandırılmış bağımsız çevre müfettişlerinin (akredite araştırmacıların) yasal bir zorunlulukla fabrikaya girmesi, bacaları (algoritmaları) ölçmesi ve sonuçları kamuoyuna açıklamasıdır.

Şekil 3 Üretken Yapay Zekâ ve Slopaganda Bilginin Değersizleştirilmesi (Üretim Kaynağı: NotebookLM)
Dijital bilgi ekosistemi, Üretken Yapay Zekâ (GenAI) ve Büyük Dil Modellerinin (LLM) yükselişiyle birlikte, geleneksel propagandanın ötesine geçen yeni ve yıkıcı bir içerik türüyle karşı karşıya kalmıştır. Literatüre "Slopaganda" (Slop/Çöp-Yapay Zekâ İçeriği ve Propaganda kavramlarının birleşimi) olarak giren bu olgu, siyasi hedeflere ulaşmak amacıyla, kitleleri manipüle etmek için LLM’ler aracılığıyla üretilen, istenmeyen ve kalitesiz yapay zekâ içeriklerini tanımlar. Bu bölümde, bilginin üretim maliyetinin düşmesiyle birlikte hakikatin nasıl bir "değersizleşme" sürecine girdiğini ve toplumların nasıl bir "epistemik istikrarsızlık" (bilginin doğruluğuna dair temel güvenin kaybı) içine itildiğini inceleyeceğiz (Klincewicz, Alfano, & Fard, 2025).
Slopaganda, geleneksel propaganda yöntemlerinden ölçek, kapsam ve hız açısından kat kat daha güçlüdür. İnsan eliyle içerik üretilen "içerik çiftliklerinin" yerini alan yapay zekâ, haftada binlerce yerel görünümlü haber hikâyesini çok düşük maliyetle ve saniyeler içinde üretebilmektedir. Bu devasa üretim kapasitesi, bilgi ortamını o kadar yoğun bir "çöp" yığınıyla doldurur ki, nitelikli ve doğrulanmış bilginin bu gürültü içinde fark edilmesi imkânsız hale gelir. Bu durum, "Brandolini Yasası" (Bullshit Asymmetry Principle) ile açıklanır: “Saçma bir bilgiyi üretmek için gereken enerji, o bilgiyi çürütmek için gereken enerjiden kat kat daha azdır”. Yapay zekâ bu asimetriyi silah haline getirerek, doğruları savunmaya çalışan kurumları teknik bir felce uğratmaktadır (Spitale, Andorno, & Germani, 2023).
Slopaganda’nın en tehlikeli yönü, sadece gürültü yaratması değil, bu gürültünün her bireyin zaafına göre özelleştirilebilmesidir. Yapay zekâ destekli "Manipülasyon Makinesi", kullanıcıların dijital ayak izlerinden (beğeniler, yorumlar, okuma alışkanlıkları) kişilik özelliklerini otomatik olarak çıkarabilmekte ve hiçbir insan müdahalesine gerek duymadan, her seçmenin "korku" veya "umut" noktalarına dokunan binlerce farklı mesaj türetebilmektedir. Erken bulgular, yapay zekânın dezenformasyon üretme ve insanları ikna etme konusunda gerçek insanlardan daha başarılı olabildiğini göstermektedir (Stanley, 2015).
Bilgi ekosistemindeki bu kirlenme, bireylerde neyin gerçek neyin sahte olduğunu ayırt edememe durumundan kaynaklanan bir "epistemik belirsizlik" yaratır. Bu süreç iki aşamalı bir çürümeye yol açar:
Yapay zekâ tarafından üretilen içeriklerin interneti istila etmesi, bilginin ekonomik ve sosyal değerini düşürmektedir. Bilgi artık nadir ve değerli bir varlık olmaktan çıkıp, "gözetim kapitalizminin" bir kancası olarak kullanılan ucuz bir metaya dönüşmüştür. Bu durum, seçmenlerin sadece siyasetçilere değil, haber kaynaklarına ve demokratik kurumlara olan güvenini de sarsarak kolektif akıl yürütme kapasitesini felç etmektedir (Floridi, 2025).
Bu süreci bir benzetme ile açıklayalım: Slopaganda’yı, bir şehrin su şebekesine (bilgi ekosistemi) sızan ve suyu zehirlemeyen ama tadını, kokusunu ve rengini bozan bir maddeye benzetebiliriz ki, insanlar artık susasalar bile musluktan su içmeye korkar hale gelirler. Şehirde temiz su (hakikat) hala vardır, ancak arada o kadar çok "bulanık su" (AI slop) akmaktadır ki, halk artık hangi dolan bardağın güvenli olduğunu anlamak için harcayacağı çabadan vazgeçer ve tamamen susuz (bilgisiz) kalmayı ya da sadece üretilmiş damacanalardan (yankı odaları) gelen suya güvenmeyi tercih eder. Sonuçta, suyun temiz olup olmadığına dair şüphe, suyun kendisinden daha büyük bir kriz haline gelir.

Şekil 4 İnsan-YZ Hibritleşmesi ve Bilişsel Bağışıklık (Üretim Kaynağı: NotebookLM)
Algoritmik kuşatma altında, bireyler sadece pasif veri kaynakları değil, aynı zamanda bu sistemlerle sürekli etkileşim halinde olan ve kendi savunma mekanizmalarını geliştiren "hibrit özneler" haline gelmektedir. (Klincewicz & ark., 2024) Yapay zekâ teknolojilerinin bilişsel özerkliği tehdit etmesi, demokratik dürüstlüğün korunmasını sadece teknik bir siber güvenlik meselesi olmaktan çıkarıp bir bilişsel güvenlik mücadelesine dönüştürmüştür.
Algoritmik manipülasyona karşı bireyleri korumanın yolu, onları pasif kurbanlar olarak görmek yerine, bilişsel süreçlerini güçlendirmekten geçmektedir. Aşılama Teorisi (Inoculation Theory), bireylere manipülasyon tekniklerinin "zayıflatılmış dozlarını" (örneğin dezenformasyonun nasıl yapıldığını gösteren eğitsel oyunlar) önceden sunarak bilişsel bir bağışıklık kazandırmayı amaçlar (Klincewicz, Alfano, & Fard, 2025).
Kullanıcılar, algoritmaların kendilerini hapsettiği "filtre balonlarını" fark ettiklerinde, sistemin kontrolünden çıkmak için bilinçli stratejiler geliştirmeye başlarlar. Literatürde "Algoritmik Özne Aracılığı" olarak adlandırılan bu durum, bireylerin algoritmaları kendi çıkarları doğrultusunda "eğitme" çabasıdır.
Bireysel çabaların ötesinde, toplumsal ölçekte bilişsel bağışıklık inşası için Tayvan, dünyadaki en güçlü modellerden birini sunmaktadır. Tayvan’ın başarısı, dezenformasyona karşı sadece tepki vermek değil, halkın "epistemik uyanıklığını" sistemik olarak artırmaktır (Taiwan FactCheck Center, 2024).
Geleceğin dünyasında bilişsel güvenliği korumanın yolu, yapay zekâyı bireyleri belirli bir karara iten "ikna makineleri" olmaktan çıkarıp, onları düşündürmeye sevk eden "felsefi ajanlar" olarak tasarlamaktır.
Bu süreci bir benzetme ile netleştirelim: Algoritmik manipülasyonu bir virüs gibi düşünürsek, "bilişsel bağışıklık" bu virüse karşı geliştirilen bir antikor sistemidir. "Aşılama" yöntemiyle zihnimize dezenformasyonun taktiklerini öğreterek ona karşı direnç kazanırız. "Algoritmik özne aracılığı" ise, bize sürekli aynı cins yemeği (içeriği) dayatan bir garsona (algoritmaya) mutfağın nasıl çalışması gerektiğini söylemektir. Nihai amaç, yapay zekânın bizi bir kukla gibi yönetmesi değil, bir "Sokratik hoca" gibi doğru sorularla kendi özgür irademizi keşfetmemize yardımcı olmasıdır.

Şekil 5 Algoritmik Mekanizmalar ve Toplumsal Kutuplaşma (Üretim Kaynağı: NotebookLM)
Modern dijital medya ekosistemi, bilginin küratörlüğünü editörlerden alıp "bağlılık" (engagement) metriklerine odaklanan opak algoritmalara devretmiştir. Sosyal medya platformları, kullanıcıların platformda geçirdiği süreyi maksimize etmek amacıyla, onların geçmiş davranışlarını, beğenilerini ve etkileşimlerini analiz ederek hiper-kişiselleştirilmiş içerik akışları sunar. Bu algoritmik yapı, başlangıçta kullanıcı deneyimini iyileştiren bir "ilgi filtresi" gibi görünse de giderek demokratik toplumun ihtiyaç duyduğu ortak gerçeklik zeminini parçalayan bir kutuplaşma makinesine dönüşmüştür (GLIKSON & WOOLLEY, 2020).
Filtre Balonları (Filter Bubbles), algoritmaların bir kullanıcının neyi görmek isteyeceğini tahmin ederek, onu kendi görüşlerini doğrulamayan bilgilerden izole etmesi durumunu tanımlar (Mansur, 2025). Bu mekanizma şu şekilde işler:
Bu süreçte dijital platformlar, toplumsal fayda veya bilginin doğruluğu yerine, daha fazla tıklama getiren duygusal ve sansasyonel içerikleri ön plana çıkararak bu balonları daha da kalınlaştırır.
Yankı Odaları: "Körler ve Sağırlar Birbirini Ağırlar" Yankı Odaları (Echo Chambers), benzer düşüncelere sahip bireylerin bir araya gelerek birbirlerinin inançlarını sürekli olarak doğruladığı ve karşıt sesleri dışladığı sosyal yapıları ifade eder. Türkiye’de bu durumu tam olarak karşılayan "körler ve sağırlar birbirini ağırlar" deyimi, algoritmik sistemlerin yarattığı bu tecrit halini mükemmel özetler; zira bu odalarda bireyler, yalnızca kendi fikirlerinin yankısını duyar ve aykırı seslere karşı "sağır" hale getirilirler. Bu mekanizma, bireyin mevcut önyargılarını pekiştirirken kolektif akıl yürütme kapasitesini felç eder (Mansur, 2025).
Yankı odalarının demokratik tehlikeleri şunlardır:
Algoritmalar sadece mevcut görüşleri yansıtmakla kalmaz, aynı zamanda kullanıcıları daha ekstrem noktalara doğru sürükler. Tavsiye sistemleri, bağlılığı artırmak için kullanıcılara sürekli olarak bir öncekinden daha çarpıcı ve radikal içerikler sunma eğilimindedir (Bhanji & Delgado, 2015).
Özellikle siyasal kampanya dönemlerinde kullanılan "Karanlık Reklamlar" (Dark Ads), bu kutuplaşmayı bir silah olarak kullanır. Sadece hedeflenen kişiye gösterilen ve kamusal denetimden kaçan bu reklamlar, toplumun farklı kesimlerine birbirini dışlayan sahte vaatler sunarak toplumsal uzlaşıyı imkânsız hale getirir. Sonuç olarak seçmen, özgür iradesiyle karar verdiğini sanırken aslında bir "tercih mimarisi" tarafından sessizce mühendisliğe tabi tutulur.
Bu durumu bir benzetme ile açıklayacak olursak: Eski tip medya, herkesin aynı ana haber bültenini izlediği büyük bir stadyum gibidir; insanlar farklı takımları tutsa da sahada ne olduğunu herkes aynı anda görür. Algoritmik kuşatma ise, stadyumdaki her bir kişinin etrafına görünmez ve ses geçirmez cam kabinler örmek gibidir. Her kabindeki ekranda farklı bir maç, farklı bir kural ve farklı bir skor gösterilir. Bir süre sonra kabinine hapsolmuş bireyler, yanındakinin ne gördüğünü anlayamaz hale gelir ve dışarı çıktıklarında artık aynı dili konuşmaları imkansızlaşır. Bu makale, o görünmez kabinleri kırmayı ve sahayı yeniden herkes için görünür kılmayı hedeflemektedir.
Şekil 6 Düşük Dirençli Demokrasilerde Veri Güvenliği ve Siber Tehditler (Üretim Kaynağı: NotebookLM)
Siyasal mikro-hedefleme (PMT) tartışmaları genellikle Küresel Kuzey (ABD ve AB) odaklı ilerlese de bu teknolojilerin asıl yıkıcı etkisi düşük ve orta gelirli ülkelerde, yani Küresel Güney’de görülmektedir. Bu bölgelerdeki demokrasiler; dijital okuryazarlık düşüklüğü, zayıf yasal altyapılar ve köklü toplumsal fay hatları nedeniyle algoritmik manipülasyonlara karşı çok daha savunmasızdır (Kröger, Errenst, Nau, & Ojanperä, 2024).
Küresel Güney’deki dezenformasyon ve siber tehditlerin etkisini artıran temel faktörler şunlardır:
Kaynaklar, bu teknolojilerin Küresel Güney’deki çeşitli ülkelerde nasıl suistimal edildiğine dair somut veriler sunmaktadır (Kröger, Errenst, Nau, & Ojanperä, 2024):
Küresel Güney demokrasileri, sadece bölgesel rakiplerin değil, küresel güçlerin siber operasyon alanı haline gelmiştir. Bu tehdit tek taraflı değildir; Çin, İran ve Rusya gibi aktörlerin yanı sıra, ABD ve İngiltere merkezli siyasal danışmanlık firmaları ve veri simsarları da bu ekosistemin asli parçalarıdır.
Bu durumu bir benzetme ile özetleyelim: Düşük dirençli demokrasileri, fırtınaya karşı dayanıklı beton binaları (güçlü kurumları) olmayan sahil kasabalarına benzetebiliriz. Küresel Kuzey'de bu algoritmik fırtınalar binaları sarsarken, Küresel Güney'de kurumsal koruma kalkanları olmadığı için dezenformasyon ve veri ihlalleri doğrudan toplumsal yapıyı "yıkıp geçmekte", sel suları (manipülasyon) her yere sızmaktadır.

Şekil 7 Politika Önerileri ve Hukuki Çerçeve (Üretim Kaynağı: NotebookLM)
Yapay zekâ ve mikro-hedeflemenin yarattığı sistematik risklere karşı geliştirilecek hukuki yanıt, reaktif yaklaşımlardan ziyade, demokratik dürüstlüğü korumaya odaklanan "bütünleşik bir direnç çerçevesi" üzerine inşa edilmelidir. Bu bölüm, GDPR, DSA ve PAR gibi düzenlemelerin ışığında somut çözüm önerilerini ele almaktadır.
Geleneksel veri koruma modellerindeki "explicit consent" (açık rıza), karmaşık algoritma dünyasında yetersiz kalmaktadır.
AB'nin 2024'te yürürlüğe giren Siyasal Reklamcılığın Şeffaflığı ve Hedeflenmesi Tüzüğü (PAR), bu alandaki en güncel yasal referanstır (Tanase, 2020).
Algoritmaların "kara kutu" doğasını kırmak için kurumsal denetim şarttır.
Teknik çözümler, hukuki düzenlemeleri desteklemelidir.
Dezenformasyonla mücadele ve algoritmik denetim arayışları, doğası gereği çift tarafı keskin bir bıçak niteliğindedir. Bir yandan kamusal alanı korumayı hedeflerken, diğer yandan devletin dijital alan üzerindeki kontrolünü aşırı ölçüde artırarak ifade özgürlüğünü kısıtlama potansiyeli taşımaktadır. Bu risk, özellikle "Bilişsel Güvenlik" kavramının otoriter rejimler tarafından muhalif sesleri susturmak için bir "silah" olarak kullanılma ihtimaliyle somutlaşmaktadır (Mansur, 2025).
Otoriter suistimalin en yaygın biçimi, yasal metinlerdeki kavramsal muğlaklıktan beslenir "Dezenformasyon", "kamu düzenini bozucu içerik" veya "milli güvenliğe tehdit" gibi tanımların sınırları net çizilmediğinde, bu kavramlar iktidarlar tarafından her türlü eleştirel sesin "yalan haber" kategorisine sokularak bastırılmasına imkân tanır (UNESCO, 2025).
Denetim önerilerinin bir sansür mekanizmasına dönüşmesini engellemek için somut "fren ve denge" mekanizmalarının sisteme entegre edilmesi zorunluluktur (Mansur, 2025).
Devletlerin platformlar üzerinde kurduğu "kayıt dışı" baskılar (informal pressure), en sinsi sansür biçimidir. Platformların, yerel yasalarla tehdit edilerek algoritmalarını hükümet lehine manipüle etmeye zorlanması, "Algoritmik Kuşatma"nın devlet eliyle yürütülen bir versiyonudur. Bu noktada, platformların şeffaflık raporları sadece kaldırılan içerikleri değil, hükümetlerden gelen tüm "algoritma değiştirme" veya "veriye erişim" taleplerini de içermelidir (Mansur, 2025).
Sonuç olarak, bilişsel güvenliği korumak adına inşa edilecek her savunma hattı, aynı zamanda bireyi devlete karşı koruyacak demokratik kalkanlarla donatılmalıdır (Mansur, 2025; Başkaya, 2025). Aksi takdirde, algoritmik kuşatmadan kurtulma çabası, dijital bir panoptikonun inşasıyla sonuçlanabilir (Özcan, 2021).
Mevcut durumumuz, herkesin kendi cam fanusunda yaşadığı, dışarıdan kimin hangi rengi gördüğünü bilmediğimiz bir topluma benzemektedir. Politika önerilerimiz ise bu fanusları kırmak değil, onları şeffaf hale getirmektir. Eğer camın arkasında birinin bize fısıldadığını (mikro-hedefleme) bilirsek ve bu fısıltının kaynağını görebilirsek (hesap verebilirlik), tekrar ortak bir meydanda, yani gerçek bir demokraside buluşabiliriz.

Şekil 8 Teknoloji ve Demokrasi Arasındaki Kopan Bağı Yeniden Örmek (Üretim Kaynağı: NotebookLM)
Cambridge Analytica skandalıyla zirveye ulaşan süreç, dijital teknolojilerin sadece birer iletişim aracı olmadığını, aksine demokratik süreçlerin genetiğini değiştirebilen "stratejik silahlar" olduğunu kanıtlamıştır. Gelinen noktada, siyasal mikro-hedefleme (PMT) ve Üretken Yapay Zekâ (GenAI) sistemleri, seçmenin bilişsel özerkliğini tehdit eden devasa bir "manipülasyon makinesi" inşa etme potansiyeline sahiptir.
Bu çalışmada ele alınan bulgular, "APIcalypse" sonrasında araştırmacıların veriye erişiminin kısıtlanmasının, platformları denetlenemeyen birer "kara kutu" haline getirdiğini ve bu durumun kamusal şeffaflığı yok ettiğini göstermektedir. "Slopaganda" ve algoritmik yankı odaları, toplumların ortak bir gerçeklik zemininde buluşmasını imkânsız kılarak epistemik bir kriz yaratmıştır.
Nihai olarak, teknoloji ve demokrasiyi birbirine bağlayan kordon ağır hasar görmüştür. Bu bağı yeniden örmek, sadece teknolojik bir güncelleme ile değil; bireyin özerkliğini piyasanın ve siyasi elitlerin veri açlığından üstün tutan yeni bir dijital toplumsal sözleşme ile mümkündür (Raychaudhuri, 2025).
Bir metaforla bitirecek olursak: Demokrasi, herkesin aynı pusulaya (ortak gerçeklik) bakarak kendi yolunu (özgür seçim) çizdiği bir hayat yolculuğudur. Mevcut algoritmik sistemler ise her yolcunun pusulasını gizlice farklı bir yöne saptırmakta, üstelik bunu yaparken yolcuya hayatını kendisinin yönettiği illüzyonunu vermektedir. Gerçek çözüm, pusulaları kırmak değil, yaşamlarının dümenindeki yazılımı şeffaf ve denetlenebilir kılarak herkesin tekrar aynı ufka bakabilmesini sağlamaktır.
Özcan, A. (2021, 1 30). Büyük veri: Fırsatlar ve tehditler. Dergipark, s. Cilt 6 Sayı 11.
Axelsson, C.-A. W., Nygren, T., Roozenbeek, J., & Linden, S. v. (2024, 4). Bad News in the civics classroom: How serious gameplay fosters teenagers’ ability to discern misinformation techniques. Journal of Research on Technology in Education, s. 1-21.
Benkler, Y., Faris, R., & Roberts, H. (2018). 'Mammon’s Algorithm: Marketing, Manipulation, and Clickbait on Facebook', Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics. Oxford University Press.
Bhanji, J. P., & Delgado, M. R. (2015, 1 1). The Social Brain and Reward: Social Information Processing in the Human Striatum. National Library of Medicine: https://pmc.ncbi.nlm.nih.gov/articles/PMC3890330/ adresinden alındı
Boverman, S. &. (2025). Regulating Political Advertising in the EU. eucrim: https://doi.org/10.30709/eucrim-2025-008 adresinden alındı
Devran, Y., & Özcan, Ö. F. (2020, 12 21). Siyasal İletişimde ‘’Araç’’ Öncelliğinden ‘’Mikro Hedefe’’ Uzanan Yaklaşımlar: Yapay Zeka Teknolojisinin Mikro Hedef Kitlenin Belirlenmesinde ve 20 İletişiminde Kullanımı. Atatürk Üniversitesi Sosyal Bilimler Enstitüsü Dergisi, s. 1972-1992.
Dwork, C., & Roth, A. (2014). The algorithmic foundations of differential privacy. Foundations and Trends in Theoretical Computer Science. Foundations and Trends: https://www.cis.upenn.edu/~aaroth/Papers/privacybook.pdf adresinden alındı
EDPS, E. D. (2018). Opinion 3/2018 EDPS Opinion on online manipulation and personal data . edps.europa.eu: https://www.edps.europa.eu/sites/default/files/publication/18-03-19_online_manipulation_en.pdf adresinden alındı
Floridi, L. (2025). Democratic epistemology in the age of artificial intelligence. Philosophy & Technology, s. 1-21.
GLIKSON, E., & WOOLLEY, A. W. (2020). HUMANTRUSTINARTIFICIAL INTELLIGENCE: REVIEW OF EMPIRICAL RESEARCH. Academy of Management Annals: https://leeds-faculty.colorado.edu/dahe7472/OB%202022/glickson%202021.pdf adresinden alındı
Kang, C., & Frenkel, S. (2018, 4 4). Facebook Says Cambridge Analytica Harvested Data of Up to 87 Million Users. New York Times: https://www.nytimes.com/2018/04/04/technology/mark-zuckerberg-testify-congress.html adresinden alındı
Klincewicz, M., Alfano, M., & Fard, A. E. (2025). Slopaganda: The interaction between propaganda and generative AI', Filosofiska Notiser. KlincewiczAlfanoFard, s. vol. 12, no. 1, pp. 135-162.
Kosinski, M., Stillwell, D., & Graepel, T. (2013, 3 11). Private traits and attributes are predictable from digital records of human behavior. pnas.org, s. 5802 - 5805.
Kröger, J., Errenst, E., Nau, N., & Ojanperä, S. (2024, 5 31). Mitigating the Risks of Political Microtargeting – Guidance for Policymakers, Civil Society, and Development Cooperation. ssrn.com: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4850022 adresinden alındı
Lewandowsky, S., & Linden, S. v. (2021, 2 22). Countering Misinformation and Fake News Through Inoculation and Prebunking. European Review of Social Psychology, s. 348-384.
Mansur, M. A. (2025). AI and cyber-enabled threats to democracy through algorithmic manipulation and generative AI in undermining democratic integrity. European Scientific Journal, 21-26.
Markham, A. (2012). Ethical Decision-Making and Internet Research. aoir.org: https://www.aoir.org/reports/ethics2.pdf adresinden alındı
Nix, A. (2016, 9 27). The Power of Big Data and Psychographics | 2016 Concordia Annual Summit” presentation. Youtube: https://www.youtube.com/watch?v=n8Dd5aVXLCc adresinden alındı
Raychaudhuri, A. (2025, 11). The Facebook-Cambridge Analytica Data Scandal: A Case Study in Ethical AI Failures and Data Privacy Violations. irejournals: https://www.irejournals.com/formatedpaper/1711588.pdf adresinden alındı
Robertson, J. (2018, 3 20). Meet the Psychologist at the Center of Facebook's Data Scandal. Bloomberg: https://www.bloomberg.com/news/articles/2018-03-20/meet-the-psychologist-at-the-center-of-facebook-s-data-scandal adresinden alındı
Sayın O., C. A. (2025). Siyasal İletişimde Yapay Zeka ve Veri Odaklı Dönüşüm. Journal of Management Theory and Practices Research.
Spitale, G., Andorno, N. B., & Germani, F. (2023, 6 28). AI model GPT-3 (dis)informs us better than humans. science.org: https://www.science.org/doi/10.1126/sciadv.adh1850 adresinden alındı
Stanley, J. (2015). How Propaganda Works. Princeton University Press.
Taiwan FactCheck Center. (2024, 12 27). Truth Matters: The 2024 survey on what Taiwanese think about misinformation and fact-checking. Taiwan FactCheck Center: https://en.tfc-taiwan.org.tw/truth-matters-the-2024-survey-on-what-taiwanese-think-about-misinformation-and-fact-checking/ adresinden alındı
Tanase, I. L. (2020). Cambridge Analytica in the Era of Surveillance Capitalism- the impact on the democratic structures. UNIVERSITEIT LEIDEN.
UNESCO. (2025). AI and electoral integrity: Policy guidelines for member states. United Nations Educational, Scientific and Cultural Organization Report. UNESCO.
Wilson, D. G. (2017). The ethics of automated behavioral microtargeting. . AI Matters, s. VOLUME3,ISSUE3.