Selbstversuch im Wahlkampf – unfreiwillig und mit Nachwirkungen
Zu Beginn des Bundestagswahlkampfs habe ich – ohne es zu planen – einen unfreiwilligen Selbstversuch unternommen. Erst jetzt, mit Abstand und einem besseren Verständnis für digitale Einflussmechanismen, wird mir klar, welche Tragweite dieses Experiment hatte. Ich verstehe heute, was Microtargeting bedeutet – und wie gefährlich es werden kann, wenn es nicht nur für Amazon-Empfehlungen, sondern zur gezielten Verbreitung politischer Propaganda eingesetzt wird.
Naives Vertrauen in etablierte Medien
Ich hielt das Lesen von Artikeln in der Süddeutschen Zeitung oder der Frankfurter Allgemeinen Zeitung für unbedenklich – seriöse Medienhäuser, unabhängig und etabliert. Was ich nicht beachtete: Die Nutzung der kostenlosen Onlineversionen ist nicht dasselbe wie das Lesen der Printausgabe. Mit dem Klick auf „Mit Werbung weiterlesen“ öffnet man digitale Schleusen, durch die Tracking, Datenerhebung und algorithmische Auswertung einsetzen.
Ich erwartete Werbung – nicht aber Themenvorschläge, die emotional aufgeladen, polarisierend und potenziell radikalisierend waren. Diese Inhalte schienen gezielt auf mich zugeschnitten zu sein – ohne dass ich damals wusste, was da im Hintergrund wirkte.
Der Preis des „kostenlosen“ Journalismus
Was viele Nutzer:innen nicht bedenken: Mit dem Klick auf „Einverstanden“ erlaubt man umfangreiche Datenverarbeitung. Tracking, Geräteerkennung, IP-Auswertung, Geolokalisierung und Verhaltensanalyse – verbunden mit über 140 bis 180 Werbepartnern.
Diese Daten bilden die Grundlage für politische Profilbildung – wie in US-Wahlkämpfen bereits geschehen.
Während ich auf meiner eigenen Webseite über den Wahlkampf berichtete, spürte ich eine Rückkopplung: Inhalte, die mir angezeigt wurden, wirkten zunehmend wie ein Spiegel meiner eigenen Aussagen – verstärkt, polarisiert, algorithmisch gefiltert. Ich verstand es damals nicht, aber ich spürte: Da wirkt ein System, das zurückspielt.
Rückzug aus der Öffentlichkeit – aus Unsicherheit
Ich ließ mich nicht radikalisieren, aber ich war beunruhigt. Nach wenigen Tagen stellte ich meine Webseite auf „privat“. Ich konnte nicht einschätzen, wie tief ich bereits in einem datengetriebenen Netzwerk steckte. Rückblickend – auch mit meinem physikalisch-analytischen Hintergrund – wurde mir klar:
Ich war Teil eines algorithmischen Selbstversuchs geworden.
Mit über 1000 YouTube-Videos gehöre ich wahrscheinlich zu den detailliertesten Profilen im Netz. Für algorithmische Systeme bin ich ein ideales Ziel – analysierbar, messbar, manipulierbar. Die Missbrauchsgefahr ist hoch – und die Akteure agieren außerhalb der Reichweite des deutschen Rechts.
Algorithmische Intoxikation: Nicht jeder übersteht sie unbeschadet
Ich habe überlebt, aber ich bin nicht sicher, ob das alle tun. Eine algorithmische Intoxikation – die gezielte emotionale Überreizung durch digitale Inhalte – kann Menschen psychisch destabilisieren.
Sie ist vergleichbar mit den frühen Experimenten in der Radioaktivität, bei denen Forscher durch Unwissenheit ihr Leben riskierten. Heute begeben wir uns naiv in digitale Experimente, deren Risiken wir nicht abschätzen können. Bei ungeschützten Menschen könnte dies zum Wahnsinn oder sogar zu Amoktaten mit Suizidrisiken führen.
Gesellschaftliche Folgen – Intoxikation durch das Netz
Noch alarmierender: Ich beobachte dieselben Muster in meinem Umfeld. Auch unter Akademikern sehe ich Menschen, die täglich scheinbar wissenschaftlich begründete Verschwörungstheorien konsumieren – via YouTube, Telegram, Facebook.
Diskussionen werden sinnlos. Medien wie Tagesschau, Deutschlandfunk oder seriöse Zeitungen werden pauschal als manipulativ abgetan – während fragwürdige Einzelpersonen als letzte „Wahrheitsquellen“ gelten.
Ich kritisiere auch öffentlich-rechtliche Medien, aber ich bin mir sicher: Ein ARD-Beitrag ist mir vertrauenswürdiger als ein Hetzkanal auf Telegram.
Der stille Einfluss von WhatsApp
WhatsApp wirkt auf den ersten Blick harmlos – durch Ende-zu-Ende-Verschlüsselung scheinbar sicher. Doch es liefert Metadaten an Meta/Facebook, darunter:
- Kontaktverhalten
- Gruppenmitgliedschaften
- Nutzungsfrequenz
- Standortinformationen
Diese Daten werden mit Facebook- und Instagram-Profilen verknüpft, um Zielgruppen für Werbung – auch politisch – zu identifizieren. WhatsApp selbst ist dabei Kommunikationskanal und Radikalisierungsplattform, gerade in geschlossenen Gruppen. In anderen Ländern wurde der Dienst bereits für Wahleinfluss missbraucht.
Facebook als Hauptgefahr für ältere Nutzer
Viele ältere Menschen nutzen Facebook als Hauptquelle für Nachrichten und Austausch. Dort greifen besonders starke Mechanismen:
- präzises psychologisches Profiling
- „Dark Ads“ – personalisierte, nicht-öffentliche politische Werbung
- Filterblasenbildung durch algorithmisch gesteuerte Inhalte
- gezielte Desinformation über getarnte Beiträge oder Gruppen
Facebook zeigt Inhalte, die Emotionen verstärken – vor allem Wut, Angst und Empörung. Das führt bei weniger medienkompetenten Personen zur Verfestigung manipulierter Weltbilder, oft mit starkem politischen Bias.
Aufruf zur Aufklärung – Warnhinweise wie bei Zigaretten?
Ich wünsche mir, dass digitale Inhalte, die mit Microtargeting arbeiten, verpflichtend einen Warnhinweis tragen. So wie wir auf Zigarettenpackungen vor Krebs warnen, sollten wir auch vor:
„ACHTUNG: Dieses Angebot verwendet algorithmische Verfahren zur Beeinflussung Ihres Denkens.“
Was FAZ.de und SZ.de heute bieten, ist nicht transparent genug. Es wird auf Werbung hingewiesen – nicht aber darauf, dass diese Werbung verhaltensgesteuert, psychologisch personalisiert und politisch missbrauchbar ist.
Visualisierung: Warnhinweise auf Cookie-Bannern
Die visuelle Umsetzung meiner Analyse nutzte bewusst Gestaltungselemente von Gesundheitswarnungen:
- Gelb-Schwarz als Signal für Gefahr
- Rote Dreiecke und Piktogramme
- Der Text: „Gefahr für Ihr Gehirn – durch Microtargeting“
Das Titelbild funktioniert als Einstieg in ein tiefes Thema, das oft unterschätzt wird – visuell stark, argumentativ klar.
Fazit
Was ich erlebt habe, kann jeder erleben – und vielen passiert es täglich, ohne es zu merken.
Wir brauchen digitale Mündigkeit. Nicht nur technische Kompetenz, sondern auch:
- Bewusstsein für algorithmische Systeme
- Wissen über politische Einflussstrategien
- Schutzmechanismen gegen emotionale Manipulation
Projekt Klarblick will genau das leisten: Menschen aufklären, sensibilisieren und vor dem digitalen Kontrollverlust schützen.
Hinweis zur Mitwirkung von KI
Dieser Beitrag wurde mit Unterstützung von ChatGPT-4 (OpenAI) erstellt. Struktur, Formulierungen und Visualisierungen wurden redaktionell überarbeitet, mit persönlicher Erfahrung und technischer Analyse kombiniert.
Ziel ist es, ein komplexes Thema verständlich, reflektiert und überprüfbar darzustellen.
Erstellt von Konrad Rennert mit KI-Unterstützung (ChatGPT-4), lizenziert unter CC BY 4.0

