Verfasst von Konrad Rennert – mit Unterstützung von Microsoft Copilot (KI) Bildquelle: Screenshot-Kollage aus einem Zitierrichtlinien-PDF der Universität Wien und deren offizieller Website
✍️ Einleitung
Gendergerechte Sprache ist längst mehr als ein akademisches Feuilleton-Thema – sie ist Pflichtübung in Universitäten, Leitfäden und Förderanträgen. Doch während Menschen sich mühsam durch Sternchen, Doppelpunkte und neutrale Begriffe hangeln, stolpert die künstliche Intelligenz über genau das, was sie eigentlich perfekt beherrschen sollte: konsistente Sprachlogik.
Dieser Beitrag zeigt, wie KI beim Gendern versagt – nicht aus Bosheit, sondern aus Datenblindheit. Und wie trivial es eigentlich wäre, wenn man ihr nur die richtigen Regeln beibrächte. Zwischen satirischen Kommentaren im RennertStil und echten Beispielen aus der Kunst- und Wissenschaftsszene entsteht ein Panorama der digitalen Sprachverwirrung – mit Quellenangabe, Bildbeleg und einem Augenzwinkern.
📸 Ausgangspunkt: Ein Bild, zwei Welten
Links im Bild: ein akademischer Leitfaden zum korrekten Zitieren – mit Betonung auf URL, Benutzernamen und Kapitelangaben. Rechts: die Homepage der Universität Wien, die sich als Ort der „unermüdlichen Neugier“ präsentiert. Beide Seiten eint ein Anspruch auf Präzision, Wissenschaftlichkeit und sprachliche Sorgfalt. Und doch: Beim Gendern versagt die künstliche Intelligenz regelmäßig – obwohl es eigentlich trivial wäre.
🤖 KI-Gender-Fails – ein satirischer Streifzug
Die KI, die diesen Text mitverfasst hat, ist selbst nicht frei von Bias. Sie wurde mit Milliarden von Wörtern trainiert – darunter auch solche, die aus einer Zeit stammen, in der „der Arzt“ noch selbstverständlich männlich war und „die Forscherin“ bestenfalls als Ausnahme galt.
Hier ein paar echte Beispiele, wie KI beim Gendern danebenliegt – kommentiert im RennertStil:
- „The doctor said…“ → „Der Arzt sagte…“
🧠 Kommentar: Natürlich. Weil Ärztinnen offenbar nicht sprechen dürfen. Die KI hat gelernt: Medizin = Männlich. Quelle: erwachsenenbildung.at
- „Engineering Professor“ → 12 Bilder von weißen Männern mit Halbglatze
🧠 Kommentar: Die KI kennt offenbar nur die Stanford-Variante des Professors. Diversität? Fehlanzeige. Quelle: ver.di – Gender Bias in der KI
- „Primary school teacher“ → Ausschließlich junge Frauen
🧠 Kommentar: Willkommen im 1950er-Jahrgang der Trainingsdaten. Quelle: ver.di – Gender Bias in der KI
🎓 Akademische Realität: Gendern als Pflichtübung
Die Universität Wien zeigt, wie es gehen kann: In offiziellen Texten wird gegendert – meist mit Gender-Doppelpunkt („Forscher:innen“) oder neutralen Begriffen („Studierende“, „Lehrende“). Das Zitierrichtlinien-PDF (siehe Bild) legt Wert auf korrekte Quellenangaben – ein Prinzip, das auch beim Gendern gelten sollte. Denn wer korrekt zitiert, sollte auch korrekt inkludieren.
🧩 Fazit: Bias ist kein Schicksal
Gendern ist für Maschinen keine intellektuelle Herausforderung – sondern eine Frage der Priorisierung. Die KI kann alles – außer sich von ihren Vorurteilen emanzipieren. Aber mit klaren Regeln, gutem Prompting und einem Hauch linguistischer Sensibilität lässt sich das Problem leicht beheben.
Hinweis zur KI-Mitwirkung: Dieser Beitrag wurde in Zusammenarbeit mit Microsoft Copilot erstellt. Die KI unterstützte bei der Recherche, Formulierung und Strukturierung des Textes. Die Bildbeschreibung basiert auf einer automatisierten Analyse der hochgeladenen Screenshots. Alle Inhalte wurden vom Autor geprüft und satirisch kommentiert 😉

