EN

Künstliche Intelligenz
KI im Superwahljahr - Revolution oder bekannte Bedrohung im neuen Gewand?

ki

Die Logos verschiedener ChatGPT-Apps für Künstliche Intelligenz (KI) auf dem Bildschirm eines Smartphones.

© picture alliance / epd-bild | Friedrich Stark

Deutschland steht vor Wahlen. Die ersten Vorboten eines mit neuen Mitteln geführten Wahlkampfs sind bereits sichtbar. Erst kürzlich sorgte ein KI-generiertes Video von Friedrich Merz, geteilt vom SPD-Bundestagsabgeordneten Bengt Bergt, für Schlagzeilen. Damit hat die Debatte, um den Einsatz von Künstlicher Intelligenz, die international seit Beginn des Jahres geführt wird, auch hierzulande Fahrt aufgenommen.

Der deutsche Wahlkampf kann also als Teil eines globalen Trends gesehen werden. Dieses Jahr fanden in 70 Ländern Wahlen statt – begleitet von Sorgen, wie KI die Integrität demokratischer Prozesse beeinflusst. Trotz zahlreicher Diskussionen fehlten bisher belastbare Daten. Um diese Lücke zu schließen, untersuchte die Friedrich-Naumann-Stiftung für die Freiheit gemeinsam in einem gemeinsamen Projekt mit der Deutschen Gesellschaft für Auswärtige Politik (DGAP) den Einfluss von KI auf Wahlen. Die Stiftung blickte näher auf Indien, Mexiko und Südafrika. Die DGAP untersuchte die Wahlen Regionalwahlen in Frankreich, den USA sowie den Wahlen in Thüringen, Sachsen und Brandenburg.

Keine Revolution aber ein neuer Kopf der Hydra

Obwohl das Ergebnis der untersuchten Wahlen nicht durch KI direkt beeinflusst wurde, zeigen die drei von der Stiftung untersuchten Länder klare Trends und Risiken. Zum einen können bereits bestehende Risiken verstärkt werden. KI-generierter Content erschwert die Verifizierung von Inhalten. Falschinformationen können schneller verbreitet werden, während Wählerinnen und Wähler Schwierigkeiten haben, Fakten von Fakes zu unterscheiden. Das schafft einen unübersichtlichen Informationsraum und bedroht das Vertrauen in demokratische Prozesse. In Indien gab es zahlreiche Beispiele hierfür. So verbreitete sich ein Deepfake von Bollywood Star Ranveer Singh, in welchem er Premier Modi kritisierte. Die Positionierung von Prominenten, welche auch in den US-Wahlen eine große Rolle spielte, wurde somit verfälscht. Auch ein Nachrichtensprecher wurde Opfer: Ein KI-generiertes Video mit einer Sprachkopie des Nachrichtensprechers Sudhir Chaudhary sagte den Sieg des Aam Aadmi Party (AAP)-Kandidaten aus West-Delhi, Mahabal Mishra, vorher. Das Video zeigte zudem gefälschte Grafiken eines Exit-Polls im Hintergrund. Das greift das Vertrauen in die Integrität der Wahl an. Beide Videos waren nicht gekennzeichnet. KI-generierte Deepfakes und Desinformation, die nicht als solche erkannt werden, beeinträchtigen die Fähigkeit der Wählerschaft, fundierte Entscheidungen zu treffen.

KI-gestützte Desinformation polarisiert zudem bestehende Konfliktlinien. Dies ist kein neues Phänomen. Durch KI kann zwar schneller und mehr Inhalt produziert werden, die Verbreitung via Sozialen Medien hat sich jedoch nicht fundamental geändert. In Gesellschaften mit ohnehin hohen Spannungen kann noch schwieriger zu erkennende Desinformation jedoch verheerende Auswirkungen haben. Sichtbar war dies zum Beispiel in den USA während Hurrikane Helen und Milton. Ein Teil der Desinformation traf die staatliche US-Katastrophenschutzbehörde FEMA. So behauptete Elon Musk, Eigentümer von X, dass FEMA keine Hilfslieferungen in die betroffenen Gebiete zuließ. Auch verbreiteten sich Gerüchte, dass FEMA Land von Überlebenden, die Unterstützung beantragen, beschlagnahmen würde. Diese Falschinformationen liefen an bestehenden politischen Konfliktlinien entlang (Republikaner vs. Demokraten) und zersetzten Vertrauen in staatliche Behörden so weit, dass diese zum Teil nur erschwert wichtige Katastrophenhilfe leisten konnte.

Liar’s Dividend – KI als Ausrede für Fehltritte

Durch die zunehmende Verbreitung von Deepfakes wird es einfacher, echte Inhalte als Fälschungen darzustellen. Ein Beispiel haben unsere Autorinnen in Mexiko beobachtet: Eine Audioaufnahme in den sozialen Medien zeigte angeblich die Bürgermeisterin Paola Angón. Darin spricht sie darüber Geld für ihre Berücksichtigung zur Wiederwahl zu zahlen. Sie bestritt die Vorwürfe und behauptete, es sei ein Deepfake. Deepfake-Erkennungstools weisen jedoch auf eine 95-prozentige Authentizität hin. Dies erschwert Rechenschaft und untergräbt Transparenz in politischen Prozessen. Gerade, weil Menschen dazu neigen, das zu glauben, was bereits ihrer Meinung entspricht. Politiker und Politikerinnen können so Skandalen entkommen und ihre Wählerschaft leichter erhalten.

Gezielte Manipulation durch Microtargeting

In Ländern wie Indien wurde deutlich, wie einfach Wählerdaten für personalisierte Desinformation genutzt werden können. Die regierende Bharatiya Janata Party (BJP) setzte in Indien die Saral-App intensiv ein, um ihre Reichweite zu vergrößern und zu stärken. Mit über 2,9 Millionen Downloads auf Google Play wurde sie vom Leiter der IT- und Social-Media-Abteilung der Partei als „wahlentscheidende Maschine“ bezeichnet. Ursprünglich zur Digitalisierung von Daten und Kommunikation mit Parteimitgliedern entwickelt, erweiterte die App ihren Fokus auf die Sammlung von Wählerdaten auf Booth-Ebene (kleinste Wahleinheit mit 700-800 Personen).

Um die Registrierung zu fördern, organisierten Parteimitglieder Hausbesuche und lokale Camps, unterstützten bei der App-Anmeldung und warben gleichzeitig für Regierungsprogramme. Als Anreiz bot die App den Parteimitgliedern die Möglichkeit, Modi persönlich zu treffen, wenn sie ihre Registrierungsziele erreichten. Wähler konnten ihre Profile mit Modi-Zitaten und Bildern personalisieren, und die App informierte sie über Parteiveranstaltungen und Mitmachmöglichkeiten. Nach der Registrierung sammelt die App umfangreiche persönliche Daten, darunter Mobilnummer, Adresse, Alter, Geschlecht, Religion, Kaste, Wahlkreis, Wählernummer sowie berufliche und Bildungsdetails. Da Kasten in der indischen Gesellschaft eine zentrale Rolle spielen, nutzt die BJP diese Daten, um gezielte Strategien für bestimmte Kastengruppen zu entwickeln. Die BJP kategorisierte Wähler nach Kaste, Religion und sozialem Status auch anhand von Stromrechnungen, die auf den sozioökonomischen Status hinweisen.

Deepfakes greifen vor allem Frauen an

Laut dem State of Deepfakes Report 2023 sind etwa 98% der Deepfakes im Internet nicht einvernehmliche intime Fakes, von denen über 99% Frauen zeigen. Das fördert geschlechtsspezifische Gewalt und kann Frauen aus der öffentlichen Sphäre verdrängen – mit langfristigen Folgen für demokratische Teilhabe. Prominentes Opfer dieses Jahr war Taylor Swift. X wurde im Januar 2024 mit manipulierten und generierten intimen und expliziten Bildern von Swift geflutet. Obwohl dies gegen die Richtlinien der Plattformen verstieß, reagierte diese sehr spät und löschte Inhalte zum Teil erst nach 17 Stunden. Die Autoren aus Mexiko haben zwei Fälle der Verbreitung von Deepnudes von zwei Kandidatinnen gefunden. Auch nach absolvierter Wahl wurde ein KI-manipuliertes Bild der Senatorin Andrea Chávez verbreitet. Es zeigte ihr Gesicht auf dem halbnackten Körper einer anderen Person. Dies unterstreicht den fortwährenden Missbrauch von KI für geschlechtsspezifische politische Angriffe.

Was heißt das für Deutschland und die Bundestagswahl?

Auch Deutschland ist nicht immun gegen diese Entwicklungen. KI stellt, wie die Policy Paper der Friedrich-Naumann-Stiftung für die Freiheit zeigen, keine völlig neue Bedrohung dar. Dennoch verschärft KI bestehende Herausforderungen wie Desinformation und gesellschaftliche Polarisierung. Vertrauen in Medien und eine hohe Medienkompetenz der Bevölkerung sind daher essenziell, um den negativen Einflüssen entgegenzuwirken. Das jedoch bleib eine langfristige Aufgabe der Politik und Zivilgesellschaft in Deutschland.

Wir müssen damit rechnen, dass Desinformationskampagnen, vor allem von Russland, sich zunehmend KI bedienen, um effektiver zu spalten. Umso wichtiger ist es, dass demokratische Kräfte generative KI nicht missbrauchen. Auch wenn gekennzeichnete KI-Inhalte legitim im Wahlkampf sind, so muss man sich doch fragen, ob dies nicht langfristig dazu beiträgt den Informationsraum mit Desinformation zu überfluten und Unsicherheit zu schüren. Denn wenn bereits bei eigentlich vertrauenswürdigen Politikern und Politikerinnen genau geprüft werden muss, ob ein Bild, Video oder eine Tonaufnahme echt ist, so schwächt das Vertrauen in unsere Institutionen. Hinzukommt, dass diese Inhalte ohne den KI-Hinweis reproduziert werden können. Der Informationsraum wird dadurch unübersichtlicher. Nicht zuletzt, wird Deutschland dadurch auch anfälliger für ausländische Desinformationskampagnen.

Schutz der Demokratie im digitalen Zeitalter

Die Policy Paper machen deutlich: KI ist ein zweischneidiges Schwert. Einerseits bietet sie Chancen für Innovation und Inklusion, besonders auch für demokratische Prozesse. Aber sie bringt auch erhebliche Risiken mit sich. Diese sind nicht neu, doch KI wird besser. So müssen auch wir besser werden. Neben einer gestärkten Medienkompetenz braucht es klare ethische Standards und politische Rahmenbedingungen, um den missbräuchlichen Einsatz von KI zu verhindern. Nur so lässt sich sicherstellen, dass technologische Innovation die Demokratie stärkt, anstatt sie zu gefährden.

Bei Medienanfragen kontaktieren Sie bitte:

Florian von Hennet
Florian von Hennet
Leiter Kommunikation, Pressesprecher
Telefon: + 4915202360119