Superwahljahr 2024

Die Rolle von KI im Superwahljahr 2024: Eine Analyse bei #9vor9

9vor9 breit

In dieser Folge von wurde das Spannungsfeld von Künstlicher Intelligenz (KI) und den zahlreichen Wahlen, die in diesem Jahr weltweit anstehen, diskutiert. Nicht nur Journalisten stellen die Frage, inwiefern KI diese Wahlen beeinflussen könnte und ob Interessengruppen KI nutzen, um die anstehenden Wahlen zu manipulieren. Immerhin werden in diesem Superwahljahr etwa 70 Wahlen stattfinden, bei denen etwa 3,6 Milliarden Menschen aufgerufen sind, ihre Stimme abzugeben.

Über erste Manipulationsversuche wurde bereits vor kurzem berichtet. So gab es beispielsweise einen inszenierten Anruf von einem gefälschten Joe Biden, der den Bürgern von New Hampshire sagte, sie sollten nicht zur Wahl gehen. Das Highlight des Fake-Anrufs war, dass er so überzeugend war, dass viele Menschen dieser falschen Behauptung Glauben schenkten. Gerade dieser Tage kursierten Bilder, auf denen Donald Trump schwarze Menschen umarmt. Dies war ein Manöver seiner Anhänger, um zu demonstrieren, dass die schwarzen Wähler Trump unterstützen. Solche Fälle von Bild- und Videomanipulation durch KI sind inzwischen an der Tagesordnung und stellen ein erhebliches Problem für die Glaubwürdigkeit und Fairness von Wahlen dar.

KI, um Inhalte, Bilder oder Videos zu fälschen

Künstliche Intelligenz wird an verschiedenen Stellen rund um die Wahlen genutzt, oft missbraucht. So wird KI wie gerade erwähnt genutzt, um Inhalte zu fälschen. Im Fall Biden wurde seine Stimme täuschend echt imitiert. Das Bild von Trump und People of Color zeigt, wie ein Photo gefälscht werden kann. Und solche Fakes sehen wir nicht nur in den USA, weltweit und auch in Deutschland. Auch wird immer mehr unterstellt, dass etwas ein Fake sei, was aber wahr und Fakt war. Erinnern wir uns an die Bilder der Demo in Hamburg, die AfD-Rechtsaußen Höcke auf X als Fälschung bezeichnete. Waren sie aber nicht. Es wird bewusst Unsicherheit geschürt.

Staaten, extreme Gruppierungen und einzelne Personen nutzen Fake News, um Misstrauen zu säen. Dabei wird auch bewusst versucht, das Vertrauen der Öffentlichkeit in (seriöse) Medien zu untergraben und zu behaupten, dass die allesamt Fake News verbreiten. Dies zeigt, dass es nicht nur darum geht, wie KI genutzt werden kann, um Wahlen zu manipulieren, sondern auch darum, wie sie genutzt werden kann, um Unsicherheit und Zweifel zu verbreiten.

KI erstellt Fakes – und erkennt und bekämpft sie

Angesichts der fortschreitenden technologischen Entwicklung werden wir künftig auch Videos sehen, die per KI produziert oder manipuliert werden. Das, was viele von uns – auch ich – privat aus Spaß nutzen, wird im politischen Umfeld missbraucht, um eben Fake Audios, Fake Bilder und Fake Videos zu produzieren. Und es wird immer herausfordernder, die Echtheit dieser Produkte einzuschätzen. Sinnigerweise werden wiederum oft KI-Systeme eingesetzt, um Fälschungen zu erkennen. KI erstellt und identifiziert beispielsweise Fakes. Schon sehr paradox.

Große Plattformen wie die von Open AI oder von Google blockieren „politisch unkorrekte“ Bilder oder auch Texte. Schnell bekommt man dort die Nachricht, dass der gewünschte Text oder das per Prompt angeforderte Bild nicht den Richtlinien entspreche. Diese Plattformen denken auch über den Einsatz von Wasserzeichen in Bildern nach, um künstlich erzeugte Fotos zu kennzeichnen. Doch gibt es genug andere, verfügbare KI-Tools, die solche Bedenken und Einschränkungen nicht haben und die Fälscherinnen und Fälscher natürlich nutzen.

Dreckschleuder KI: KI Chatbots verbreiten Fake News

Doch KI-Systeme werden nicht nur zur Erstellung von Fakes benutzt. Sie sind auch massiv zur Verbreitung von Fake News im Einsatz. KI-getriebene Chatbots fungieren quasi als Dreckschleudern, die eine hohe Anzahl von Fake News oder Hate Speech an eine breite Benutzerbasis verbreiten und durch Kommentieren und Liken verstärken. Die Geschwindigkeit und Effizienz, mit der diese Nachrichten verbreitet werden können, bedeuten, dass potenziell Millionen von Menschen erreicht und beeinflusst werden können, bevor die Unwahrheiten identifiziert und korrigiert werden können.

KI-basierte Desinformation und Propaganda durch Russland

Nicht nur rechtsextreme Gruppen nutzen diese Möglichkeiten. Das Auswärtige Amt hat vor kurzem eine massive, durch Russland getriebene Desinformationskampagne mit mehr als 50.000 gefälschte Nutzerkonten auf der Onlineplattform X und mehr als eine Million deutschsprachiger Tweets aufgedeckt, mit der mehr Unmut gegen die Ampel-Regierung geschürt wurde. Hier kommt es bizarren Allianzen, in denen sich die Player in die Karten spielen. Wer sich für die Aktivitäten von Russland und China interessiert, dem sei dieses Erklärvideo der Neuen Züricher Zeitung ans Herz gelegt. Wir befinden uns an vielen Stellen in einem Propagandakrieg, der von den meisten noch gar nicht wahrgenommen wird.

KI-Bots nehmen an Diskussionen teil – und werden oft nicht erkannt

Die Entwicklung geht immer weiter und es wird immer schwieriger, Fakten von Fälschungen zu unterscheiden. KI-Chatbots können an menschliche Gesprächen teilnehmen. Diese Technologie kann genutzt werden, um organische Gespräche zu fördern, sie kann aber ebenso zum Verbreiten von Desinformation oder zur Manipulation der öffentlichen Meinung verwendet werden.

Chatbots, die mit fortschrittlicher KI ausgestattet sind, können in Echtzeit auf menschliche Eingaben reagieren und dabei menschenähnliche Antworten generieren. Dass es Nutzern immer schwerer fällt, zwischen Bots und menschlichen Gesprächspartnern zu unterscheiden, hat gerade eine aktuelle Studie gezeigt. Forscher ließen Menschen und KI-Bots, die auf großen Sprachmodellen basieren, über politische Themen diskutieren. In 58 Prozent der Fälle konnten die Teilnehmer die KI Chatbots nicht identifizieren. Die Bots beziehungsweise die Sprachmodelle haben eine hohe Qualität erreicht, können aber auch eine Gefahr darstellen.

Gegenmaßnahmen durch Koalition der KI-Technologiekonzerne

Angesichts des Superwahljahres 2024 wird von prominenten Stellen vor Wahlmanipulationen durch KI gewarnt und es werden entsprechende Gegenmaßnahmen gefordert. Meta hat angekündigt, seine Algorithmen auf Instagram und Threads (und später Facebook) so zu ändern, dass politische Inhalte nicht mehr automatisch „nach oben gespült“ werden. Ob das erfolgreich sein wird, steht in den Sternen.

Auf der Münchner Sicherheitskonferenz haben führende Technologiekonzerne eine Vereinbarung unterzeichnet, in der sie sich zur Zusammenarbeit bei der Bekämpfung von Wahlmanipulationen durch künstliche Intelligenz (KI) verpflichten. Unternehmen wie Amazon, Google, IBM, Meta, Microsoft, TikTok, X und Adobe, sowie OpenAI, wollen gemeinsam gegen KI-generierte manipulierte Inhalte vorgehen, um eine Beeinträchtigung politischer Wahlen weltweit zu verhindern. Das hat leider nicht dazu geführt, dass X die Verbreitung des Bildes von Donald Trump mit schwarzen Menschen schnell und konsequent unterbunden hat.

Jonas Kühlberg zieht zum Thema KI und Fakes folgendes Fazit in seinem Beitrag für den NDR: „Die Folgen für die Gesellschaft sind nicht absehbar. Es braucht Regulierung. Sonst leben wir irgendwann in einer Welt, in der man nichts mehr glauben kann.“ Ich glaube, dass es wohl ein Bündel von Maßnahmen erfordern wird, um den potentiellen Schaden im Wahljahr 2024 einzudämmen.

Fakes melden, Umsetzung der Gesetze fordern, Strafen verhängen – und vor allem aufklären

Jeder ist ganz persönlich gefordert, Hate Speech und Fake News an die Plattformen zu melden und die Entfernung der Inhalte im Auge zu behalten. Sollten die Plattformen nicht reagieren, müssen die Themen an die Bundesnetzagentur und die EU Behörden eskaliert werden, die wiederum gefragt sind, schnell harte und hohe Strafen zu verhängen. Daneben müssen die Plattformen alle möglichen technischen Maßnahmen zu ergreifen, Fake Inhalte zu identifizieren, auch wenn das oft das Spiel von Hase und Igel sein wird. Eine KI bekämpft die andere KI … Abstrus. Und schließlich vergessen wir bei all dem nicht, wie wichtig und notwendig breite Aufklärung und Weiterbildung ist.

133 – Über Künstliche Intelligenz im Superwahljahr 2024 #9vor9 – Die Digitalthemen der Woche

2024 ist ein Superwahljahr, wie es die Welt noch nicht gesehen hat: In mehr als 60 Ländern finden dieses Jahr Wahlen statt, knapp 3,6 Milliarden Menschen (von ca. 8,7 Milliarden insgesamt) sind aufgerufen, ihre Stimme abzugeben. Die aus deutscher Sicht wichtigsten Wahlen sind neben der Europawahl die drei Landtagswahlen im Osten Deutschlands und dann sicher noch die Präsidentschaftswahl in den USA. Und es ist auch das erste Wahljahr, das eventuell auch maßgeblich vom Einsatz von KI geprägt sein könnte. Da gab es bereits einige Beispiele, die einen Ausblick gaben: Falsche Vorwürfe der Manipulation von Videos und Bildern rund um die Demos gegen Rechts oder Fake-Anrufe von Joe Biden in den USA. Welchen Einfluss KI auf die Wahlen haben können und wie sich die Anbieter vorbereiten, darüber sprechen wir diese Woche bei 9vor9.

Wie bei schon angekündigt, habe ich ideogram.ai nach unserer Sendung „gebeten“, eine Titelgrafik zum Superwahljahr 2024 nach folgendem Prompt zu erstellen: Create an image for the super election year 2024, in which elections will be held in the USA, the EU and in the German federal states. Show how AI chatbots try to manipulate the election. Show the flags of USA, the EU andf Germany. All of this should be presented in a cinematic style, photo, vibrant. Oben seht Ihr das Ergebnis, das ich unter verschiedenen Vorschlägen ausgewählt habe.

Comments

Kommentar verfassen

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..

Regelmäßig informiert bleiben?
StefanPfeiffer.Blog

Jetzt abonnieren, um informiert zu bleiben und alle Beiträge im Zugriff zu haben.

Fortfahren