A stylized Art Deco poster depicting a team of four AI agents reminiscent of a classic spy thriller. Each agent wears a sleek black suit with a distinct glowing symbol representing their specialty – a magnifying glass for "Fact Check", a shield for "Data Privacy", an eye for "Deepfake Detection", and a circuit board for "Algorithm Analysis". Centrally placed is a modified 007-style logo incorporating stylized AI circuit patterns in silver and blue against a deep navy background. The background features subtle, geometric patterns and gradients inspired by Saul Bass' iconic title sequences, evoking a sense of mystery and sophisticated technology.

KI-Agenten, Fake News und die deutsche Sorglosigkeit

Es ist mal wieder Zeit, sich Aspekten rund um Künstliche Intelligenz anzunehmen. So zeigt eine neue Umfrage der Prüfungs- und Beratungsgesellschaft EY: In Deutschland prüft nur etwa jeder vierte Nutzer die Ergebnisse von KI-Chatbots wie ChatGPT oder Gemini. International liegt dieser Wert bei 31 Prozent, in Ländern wie Südkorea, China oder Indien sogar bei über 40 Prozent. Auch die Bereitschaft, KI-generierte Texte oder Bilder nachzubearbeiten, ist mit 15 Prozent in Deutschland ebenfalls eher gering.

Der EY-Experte David Alich sieht darin einen Anlass zur Sorge. Die Nutzung von KI nimmt zwar stetig zu, doch das Vertrauen in die Technologie ist oft größer als die tatsächliche Kontrolle. Gerade im beruflichen Kontext kann ein zu sorgloser Umgang mit KI schwerwiegende Folgen haben. Die Studie macht deutlich, dass ein kritischer und kompetenter Umgang mit KI-Anwendungen wichtiger denn je ist, um deren Potenzial sicher zu nutzen.

KI produziert Fake News, KI entdeckt Fake News

Dazu passt die aktuelle Analyse von NewsGuard, die zeigt, wie sich Fake News rund um ChatGPT und andere KI-Systeme rasant im Netz verbreiten. Besonders beunruhigend: Viele dieser Falschinformationen werden inzwischen mithilfe von KI-Tools im großen Stil produziert, was Gordon Crovitz, Co-CEO von NewsGuard, treffend zusammenfasst: „KI-Tools werden genutzt, um im industriellen Maßstab Desinformation zu produzieren. Die Kosten für die Erstellung überzeugend wirkender Falschinformationen sind drastisch gesunken.“

Umso wichtiger ist es, die Ergebnisse und Aussagen zu prüfen. Dabei sollen leistungsfähige Tools helfen, die Fake News frühzeitig erkennen und einordnen. KI wird also genutzt, um Fake News zu erstellen, und gleichzeitig arbeiten Forschung und Tech-Unternehmen an KI-basierten Lösungen, die dabei helfen, Fälschungen, Falschaussagen und Desinformation zu erkennen. So sind Browser-Plugins, Fact-Checking-KIs und neue Assistenzsysteme in Entwicklung, doch der Markt scheint mir noch unübersichtlich und unausgereift. Ich konnte noch kein Tool entdecken, das mich überzeugt hat. Wer solche hilfreichen Fact-Checking-Tools kennt, die beim Aufspüren von Falschinformationen unterstützen, ist herzlich eingeladen, dies in den Kommentaren zu teilen – jede Empfehlung hilft weiter.

Jenseits von KI-Tools: Das eigene Hirn einschalten

Auf die Warteliste habe ich mich bei der Story Pact Browser-Erweiterung setzen lassen. Das Tool soll beim Surfen anzeigen, ob renommierte Faktenchecker einen Social-Media-Beitrag oder ein Webdokument bereits überprüft haben, und soll auf Knopfdruck sofortige Ergebnisse – entweder für die ganze Seite oder für markierte Textabschnitte – liefern. Aber wie erwähnt: Es ist derzeit noch nicht verfügbar.

Doch genauso wichtig wie solche Werkzeuge ist ein kritischer Umgang mit KI: Viele Nutzer wissen nicht, dass KI-Modelle auch „halluzinieren“ können – also scheinbar glaubwürdige, aber frei erfundene Inhalte liefern. Deshalb braucht es neben technischen Lösungen auch gezielte Aus- und Weiterbildung, um Medienkompetenz zu stärken und Desinformation zu entlarven. Es gilt weiterhin: Das eigene Hirn einzuschalten und kritisch zu prüfen und zu denken, auch wenn das manchmal mühsam erscheint.

007 mit der Lizenz zum … KI Agenten retten die Welt

Unterdessen rollt unaufhaltsam der nächste heiße Sch… auf uns zu: KI-Agenten. Das sind autonome, intelligente Software-Systeme, die in der Lage sind, eigenständig Aufgaben auszuführen, Entscheidungen zu treffen und mit ihrer Umgebung sowie anderen Systemen zu interagieren – oft ohne ständiges menschliches Eingreifen. Ein oft verwendetes Beispiel ist die Reisebuchung. Der KI-Agent soll die günstigste Verbindung heraussuchen, das beste Hotel buchen und vielleicht noch den Mietwagen reservieren – all das potenziell ohne zusätzliches menschliches Eingreifen. Ich bin selbst ja mit dem Sprachassistenten von perplexity.ai erste Schritte gegangen.

Hört sich erst einmal gut an … wenn es funktioniert … und man sich darüber im Klaren ist, dass man dem KI-Agenten im privaten Umfeld umfassende Zugriffsrechte auf die eigenen Daten geben muss. In unserem Beispiel sind das die Daten der Kreditkarten oder Bankverbindung, des Führerscheins, die Adressdaten und einiges mehr. Da kann man schon mal überlegen, wo man die Grenze ziehen, über welche Daten man selbst die Kontrolle behalten will. Gewisse Daten sollen mein iPhone oder mein Mac auf keinen Fall verlassen, und finanzielle Transaktionen würde ich gerne weiter selbst freigeben.

Von der Super-App zur Super-Assistenz

Dass Musk und Zuckerberg schon lange von der Super-App à la WeChat träumen, ist nur zu bekannt. Super-Apps sind für sie ein zu verlockendes Geschäftsmodell mit der Möglichkeit, neue Abhängigkeiten zu schaffen. Doch die wirklich feuchten Träume bekommen sie, wenn sie von KI-Agenten, von der neuen umfassenden Super-Assistenz träumen, „die nicht nur bedient, sondern vorausdenkt, verwaltet – und entscheidet.“

In Unternehmen: KI-Assistenten übernehmen Standardprozesse

Das, was privat auf dem Smartphone oder privaten Computer noch vergleichsweise einfach erscheint – ich gebe der KI Zugriff auf meine Kontakte, meine E-Mails, meinen Terminkalender -, wird im Unternehmenskontext wesentlich komplizierter. Ich erinnere mich an Zeiten, als wir Workflow- und später Business Process Management-Tools einsetzen wollten, um Geschäftsprozesse zu automatisieren. Damals sind die Workflows sehr oft an Schnittstellen und dem entsprechenden Datenzugriff, lesen und/oder schreibend, gescheitert. Expertinnen und Experten gehen heute davon aus, dass das mit KI-Assistenten besser funktioniert. In unserem Gespräch bei #9vor9 mit Professor Peter M. Wald geht er beispielsweise davon aus, dass viele Standardprozesse in HR-Abteilungen durch solche KI-Lösungen ersetzt werden. Der Beweis ist in den kommenden Jahren nicht nur in HR zu erbringen.

Wer suchet, der CoPilot findet …

Zum Abschluss dieses KI-Schwerpunkts ein positives Erlebnis … mit dem CoPilot von Microsoft, den wir in meiner Firma einsetzen. Die Tage rief mich ein Freund aus unserer Agentur an, ob ich ihm die Teilnehmerliste unseres letzten Roundtables schicken könne. Die Kollegin, die den Roundtable maßgeblich mitorganisierte, war im Urlaub, ein anderer Kollege fand die Tabelle wohl nicht. Ich war nur am Rande involviert, aber trotzdem traute mir mein Freund wohl zu, die Info zu finden. Habe ich erst einmal nicht. Weder die Suche in meinem E-Mail-Postfach noch der Blick in unsere SharePoint-Bibliotheken führten zum gewünschten Ergebnis. Ich war schon am Aufgeben, habe aber dann einfach mal CoPilot befragt und siehe da: Die Teilnehmendenliste wurde mir „ausgespuckt“. Wird mit Tools wie CoPilot gar das Versprechen der Enterprise Search, der Suche über verschiedenste Informationsquellen hinweg, Realität?

Fediverse Reactions

Comments

Eine Antwort zu „KI-Agenten, Fake News und die deutsche Sorglosigkeit”.

  1. „Deshalb braucht es neben technischen Lösungen auch gezielte Aus- und Weiterbildung, um Medienkompetenz zu stärken und Desinformation zu entlarven.“

    Leider ist es oft so, dass die „Desinformation“ einfach eine Falschinformation ist, inmitten lauter richtiger Infos. Da hilft dann keine MEDIEN-Kompetenz, sondern einzig die Expertise im entsprechenden Wissensgebiet (hier ein Beispiel, dokumentiert in meinem Gartenblog).

    Da schon lange vor ChatGPT unzählige Content-Kreatoren Artikel zu allem und jedem produzierten (wg. SEO), ohne selbst Ahnung vom Thema zu haben, sind derartige Fehler nichts Neues – sie werden durch kritiklos wiederveröffentlichte KI-Texte nur wesentlich mehr. Und dann frisst die KI diese neuen Texte wieder als Schulungsunterlage – bis in all diesen Wiederkäuervorgängen das gesamte Wissen der Menschheit vernichtet ist! (ja, ja, ich übertreibe… hoffentlich!).

    P.S. War nett, dich auf der RP25 mal f2f gesehen zu haben!

    Like

Hinterlasse eine Antwort zu ClaudiaBerlin Antwort abbrechen

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..

Regelmäßig informiert bleiben?
StefanPfeiffer.Blog

Jetzt abonnieren, um informiert zu bleiben und alle Beiträge im Zugriff zu haben.

Fortfahren