Es ist mal wieder Zeit, sich Aspekten rund um Künstliche Intelligenz anzunehmen. So zeigt eine neue Umfrage der Prüfungs- und Beratungsgesellschaft EY: In Deutschland prüft nur etwa jeder vierte Nutzer die Ergebnisse von KI-Chatbots wie ChatGPT oder Gemini. International liegt dieser Wert bei 31 Prozent, in Ländern wie Südkorea, China oder Indien sogar bei über 40 Prozent. Auch die Bereitschaft, KI-generierte Texte oder Bilder nachzubearbeiten, ist mit 15 Prozent in Deutschland ebenfalls eher gering.
Der EY-Experte David Alich sieht darin einen Anlass zur Sorge. Die Nutzung von KI nimmt zwar stetig zu, doch das Vertrauen in die Technologie ist oft größer als die tatsächliche Kontrolle. Gerade im beruflichen Kontext kann ein zu sorgloser Umgang mit KI schwerwiegende Folgen haben. Die Studie macht deutlich, dass ein kritischer und kompetenter Umgang mit KI-Anwendungen wichtiger denn je ist, um deren Potenzial sicher zu nutzen.
KI produziert Fake News, KI entdeckt Fake News
Dazu passt die aktuelle Analyse von NewsGuard, die zeigt, wie sich Fake News rund um ChatGPT und andere KI-Systeme rasant im Netz verbreiten. Besonders beunruhigend: Viele dieser Falschinformationen werden inzwischen mithilfe von KI-Tools im großen Stil produziert, was Gordon Crovitz, Co-CEO von NewsGuard, treffend zusammenfasst: „KI-Tools werden genutzt, um im industriellen Maßstab Desinformation zu produzieren. Die Kosten für die Erstellung überzeugend wirkender Falschinformationen sind drastisch gesunken.“
Umso wichtiger ist es, die Ergebnisse und Aussagen zu prüfen. Dabei sollen leistungsfähige Tools helfen, die Fake News frühzeitig erkennen und einordnen. KI wird also genutzt, um Fake News zu erstellen, und gleichzeitig arbeiten Forschung und Tech-Unternehmen an KI-basierten Lösungen, die dabei helfen, Fälschungen, Falschaussagen und Desinformation zu erkennen. So sind Browser-Plugins, Fact-Checking-KIs und neue Assistenzsysteme in Entwicklung, doch der Markt scheint mir noch unübersichtlich und unausgereift. Ich konnte noch kein Tool entdecken, das mich überzeugt hat. Wer solche hilfreichen Fact-Checking-Tools kennt, die beim Aufspüren von Falschinformationen unterstützen, ist herzlich eingeladen, dies in den Kommentaren zu teilen – jede Empfehlung hilft weiter.
Jenseits von KI-Tools: Das eigene Hirn einschalten
Auf die Warteliste habe ich mich bei der Story Pact Browser-Erweiterung setzen lassen. Das Tool soll beim Surfen anzeigen, ob renommierte Faktenchecker einen Social-Media-Beitrag oder ein Webdokument bereits überprüft haben, und soll auf Knopfdruck sofortige Ergebnisse – entweder für die ganze Seite oder für markierte Textabschnitte – liefern. Aber wie erwähnt: Es ist derzeit noch nicht verfügbar.
Doch genauso wichtig wie solche Werkzeuge ist ein kritischer Umgang mit KI: Viele Nutzer wissen nicht, dass KI-Modelle auch „halluzinieren“ können – also scheinbar glaubwürdige, aber frei erfundene Inhalte liefern. Deshalb braucht es neben technischen Lösungen auch gezielte Aus- und Weiterbildung, um Medienkompetenz zu stärken und Desinformation zu entlarven. Es gilt weiterhin: Das eigene Hirn einzuschalten und kritisch zu prüfen und zu denken, auch wenn das manchmal mühsam erscheint.
007 mit der Lizenz zum … KI Agenten retten die Welt
Unterdessen rollt unaufhaltsam der nächste heiße Sch… auf uns zu: KI-Agenten. Das sind autonome, intelligente Software-Systeme, die in der Lage sind, eigenständig Aufgaben auszuführen, Entscheidungen zu treffen und mit ihrer Umgebung sowie anderen Systemen zu interagieren – oft ohne ständiges menschliches Eingreifen. Ein oft verwendetes Beispiel ist die Reisebuchung. Der KI-Agent soll die günstigste Verbindung heraussuchen, das beste Hotel buchen und vielleicht noch den Mietwagen reservieren – all das potenziell ohne zusätzliches menschliches Eingreifen. Ich bin selbst ja mit dem Sprachassistenten von perplexity.ai erste Schritte gegangen.
Hört sich erst einmal gut an … wenn es funktioniert … und man sich darüber im Klaren ist, dass man dem KI-Agenten im privaten Umfeld umfassende Zugriffsrechte auf die eigenen Daten geben muss. In unserem Beispiel sind das die Daten der Kreditkarten oder Bankverbindung, des Führerscheins, die Adressdaten und einiges mehr. Da kann man schon mal überlegen, wo man die Grenze ziehen, über welche Daten man selbst die Kontrolle behalten will. Gewisse Daten sollen mein iPhone oder mein Mac auf keinen Fall verlassen, und finanzielle Transaktionen würde ich gerne weiter selbst freigeben.
Von der Super-App zur Super-Assistenz
Dass Musk und Zuckerberg schon lange von der Super-App à la WeChat träumen, ist nur zu bekannt. Super-Apps sind für sie ein zu verlockendes Geschäftsmodell mit der Möglichkeit, neue Abhängigkeiten zu schaffen. Doch die wirklich feuchten Träume bekommen sie, wenn sie von KI-Agenten, von der neuen umfassenden Super-Assistenz träumen, „die nicht nur bedient, sondern vorausdenkt, verwaltet – und entscheidet.“
In Unternehmen: KI-Assistenten übernehmen Standardprozesse
Das, was privat auf dem Smartphone oder privaten Computer noch vergleichsweise einfach erscheint – ich gebe der KI Zugriff auf meine Kontakte, meine E-Mails, meinen Terminkalender -, wird im Unternehmenskontext wesentlich komplizierter. Ich erinnere mich an Zeiten, als wir Workflow- und später Business Process Management-Tools einsetzen wollten, um Geschäftsprozesse zu automatisieren. Damals sind die Workflows sehr oft an Schnittstellen und dem entsprechenden Datenzugriff, lesen und/oder schreibend, gescheitert. Expertinnen und Experten gehen heute davon aus, dass das mit KI-Assistenten besser funktioniert. In unserem Gespräch bei #9vor9 mit Professor Peter M. Wald geht er beispielsweise davon aus, dass viele Standardprozesse in HR-Abteilungen durch solche KI-Lösungen ersetzt werden. Der Beweis ist in den kommenden Jahren nicht nur in HR zu erbringen.
Wer suchet, der CoPilot findet …
Zum Abschluss dieses KI-Schwerpunkts ein positives Erlebnis … mit dem CoPilot von Microsoft, den wir in meiner Firma einsetzen. Die Tage rief mich ein Freund aus unserer Agentur an, ob ich ihm die Teilnehmerliste unseres letzten Roundtables schicken könne. Die Kollegin, die den Roundtable maßgeblich mitorganisierte, war im Urlaub, ein anderer Kollege fand die Tabelle wohl nicht. Ich war nur am Rande involviert, aber trotzdem traute mir mein Freund wohl zu, die Info zu finden. Habe ich erst einmal nicht. Weder die Suche in meinem E-Mail-Postfach noch der Blick in unsere SharePoint-Bibliotheken führten zum gewünschten Ergebnis. Ich war schon am Aufgeben, habe aber dann einfach mal CoPilot befragt und siehe da: Die Teilnehmendenliste wurde mir „ausgespuckt“. Wird mit Tools wie CoPilot gar das Versprechen der Enterprise Search, der Suche über verschiedenste Informationsquellen hinweg, Realität?


Kommentar verfassen