Ein großer, in Grautönen gehaltener Eisblock hält ein dunkles Zahnrad mit der eingravierten Jahreszahl „2016“ eingefroren fest, während an den Rändern bereits Schmelzwasser sichtbar wird. Rechts daneben greifen drei leuchtend grüne Zahnräder ineinander und treiben Symbole für Kommunikation, Planung und Denken an, was Dynamik und Fortschritt signalisiert. Ein einzelner roter Zahn an einem der Zahnräder markiert dabei eine offene, ungelöste Kontrollfrage im ansonsten reibungslosen System.

Was aus dem KI-Versprechen von 2016 wurde #TenYearsAfter #2016

Im Juni 2016 habe ich den Beitrag „Schlauer Arbeiten – Chancen und Risiken kognitiver Lösungen am Arbeitsplatz“ geschrieben. Der Titel klingt nach Konferenz-Sprech, aber dahinter steckt eine sehr konkretes „Problem“, das mich auch heute noch „nervt“: Seitdem es E-Mail gibt, haben wir keine wirkliche Innovation beim Arbeiten gesehen. Die E-Mail-Flut wurde mehr, nicht weniger. Wir arbeiteten sie stupide sequentiell ab. Wertvolles Wissen verschimmelte in persönlichen Postfächern. Und die Unterbrechungskultur fraß die Konzentration auf.

Diese Diagnose war 2016 richtig. Und sie ist 2026 immer noch richtig. Daran hat sich erschreckend wenig geändert. Zum Beginn der Hannovermesse blicke ich zehn Jahre zurück.

Eine persönliche Einschränkung vorab, die wichtig ist: Ich bin kein Programmierer, kein ausgebildeter Wirtschaftsinformatiker. In den Maschinenraum der IT schaue ich von außen hinein – ich kann KI-Technologie nicht wirklich technisch bewerten. Was ich bin: Historiker, Journalist und Marketer. Damals war ich bei IBM mitverantwortlich für die Vermarktung bestimmter Produkte und Technologien – also durchaus Teil des Versprechens, das ich hier beschreibe. Und ich bin Endanwender, der Technologie schlicht danach bewertet, wie einfach sie zu bedienen ist und welchen konkreten Nutzen sie bringt. Aus dieser Perspektive schreibe ich hier.

Watson als Heilsversprechen – im Büro und am Krankenbett

Die Hoffnung, die wir 2016 gegen Überflutung durch E-Mails entgegen setzten, hieß IBM Watson, mehr oder weniger eine Dachmarke, ein Marketingbegriff, unter dem sich vielfältige Produkte befanden. Das Heilsversprechen war, dass kognitive Systeme, Künstliche Intelligenz die Routinearbeiten übernehmen würde: E-Mails priorisieren, Dokumente heraussuchen, Meetings anberaumen, Anfragen beantworten.

Watson sollte der persönliche Assistent werden, der dem Wissensarbeiter die Routinearbeit abnimmt, Ablenkungen minimieren wert, damit der wieder denken kann. In einem Beitrag vom Mai 2016 zitierte ich die Vision: Die digitale Revolution könne uns „zurück zu Menschen machen, die in Zusammenarbeit mit hyper-intelligenten Systemen arbeiten.“

Das größere Versprechen war aber aus meiner Sicht ein anderes: Watson werde die Krebsmedizin revolutionieren. IBM demonstrierte kognitive Systeme am MD Anderson Cancer Center und Memorial Sloan Kettering – Watson sollte Patientenakten analysieren, Behandlungsoptionen vorschlagen, Ärzte entlasten. 2017/2018 flog das Projekt beim MD Anderson spektakulär auseinander: über 60 Millionen Dollar verbrannt, und Watson hatte Behandlungsempfehlungen ausgespielt, die Onkologen als unsicher oder schlicht falsch einstuften.

Jahre später bekam ich selbst Krebs. Ich hätte mir eine bessere Früherkennung und Behandlung gewünscht. Krebsdiagnose mit Künstlicher Intelligenz war da nicht in Sicht. Als Betroffener schaue ich auf das Versprechen, KI könne bei Krebsdiagnose und -behandlung helfen, mit einer anderen Haltung als auf Fragen der Büroeffizienz. Hier geht es nicht um Komfort oder Produktivität. Hier hoffe ich als Patient, dass Patientinnen und Patienten wirklich geholfen wird – nicht als Marketingversprechen, sondern als gelebte Wirklichkeit in Klinik und Praxis.

Lars und ich planen bei #9vor9 von einer der kommenden Ausgaben auf die heutige Situation zu schauen: Was bringen ChatGPT & Co heute für meine Gesundheit. Please stay tuend.

Wer die KI-Wette gewonnen hat – und wann

Watson hat das Versprechen nicht eingelöst. Zu proprietär, zu teuer, nicht im Alltag der Menschen angekommen. Der Durchbruch von KI kam erst Jahre später – und nicht durch IBM. Im November 2022 veröffentlichte OpenAI ChatGPT. Innerhalb von Wochen hatte ein System die Massennutzung erreicht, von der Watson jahrelang geträumt hatte. Nicht als Enterprise-Lösung für Konzerne, sondern als Interface für jeden, der einen Browser hat. Anthropic Claude, Google Gemini, Meta Llama, Mistral folgten. Der Markt explodierte. Watson verschwand aus den Schlagzeilen.

Brain Fry statt einfacher Entlastung

2016 war die Hoffnung: KI nimmt mir die Routinearbeit ab, und ich kann mich auf das Wesentliche konzentrieren. Was ist tatsächlich eingetreten? Wie ich erst vor wenigen Tagen beschrieben habe: Ich nutze täglich KI-Tools – für Zusammenfassungen, Blogbeiträge, Recherchen. Entlastet fühle ich mich manchmal. Aber gleichzeitig ist ein neues Phänomen entstanden, das Forschende „Brain Fry“ nennen: mentale Erschöpfung durch permanentes Prüfen, Bewerten und Nachbessern von KI-Outputs. Prompt schreiben, Output lesen, korrigieren, neu prompten – eine Endlosschleife aus Prüfen und Entscheiden. Die KI kennt keine Pausen. Der Mensch schon – oder sollte es zumindest.

Von Assistenten zu Agenten – oder: Wer räumt hier eigentlich auf?

Und jetzt, 2026, geht die Entwicklung noch einen entscheidenden Schritt weiter. Während ChatGPT und Claude zunächst als reaktive Werkzeuge funktionierten – ich frage, die KI antwortet – versprechen KI-Agenten nun, proaktiv zu handeln. Das ist der Schritt, den Watson 2016 eigentlich gemeint hatte, den er aber nie wirklich gegangen ist.

Microsoft Copilot priorisiert heute den E-Mail-Eingang, fasst Meetings zusammen, schlägt Antworten vor. Genau das, was ich 2016 erwartet hatte – und was damals nicht kam. Bei Kyndryl, wo ich heute arbeite, ist Copilot seit 2025/2026 in Ansätzen in meinem Arbeitsalltag angekommen, Zehn Jahre nach meinem Beitrag zu „Schlauer Arbeiten“. Claude in der Cowork-Version – die ich selbst benutze – kann Dateien auf meiner Festplatte sichten, sortieren, bearbeiten, ohne dass ich jeden einzelnen Schritt manuell ausführe. Andere Agenten buchen Meetings, schreiben Code, durchsuchen Datenbanken, veröffentlichen Inhalte. Das Ziel von 2016 – die Routinearbeit verschwindet – wird greifbar.

Aber hier liegt die neue Frage, die 2016 noch nicht gestellt werden musste: Was genau tut der Agent gerade? Was hat er entschieden? Wo hat er eingegriffen? Die Entlastung durch Agenten funktioniert nur, wenn man sie im Blick behält. Wer das nicht tut, verliert nicht nur Kontrolle über einzelne Aufgaben – er verliert das Verständnis dafür, was in seinem Namen getan wird. Ein Agent, dem man zu viel Freiraum lässt, kann E-Mails beantworten, die er nicht beantworten sollte. Dateien verschieben, die man noch gebraucht hätte. Entscheidungen treffen, die eigentlich Menschen vorbehalten sind.

Die Frage lautet nicht mehr nur „Wie nutze ich KI?“, sondern „Wie behalte ich die Kontrolle über das, was KI in meinem Namen tut?“ Der Mensch muss in der Schleife bleiben. „Human in the loop“ war 2016 eine Formulierung aus der KI-Forschung. Heute ist es eine praktische Notwendigkeit für jeden, der mit Agenten arbeitet.

Die Risiken von 2016 – und was wirklich eintraf

In meinem Beitrag von 2016 habe ich zwei Risiken benannt. Das erste: Jobverlust durch KI. Diese Diskussion wird heute schärfer geführt als damals – mit mehr Evidenz auf beiden Seiten, aber noch keiner Klarheit.

Das zweite Risiko hat mich beim Wiederlesen am meisten getroffen. Ich schrieb damals: „Ich habe viel mehr Angst vor skrupellosen Menschen, die die Maschinen und Technologien gebrauchen und missbrauchen. Da liegt meiner Ansicht zumindest derzeit das viel größere Risiko.“

Das war 2016 geschrieben, lange bevor Deepfakes zur Wahlkampfwaffe wurden, bevor Desinformation durch generative KI industriell wurde, bevor Milliardäre KI-Plattformen für politische Zwecke nutzten. Der Satz klingt heute prophetisch. Und mit Agenten, die im Namen von Menschen oder Unternehmen handeln, wird die Frage noch drängender: Was passiert, wenn ein Agent nicht im Auftrag eines skrupellosen Einzelnen arbeitet, sondern im Auftrag einer Organisation, eines Staates, von TechBros, Plattformbetreibern mit puren Eigeninteressen? Die KI selbst ist nicht das Problem. Es war nie das Problem.

Wo wir 2026 stehen

Die KI ist angekommen – nicht durch Watson, sondern durch ChatGPT und seine Marktbegleiter. Die Probleme von 2016 werden heute teilweise tatsächlich durch KI adressiert. Gleichzeitig entstehen neue Abhängigkeiten, neue Risiken und eine neue Kontrollfrage, die 2016 noch nicht auf dem Radar war.

Digitale Souveränität – europäische KI, eigene Infrastruktur, Kontrolle über Daten und Modelle – war 2016 kein Thema in meinen Beiträgen. Heute ist es mein zentrales Thema. Auch das hätte ich damals nicht vorhergesagt. Dass es mit Mistral eine europäische Alternative gibt, die ernstzunehmen ist, ist kein Trost – aber ein Anfang.

Die Diagnose von 2016 stimmte. Die Therapie kam anders. Und die nächste Herausforderung – zu viel Delegation, zu wenig Kontrolle – wartet schon.

Fediverse-Reaktionen

Comments

Kommentar verfassen

Diese Seite verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden..

Regelmäßig informiert bleiben?
StefanPfeiffer.Blog

Jetzt abonnieren, um informiert zu bleiben und alle Beiträge im Zugriff zu haben.

Fortfahren