
Für Euch kuratiert: Artikel, Debatten und Beobachtungen rund um das Thema Künstliche Intelligenz, die mir ins Auge gesprungen sind – aus Medien, Forschung und Technologie. Ein wichtiges Thema: Was macht man, wenn man keinen Bock mehr auf ChatGPT hat und zu einem anderen Tool wechseln möchte? Makaber, dass KI-Companions zur neuesten besten Freundin werden können. Überlebenswichtig? Müssen sich Medienhäuser den KI Scrapern öffnen oder müssen sie diese aussperren? Kontroverse um den heiligen Gral: Darf KI Journalisten beim Schreiben helfen. Und schließlich lilienhaft: Wie der SV Darmstadt 98 eine eigene Data Science-Abteilung nutzt, damit die Mannschaft performt. Selbst im Fußball laufen inzwischen Algorithmen mit.
- KI wechseln ohne Datenverlust: Wie sich ChatGPT-Wissen exportieren und in andere KI-Systeme übertragen lässt
- KI im Journalismus: Warum eine angelernte KI zum persönlichen Redakteur werden kann
- KI-Companions und die Attachment Economy: Wenn emotionale Bindung zum Geschäftsmodell wird
- Generative Engine Optimization (GEO): Warum Medienhäuser sich zwischen KI-Sichtbarkeit und Scraper-Blockade entscheiden müssen
- KI-Schwärme in sozialen Netzwerken: Wie automatisierte Agenten Mehrheiten simulieren könnten
- Datenanalyse im Profifußball: Wie KI und Data Science bei den Lilien Training, Verletzungsprävention und Transfers verändern
KI wechseln ohne Datenverlust: Wie sich ChatGPT-Wissen exportieren und in andere KI-Systeme übertragen lässt
In den USA wechseln derzeit viele Anwenderinnen und Anwender von OpenAI’s ChaGPT zu Claude von Anthropic. Das Zerwürfnis zwischen Anthropic und dem Pentagon über die Nutzung deren LLMs in militärischen Einsätzen und das – sagen wir mal – moralisch sehr pragmatische Vorgehen von OpenAI, mit dem Ministerium einen Vertrag zu schließen.
Auch aus weniger moralischen Gründen, kann man sein Large Language Model wechseln wollen. Heute ChatGPT, morgen Claude, übermorgen vielleicht Gemini oder Mistral. Dabei sollte man nicht übersehen, wo der eigentliche Wert liegt: oft nicht in neuen Features des Modell selbst, sondern in den eigenen Prompts, Ideen und Chatverläufen, die sich über Monate angesammelt haben. Vielleicht möchte dieses Wissen nicht verlieren, sondern auf das neue Modell übertragen.
Marcus Schwarze zeigt in der FAZ (leider hinter der Paywall) sehr pragmatisch, wie man genau dieses Wissen sichern kann. Chatverläufe exportieren, eigene GPT-Anweisungen dokumentieren und Arbeitsprozesse so strukturieren, dass sie auch mit anderen Systemen funktionieren. Keine ideologische Debatte über die „beste“ KI, sondern ein praktischer Leitfaden für den Plattformwechsel. Starker Beitrag!
Meine Beobachtung aus meiner Arbeitspraxis: Wir sollten aufhören, KI nur als Werkzeug zu betrachten. Wer länger damit arbeitet, baut eine Art persönliches Betriebssystem aus Prompts, Routinen, Schreib- und Denkweisen. Und das möchte man sehr ungern verlieren. Gut, wenn es Wege gibt, dieses Knowhow wenn auch mit Mühen und viel Handarbeit tatsächlich mitzunehmen.
KI im Journalismus: Warum eine angelernte KI zum persönlichen Redakteur werden kann
Wie wertvoll eine angelernte, eine persönlich trainierte KI sein kann, beschreibt Ulrike Langer in ihrem Newsletter News Maschinen offen – und bricht damit gleich ein kleines Branchen-Tabu, begeht quasi ein Sakrileg. Ihr Geständnis: Sie schreibt mit KI, nutzt sie also nicht nur für Recherche oder Zusammenfassungen, sondern auch für Entwürfe, Argumentationsstrukturen und Überarbeitungen. Neun Monate lang hat sie mit Claude gearbeitet – in einer kontinuierlichen Schleife aus Entwurf, Kritik und Überarbeitung. Ihr Fazit: Diese Zusammenarbeit habe sie produktiver gemacht und vielleicht sogar zu einer besseren Journalistin.
Langers Argument ist dabei überraschend pragmatisch. Journalismus war nie nur die perfekte Prosa, sondern immer vor allem Recherche, Verifikation und Urteilsvermögen. Selbst legendäre Geschichten wie die Watergate-Recherchen wurden durch intensive Redigierschleifen geformt. Für sie übernimmt die KI heute eine ähnliche Rolle wie ein ständig verfügbarer Redakteur: jemand, der Argumente hinterfragt, Strukturen überprüft und dazu zwingt, genauer zu denken. Entscheidend bleibt dabei das menschliche Urteil, die Verantwortung für den veröffentlichten Text – und die Prüfung der Fakten.
Je länger man mit einer KI arbeitet, desto stärker passt sie sich dem eigenen Stil, den eigenen Denkwegen und Arbeitsprozessen an. Eine solche Zusammenarbeit entsteht nicht über Nacht. Vielleicht ist genau das der eigentliche Wert moderner KI: nicht das Modell selbst – sondern die Beziehung, die man über Zeit zu einem digitalen Co-Editor aufbaut.
KI-Companions und die Attachment Economy: Wenn emotionale Bindung zum Geschäftsmodell wird
Apropos Beziehung: Man hört doch sehr gerne, wie klug und interessant man ist. Wenn einem Partnerin, Partner oder Freunde das schon nicht sagen, gibt es jetzt Alternativen. Nein, es sind keine menschlichen Alternativen gemeint. Es geht natürlich wieder um KI.
Sogenannte Companion-Apps setzen gezielt auf emotionale Bindung, wie Dr. Michael Strautmann bei Golem beschreibt. Sie stellen Fragen, machen Komplimente und versuchen, Nutzer möglichst lange im Gespräch zu halten. In der Branche spricht man inzwischen von der Attachment Economy. Die Grenzen zwischen virtuellem Begleiter zwischen Assistent, Freund und Coach verschwimmen – während im Hintergrund Daten gesammelt, Premium-Abos verkauft und vielleicht auch Meinungen beeinflusst werden könnten.
Der perfekte Gesprächspartner war lange ein Motiv aus Science-Fiction: jemand, der immer zuhört, sich alles merkt und einen regelmäßig Komplimente macht. Technisch ist das inzwischen erstaunlich, ja erschreckend nah. Immer daran denken: Die KI liebt dich vielleicht nicht wirklich – aber dein Engagement, deine Daten und dein Abo ganz bestimmt.
Generative Engine Optimization (GEO): Warum Medienhäuser sich zwischen KI-Sichtbarkeit und Scraper-Blockade entscheiden müssen
Und noch einmal – aus aktuellem Anlass – Ulrike Lange. In einer Folge von #9vor9 beschäftigen wir uns mit GEO, mit Generative Engine Optimization, der Optimierung von Inhalten für die KI-Scraper und Bots von OpenAI, Perplexity, Anthropic oder Google, die Webseiten abgrasen, um ihre System zu trainieren, aber auch immer mehr, um auf Suchanfragen zu beantworten.
Und das stellt Medienhäuser natürlich vor eine Herausforderung. Viele Redaktionen mit einer Mischung aus Bots blockieren, abwarten und hoffen. Langers Kommentar dazu ist trocken: Diese Strategie sei ungefähr so belastbar wie ein Paywall-Konzept ohne Leser.
Was also tun? Medien stehen dabei vor einem Zielkonflikt. Wer Inhalte für KI optimiert, macht sie bewusst maschinenlesbar und erhöht die Chance, in Antworten von Chatbots aufzutauchen. Wer KI-Scraper blockiert, schützt Inhalte – verschwindet aber möglicherweise aus der neuen Informationslogik. Langers Punkt ist so simpel wie unbequem: Nicht entscheiden ist auch eine Entscheidung. Nur meistens die schlechteste.
Vielleicht müssen Medienhäuser akzeptieren, dass sich ihre Rolle gerade verschiebt. Früher ging es darum, in Suchmaschinen gefunden zu werden. Heute geht es zunehmend darum, in KI-Antworten zitiert zu werden. Wer dort nicht vorkommt, existiert für einen wachsenden Teil der Nutzer schlicht nicht mehr. Statt zu boykottierten, gilt es wohl eher, finanzielle Vereinbarungen mit den KI-Konzernen und -Antwortmaschinenherstellern zu treffen.
Oder wie fasste es NotebookLM in unserer Vorbereitung zum Podcast auf Basis der von uns hinterlegten Quellen zusammen:
GEO statt SEO: In der Welt der synthetischen Logik müssen wir aufhören, wie reine Publisher zu denken. Wir müssen wie Bibliothekare agieren, die das am besten strukturierte, verlässlichste und zitierfähigste Wissen der Welt kuratieren. Nur wer die Spielregeln der Synthese beherrscht, wird in der Antwort-Ökonomie von morgen Bestand haben.
KI-Schwärme in sozialen Netzwerken: Wie automatisierte Agenten Mehrheiten simulieren könnten
Bots kennen wir längst. Vergleichsweise neu ist die Idee koordinierter KI-Schwärme. Stefan Krempl beschreibt bei heise online, wie ganze Netzwerke aus KI-Agenten künftig auftreten könnten wie normale Nutzer: diskutieren, argumentieren und sich gegenseitig bestätigen.
Der Effekt ist psychologisch ziemlich simpel – und deshalb so wirksam. Wenn viele scheinbar unabhängige Stimmen dieselbe Position vertreten, wirkt sie automatisch plausibler. Moderne KI-Agenten können dabei deutlich glaubwürdiger auftreten als frühere Bots: Sie schreiben unterschiedlich, reagieren auf Argumente und führen längere Gespräche. Psychologisch neigen Menschen dazu, Mehrheiten zu vertrauen. Wenn eine Position überall auftaucht, erscheint sie glaubwürdiger, legitimer – selbst dann, wenn sie künstlich erzeugt wurde.
Damit verschiebt sich die Herausforderung für Plattformen und Gesellschaft. Es geht nicht mehr nur um einzelne automatisierte Accounts, sondern um koordinierte Systeme, die Öffentlichkeit simulieren können. Wenn Mehrheiten künstlich erzeugt werden können, gerät die Idee des digitalen Diskurses noch mehr ins Wanken.
Datenanalyse im Profifußball: Wie KI und Data Science bei den Lilien Training, Verletzungsprävention und Transfers verändern
Bei den Lilien herrscht gerade angesichts des Tabellenplatzes richtig gute Laune. Zweikämpfe, Flanken, Emotionen auf den Rängen. Fußball eben. Und doch hat sich hinter den Kulissen beim SV Darmstadt 98 einiges verändert. In der Technologiestadt Darmstadt hat der Zweitligist eine eigene Data-Science-Abteilung aufgebaut. Spieler laufen im Training mit GPS-Westen über den Platz, ein Athleten-Management-System sammelt Daten zu Belastung, Fitness und Verletzungsrisiken. Fußball wird hier nicht nur gespielt – er wird auch vermessen.
Im Gespräch mit der FAZ (mal wieder Paywall) erklären Präsidiumsmitglied Arnd Zinnhardt und Sportdirektor Paul Fernie den Ansatz erstaunlich nüchtern: Daten sollen die Wahrscheinlichkeit für sportlichen Erfolg erhöhen. Die Sensoren messen Sprintgeschwindigkeiten, Beschleunigungen und Belastungswerte. KI analysiert die Daten und schlägt Alarm, wenn sich Muster verändern – etwa wenn ein Muskel bald Probleme machen könnte. Auch beim Scouting und sogar bei der Kommunikation hilft Technik: Ein KI-Übersetzungstool sorgt dafür, dass Traineranweisungen auch bei internationalen Spielern nicht im Sprachnebel verschwinden.
Gleichzeitig betonen die Verantwortlichen immer wieder: Daten sollen Emotionen nicht ersetzen. Fußball bleibt ein Bauchgeschäft – nur eines, in dem der Bauch inzwischen gelegentlich Rücksprache mit dem Server hält. Oder anders gesagt:
Der Ball bleibt rund. Aber im Hintergrund laufen inzwischen ziemlich viele Algorithmen hinterher.


Kommentar verfassen