Erstelle mir das Bild eines Roboters mit frustrierten Gesichtsausdruck, der nicht in der Lage ist Fragen korrekt zu beantworten, Texte zusammenzufassen und Bilder korrekt zu zeichnen

Frustrierende Erlebnisse: Die Grenzen von Bing Chat, ChatGPT und Dall-E

Ich habe in den vergangenen Wochen ja ChatGPT und auch Dall-E für diesen Blog intensiv genutzt,

  • um mich inhaltlich auf unsere Gespräche in #9vor9 vorzubereiten,
  • das Gespräch auf Basis des YouTube-Transkripts zusammenfassen zu lassen und
  • von Dall-E eine Grafik für den Blogartikel und das Video erstellen zu lassen.

Das hat auch vergleichsweise gut bis sehr gut funktioniert, doch in den vergangenen Tagen kam es zu Frustrationserlebnissen.

Bing-Suche über Chat: Keine Zusammenfassung der Ereignisse rund um Musk und Twitter möglich

Für unseren Video-/Podcast #9vor9 möchte ich immer gut vorbereitet sein, so auch am 18. April. Deshalb habe ich den Chat-Assistenten in Bing gebeten, mir doch einmal die wichtigsten Nachrichten zu Elon Musk und Twitter der letzten 4 Wochen zusammen zu stellen. Daran sind Bing und auch You.com krachend gescheitert:

Die Chronologie habe ich mir dann selbst erstellt – über eine Suche auf heise.de. Das Ergebnis findet Ihr hier. Hier hätte ich eigentlich erwartet, dass die an das Web angeschlossenen KIs mehr leisten können. Etwas enttäuschend.

ChatGPT: Märchen rund um E.ON-Burgs statt vernünftige Zusammenfassung

Doch so ging es weiter. Wie schon vorher mit durchaus akzeptablem Ergebnis praktiziert – siehe hier -, habe ich ChatGPT gebeten, basierend auf dem Transkript von YouTube, eine Zusammenfassung unseres Gesprächs zu erstellen. Diesmal ist die KI krachend gescheitert.

Elon Musk als Person spielte jedoch eine zentrale Rolle in der Diskussion, da viele der “Verrücktheiten”, die auf Twitter passieren, auf seine Äußerungen und Handlungen zurückgehen. So wurde auch sein jüngstes “Unwort” genannt: der E.ON-Burgs. Dieser Ausdruck stammt aus einem Video von Musk, in dem er über den Energieversorger E.ON und das Konzept der “Burg” als Speicher für erneuerbare Energien sprach.

Auszug aus dem Textvorschlag von ChatGPT

Ok, ein Transkript ist immer sehr fehlerhaft und wenn Elon Murks als E.ON Burgs erkannt wird, ist es schwierig. Nichtsdestotrotz kam es zu absurden Statements und vor allem wurden Fakten und Ereignisse, die wir behandelt haben, nicht aufgegriffen. Stattdessen wurde von Content-Brei erstellt. Weitere Beispiele erspare ich Euch.

Dall-E: Nur keine Bilder zu potentiell sensiblen Themen erstellen

Auch beim Bildgenerator Dall-E bin ich an Grenzen gestoßen. Die KI weigerte sich, mir ein Grafik mit einem stilisierten Elon Musk, dem Twitter-Logo, einem X und einem Waschbecken zu erstellen. Ich verstoße gegen die Content-Regeln von Dall-E und man droht gleich mit Sperrung des Kontos.

Sobald es um potentiell sensible Themen geht, auch wenn gar keine Wertung vorgenommen werden soll, scheint eine Blockade eingebaut zu sein. Das habe ich auch bei folgender Anfrage erlebt:

Auch hier sollten die Elemente nur wertfrei nebeneinander gestellt werden. In YouImagine von You.com, die Stable Diffusion 1.5 und 2.1 sowie Open Journey und Anime als Bildgeneratoren integriert haben, konnte ich übrigens problemlos Bilder von Elon Musk generieren lassen. Allerdings hatte ich da keine Möglichkeit, das Bild in der Breite zu modifizieren, so dass es als Bildschirmhintergrund oder Header-Grafik geeignet war.

Bei allem Hype und allen durchaus positiven Erfahrungen waren das jetzt Erfahrungen, die mich auf den Boden der Tatsachen zurück geholt haben. Ganz so “intelligent” sind die Werkzeuge noch nicht und auch “Political Correctness” kann man als US-Unternehmen übertreiben und das in einem Land, in dem die Tweets und Nachrichten von Trump den Ton setzen.

DSGVO-konforme Share-Funktion Shariff Wrapper des c't Magazins

1 Kommentar zu „Frustrierende Erlebnisse: Die Grenzen von Bing Chat, ChatGPT und Dall-E“

  1. Bin gestern auch erstmals an Grenzen gestoßen, die mich verwundert haben. Bisher kannte ich nur eingestreute “falsche Fakten”. Gestern nun ausprobiert, ob mir ChatGPT einen HTML-Code mit überflüssigen Formatierungen bereinigen kann. Eine einfache Tabelle hat es schon mal gut hinbekommen, die “Bereinigung” hat es wohl überfordert – obwohl ich extra 4.0 abonniert hatte! Nicht nur, dass es mitten drin aufhörte und auf “weiter machen” dann vergessen hatte, worum es genau ging. Es hat sogar TEXTE in Tabellen verändert, obwohl ich sehr konkret und genau aufgelistet hatte, welche Formate es entfernen soll und was nicht. Oder es hat plötzlich gar nicht mehr gewusst, dass es Code schreiben soll – im selben Gespräch und ohne dass die Grenze von (angeblich!) 25.000 Wörtern erreicht worden wäre.

    Das ist kein Einzelfall, wie ich lese, geht es auch Anderen so. Die Grenze von 25.000 Wörtern soll nicht wirklich für ChatGPTPlus gelten, sondern nur für das “Full Model”. Tja, so toll, wie es aufs Erste wirkt, es es bei weitem nicht!

Kommentar verfassen