OpenAI ratlos

ChatGPT wird faul und keiner weiss, warum

Uhr
von Maximilian Schenner und tme

ChatGPT wird in der Bezahlversion GPT-4 wohl immer denkfauler. Der Bot fordert Nutzerinnen und Nutzer häufiger zur Selbstarbeit auf, statt Antworten auf ihre Fragen zu liefern. Entwickler OpenAI kann sich dies nicht erklären.

(Source: Girl with red hat / unsplash.com)
(Source: Girl with red hat / unsplash.com)

Wer dieser Tage ChatGPT nach Rat fragt, bekommt womöglich nicht die gewünschte Antwort. Stattdessen schlägt der Chatbot immer häufiger vor, selbst nach der Antwort zu suchen, wie zahlreiche Nutzerinnen und Nutzer beklagen. Konkret geht es um die Bezahlversion GPT-4, die aktuelle Form des Sprachmodells, wie "Pressetext" schreibt. Oft handle es sich dabei um Aufgaben mit zahlreichen wiederkehrenden Abläufen oder aber die Zusammenfassung grosser Datenmengen oder Texte.

Etliche User hätten sich im Forum von OpenAI, auf X oder Reddit über die Limitationen des Chatbots beschwert. Den Entwicklern selbst ist jedoch noch nicht klar, warum GPT-4 unbefriedigende Antworten gibt, wie aus einem X-Post hervorgeht. Man habe seit dem 11. November keine Updates durchgeführt - die gestiegene "Faulheit" sei nicht beabsichtigt. OpenAI arbeite an der Behebung.

Die Idee sei nicht, dass sich das Modell seitdem irgendwie selbst verändert habe, konkretisiert das Unternehmen. "Es ist nur so, dass die Unterschiede im Verhalten des Modells subtil sein können – nur eine Teilmenge der Eingabeaufforderungen kann beeinträchtigt sein, und es kann lange dauern, bis Kunden und Mitarbeiter diese Muster bemerken und beheben."

User spekulieren indes, woran es tatsächlich liegen könnte, dass GPT-4 ihre Fragen einfach nicht beantworten will. So ist laut "Pressetext" etwa von Limitierungen die Rede, die OpenAI absichtlich implementiert habe, um eine Überlastung zu verhindern. Andere Nutzerinnen und Nutzer vermuten, dass die Kosten für den Betrieb des Sprachmodells aus dem Ruder gelaufen seien und OpenAI daher die Rechenleistung begrenze.

Übrigens: Eine Forschungsgruppe - an der auch die ETH Zürich beteiligt war - hat gezeigt, wie man ChatGPT überlisten kann. Mit einer sogenannten Divergence-Attacke kann man den KI-Chatbot dazu bringen, seine Trainingsdaten herauszugeben. Der Trick wirkt erstaunlich simpel.

Webcode
dKg4mktn