banner

Blog

Jun 29, 2023

KI-Tools machen vieles wieder gut, und das ist ein großes Problem

Bevor künstliche Intelligenz die Welt erobern kann, muss sie ein Problem lösen. Die Bots halluzinieren.

KI-gestützte Tools wie ChatGPT haben uns mit ihrer Fähigkeit fasziniert, auf scheinbar jede Aufforderung verlässliche, menschlich klingende Antworten zu geben. Doch da sich immer mehr Menschen dieser beliebten Technologie für Dinge wie Hausaufgabenhilfe, Arbeitsplatzforschung oder Gesundheitsfragen zuwenden, wird eine ihrer größten Gefahren immer offensichtlicher: KI-Modelle erfinden oft Dinge nur.

Forscher bezeichnen diese Tendenz von KI-Modellen, ungenaue Informationen auszuspucken, inzwischen als „Halluzinationen“ oder sogar „Konfabulationen“, wie der KI-Chef von Meta in einem Tweet sagte. Einige Social-Media-Nutzer bezeichnen Chatbots schlichtweg als „pathologische Lügner“.

Laut Suresh Venkatasubramanian, einem Professor an der Brown University, der an der Blaupause des Weißen Hauses für eine KI-Bill of Rights beteiligt war, sind all diese Deskriptoren auf unsere allzu menschliche Tendenz zurückzuführen, die Handlungen von Maschinen zu anthropomorphisieren.

Die Realität sei, so Venkatasubramanian, dass große Sprachmodelle – die Technologie, die KI-Tools wie ChatGPT zugrunde liegt – einfach darauf trainiert werden, „eine plausibel klingende Antwort“ auf Benutzereingaben zu liefern. „In diesem Sinne ist also jede plausibel klingende Antwort, ob sie korrekt oder sachlich oder erfunden ist oder nicht, eine vernünftige Antwort, und das ist es, was sie hervorbringt“, sagte er. „Da gibt es keine Erkenntnis der Wahrheit.“

Der KI-Forscher sagte, dass eine bessere Verhaltensanalogie als Halluzinationen oder Lügen, die Assoziationen mit sich bringen, dass etwas nicht stimmt oder böse Absichten vorliegt, darin bestünde, diese Computerergebnisse mit der Art und Weise zu vergleichen, wie sein kleiner Sohn im Alter von vier Jahren Geschichten erzählte. „Man muss nur sagen: ‚Und was ist dann passiert?‘ und er würde einfach weiter Geschichten produzieren“, sagte Venkatasubramanian. „Und er machte einfach immer weiter.“

Unternehmen, die hinter KI-Chatbots stehen, haben einige Leitplanken eingeführt, um die schlimmsten dieser Halluzinationen zu verhindern. Doch trotz des weltweiten Hypes um generative KI sind viele in diesem Bereich weiterhin uneinig, ob Chatbot-Halluzinationen überhaupt ein lösbares Problem sind oder nicht

Einfach ausgedrückt bezieht sich eine Halluzination darauf, wenn ein KI-Modell „anfängt, Dinge zu erfinden – Dinge, die nicht mit der Realität übereinstimmen“, so Jevin West, Professor an der University of Washington und Mitbegründer des Center for an Informierte Öffentlichkeit.

„Aber es tut es mit purer Zuversicht“, fügte West hinzu, „und es tut es mit der gleichen Zuversicht, als würde man eine sehr einfache Frage stellen wie: ‚Was ist die Hauptstadt der Vereinigten Staaten?‘“

Dies bedeutet, dass es für Benutzer schwierig sein kann, zu erkennen, was wahr ist und was nicht, wenn sie einen Chatbot etwas fragen, auf das sie noch keine Antwort kennen, sagte West.

Eine Reihe aufsehenerregender Halluzinationen von KI-Tools haben bereits für Schlagzeilen gesorgt. Als Google zum ersten Mal eine Demo von Bard, seinem mit Spannung erwarteten Konkurrenten zu ChatGPT, vorstellte, gab das Tool öffentlich eine falsche Antwort auf eine Frage zu neuen Entdeckungen des James Webb-Weltraumteleskops. (Ein Google-Sprecher sagte damals gegenüber CNN, dass der Vorfall „die Bedeutung eines strengen Testprozesses unterstreicht“ und sagte, das Unternehmen arbeite daran, „sicherzustellen, dass Bards Antworten eine hohe Messlatte für Qualität, Sicherheit und Verlässlichkeit realer Informationen erfüllen.“ .“)

Ein erfahrener New Yorker Anwalt geriet ebenfalls in Schwierigkeiten, als er ChatGPT für Rechtsrecherchen nutzte und einen Schriftsatz einreichte, der sechs „falsche“ Fälle enthielt, die der Chatbot offenbar einfach erfunden hatte. Auch die Nachrichtenagentur CNET sah sich gezwungen, Korrekturen vorzunehmen, nachdem ein von einem KI-Tool erstellter Artikel letztendlich völlig ungenaue Ratschläge zu persönlichen Finanzen gab, als er darum gebeten wurde, die Funktionsweise des Zinseszinses zu erklären.

Ein hartes Vorgehen gegen KI-Halluzinationen könnte jedoch die Fähigkeit von KI-Tools einschränken, Menschen bei kreativeren Unternehmungen zu helfen – etwa Benutzern, die ChatGPT bitten, Gedichte oder Liedtexte zu schreiben.

Allerdings bergen Halluzinationen Risiken, wenn Menschen sich dieser Technologie zuwenden, um nach Antworten zu suchen, die sich auf ihre Gesundheit, ihr Wahlverhalten und andere potenziell sensible Themen auswirken könnten, sagte West gegenüber CNN.

Venkatasubramanian fügte hinzu, dass es derzeit problematisch sein könnte, sich bei Aufgaben, bei denen man sachliche oder zuverlässige Informationen benötigt, die man nicht sofort selbst überprüfen kann, auf diese Tools zu verlassen. Und mit der Verbreitung dieser Technologie lauern noch weitere potenzielle Gefahren, sagte er, etwa dass Unternehmen KI-Tools nutzen, um die Qualifikationen der Kandidaten zusammenzufassen und zu entscheiden, wer in die nächste Runde eines Vorstellungsgesprächs vorrücken soll.

Venkatasubramanian sagte, dass er letztendlich der Meinung sei, dass diese Werkzeuge „nicht an Orten eingesetzt werden sollten, an denen Menschen erheblich beeinträchtigt werden.“ Zumindest jetzt noch nicht."

Wie KI-Halluzinationen verhindert oder behoben werden können, sei ein „Punkt aktiver Forschung“, sagte Venkatasubramanian, sei aber derzeit sehr kompliziert.

Große Sprachmodelle werden auf riesigen Datensätzen trainiert, und es gibt mehrere Phasen, in denen ein KI-Modell trainiert wird, um eine Antwort auf eine Benutzeraufforderung zu generieren – ein Teil dieses Prozesses läuft automatisch ab, ein anderer Teil wird durch menschliches Eingreifen beeinflusst.

„Diese Modelle sind so komplex und so kompliziert“, sagte Venkatasubramanian, aber deshalb „sind sie auch sehr fragil.“ Dies bedeutet, dass sehr kleine Änderungen der Eingaben „ziemlich dramatische Änderungen der Ausgabe“ nach sich ziehen können.

„Und das liegt in der Natur des Tieres: Wenn etwas so empfindlich und so kompliziert ist, dann ist das auch so“, fügte er hinzu. „Das heißt, es ist sehr schwierig herauszufinden, auf welche Weise etwas schiefgehen kann, weil es so viele kleine Dinge gibt, die schiefgehen können.“

West von der University of Washington schloss sich seiner Meinung an und sagte: „Das Problem ist, dass wir die von diesen Chatbots ausgehenden Halluzinationen nicht nachbilden können.“

„Es könnte einfach ein intrinsisches Merkmal dieser Dinge sein, das immer da sein wird“, sagte West.

Googles Bard und OpenAIs ChatGPT versuchen beide, den Benutzern von Anfang an transparent zu machen, dass die Tools möglicherweise ungenaue Antworten liefern. Und die Unternehmen haben zum Ausdruck gebracht, dass sie an Lösungen arbeiten.

Anfang des Jahres sagte Google-Chef Sundar Pichai in einem Interview mit „60 Minutes“ von CBS, dass „noch niemand auf diesem Gebiet die Halluzinationsprobleme gelöst hat“ und „alle Modelle dieses Problem haben“. Zur Frage, ob es sich um ein lösbares Problem handele, sagte Pichai: „Es ist Gegenstand intensiver Debatten. Ich denke, wir werden Fortschritte machen.“

Und Sam Altman, CEO des ChatGPT-Herstellers OpenAI, machte in seinen Bemerkungen eine technische Vorhersage, indem er sagte, er glaube, dass es eineinhalb oder zwei Jahre dauern werde, „das Halluzinationsproblem an einen viel, viel besseren Ort zu bringen“. im Juni am indischen Indraprastha Institute of Information Technology, Delhi. „Es besteht ein Gleichgewicht zwischen Kreativität und perfekter Genauigkeit“, fügte er hinzu. „Und das Modell muss lernen, wann Sie das eine oder das andere wollen.“

Als Antwort auf eine Folgefrage zur Verwendung von ChatGPT für Forschungszwecke witzelte der Vorstandsvorsitzende jedoch: „Ich vertraue den Antworten, die ChatGPT liefert, wahrscheinlich am wenigsten von allen anderen auf der Welt.“

AKTIE