April 13, 2023

Reflexion ist alles, was Sie brauchen?

Mitwirkende
Jens Bontinck
Leiter der Abteilung Lieferung & Beratung
Keine Artikel gefunden.
Newsletter abonnieren
Diesen Beitrag teilen

Die Dinge bewegen sich schnell im Bereich LLM und generative KI. Viele Dinge haben sich mit Lichtgeschwindigkeit entwickelt. Ist dies eine vorübergehende Dynamik, die wir erleben, oder sind wir am Tag 1 eines sich ständig erweiternden Universums von Möglichkeiten?

In diesem Blogpost würde ich Sie gerne in den November 2022 zurückversetzen. Damals wurde ChatGPT von OpenAI veröffentlicht. Wahrscheinlich wurde es von der großen KI-Gemeinschaft auf der ganzen Welt als BIG BANG betrachtet.
Zuvor wurden mehrere Initiativen (z. B. BERT, GPT2,...) eher als helle Sterne am Himmel betrachtet, die unsere Augen zum Funkeln brachten, aber der geschäftliche Nutzen musste erst noch in größerem Maßstab nachgewiesen werden.

In letzter Zeit habe ich mehr über Halluzinationen gelernt und darüber, wie man sie abmildern kann. Das Ziel dieses Blogposts ist es, meine Sicht auf eine neue Technik namens Reflexion (Link zum Papier). Ist das alles, was wir brauchen, um Halluzinationen zu verhindern?

Ziel dieses Blogposts ist es, meine Meinung zu einer neuen Technik namens Reflexion mitzuteilen. Ist das alles, was wir brauchen, um Halluzinationen zu verhindern?

Hallo Halluzination

Halluzination kann als "Erzeugen von Unsinn" verstanden werden. Manchmal werden Wörter, Namen und Ideen zusammengefügt, die scheinbar einen Sinn ergeben, aber eigentlich nicht zusammengehören. Sie kann auftreten, wenn Sie eine Frage stellen oder ein Gespräch mit einem LLM (Large Language Model) wie GPT3.5 führen.

Beispiel einer Halluzination

Wenn man herauszoomt, entsteht die Halluzination durch den ursprünglichen Zweck, für den diese Sprachmodelle trainiert werden (sie werden trainiert, um das beste nächste Wort in einem Satz vorherzusagen). Dies ist genau der Punkt, an dem das LLM versucht ist, Fehler zu machen und somit fehlerhafte Informationen zu generieren.
Während dies zu lustigen oder bemerkenswerten Ergebnissen führen kann, trägt es nicht zu unserer Informationsindustrie bei und gefährdet somit die Vertrauenswürdigkeit der LLMs.

Einführung in die Reflexion

Reflexion ist eine neuere Entwicklung im Bereich der LLM und eine Technik, die die Halluzinationen der aktuellen generativen Modelle abschwächt. Die Architektur umfasst eine Rückkopplungsschleife, die darauf abzielt, häufige Fehler zu korrigieren, und könnte als "LLM-in-the-Loop"-Ansatz anstelle eines "Human-in-the-Loop"-Ansatzes betrachtet werden. Eine leistungsstarke Technik, die eine Selbstreflexion über den nachgelagerten Output ermöglicht, wenn Sie mich fragen!

"LLM-in-the-loop"-Ansatz statt "Human-in-the-loop"-Ansatz.

Was bedeutet das genau?

Nehmen wir das Schreiben eines Aufsatzes als Beispiel aus dem wirklichen Leben. Nehmen wir an, Sie sind an einem Punkt angelangt, an dem Sie Ihre Erkenntnisse und Einsichten aus Ihren Recherchen aufschreiben müssen. Im Rahmen dieses Schreibprozesses müssen Sie natürlich irgendwann mit dem Schreiben beginnen. Unabhängig davon, ob Sie Kapitel für Kapitel schreiben oder sich zunächst kurze Notizen machen, sollten Sie Ihren Text mehrmals durchlesen. Sie prüfen und fragen sich, ob der aktuelle Satz die Botschaft wiedergibt, die Sie vermitteln wollten. Wenn ja, sind Sie zufrieden und gehen zum nächsten Satz über. Ist dies nicht der Fall, überarbeiten Sie den betreffenden Inhalt und überlegen, welche Formulierung die Botschaft noch besser vermitteln würde.

Auf diese Weise funktioniert auch das Konzept der Reflexion. Wenn wir einem LLM (z. B. ChatGPT) eine beliebige Frage stellen, erhalten wir eine Ausgabe. Diese Technik löst ein anderes LLM aus, um die Ausgabe des früheren Modells zu überprüfen. Das ist sehr interessant und regt zum Nachdenken darüber an, wie das funktionieren würde, wenn wir mehrere Modelle übereinanderlegen... - ich werde das für einen späteren Blogpost aufheben.

Foto von Super-Schnapper auf Unsplash

Auswirkungen auf Geschäftsanwendungen?

Diese Technik könnte die Vertrauenswürdigkeit des Gesamtergebnisses verbessern und würde zu sichereren und zuverlässigeren KI-Systemen führen (die aber wahrscheinlich teurer sind, da einem LLM? mehr Aufforderungen gegeben werden). Ein KI-System, das in der Lage ist, seine Ergebnisse zu reflektieren, wird zu einem nachhaltigeren Bindeglied zu den Wissensarbeitern und verhindert, dass diese Wissensarbeiter frühzeitig das Vertrauen verlieren.

Ich gehe davon aus, dass weitere und ähnliche Techniken eher früher als später auftauchen werden, und diese werden erhebliche Auswirkungen auf eine Reihe von Anwendungsfällen haben, wie z. B. den Kundensupport (mit dem Ziel, die Fragen der Endnutzer korrekt zu beantworten) und den Journalismus (z. B. die Erstellung von Artikeln), wo Fake News bereits ein Thema sind.

‍Abschluss- Ist Nachdenken alles, was man braucht?

Die Reflexion ist eine interessante Technik, die darauf abzielt, die Halluzinationen von LLMs zu mildern. Dies kann als eine der Hauptanstrengungen des LLM gesehen werden, um noch nützlicher zu werden. Stellen Sie sich vor, dass wir alles, was es erzeugt, als Antwort glauben können? Das würde unsere Art des Umgangs mit Informationen in unserer Informationsindustrie durcheinander bringen.

Ist Reflexion alles, was Sie brauchen?... Wenn Sie mich fragen, ist es eine vielversprechende Technik, aber ich erwarte, dass auch andere Techniken an die Oberfläche kommen werden. Ich rechne mit einem hybriden Aufbau, z. B. mit Reflexion und fortgeschrittener Souffleurtechnik, die mit der Zeit bessere Ergebnisse liefern wird.

Verwandte Beiträge

Alle anzeigen
Keine Ergebnisse gefunden.
Es gibt keine Ergebnisse mit diesen Kriterien. Versuchen Sie, Ihre Suche zu ändern.
Stiftung Modelle
Unternehmen
Unser Team
Verantwortungsvolle und ethische KI
Strukturierte Daten
Chat GPT
Nachhaltigkeit
Stimme und Ton
Front-End-Entwicklung
Schutz und Sicherheit von Daten
Verantwortungsvolle/ethische KI
Infrastruktur
Hardware und Sensoren
MLOps
Generative KI
Verarbeitung natürlicher Sprache
Computer Vision