Visueller Vergleich zwischen LLMs und RAG – wie KI mit externer Datenabfrage die Genauigkeit und den Kontext bei der Generierung von Inhalten verbessert.
Harmony vine - Adobe Stock

Digitalisierung Industrie 4.0 : PSIQualicision A2 – Eine Retrieval Augmented Generation (RAG)-Lösung

Der KI-gesteuerte dialogorientierte Zugriff auf technisches Wissen kann eine Vektordatenbank für eine verbesserte Informationsgewinnung nutzen.

Large-Language-Models (LLMs) sind leistungsstarke KI-Systeme, die auf der Grundlage riesiger Datensätze trainiert werden. Sie verfügen über mehrere Parameter, um Aufgaben wie das Beantworten von Fragen, das Übersetzen von Sprachen und das Vervollständigen von Sätzen auszuführen. Ihre Stärke liegt in ihrer breiten Generalisierung über verschiedene Themen hinweg und ihrer flüssigen Sprachgenerierung. 

Auf der anderen Seite ist Retrieval-Augmented Generation (RAG) der Prozess der Optimierung der Ausgabe eines großen Sprachmodells, sodass es vor der Generierung einer Antwort auf eine maßgebliche Wissensbasis, wie z. B. ein Einbettungsmodell, außerhalb seiner Trainingsdatenquellen zurückgreift.

LLMs vs. Retrieval-Augmented Generation (RAG)-Lösung

LLMs haben für Benutzer erhebliche Einschränkungen, insbesondere hinsichtlich ihrer Fähigkeit, Informationen effizient zu indizieren und abzurufen. Erstens können sie halluzinieren und plausible, aber sachlich falsche Antworten generieren, da ihre Ausgaben ausschließlich auf Mustern beruhen, die während des Trainings gelernt wurden. Durch die Halluzination wird es schwierig, die von ihnen generierten Informationen Quellen zuzuordnen, was das Vertrauen und die Validierung im Kontext von Machine-Learning-Anwendungen untergräbt. Darüber hinaus leiden LLMs unter statischem Wissen, da alles, was nach dem Ende ihres Trainings auftaucht, unzugänglich bleibt, was sie für Echtzeit- oder spezialisierte Abfragen unzuverlässig macht.

Außerdem ist das Training von LLMs sehr teuer, da sie mit riesigen Datensätzen gefüttert werden und, um sachlich zu bleiben, von Zeit zu Zeit aktualisiert werden müssen, um ihre Informationen auf den neuesten Stand zu bringen. Diese Einschränkungen stellen ihre Genauigkeit und Nützlichkeit in Frage, insbesondere in risikoreichen, domänenspezifischen oder sich ständig weiterentwickelnden Kontexten.

Um dieses Problem zu lösen, können wir eine Langchain implementieren, um die Abfrage relevanter Daten zu verbessern. RAG-Systeme kombinieren die Stärken der Informationsabfrage und der generativen KI, um genaue, kontextbezogene und dynamische Antworten und Ergebnisse zu liefern. Durch die Integration von externem oder domänenspezifischem Wissen in den generativen Prozess überwinden RAG-Systeme die Einschränkungen großer Sprachmodelle (LLMs), die sich ausschließlich auf ihr vortrainiertes Allgemeinwissen stützen.
 

Was ist das Qualicision A2 RAG-System?

Qualicision A2 (Ask & Answer) ist ein RAG-System, das Softwareanwendungen wie Kundenportale, Supportsysteme oder interne Tools mit einer vertrauenswürdigen, dokumentbasierten Konversationsschnittstelle ausstattet. Unter Verwendung des RAG-Paradigmas stellt es sicher, dass der generierte Text in maßgeblichen Materialien wie Produktdokumenten, Benutzerhandbüchern, Konzeptpapieren und Wissensdatenbanken verankert ist.

Allgemeine Bedingungen für die Retrieval-Augmented Generation

  • Qualicision A2 ist keine herkömmliche Chatbot-Funktionalität.
  • Es erweitert die bereits leistungsstarken Fähigkeiten von LLMs auf bestimmte Domänen oder die interne Wissensdatenbank eines Unternehmens, ohne dass das Modell neu trainiert werden muss, indem es die neueste Einbettungstechnologie nutzt und RAG für eine verbesserte Genauigkeit einsetzt.
  • Qualicision A2 ist ein kostengünstiger Ansatz zur Verbesserung der LLM-Ergebnisse, damit diese in verschiedenen Kontexten relevant, genau und nützlich bleiben.
  • Es kann von Benutzern konfiguriert werden, die mit den Geschäftsprozessen der Zielanwendungen vertraut sind, aber keine Datenwissenschaftler sind.
  • Qualicision A2 ist hocheffizient bei der Verarbeitung und Indizierung von Informationen für einen schnellen Abruf. Flexibel bei der Auswahl des Backend-LLM. Derzeit läuft es auf Ollama (einem Open-Source-Modell) und später auf Google Gemini, wobei fortschrittliche Einbettungen für eine verbesserte Leistung genutzt werden. Je nach Kundenanforderungen kann das zugrundeliegende LLM ausgetauscht werden, wodurch das System sehr anpassungsfähig ist.
  • Schließlich hat Qualicision A2 dank seiner optimierten Algorithmen für maschinelles Lernen einen klaren Vorteil gegenüber herkömmlichen LLMs, wenn es um die Trainingsgeschwindigkeit geht. Jedes Mal, wenn ein Benutzer ein Dokument hochlädt, muss nur dieses Dokument verarbeitet werden, anstatt das gesamte Modell neu zu trainieren. Dadurch wird die Anreicherung des Systems mit neuem Wissen erheblich einfacher, schneller und kostengünstiger.

Kontextmerkmale für das RAG-Modell

In Qualicision A2 können Benutzer Dokumente in verschiedene Gruppen, sogenannte Kontexte, hochladen, die dann zur besseren Verarbeitung in Chunks unterteilt werden können. Zu Beginn einer Konversation können sie dann auswählen, welcher Kontext (oder welche Kontexte) einbezogen werden soll(en). Auf diese Weise kann das System Dokumente trennen und nur das relevante Wissen in den Blickwinkel rücken.

Anwendungsszenarien für das beste Einbettungs-RAG-Modell

Die meisten PSI-Softwarelösungen sind bereits mit Optimierungen und Entscheidungskomponenten auf Basis von Qualicision AI ausgestattet, darunter PSIpenta, PSIcommand.

Szenario Beschreibung
Produkt-Support-Chatbot Ermöglicht es kundenorientierten Anwendungen, technische Fragen zur Produktfunktionalität zu beantworten, indem sie genaue Passagen aus Benutzerhandbüchern abrufen. Jede Antwort enthält Links oder Verweise auf die Originaldokumente.
Interaktive technische Dokumentation Ingenieure und Support-Mitarbeiter fragen nach Wartungsverfahren oder Fehlercodes; QA2 antwortet mit genauen Informationen und verweist auf die relevanten Abschnitte in Wartungshandbüchern oder Konzeptpapieren, wobei ein Vektorsuchalgorithmus zum Einsatz kommt.
Adaptive Konversationsleitfäden Benutzer können die Prioritäten der Themen über GUI-Schieberegler anpassen – z. B. den Schwerpunkt der Konversation zwischen „Sicherheit“, „Benutzerfreundlichkeit“ oder „Leistung“ verschieben –, um den Stil oder die inhaltliche Tiefe der Antworten anzupassen.
On-the-fly-Umschulung Durch eingebettete Bestätigungs-/Verwerfungsaufforderungen lernt das System aus Interaktionen, um im Laufe der Zeit Quellen besser zu priorisieren oder Antworten umzuformulieren.

Wie verbessert RAG die Genauigkeit von KI-Antworten?

  • Mit RAG-basiertem PSI Qualicision stellt A2 sicher, dass Antworten auf aktuellen, verifizierten Dokumentationen basieren, wodurch Halluzinationen und ungenaue Aussagen minimiert werden.
  • Jede Antwort enthält Zitate oder Links zu den relevantesten Quelldokumenten, was die Transparenz erhöht und es den Benutzern ermöglicht, Inhalte zu validieren.
  • Mit Schiebereglern für die Themenpriorität können Benutzer den Tonfall und den Fokus der Antworten dynamisch beeinflussen, was kontextsensitive und domänenbewusste Interaktionen ermöglicht.
  • PSI Qualicision A2 läuft in der Cloud oder vor Ort und gibt dem Kunden die volle Kontrolle über Daten, Training und Compliance. Das Training kann in nur wenigen Stunden abgeschlossen werden, was eine schnelle Bereitstellung neuer Algorithmen ermöglicht.
  • Kann in PSI-Produkte, Legacy-Anwendungen oder Systeme von Drittanbietern eingebettet werden, ohne dass vorherige PSI-Kenntnisse erforderlich sind, wodurch ein breiter, unerschlossener Markt erschlossen wird.
  • Hochladen von Dokumenten in verschiedenen Formaten (Word, PDF, HTML, TXT) zur Erleichterung der Vektorsuche.
  • Kann als SaaS / PaaS / Docker Stack ausgeführt werden.
  • Für den internen und externen Gebrauch.

Veranschaulichendes Beispiel für Qualicision A2 RAG

Angenommen, ein Stahl produzierender Kunde in der Fertigung fragt:

Wie ändere ich die Zielbehandlungsdauer für alle Erhitzungen einer bestimmten Stahlsorte?

PSI Qualicision A2 würde:

  • Einen Retriever verwenden, um schnell auf relevante Informationen zuzugreifen.
  • Den relevanten Abschnitt aus dem Produkthandbuch abrufen (z. B. Kapitel 4, Abschnitt 2).
  • Auf der Grundlage dieses Inhalts mithilfe von Ähnlichkeitssuchtechniken eine prägnante, klare Zusammenfassung erstellen.
  • Eeinen Verweis wie „Siehe Handbuch: Kapitel 4, Abschnitt 2 – ‚Wärmebehandlungsdauer für verschiedene Stahlsorten‘“ bereitstellen.
  • Einen Link oder Verweis anbieten, damit der Benutzer bei Bedarf die vollständige Dokumentation einsehen kann.

Wenn der „Sicherheit“-Schieberegler der Anwendung hoch eingestellt ist, betont das System Sicherheitswarnungen und Kalibrierungstoleranzen. Wenn der Benutzer im Laufe der Zeit Antworten konsequent korrigiert oder akzeptiert, lernt A2, die hilfreichsten Formulierungen oder Quellen auszuwählen.

Fazit

PSI Qualicision A2 verwandelt statische technische und Produktdokumentationen in eine dynamische, zuverlässige Konversationsschnittstelle. Durch die Kombination von RAG-basierter Verankerung, anpassbarem Antwortverhalten und sicherer Bereitstellung bietet es Unternehmen ein leistungsstarkes Tool, um:

  • Halluzinationen zu minimieren und die Genauigkeit zu erhöhen.
  • Transparente, mit Quellen verknüpfte Erklärungen anzubieten.
  • Konversationen basierend auf der Relevanz des Themas und den Bedürfnissen der Benutzer anzupassen.
  • Daten innerhalb einer vom Kunden kontrollierten Infrastruktur zu schützen.
  • In verschiedenen Anwendungen einzusetzen und damit ein breites Anwendungsspektrum zu eröffnen.

Ihr Kontakt

EBY
Veronica Ugwu Content Marketing Manager, PSI Software SE

Veronica ist verantwortlich für das Content-Marketing der Business Unit PSI Software – Process Industries & Metals sowie der PSI Gruppe.

Kontaktieren Sie mich
Folgen Sie mir