Daten + KIMarketingSoftware
RAG – Schlüsseltechnologie für KI-Einsatz im Unternehmen
Retrieval Augmented Generation (RAG) etabliert sich zunehmend als Schlüssteltechnologie für den Einsatz von KI in Unternehmen. Zuletzt erfährt insbesondere der Bereich von Large Language Models (LLM) und Generative AI, maßgeblich in Form von ChatGPT, steigende Popularität. Im Unternehmenskontext kommen LLMs bisher hauptsächlich zur Erzeugung von Texten und Bildern, für Recherchen sowie in der Entwicklung zum Einsatz. Trotz ihrer vielseitigen Einsatzmöglichkeiten stoßen diese Tools an Grenzen, vor allen Dingen bei Aufgaben mit Unternehmensbezug.
Die Grenzen von Large Language Models (LLMs) im Unternehmenskontext
Entgegen dem riesigen Umfang an allgemeinen Informationen, fehlen den Modellen interne Information sowie spezifische Fach- oder Branchenkenntnisse, welche jedoch essenziell für die viele Fragestellungen im Unternehmen sind. Dabei kann es sich um Kontextinformationen, interne Prozesse und Strategien, gesetzliche Regulatorien oder Support-Thematiken handeln. Können Antworten geliefert werden, besteht zudem das Risiko von „Halluzinationen“, also falschen oder irreführende Informationen. Durch die fehlende Transparenz sowie Quellenangaben, entfällt der Einsatz für kritische Prozesse sowie juristische Fragestellungen. Schließlich basieren die Modelle auf einer statischen Datengrundlage, welche i.d.R. nicht aktualisiert oder geändert werden kann. Infolgedessen kann es vorkommen, dass Informationen bereits veraltet sind oder sogar fehlen. Dadurch kommt es zu Fehlern oder falschen Antworten, da ein aktueller Wissensstand entscheidend ist. Zwar besteht die Möglichkeit ein vor-trainiertes LLM durch Feintuning mit neuen Informationen anzureichern, jedoch ist die Durchführung eines erneuten Trainings sehr zeitaufwändig.
Mit Retrieval Augmented Generation zu fundierteren Ergebnissen und neuen Möglichkeiten
Hier werden einem LLM zusätzliche aktuelle und interne Informationen zur Beantwortung von Fragen bereitgestellt. Im Grundprinzip wird also eine externe Datenquelle an ein bestehendes LLM angeschlossen. Dabei kann es sich um Dokumente, einem internen Wiki, Fachliteratur oder einem Supportsystem handeln, die sich als Quelle einfach anpassen lassen. Im ersten Schritt werden alle für die Frage relevanten Informationen in Form von Textstellen bezogen (Retrieval). Das LLM kombiniert im zweiten Schritt die Inhalte und formuliert daraus eine Antwort inklusive der entsprechenden Quellenverweise (Generation). So wird gewährleistet, dass die generierte Antwort fundiert, transparent und aktuell ist.

Erleben Sie die vielfältigen Einsatzmöglichkeiten von Retrieval Augmented Generation
Von der Unterstützung bei der Nachhaltigkeitsberichterstattung über die Verbesserung von Support-Prozessen bis hin zur Personalisierung von Marketinginhalten – Retrieval Augmented Generation bietet zahlreiche Möglichkeiten, die Effizienz und Qualität in verschiedenen Geschäftsbereichen signifikant zu steigern.
Assistent für die Nachhaltigkeitsberichtserstattung
Ab dem Geschäftsjahr 2024 ist die Nachhaltigkeitsberichtserstattung für Unternehmen mit mehr als 500 Mitarbeitern verpflichtend. Die Grundlage dazu bietet die von der EU veröffentlichte ESRS Regulatorik, welche zur Interpretation oder Übertragung entsprechende juristische Fachkenntnisse voraussetzt.
Hier kann RAG eine Hilfestellung leisten: Ein Chatassistent beantwortet Fragestellungen anhand der aktuellen Regulatorik und belegt die Antworten mit entsprechenden Quellenauszügen. Die Stärken von LLMs wird insbesondere bei der Vielseitigkeit der Möglichkeiten deutlich. Auf Anfrage werden Inhalte zusammengefasst, komplexe Thematiken verständlich erklärt oder verfasste Berichte hinsichtlich der Regulatorik überprüft
Schnellere Unterstützung beim Support
Interne wie auch externe Support-Tätigkeiten werden i.d.R. mit Ticket-basierten Systemen wie JIRA organisiert. Einem Supportfall liegen häufig bereits eine Vielzahl von ähnlichen, bereits gelösten Fällen vor. Daneben gibt es meist wichtige Ressourcen in Form von Wikis, Dokumentationen oder FAQs, die Lösungsansätze bieten. Eine auf Retrieval Augmented Generation (RAG) basierte Integration im Supportsystem findet zu neu erstellenten Fällen ähnliche, bereits gelöste Tickets sowie Auszüge aus Dokumentationen und formuliert darauf basierend Lösungsvorschläge. Somit erhält der Anfragesteller direkte Unterstützung, noch bevor ein Experte den Vorgang übernimmt.
Individualisierte Newsletter Ansprache durch Produktempfehlungen
Die RAG-Technologie bietet ebenfalls neue Möglichkeiten zur Generierung von personalisierten Inhalten für Newsletter Kampagnen. So lässt sich z.B. auf Basis der Ergebnisse von Produkt- und Kundenanalysen eines Onlineshops eine individualisierte Ansprache erzeugen. Mit Bezug auf die bisherigen Bestellungen ermittelt das System zunächst Produkte mit den höchsten Verkaufschancen für jeden Kunden.
Anschließend kombiniert es Produkteigenschaften wie Beschreibungen und Rezensionen mit Kundendaten wie der Bestellhistorie. So entsteht eine individualisierte Ansprache, die gezielt interessante Produkteigenschaften hervorhebt und damit die Verkaufschancen erhöht.
Profitieren Sie von unserer technologischen Expertise
Retrieval Augmented Generation (RAG) etabliert sich zunehmend als Schlüsseltechnologie für KI-Einsatz in Unternehmen, da es die Beschränkungen von Tools wie ChatGPT effizient löst und neue Einsatzmöglichkeiten eröffnet.
Damit bildet es einen von vielen wichtigen Technologie-Bausteinen, die wir zusammen mit unserer Expertise unseren Kunden bereitstellen.
Treten Sie gerne mit uns in Kontakt, um passende Lösungen für Ihr Business zu finden.
Vereinbaren Sie jetzt eine kostenlose Beratung und entdecken Sie die Möglichkeiten!

Ich beantworte gerne Ihre Fragen – kontaktieren Sie mich jederzeit.
Julius Steidl, julius.steidl@key-work.de oder unter +49 721 78203-171