RAG im Vergleich zu Fine Tuning

Veröffentlicht 17. September 20245 Minuten (Lesedauer)
URL kopieren

Retrieval-Augmented Generation (RAG) im Vergleich zu Fine Tuning

SowohlRAG als auch Fine Tuning dienen der Verbesserung vonLarge Language Models (LLMs). RAG kommt dabei ohne Modifizierung des zugrunde liegenden LLM aus, während Fine Tuning eine Anpassung der Gewichtungen und Parameter eines LLM erfordert. Oft lässt sich ein Modell sowohl durch Fine Tuning als auch durch RAG-Architektur anpassen.

Mehr über Red Hat AI erfahren

Entwicklung auf Basis von LLMs

Ein LLM ist eine Artkünstliche Intelligenz (KI), die ML-Techniken (Machine Learning) verwendet, um menschliche Sprache zu verstehen und zu erzeugen. Diese ML-Modelle können Texte generieren, zusammenfassen, übersetzen, umschreiben, klassifizieren, kategorisieren, analysieren und vieles mehr. Die häufigste Verwendung dieser Modelle auf Unternehmensebene ist die Entwicklung eines Frage-Antwort-Systems, wie etwa eines Chatbots.

Die LLM-Basismodelle (Foundation Models) verfügen über eine allgemeine Wissensbasis, mit der eine Vielzahl von Use Cases unterstützt werden kann. Allerdings verfügen sie wahrscheinlich nicht über die domainspezifischen Kenntnisse, die speziell für Ihre Organisation relevant sind. RAG und Fine Tuning sind 2 Möglichkeiten, um das LLM mit den gewünschten Daten zu versorgen und es so anzupassen, dass es die gewünschten Ausgaben liefert.

Als Beispiel: Nehmen wir an, Sie entwickeln einen Chatbot für die Interaktion mit Kunden. In diesem Szenario ist der Chatbot sozusagen die Vertretung Ihres Unternehmens und sollte sich daher wie ein leistungsfähiger Beschäftigter verhalten. Der Chatbot sollte die wichtigsten Aspekte Ihres Unternehmens kennen, beispielsweise welche Produkte Sie verkaufen und welche Richtlinien Sie befolgen. Genauso wie Sie Mitarbeitende schulen, indem Sie ihnen Dokumente mit Arbeitsanweisungen und Skripten zum Nachlesen geben, schulen Sie einen Chatbot, indem Sie RAG verwenden und Fine Tuning vornehmen, um auf den vorhandenen Kenntnissen aufzubauen. 

Red Hat Ressourcen

Was ist RAG und wie funktioniert sie?

RAG ergänzt die Daten in einem LLM, indem es Informationen aus Quellen Ihrer Wahl abruft, wie etwa Daten-Repositories, Textsammlungen und bereits vorhandene Dokumentation. Nach dem Abrufen der Daten verarbeiten RAG-Architekturen sie im Kontext eines LLM und generieren eine Antwort auf der Basis der verschiedenen Quellen.

RAG ist sehr nützlich, um Ihr Modell mit Informationen zu ergänzen, die regelmäßig aktualisiert werden. Wenn Sie einem LLM eine Kommunikation zu den von Ihnen ausgewählten externen Quellen zur Verfügung stellen, erhalten Sie genauere Ausgaben. Zudem lässt sich die Quelle von RAG nachverfolgen, da Sie RAG so programmieren können, dass die Quelle angegeben wird. Daher lässt sich leicht nachvollziehen, wie eine Ausgabe formuliert wird, was für mehr Transparenz sorgt und Vertrauen schafft.

Zurück zu unserem Beispiel: Wenn Sie einen Chatbot entwickeln, der Fragen wie „Wie lauten Ihre Rückgabebedingungen?“ beantwortet, könnten Sie eine RAG-Architektur verwenden. Sie könnten Ihr LLM mit einem Dokument verknüpfen, in dem die Rückgabebedingungen Ihres Unternehmens detailliert aufgeführt sind, und den Chatbot anweisen, Informationen daraus abzurufen. Sie können den Chatbot sogar anweisen, seine Quelle anzugeben und einen Link für weitere Informationen bereitzustellen. Bei einer Änderung Ihrer Rückgabebedingungen würde das RAG-Modell die aktuellen Informationen abrufen und sie den jeweiligen Nutzenden zur Verfügung stellen.

Mehr über RAG erfahren

 

Use Cases für RAG

RAG kann Informationen beschaffen und organisieren, sodass Menschen einfach mit Daten interagieren können. Mit einer RAG-Architektur können Modelle Insights erlangen und einem LLM Kontext aus lokalen und cloudbasierten Datenquellen bereitstellen. Das bedeutet, dass externe Daten, interne Dokumente und sogar Social Media Feeds genutzt werden können, um Fragen zu beantworten, Zusammenhänge zu erläutern sowie Informationen für die Entscheidungsfindung bereitzustellen.

Beispielsweise können Sie eine RAG-Architektur erstellen, die bei Abfragen spezifische Antworten zu Richtlinien, Verfahren und Dokumenten des Unternehmens bereitstellt. Das spart Zeit, die sonst für die manuelle Suche und die Interpretation eines Dokuments aufgewendet werden müsste.

Nutzung von RAG im Software Engineering

Was ist Fine Tuning?

Stellen Sie sich Fine Tuning als eine Möglichkeit vor, dem LLM eine Absicht zu kommunizieren, damit das Modell seine Ausgabe an Ihre Anforderungen anpassen kann. Beim Fine Tuning handelt es sich um den Prozess des Trainings eines vortrainierten Modells mit einem kleineren, gezielten Datensatz, damit es domainspezifische Aufgaben effektiver ausführen kann. Diese zusätzlichen Trainingsdaten sind in die Architektur des Modells eingebettet.

LoRA und QLoRA sind PEFT-Methoden (parametereffiziente Fine Tuning), mit denen Nutzende Kosten und Rechenressourcen optimieren können.

Kehren wir zu unserem Beispiel mit dem Chatbot zurück. Angenommen, Sie möchten, dass Ihr Chatbot mit Patientinnen und Patienten in einem medizinischen Kontext interagiert. Hierbei ist es wichtig, dass das Modell die medizinische Terminologie versteht, die mit Ihrer Arbeit zusammenhängt. Durch den Einsatz von Fine Tuning-Techniken können Sie sicherstellen, dass der Chatbot, wenn eine Patientin oder ein Patient ihn nach „Physio“ fragt, dies als „Physiotherapie“ versteht und ihn an die richtigen Ressourcen weiterleitet.

Use Cases für Fine Tuning

Fine Tuning ist am nützlichsten für das Training Ihres Modells, um die Informationen, auf die es Zugriff hat, zu interpretieren. Sie können beispielsweise ein Modell so trainieren, dass es die Nuancen und Terminologien Ihrer spezifischen Branche versteht, wie etwa Akronyme und organisatorische Werte.

Fine Tuning ist auch für Aufgaben der Bildklassifizierung nützlich. Wenn Sie beispielsweise mit Magnetresonanztomografie (MRT) arbeiten, können Sie Ihr Modell durch Fine Tuning trainieren, um Anomalien zu erkennen.

Fine Tuning kann Ihrem Unternehmen dabei helfen, in der Kommunikation mit anderen den richtigen Ton zu treffen – insbesondere im Zusammenhang mit Kunden-Support. Mit dieser Funktion können Sie einen Chatbot darauf trainieren, die Stimmung oder Emotionen der Person zu erkennen, mit der er interagiert. Darüber hinaus können Sie das Modell so trainieren, dass es entsprechend den Werten Ihrer Organisation auf eine Weise reagiert, die den Nutzenden zugutekommt.

Entscheidungskriterien für die Wahl zwischen RAG und Fine Tuning

Wenn Sie die Unterschiede zwischen RAG und Fine Tuning verstehen, können Sie strategische Entscheidungen über die am besten geeignete KI-Ressource für Ihre Anforderungen treffen. Nachfolgend finden Sie einige grundlegende Fragen, die Sie sich stellen sollten:

Über welche Kompetenzen verfügt Ihr Team?

Die Anpassung eines Modells mit RAG erfordert Kenntnisse in der Programmierung und Architektur. Verglichen mit traditionellen Fine Tuning-Methoden bietet RAG eine verständlichere und unkompliziertere Möglichkeit, Feedback zu erhalten, Troubleshooting durchzuführen und Probleme bei Anwendungen zu beheben. Das Fine Tuning eines Modells erfordert Erfahrung mit Natural Language Processing (NLP),Deep Learning, Modellkonfiguration, Datenaufbereitung und Evaluierung. Insgesamt kann es jedoch technischer und zeitaufwendiger sein.

Sind Ihre Daten statisch oder dynamisch?

Durch Fine Tuning kann das Modell gängige Muster erlernen, die sich nicht mit der Zeit verändern. Da das Modell auf statischen Snapshots von Trainingsdatensätzen basiert, können die Informationen des Modells veraltet sein und erneutes Training erfordern. Umgekehrt weist RAG das LLM an, bestimmte Informationen aus den von Ihnen ausgewählten Quellen in Echtzeit abzurufen. Das bedeutet, dass Ihr Modell die aktuellsten Daten abruft, um Ihre Anwendung zu informieren, sodass genaue und relevante Ausgaben gefördert werden.

Wie hoch ist Ihr Budget?

Traditionell ist Fine Tuning ein Deep Learning-Verfahren, das eine große Menge an Daten und Rechenressourcen erfordert. In der Vergangenheit mussten Daten gekennzeichnet und Trainingsläufe auf kostspieliger, hochwertiger Hardware durchgeführt werden, um ein Modell durch Fine Tuning zu verbessern. Außerdem hängt die Performance des durch Fine Tuning optimierten Modells von der Qualität Ihrer Daten ab, deren Beschaffung teuer sein kann.

Im Vergleich dazu ist RAG in der Regel kosteneffizienter als Fine Tuning. Zum Einrichten von RAG erstellen Sie Pipeline-Systeme, um Ihre Daten mit Ihrem LLM zu verbinden. Diese direkte Verbindung senkt die Ressourcenkosten, indem vorhandene Daten zur Information Ihres LLM verwendet werden, anstatt Zeit, Energie und Ressourcen für das Generieren neuer Daten aufzuwenden. 

Zum Video: RAG vs. Fine Tuning

Wie Red Hat helfen kann

Die Open Source-Lösungen von Red Hat und dasKI-Partnernetzwerk können Sie beim Implementieren von RAG und Fine Tuning in IhrenLLMOps-Prozess (Large Language Model Operations) unterstützen.

Mithilfe von InstructLab mit Fine Tuning experimentieren

InstructLab wurde von Red Hat und IBM entwickelt und ist ein Open Source Community-Projekt, das Beiträge zu LLMs leistet, die in Anwendungengenerativer KI (gen KI) verwendet werden. Es bietet einFramework, das synthetische Daten verwendet, um das Fine Tuning von LLM zugänglicher zu machen.

Wie die synthetischen Daten von InstructLab LLMs verbessern

Eigenes Basismodell mit Red Hat Enterprise Linux AI erstellen

Wenn Ihr Unternehmen für das Entwickeln von Anwendungen mit generativer KI bereit ist, bietetRed Hat® Enterprise Linux® AI die notwendige Basismodell-Plattform, um Ihre Use Cases mit Ihren Daten schneller zu bearbeiten.

Red Hat Enterprise Linux AI vereint die fürOpen Source lizenzierten LLMs derGranite-Familie und die InstructLab-Tools für die Modellanpassung in einer einzigen Serverumgebung. Dies bedeutet, dass Domain-Fachleute ohne Hintergrund in Data Science leichter ein KI-Modell anpassen und zu diesem beitragen können, das in der gesamten Hybrid Cloud skalierbar ist.

Red Hat Enterprise Linux AI bietet außerdem die Vorteile einer Red Hat Subskription, die eine zuverlässige Distribution von Unternehmensprodukten, Produktionssupport rund um die Uhr, erweiterten Support für den Modell-Lifecycle und rechtliche Absicherung durchOpen Source Assurance umfasst.

Anwendungen mit Red Hat OpenShift AI skalieren

Sobald Sie Ihr Modell mit Red Hat Enterprise Linux AI trainiert haben, können Sie es überRed Hat OpenShift® AI für die Produktion skalieren.

Red Hat OpenShift AI ist eine flexible, skalierbareMLOps-Plattform (Machine Learning Operations), mit deren Tools Sie KI-gestützte Anwendungen entwickeln, bereitstellen und verwalten können. Das System stellt die zugrunde liegende Workload-Infrastruktur bereit, wie beispielsweise ein LLM zum Erstellen von Einbettungen, die Abrufmechanismen, die für das Erstellen von Ausgaben erforderlich sind, sowie den Zugriff auf eine Vektordatenbank. 

Hub

Der offizielle Red Hat Blog

Lernen Sie mehr über unser Ökosystem von Kunden, Partnern und Communities und erfahren Sie das Neueste zu Themen wie Automatisierung, Hybrid Cloud, KI und mehr.

Red Hat Testversionen

Unsere kostenlosen Testversionen unterstützen Sie dabei, praktische Erfahrungen zu sammeln, sich auf eine Zertifizierung vorzubereiten oder zu bewerten, ob ein Produkt die richtige Wahl für Ihr Unternehmen ist.

Weiterlesen

Was ist AIOps? Künstliche Intelligenz (KI) für IT-Operations

Erfahren Sie, was AIOps ist und wie IT-Abläufe mit KI optimiert werden können. Mehr über Vorteile, Herausforderungen und Potenziale von AIOps für Unternehmen.

Künstliche Intelligenz in Banken: Einsatz von KI und ML

Erfahren Sie, wie Künstliche Intelligenz und maschinelles Lernen das Bankwesen verändert. Mehr über Vorteile, Herausforderungen und Potenziale von KI in Banken.

Was ist Retrieval Augmented Generation (RAG)? | Red Hat AI

Erfahren Sie, wie RAG (Retrieval-Augmented Generation) KI-Modelle mit externem Wissen erweitert, damit LLMs genauere Antworten für Ihr Unternehmen liefern.

Ressourcen zu KI/ML

Verwandte Artikel