Das Kernproblem: LLMs kennen Ihre Daten nicht
Large Language Models verfügen über beeindruckendes Allgemeinwissen, das während des Trainings erworben wurde. Doch sie kennen weder Ihre internen Richtlinien noch Ihre Produktdokumentation, Ihre Vertragsdaten oder Ihre spezifischen Geschäftsprozesse. Zwei Ansätze lösen dieses Problem grundlegend unterschiedlich.[1]
Retrieval-Augmented Generation (RAG) reichert die Anfrage zur Laufzeit mit relevantem Kontext an: Dokumente werden in einer Vektordatenbank indexiert, bei jeder Anfrage werden die relevantesten Passagen abgerufen und dem LLM als Kontext mitgegeben. Das Modell selbst wird nicht verändert.[2]
Fine-Tuning passt die Gewichte des Modells durch weiteres Training auf domänenspezifischen Daten an. Das Modell „lernt" Ihre Terminologie, Ihren Stil und Ihr Fachwissen und kann dieses Wissen anschliessend ohne zusätzlichen Kontext abrufen.[3]
Beide Ansätze haben klare Stärken und Schwächen. Die Entscheidung hängt von Ihrem konkreten Use Case, Ihrem Datenvolumen und Ihren operativen Anforderungen ab.