LLMs sind stark, aber ohne Kontext geraten sie ins Raten. Retrieval-Augmented Generation (RAG) löst genau das: Das Modell sucht erst passende Stellen in Deinen Dokumenten (z. B. Richtlinien, Confluence-Seiten, Handbücher) und schreibt dann eine Antwort auf Basis dieser Fundstellen – mit Zitaten. Es ist wie eine „Open-Book-Klausur“: erst nachschlagen, dann antworten.
Das fühlt sich im Alltag so an: Du fragst „Welche Reisekosten gelten für externe Workshops?“ und bekommst eine kurze, klare Antwort mit zwei verlinkten Paragraphen aus Eurem Regelwerk. Du musst nicht mehr wühlen, siehst aber sofort die Quelle.
Worauf es ankommt: Nutze wenige, verlässliche Ausgangsquellen statt „alles auf einmal“. Halte Zugriffsrechte ein (jede Person sieht nur, was sie sonst auch sehen darf). Und bestehe auf Zitaten – so bleibt die Antwort überprüfbar.
So startest Du:
- Wähle 2–3 saubere Wissensquellen, die viele Fragen abdecken.
- Sammle 30 echte Fragen aus dem Alltag und teste dagegen.
- Entscheide, wie Antworten aussehen sollen (Länge, Ton, immer mit Quellen).
EmpowerAI stellt Dir einen einfachen RAG-Blueprint und eine Testliste bereit – damit Du schnell merkst, ob es in Deinem Umfeld wirklich hilft.