Was ist das?
LangChain ist eine Bibliothek zum Erstellen von Ketten um LLMs: Retrieval, Werkzeuge, Pipelines.
Wo wir es verwenden
- RAG: Antworten aus einer Wissensdatenbank mit Quellenangaben
- Assistenten, die Werkzeuge und APIs aufrufen
- Schnelle Prototypen von KI-Funktionen mit der Möglichkeit, sie bis zur Produktionsreife zu bringen
Warum wir es verwenden
- Schnelles Erstellen einer Retrieval → Answer-Pipeline
- Bequeme Standardisierung von Prompts und Schritten
- Unterstützung verschiedener Anbieter/Modelle
Wie wir es in Projekten einsetzen
- Quellen/Zitate als zwingende Anforderung
- Protokollierung von Anfragen und Qualitätsbewertung
- Caching und Kostenkontrolle
Wann man etwas anderes wählen sollte
Wenn eine einfache Generierung ohne Pipelines benötigt wird, kann man auf einen Orchestrator verzichten.
Was Sie bekommen
Wirklich nützliche, beobachtbare und steuerbare KI-Funktionen.