Dieses Repository enthält das Grundgerüst einer LLM-Chat-Anwendung basierend auf Chainlit. Deine Aufgabe ist es, innerhalb der gegebenen Zeit die coolste Anwendung zu bauen.
Falls du lokal keine Python-Installation hast, kannst du das hier hinterlegte Notebook nutzen.
Bevor du mit der Installation beginnst, stelle bitte sicher, dass du entweder venv oder Conda auf deinem System installiert hast.
Folge diesen Schritten, um ein virtuelles Environment mit venv zu erstellen und zu aktivieren:
# Navigiere in das Repository
cd ./llm-example
# Erstelle ein virtuelles Environment
python3 -m venv env
# Aktiviere das virtuelle Environment
# Für Windows
env\Scripts\activate
# Für Unix oder MacOS
source env/bin/activateDanach installiere die Abhängigkeiten aus der requirements.txt Datei:
pip install -r requirements.txtFolge diesen Schritten, um ein virtuelles Environment mit Conda zu erstellen und zu aktivieren:
# Navigiere in das Repository
cd ./llm-example
# Erstelle ein Conda Environment
conda create --name env
# Aktiviere das Environment
conda activate envDanach installiere die Abhängigkeiten aus der requirements.txt Datei:
pip install -r requirements.txtIn .env, hinterlege den API Schlüssel, den du von uns erhalten hast. Du möchtest nach dem Workshop weiterbauen?
Du kannst dir mit sehr wenig Aufwand bei OpenAI deinen eigenen Schlüssel holen.
Nach der Installation der Abhängigkeiten kannst du die Anwendung mit folgendem Befehl starten:
chainlit run app.py -wJetzt kannst du loslegen indem du verschiedene Langchain Komponenten in deine Anwendung integrierst - schau dir app.py an!
In utils.py haben wir einige nützliche Methoden hinterlegt.
Du suchst Inspiration? Schau in der Chainlit Dokumentation oder der LangChain Übersicht an beliebten Chains vorbei. Ebenfalls nützlich: Das Chainlit Cookbook. Spannende Beispiele mit offenen APIs findest du z.B. in der Übersicht der Langchain API Chains.
Du fühlst dich eingeschränkt? Mit Streamlit kannst du mit ein wenig mehr Komplexität noch kreativer werden!