Ein kostenloser AI-gestützter Kommandozeilen-Assistent mit ähnlichen Funktionen wie GitHub Copilot CLI - aber komplett gratis!
- 🆓 100% Kostenlos - Nutzt kostenlose AI-Modelle (Groq, OpenRouter, Hugging Face)
- 💬 Interaktiver Chat - Stelle Fragen und erhalte sofort Antworten
- 🎨 Schöne CLI-Oberfläche - Mit Farben und übersichtlicher Darstellung
- 🔄 Konversationshistorie - Der Assistent merkt sich den Kontext
- 🚀 Schnell & Einfach - Keine komplizierte Einrichtung
- Node.js v18 oder höher
- npm v8 oder höher
- Visual Studio Code (empfohlen)
# 1. Repository klonen oder herunterladen
cd copilot-cli
# 2. Dependencies installieren
npm install
# 3. API-Key konfigurieren (siehe unten)
cp .env.example .env
# Bearbeite .env und füge deinen kostenlosen API-Key hinzu
# 4. Starten!
npm startEinfachster Weg:
- Öffne das Projekt in VS Code
- Drücke F5
- Fertig! 🎉
Siehe VSCODE.md für detaillierte VS Code Anleitungen.
npm link
copilot-clientDu brauchst mindestens einen kostenlosen API-Key von einem dieser Anbieter:
Warum Groq? Blitzschnelle Antworten, komplett kostenlos, keine Kreditkarte nötig!
- Gehe zu https://console.groq.com
- Erstelle einen kostenlosen Account
- Navigiere zu "API Keys" und generiere einen neuen Key
- Füge ihn in die
.envDatei ein:GROQ_API_KEY=gsk_...
- Gehe zu https://makersuite.google.com/app/apikey
- Melde dich mit deinem Google-Konto an
- Erstelle einen API-Key
- Füge ihn in die
.envDatei ein:GOOGLE_API_KEY=AIza...
- Gehe zu https://openrouter.ai
- Erstelle einen Account
- Generiere einen API-Key (bekomme kostenlose Credits!)
- Füge ihn in die
.envDatei ein:OPENROUTER_API_KEY=sk-or-...
- Gehe zu https://huggingface.co/settings/tokens
- Erstelle einen Access Token (Read-Rechte reichen)
- Füge ihn in die
.envDatei ein:HUGGINGFACE_API_KEY=hf_...
Perfekt für Privatsphäre und Offline-Nutzung!
- Installiere Ollama: https://ollama.ai
- Führe im Terminal aus:
ollama pull llama3.1 ollama serve - Fertig! Kein API-Key nötig, läuft komplett lokal auf deinem PC
npm startoder (wenn global installiert):
copilot-clientnpm start -- --bannerWährend der Client läuft, kannst du folgende Befehle verwenden:
/help- Zeigt alle verfügbaren Befehle/model- Wähle ein anderes AI-Modell/config- Zeige aktuelle Konfiguration/clear- Lösche die Konversationshistorie/feedback- Gib Feedback/exit- Beende den Client
Du: Wie erstelle ich eine Node.js-Anwendung?
Assistent: Ich helfe dir gerne! Hier sind die Schritte...
Du: Kannst du mir ein Beispiel zeigen?
Assistent: Natürlich! Hier ist ein einfaches Beispiel...
Der Client unterstützt 17 verschiedene kostenlose AI-Modelle!
- Llama 3.1 70B - Groß, leistungsstark, schnell (empfohlen!)
- Llama 3.3 70B - Neueste Version mit verbesserten Fähigkeiten
- Mixtral 8x7B - Sehr gut für komplexe Aufgaben
- Gemma 2 9B - Schnell und effizient
- Gemini 1.5 Flash - Blitzschnell, kostenlos
- Gemini 1.5 Pro - Noch leistungsstärker
- GPT-3.5 Turbo - Mit Credits nutzbar
- Claude 3 Haiku - Schnell und präzise
- Mistral 7B - Komplett kostenlos
- Llama 3.1 8B - Kostenlose Version
- Llama 2 7B - Bewährt und zuverlässig
- Mistral 7B - Sehr gute Qualität
- Zephyr 7B - Optimiert für Chats
- Llama 3.1 - Keine Internet-Verbindung nötig
- Mistral - Schnell und privat
- CodeLlama - Spezialisiert auf Code
- Gemma 2 - Neuestes lokales Modell
Wechsle jederzeit zwischen den Modellen mit dem /model Befehl!
copilot-cli/
├── src/ # CLI-Version (Terminal)
│ ├── index.js # Haupteinstiegspunkt
│ ├── interactive.js # Interaktiver Chat-Modus
│ ├── ai-provider.js # AI-Provider-Integration
│ ├── config.js # Konfigurationsverwaltung
│ └── banner.js # ASCII-Banner
├── desktop/ # Desktop-Version (GUI)
│ ├── main.js # Electron Main Process
│ ├── renderer.js # Frontend-Logik
│ ├── index.html # Grafische Oberfläche
│ ├── styles.css # Design
│ └── README.md # Desktop-Dokumentation
├── universal/ # Universal-Version ⭐ NEU!
│ ├── main.js # System-weite Integration
│ ├── overlay.html # Overlay-Interface
│ ├── renderer.js # Overlay-Logik
│ ├── styles.css # Overlay-Design
│ └── README.md # Universal-Dokumentation
├── .vscode/ # VS Code Konfiguration
├── .env.example # Beispiel-Umgebungsvariablen
├── package.json # Projektinformationen (CLI)
└── README.md # Diese Datei
Für Entwickler und Terminal-Fans
npm startSchöne GUI für alle Nutzer
cd desktop
npm install
npm startFunktioniert in JEDER Windows-App!
cd universal
npm install
npm start| Feature | CLI | Desktop | Universal |
|---|---|---|---|
| Interface | Terminal | Fenster | Overlay |
| Hotkeys (global) | ❌ | ❌ | ✅ |
| Funktioniert in allen Apps | ❌ | ❌ | ✅ |
| Auto-Type in Apps | ❌ | ❌ | ✅ |
| Zwischenablage-Auto | ❌ | ❌ | ✅ |
| Screenshot-Analyse | ❌ | ❌ | ✅ |
| System Tray | ❌ | ❌ | ✅ |
| Windows-Autostart | ❌ | ❌ | ✅ |
🎯 Empfehlung: Universal-Version für maximale Power!
Siehe:
Alle Versionen nutzen dieselben 17 kostenlosen AI-Modelle!
Für umfassenden PC-Fernzugriff, Automatisierung und KI-gesteuerte Steuerung steht nun ein komplett neues Projekt bereit:
omni-control/– Control Hub, Remote Agent, Web-Konsole, Automations-Bridges- Vollständiges Docker-Setup (Gateway, Console, n8n, Browserless)
- MCPControl-Anbindung und Intel AMT/KVM Adapter (Preview)
👉 Details und Setup: omni-control/README.md
# Im Watch-Modus entwickeln
npm run dev
# Normal starten
npm start- Groq Llama 3.1 70B ist am schnellsten und wird empfohlen für beste Performance
- Google Gemini Flash hat ein sehr großzügiges kostenloses Limit
- Ollama ist perfekt wenn du offline arbeiten oder maximale Privatsphäre möchtest
- Die Konversationshistorie bleibt während einer Session erhalten
- Nutze
/clearum die Historie zu löschen und neu zu starten - Probiere verschiedene Modelle aus - jedes hat seine Stärken!
- Alle Cloud-API-Keys sind kostenlos erhältlich!
Feedback und Beiträge sind willkommen! Öffne einfach ein Issue oder Pull Request.
MIT License - siehe LICENSE.md
Dies ist ein inoffizielles Projekt und steht in keiner Verbindung mit GitHub's offiziellem Copilot CLI. Es handelt sich um eine kostenlose Alternative für Entwickler.
Viel Spaß beim Coden! 🚀