- 🎯 Architecture Multi-Fournisseurs : Intégration intelligente avec fallback automatique (Ollama → Mistral → OpenAI) pour garantir disponibilité et performance
- 🏗️ Architecture en Couches : Domain-Driven Design avec séparation Domain/Application/Infrastructure/Presentation
- 🤖 IA Conversationnelle : Interface CLI en langage naturel avec sélection automatique d'outils et support multilingue
- 🔌 Protocole MCP : Extension des capacités AI via Model Context Protocol (Linear, GitHub, outils personnalisés)
- 🧠 Chain of Thought : Réflexion structurée pour résolution de problèmes complexes
- 📊 Télémétrie & Optimisation : Système de monitoring de consommation de tokens et optimisation des performances
- ⚙️ Configuration Multi-Niveaux : Gestion intelligente des paramètres (utilisateur/projet) avec priorisation et repli automatique
Creating...
Architecte logiciel & AI Local → Rust • TypeScript • Next.js • Electron
-
StriveX
- France
-
07:32
(UTC +01:00) - https://strivex.fr
- in/arthur-jean-strivex
- _arthurj_
Highlights
Pinned Loading
-
distill
distill PublicOptimize your LLM token usage with intelligent context engineering.
TypeScript
-
LLMLangstral
LLMLangstral PublicForked from microsoft/LLMLingua
Reduce your API costs by up to 20x by intelligently compressing your prompts.
Python
-
velollm
velollm PublicAutopilot for Local LLM Inference - Zero-config performance optimization for Ollama, llama.cpp, and more.
Rust
-
gortex-cli
gortex-cli PublicInteractive CLI with tabbed interface and AI integration: complete Git workflow with intelligent conventional commit generation
TypeScript
Something went wrong, please refresh the page to try again.
If the problem persists, check the GitHub status page or contact support.
If the problem persists, check the GitHub status page or contact support.