OpenCode, c’est un assistant de code en ligne de commande. Open source, léger, et compatible avec plusieurs providers : Mistral, OpenAI, Anthropic, ou un modèle local via Ollama.
L’avantage par rapport à des outils comme Cursor ou Copilot : on garde le contrôle. Pas d’IDE propriétaire. Pas d’abonnement obligatoire. On choisit son modèle et son provider.
Installation
# Via le script officiel
curl -fsSL https://opencode.ai/install | bash
# Ou via npm
npm install -g opencode-ai
Configuration avec l’API Mistral
La méthode la plus simple. Devstral 2 (123B paramètres) est gratuit via l’API jusqu’à fin décembre 2025.
export MISTRAL_API_KEY="votre-clé"
opencode --provider mistral --model devstral-2-25-12
La clé API se génère sur console.mistral.ai. La liste des modèles disponibles est sur la documentation Mistral.
Configuration avec Ollama (local)
Pour ceux qui ont le hardware pour faire tourner un LLM en local (voir Devstral Small 2 en local : le hardware qu’il faut vraiment), OpenCode peut se connecter à Ollama.
OpenCode ne connaît pas Ollama nativement. Il faut créer un fichier opencode.json à la racine du projet (ou dans ~/.config/opencode/opencode.json pour une config globale).
Exemple avec Qwen 2.5 Coder 14B
Le meilleur compromis performance/hardware. Tourne sur une RTX 4070 (12 Go VRAM) ou un Mac avec 16 Go de RAM.
ollama pull qwen2.5-coder:14b-instruct-q4_K_M
{
"$schema": "https://opencode.ai/config.json",
"model": "ollama/qwen2.5-coder:14b-instruct-q4_K_M",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"qwen2.5-coder:14b-instruct-q4_K_M": {
"name": "Qwen 2.5 Coder 14B",
"contextWindow": 32768
}
}
}
}
}
Exemple avec Devstral Small 2
Plus puissant mais plus gourmand. Nécessite une RTX 4090 (24 Go VRAM) ou un Mac avec 32 Go de RAM.
ollama pull devstral:24b-small-2505-q4_K_M
Par défaut, Devstral utilise 128k tokens de contexte — trop pour la plupart des configs. Créer un Modelfile pour réduire :
FROM devstral:24b-small-2505-q4_K_M
PARAMETER num_ctx 32768
Puis ollama create devstral-32k -f Modelfile.
{
"$schema": "https://opencode.ai/config.json",
"model": "ollama/devstral-32k",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama (local)",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"devstral-32k": {
"name": "Devstral (24B) - 32k ctx",
"contextWindow": 32768
}
}
}
}
}
Lancer OpenCode
opencode
Sur Mac (brew) et Linux (script d’install), Ollama tourne en service automatiquement. Pas besoin de ollama serve.
Une fois lancé, /models permet de sélectionner le modèle configuré.
OpenCode, c’est un bon complément pour ceux qui veulent un assistant de code en CLI. Que ce soit avec une API cloud ou un modèle local.
Points clés à retenir
- ✓ OpenCode : assistant de code open source en CLI
- ✓ Compatible Mistral, OpenAI, Anthropic, Ollama
- ✓ API Mistral gratuite jusqu'à fin décembre 2025
- ✓ Config Ollama via opencode.json