IA
3 min de lecture

OpenCode : un assistant de code en CLI

Configurer OpenCode avec l'API Mistral ou Ollama en local. Installation, configuration, et troubleshooting.

Arthur Zinck
Arthur Zinck
Expert DevOps Kubernetes & Cloud

OpenCode, c’est un assistant de code en ligne de commande. Open source, léger, et compatible avec plusieurs providers : Mistral, OpenAI, Anthropic, ou un modèle local via Ollama.

L’avantage par rapport à des outils comme Cursor ou Copilot : on garde le contrôle. Pas d’IDE propriétaire. Pas d’abonnement obligatoire. On choisit son modèle et son provider.

Installation

# Via le script officiel
curl -fsSL https://opencode.ai/install | bash

# Ou via npm
npm install -g opencode-ai

Configuration avec l’API Mistral

La méthode la plus simple. Devstral 2 (123B paramètres) est gratuit via l’API jusqu’à fin décembre 2025.

export MISTRAL_API_KEY="votre-clé"
opencode --provider mistral --model devstral-2-25-12

La clé API se génère sur console.mistral.ai. La liste des modèles disponibles est sur la documentation Mistral.

Configuration avec Ollama (local)

Pour ceux qui ont le hardware pour faire tourner un LLM en local (voir Devstral Small 2 en local : le hardware qu’il faut vraiment), OpenCode peut se connecter à Ollama.

OpenCode ne connaît pas Ollama nativement. Il faut créer un fichier opencode.json à la racine du projet (ou dans ~/.config/opencode/opencode.json pour une config globale).

Exemple avec Qwen 2.5 Coder 14B

Le meilleur compromis performance/hardware. Tourne sur une RTX 4070 (12 Go VRAM) ou un Mac avec 16 Go de RAM.

ollama pull qwen2.5-coder:14b-instruct-q4_K_M
{
  "$schema": "https://opencode.ai/config.json",
  "model": "ollama/qwen2.5-coder:14b-instruct-q4_K_M",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "qwen2.5-coder:14b-instruct-q4_K_M": {
          "name": "Qwen 2.5 Coder 14B",
          "contextWindow": 32768
        }
      }
    }
  }
}

Exemple avec Devstral Small 2

Plus puissant mais plus gourmand. Nécessite une RTX 4090 (24 Go VRAM) ou un Mac avec 32 Go de RAM.

ollama pull devstral:24b-small-2505-q4_K_M

Par défaut, Devstral utilise 128k tokens de contexte — trop pour la plupart des configs. Créer un Modelfile pour réduire :

FROM devstral:24b-small-2505-q4_K_M
PARAMETER num_ctx 32768

Puis ollama create devstral-32k -f Modelfile.

{
  "$schema": "https://opencode.ai/config.json",
  "model": "ollama/devstral-32k",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama (local)",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "devstral-32k": {
          "name": "Devstral (24B) - 32k ctx",
          "contextWindow": 32768
        }
      }
    }
  }
}

Lancer OpenCode

opencode

Sur Mac (brew) et Linux (script d’install), Ollama tourne en service automatiquement. Pas besoin de ollama serve.

Une fois lancé, /models permet de sélectionner le modèle configuré.

OpenCode, c’est un bon complément pour ceux qui veulent un assistant de code en CLI. Que ce soit avec une API cloud ou un modèle local.

Points clés à retenir

  • OpenCode : assistant de code open source en CLI
  • Compatible Mistral, OpenAI, Anthropic, Ollama
  • API Mistral gratuite jusqu'à fin décembre 2025
  • Config Ollama via opencode.json
ia llm opencode mistral ollama cli coding-assistant

Partager cet article

Twitter LinkedIn