Claude Code & OpenCode – Comment brancher des modèles moins chers que ceux d’Anthropic

Utiliser l’interface native d’Anthropic revient vite cher : 20 $/mois (limites strictes) ou 200 $/mois (offre Team) pour ne pas être bridé. En bifurquant vers OpenRouter, vous payez à l’usage sur des modèles « open-weight » (Llama 3.1, Qwen 2.5) à des tarifs proches du coût de l’électricité.

1. L’option classique : Claude Code

L’installation standard (Mac)

Pour installer l’outil officiel d’Anthropic sur macOS via Homebrew :

brew install anthropic/claude-code/claude-code

Bien sûr : cette méthode nécessite soit un compte Pro/Team sur Claude, soit (comme j’ai préféré) un compte avec une API et des tokens.

Note : Par défaut, l’outil vous demandera une clé API Anthropic… avec les tarifs d’Anthropics, qui sont loin d’être les plus faibles

2. Le petit bypass : OpenRouter & Inceptron

OpenRouter vous permets de profiter d’autres modèles via des providers. OpenRouter centralise l’accès aux modèles, et grâce à la concurrence entre providers (par exemple moi j’utilise Google Vertex, Groq, Inceptron), les prix sont tirés vers le bas.

Donc évidemment il faudra vous créer un compte et le créditer pour pouvoir utiliser des tokens :

On peut choisir le modèle qu’on veut, mettons Minimax 2.7 :

Vitesse : Bien regarder la latence et le throughput pour le modèle choisi (plus le modèle est récent et lourd, plus le throughput est faible).

Sécurité : Certains providers comme DeepInfra (US), Groq (US) ou Inceptron (Européen) proposent une politique « Zero Data Retention », cruciale quand on manipule du code source.

Le tableau de bord OpenRouter vous confirmera en temps réel que les requêtes sont bien débitées via le provider choisi.

2.2 Le plus simple à mes yeux : OpenCode

OpenCode est un client CLI communautaire nativement compatible avec les endpoints tiers. Pour l’installer :

npm install -g @opencode/cli
ou
brew install opencode

Configuration d’OpenCode pour OpenRouter

Plutôt qu’un middleware d’interception, OpenCode se configure directement via les variables d’environnement.

D’abord creer son fichier de conf spécifiant vers quelle modèle aller :

mkdir -p ~/.config/opencode

vim ~/.config/opencode/opencode.json

Puis y coller ceci :

{
  "$schema": "https://opencode.ai/config.json",
  "model": "openrouter/minimax/minimax-m2.5",
  "provider": {
    "openrouter": {
      "options": {
        "headers": {
          "HTTP-Referer": "https://opencode.ai",
          "X-Title": "OpenCode CLI"
        },
        "provider": {
          "order": ["Inceptron"],
          "allow_fallbacks": false
        }
      }
    }
  }
}

Puis dans votre fichier de variables d’environements (bashrc, .zprofile etc), ajouter :

export OPENROUTER_API_KEY="votre_clé_ici"

Et ensuite c’est assez simple :

cd /chemin/de/ton/projet
opencode

2.2 Alternative (compliquée) : Le bypass via Claude-Code-Router

Le projet claude-code-router (subventionné par DeepSeek, le concurrent de toujours d’Anthropic) permet d’intercepter les requêtes.

Le fichier de configuration (YAML)

Voici comment router vos appels Claude Code vers Inceptron via OpenRouter :

# config.yaml
target_provider: openrouter
openrouter:
  api_key: "VOTRE_CLE_OPENROUTER"
  model: "minimax/minimax-m2.5" # Ou z-ai/glm-4.7-flash
  preferred_provider: "inceptron" # Force le passage par Inceptron pour la vitesse/confidentialité

Lancement de Claude Code (en mode « routé ») :

ccr code

Le tableau de bord OpenRouter vous confirmera en temps réel que les requêtes sont bien débitées via le provider choisi.

En résumé, Claude Code + CCR est idéal pour garder l’expérience utilisateur d’Anthropic, tandis qu’OpenCode est une solution plus légère et nativement ouverte aux modèles open-weight.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.