Soutenez ce projet

Clients CLI IA

9 CLI de développement IA installés et configurés automatiquement pour le vibe coding.

Installation rapide

Installer un CLI spécifique :

curl -fsSL https://cli.mehdiguiraud.net/install | bash -s -- --cli claude

Menu interactif (choisir parmi tous les CLI) :

curl -fsSL https://cli.mehdiguiraud.net/install | bash

Windows (PowerShell) :

irm https://cli.mehdiguiraud.net/install.ps1 | iex

Claude Code

~20 $/mois

Anthropic · @anthropic-ai/claude-code


Le CLI le plus complet pour le vibe coding. Claude Code transforme votre terminal en environnement de développement autonome avec Claude Sonnet 4. Il lit, écrit et édite vos fichiers, exécute des commandes shell, gère Git, et maintient le contexte de votre projet via CLAUDE.md. Son écosystème est le plus riche : agents spécialisés, skills personnalisés, hooks d'automatisation, intégrations MCP, et plugins communautaires.

La commande /loop est une fonctionnalité native qui lance des boucles autonomes en arrière-plan. Vous décrivez la tâche en langage naturel avec un intervalle, et Claude planifie un cron automatiquement. Exemples : /loop 2m run npm run build and tell me if it passed, surveiller un déploiement, détecter les échecs de build d'une PR et les corriger automatiquement, ou obtenir un résumé quotidien via MCP Slack.

/loop Agents Skills MCP Hooks Plugins CLAUDE.md MEMORY.md Prompt Caching BYOK

Tarif : Pro ~20 $/mois (5x usage), Max ~100 $/mois (20x), ou API BYOK (pay-as-you-go). Tier gratuit très limité.

Extensions : npx claude-code-templates pour installer des agents communautaires. Plugin marketplace (claude plugin install). Commandes slash personnalisées. Intégrations MCP (Slack, Jira, Notion, Sentry, GitHub...).

macOS / Linux :

npm install -g @anthropic-ai/claude-code

Windows :

npm install -g @anthropic-ai/claude-code

Factory Droid

Freemium ~20 $/mois

Factory · droid


Agent IA enterprise de Factory pour l'ingénierie logicielle complète. Droid supporte le cycle complet : planning, coding, debugging, testing et code review. Il propose un mode Spec (spécification avant implémentation), des Missions autonomes multi-étapes, et des custom droids (sous-agents spécialisés). Intégrations MCP natives et support BYOK pour utiliser vos propres clés API.

Custom Droids Missions Spec Mode Code Review MCP Skills Hooks BYOK AGENTS.md

Tarif : Gratuit (BYOK), Pro 20 $/mois (10M tokens partagés), Team sur devis. Modèle Claude Sonnet 4 par défaut.

Extensions : Custom droids dans .factory/droids/. Commandes slash personnalisées. Plugins communautaires. Intégrations Jira, Notion, Slack, Sentry, PagerDuty, GitHub, GitLab.

macOS :

brew install --cask droid

Linux :

curl -fsSL https://app.factory.ai/cli | sh

Windows :

iwr https://app.factory.ai/cli/windows -UseBasicParsing | iex

GitHub Copilot CLI

Free / Pro 10 $/mois / Pro+ 39 $/mois

GitHub · @github/copilot


CLI officiel de GitHub, disponible depuis février 2026 pour tous les abonnés Copilot. Transforme le terminal en environnement de coding autonome avec agent mode, Plan Mode (planification avant implémentation), code review, et accès multi-modèles (Claude Sonnet 4.6, GPT-5.4, Gemini 3.1 Pro, et plus). Intégration native avec l'écosystème GitHub (issues, PRs, Actions). Supporte MCP et les instructions personnalisées via .github/copilot-instructions.md.

Agent Mode Plan Mode Code Review Multi-Modèles MCP GitHub Issues/PRs Coding Agent Custom Instructions Prompt Files

Tarif : Free (50 messages/mois), Pro 10 $/mois (300 premium req/mois), Pro+ 39 $/mois (1500 premium req/mois), Business 19 $/siège/mois, Enterprise 39 $/siège/mois.

Extensions : Instructions projet dans .github/copilot-instructions.md. Prompt files. MCP servers. Intégration VS Code, JetBrains, Xcode, Vim/Neovim. GitHub Spark (preview). Third-party agents.

macOS :

brew install copilot-cli

Linux :

curl -fsSL https://gh.io/copilot-install | bash

Windows :

winget install GitHub.Copilot

npm (tous) :

npm install -g @github/copilot

Gemini CLI

Gratuit

Google · @google/gemini-cli


CLI Google pour le coding assisté par Gemini 2.5 Pro. Gratuit avec un compte Google (60 req/min, 1000 req/jour). Son point fort est sa fenêtre de contexte massive allant jusqu'à 1M tokens, idéale pour analyser de gros codebases d'un coup. Supporte les fichiers de contexte et l'indexation de projet.

1M tokens contexte Gratuit Fichiers contexte Google Login

Tarif : Gratuit avec compte Google. Limites : 60 req/min, 1000 req/jour.

Extensions : Fichier .gemini/settings.json pour la configuration projet. Compatible avec les modèles Gemini Pro et Ultra via API.

Toutes plateformes :

npm install -g @google/gemini-cli

OpenAI Codex

~20 $/mois

OpenAI · @openai/codex


CLI officiel d'OpenAI pour le développement assisté par GPT-4o et les modèles o-series. Accès aux derniers modèles de raisonnement OpenAI. Tier gratuit limité disponible, puis abonnement ChatGPT Plus ou Pro requis. Supporte l'exécution sandbox et la revue de code.

GPT-4o o-series Sandbox Code Review

Tarif : Tier gratuit limité. Plus ~20 $/mois, Pro ~200 $/mois pour usage intensif.

Extensions : Configuration via .openai/config.json. Compatible avec l'écosystème OpenAI (Assistants API, function calling).

Toutes plateformes :

npm install -g @openai/codex

Qwen Code

Gratuit

Alibaba · @qwen-code/qwen-code


CLI open source d'Alibaba Cloud basé sur le modèle Qwen Coder. Contexte de 128K tokens, fonctionne en local via Ollama ou en API cloud. Idéal pour le développement sans coût API. Supporte la configuration projet et le contexte multi-fichiers.

Open Source 128K contexte Local / Cloud Ollama

Tarif : Entièrement gratuit et open source.

Extensions : Configuration via .qwen/config.json. Compatible Ollama pour l'exécution locale.

Toutes plateformes :

npm install -g @qwen-code/qwen-code

Aider Chat

Gratuit (BYOK)

Open Source · aider-chat


Le meilleur outil open source de pair-programming IA en terminal. Aider édite plusieurs fichiers simultanément, gère les commits Git automatiquement, et supporte plus de 20 modèles (OpenAI, Anthropic, Ollama, etc.). Son mode BYOK signifie que vous apportez vos propres clés API — le logiciel lui-même est gratuit. Idéal pour le refactoring multi-fichiers.

Open Source 20+ modèles Multi-fichiers Git intégré Auto-commit BYOK

Tarif : Gratuit. Vous payez uniquement les API des modèles que vous utilisez (OpenAI, Anthropic, etc.) ou 0 $ avec Ollama local.

Extensions : Configuration via .aider.conf.yml. Compatible avec tout modèle compatible OpenAI API. Plugins de linting et de test intégrés.

macOS / Linux :

python3 -m pip install aider-chat

Windows :

pip install aider-chat

Cursor IDE

Freemium ~20 $/mois

Anysphere · cursor


IDE complet basé sur VS Code avec IA intégrée nativement. Cursor offre l'autocomplétion IA, un chat contextuel, l'édition multi-fichiers et la génération de code à partir de descriptions. Son tier gratuit inclut 2000 complétions/mois. Le mode Agent et le mode Composer permettent des refactorings complexes.

IDE complet VS Code base Autocomplétion Agent Mode Composer .cursorrules

Tarif : Hobby gratuit (limité), Pro ~20 $/mois, Business ~40 $/mois.

Extensions : Toutes les extensions VS Code. Configuration via .cursor/rules.md et .cursorrules. Compatible avec tous les modèles IA (Claude, GPT, Gemini).

macOS :

brew install --cask cursor

Windows / Linux :

# Télécharger depuis https://cursor.com/download

OpenCode AI

Gratuit

Open Source · opencode-ai


CLI open source qui utilise Ollama comme backend pour le développement assisté par IA. Aucun coût API : tout fonctionne en local avec les modèles Qwen, Llama, Mistral. Idéal pour le développement hors-ligne, les données sensibles et les environnements air-gapped. Interface TUI moderne.

Open Source 100% local Ollama backend TUI Hors-ligne

Tarif : Entièrement gratuit. Nécessite Ollama installé.

Extensions : Configuration via .opencode/config.json. Compatible avec tout modèle Ollama.

macOS :

brew install opencode

Linux / Windows :

npm install -g opencode-ai

Ollama

Gratuit

Open Source · ollama


Moteur d'inférence local pour les grands modèles de langage. Ollama permet d'exécuter Llama 3, Qwen 2.5, Mistral, Gemma, DeepSeek et des dizaines d'autres modèles directement sur votre machine. C'est le backend utilisé par OpenCode AI et Aider en mode local. Personnalisation via Modelfile et support des GPU Apple Silicon (MPS) et NVIDIA (CUDA).

Open Source Inférence locale Apple Silicon CUDA Modelfile REST API

Tarif : Entièrement gratuit et open source.

Extensions : Personnalisation des modèles via Modelfile. API REST compatible OpenAI. Bibliothèque de modèles sur ollama.com/library.

macOS :

brew install ollama

Linux :

curl -fsSL https://ollama.com/install.sh | sh

Windows :

# Télécharger depuis https://ollama.com/download