Le Model Context Protocol a transforme la facon dont les developpeurs interagissent avec leurs outils via l'IA. Mais le protocole seul ne suffit pas : c'est son ecosysteme de serveurs qui lui donne toute sa puissance. En avril 2026, plus de 3 000 serveurs MCP sont disponibles sur le registre officiel et les depots communautaires. Parmi eux, une vingtaine se sont imposes comme des incontournables.
Si vous decouvrez MCP, notre [guide complet du protocole](/mcp-model-context-protocol-guide/) vous donnera les bases. Cet article se concentre sur les serveurs que vous devriez installer des maintenant, avec leur configuration exacte et des cas d'usage concrets.
MCP en 30 secondes
Le [Model Context Protocol](/mcp-model-context-protocol-guide/) permet a un LLM de communiquer avec des services externes via un protocole standardise. Chaque serveur MCP expose des tools (actions executables), des resources (donnees lisibles) et des prompts (templates de conversation).
Un serveur MCP se declare dans la configuration de votre client (Claude Code, Cline, Cursor). Le client detecte automatiquement les outils disponibles et les propose au LLM. Aucun copier-coller, aucun middleware custom : le protocole gere tout.
Developpement et gestion de projet
1. GitHub
Le serveur le plus utilise de l'ecosysteme. Il donne a l'IA un acces complet a vos repositories, issues, pull requests et GitHub Actions.
{
"mcpServers": {
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": {
"GITHUB_PERSONAL_ACCESS_TOKEN": "<votre-token>"
}
}
}
}
Cas d'usage : demander a Claude de creer une issue a partir d'un bug detecte dans le code, puis de soumettre une PR avec le correctif. Le serveur gere la creation de branche, le commit et l'ouverture de la PR.
2. GitLab
L'equivalent pour les equipes sur GitLab. Supporte les projets, merge requests, pipelines CI/CD et le registre de conteneurs.
{
"mcpServers": {
"gitlab": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-gitlab"],
"env": {
"GITLAB_TOKEN": "<votre-token>",
"GITLAB_URL": "https://gitlab.com"
}
}
}
}
Cas d'usage : analyser les merge requests ouvertes, identifier les conflits potentiels et suggerer des resolutions.
3. Linear
Gestion de projet optimisee pour les equipes produit. Acces aux issues, cycles, projets et roadmaps.
{
"mcpServers": {
"linear": {
"command": "npx",
"args": ["-y", "mcp-linear"],
"env": {
"LINEAR_API_KEY": "<votre-cle>"
}
}
}
}
Cas d'usage : creer automatiquement des tickets Linear a partir de TODO dans le code, avec priorite et assignation basees sur le contexte.
4. Jira
Pour les organisations sur Atlassian. Lecture et creation de tickets, gestion des sprints et des epics.
{
"mcpServers": {
"jira": {
"command": "npx",
"args": ["-y", "mcp-server-jira"],
"env": {
"JIRA_URL": "https://votre-instance.atlassian.net",
"JIRA_EMAIL": "<votre-email>",
"JIRA_API_TOKEN": "<votre-token>"
}
}
}
}
Cas d'usage : synchroniser l'avancement du code avec les tickets Jira. Le LLM met a jour le statut et ajoute des commentaires techniques automatiquement.
Bases de donnees
5. PostgreSQL
Connexion directe a vos bases PostgreSQL. Le LLM peut lire les schemas, executer des requetes SELECT et analyser les donnees.
{
"mcpServers": {
"postgres": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-postgres",
"postgresql://user:password@localhost:5432/mydb"]
}
}
}
Cas d'usage : demander une analyse de performance sur vos tables. Le LLM inspecte les index manquants, identifie les requetes lentes et propose des optimisations.
6. SQLite
Ideal pour le developpement local et les bases embarquees. Lecture du schema, requetes et analyse de donnees.
{
"mcpServers": {
"sqlite": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-sqlite",
"/chemin/vers/base.db"]
}
}
}
Cas d'usage : explorer une base SQLite inconnue, comprendre sa structure et generer les types TypeScript correspondants.
7. Redis
Acces a vos instances Redis pour lire les cles, inspecter les structures de donnees et analyser les patterns de cache.
{
"mcpServers": {
"redis": {
"command": "npx",
"args": ["-y", "mcp-server-redis"],
"env": {
"REDIS_URL": "redis://localhost:6379"
}
}
}
}
Cas d'usage : debugger un probleme de cache en demandant au LLM d'inspecter les TTL, les tailles de cles et les patterns d'utilisation.
Cloud et DevOps
8. AWS
Acces aux services AWS : S3, Lambda, EC2, CloudWatch, IAM. Le serveur le plus complet pour le cloud.
{
"mcpServers": {
"aws": {
"command": "npx",
"args": ["-y", "mcp-server-aws"],
"env": {
"AWS_ACCESS_KEY_ID": "<votre-cle>",
"AWS_SECRET_ACCESS_KEY": "<votre-secret>",
"AWS_REGION": "eu-west-1"
}
}
}
}
Cas d'usage : demander au LLM de diagnostiquer pourquoi une Lambda echoue en analysant les logs CloudWatch, la configuration IAM et les variables d'environnement.
9. Docker
Gestion des conteneurs, images, volumes et reseaux Docker directement depuis le LLM.
{
"mcpServers": {
"docker": {
"command": "npx",
"args": ["-y", "mcp-server-docker"]
}
}
}
Cas d'usage : analyser les conteneurs en cours d'execution, identifier ceux qui consomment trop de ressources et proposer des optimisations du Dockerfile.
10. Kubernetes
Acces au cluster Kubernetes : pods, deployments, services, logs et events.
{
"mcpServers": {
"kubernetes": {
"command": "npx",
"args": ["-y", "mcp-server-kubernetes"],
"env": {
"KUBECONFIG": "/chemin/vers/.kube/config"
}
}
}
}
Cas d'usage : diagnostiquer un pod en CrashLoopBackOff en demandant au LLM d'analyser les logs, les events et la configuration du deployment.
Documentation et connaissances
11. Notion
Lecture et ecriture dans vos espaces Notion. Pages, bases de donnees, blocs.
{
"mcpServers": {
"notion": {
"command": "npx",
"args": ["-y", "mcp-server-notion"],
"env": {
"NOTION_API_KEY": "<votre-cle>"
}
}
}
}
Cas d'usage : generer automatiquement la documentation technique d'un module dans Notion a partir du code source analyse par le LLM.
12. Confluence
Pour les organisations sur Atlassian. Recherche et lecture des pages de documentation existantes.
{
"mcpServers": {
"confluence": {
"command": "npx",
"args": ["-y", "mcp-server-confluence"],
"env": {
"CONFLUENCE_URL": "https://votre-instance.atlassian.net/wiki",
"CONFLUENCE_EMAIL": "<votre-email>",
"CONFLUENCE_API_TOKEN": "<votre-token>"
}
}
}
}
Cas d'usage : avant de coder une feature, demander au LLM de rechercher les specifications et decisions architecturales dans Confluence.
13. Context7
Serveur specialise qui fournit de la documentation a jour pour les librairies et frameworks. Resout le probleme des connaissances obsoletes du LLM.
{
"mcpServers": {
"context7": {
"command": "npx",
"args": ["-y", "context7-mcp"]
}
}
}
Cas d'usage : quand le LLM genere du code avec une API deprecated, Context7 lui fournit la documentation actuelle pour qu'il corrige automatiquement.
Communication
14. Slack
Lecture et envoi de messages, gestion des channels, recherche dans l'historique.
{
"mcpServers": {
"slack": {
"command": "npx",
"args": ["-y", "mcp-server-slack"],
"env": {
"SLACK_BOT_TOKEN": "xoxb-votre-token"
}
}
}
}
Cas d'usage : apres un deploiement, le LLM envoie un resume des changements dans le channel #deployments avec les metriques cles.
15. Discord
Meme principe pour les communautes Discord. Lecture des messages, envoi de notifications.
{
"mcpServers": {
"discord": {
"command": "npx",
"args": ["-y", "mcp-server-discord"],
"env": {
"DISCORD_BOT_TOKEN": "<votre-token>"
}
}
}
}
Cas d'usage : monitorer un channel de support et generer des resumes quotidiens des problemes remontes par la communaute.
Fichiers et recherche
16. Filesystem
Acces au systeme de fichiers local. Lecture, ecriture, recherche de fichiers dans des repertoires autorises.
{
"mcpServers": {
"filesystem": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-filesystem",
"/chemin/vers/projet"]
}
}
}
Cas d'usage : analyser la structure d'un projet inconnu, identifier les patterns architecturaux et generer un rapport de code review.
17. Brave Search
Recherche web via l'API Brave Search. Permet au LLM d'acceder a des informations actualisees.
{
"mcpServers": {
"brave-search": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-brave-search"],
"env": {
"BRAVE_API_KEY": "<votre-cle>"
}
}
}
}
Cas d'usage : rechercher les dernieres vulnerabilites CVE pour les dependances de votre projet et evaluer leur impact.
18. Puppeteer
Controle d'un navigateur headless. Navigation, capture d'ecran, extraction de donnees.
{
"mcpServers": {
"puppeteer": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-puppeteer"]
}
}
}
Cas d'usage : tester visuellement une page web, capturer un screenshot et demander au LLM d'identifier les problemes d'accessibilite ou de responsive.
Observabilite
19. Sentry
Acces aux erreurs, events et metriques de performance Sentry.
{
"mcpServers": {
"sentry": {
"command": "npx",
"args": ["-y", "mcp-server-sentry"],
"env": {
"SENTRY_AUTH_TOKEN": "<votre-token>",
"SENTRY_ORG": "<votre-org>"
}
}
}
}
Cas d'usage : le LLM analyse les erreurs les plus frequentes dans Sentry, identifie la cause racine dans le code et propose un correctif.
20. Datadog
Acces aux metriques, traces et logs Datadog pour le monitoring de production.
{
"mcpServers": {
"datadog": {
"command": "npx",
"args": ["-y", "mcp-server-datadog"],
"env": {
"DD_API_KEY": "<votre-cle>",
"DD_APP_KEY": "<votre-cle-app>"
}
}
}
}
Cas d'usage : detecter une anomalie de latence dans Datadog, tracer le probleme jusqu'au service concerne et analyser le code responsable.
Combiner les serveurs dans un workflow reel
La vraie puissance de MCP apparait quand vous combinez plusieurs serveurs. Voici un workflow concret de correction de bug en production :
Etape 1 : Sentry detecte une nouvelle erreur critique. Le LLM la lit via le serveur Sentry et identifie le stacktrace.
Etape 2 : via le serveur GitHub, il localise le fichier et la ligne responsable dans le repository.
Etape 3 : il interroge PostgreSQL pour comprendre les donnees qui ont provoque l'erreur.
Etape 4 : il cree une branche, corrige le code et ouvre une PR via GitHub.
Etape 5 : il envoie un message Slack dans le channel de l'equipe pour notifier la correction.
La configuration combinee dans votre claude_desktop_config.json ou .mcp.json :
{
"mcpServers": {
"github": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-github"],
"env": { "GITHUB_PERSONAL_ACCESS_TOKEN": "<token>" }
},
"postgres": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-postgres",
"postgresql://user:pass@host:5432/db"]
},
"sentry": {
"command": "npx",
"args": ["-y", "mcp-server-sentry"],
"env": { "SENTRY_AUTH_TOKEN": "<token>", "SENTRY_ORG": "<org>" }
},
"slack": {
"command": "npx",
"args": ["-y", "mcp-server-slack"],
"env": { "SLACK_BOT_TOKEN": "xoxb-token" }
}
}
}
Chaque serveur tourne comme un processus independant. Le client MCP orchestre les appels en fonction du contexte de la conversation.
Creer son propre serveur MCP
Les 20 serveurs presentes couvrent les cas generiques, mais votre organisation a des outils internes que personne d'autre n'utilise : un CRM maison, une API metier, un systeme de ticketing custom.
La solution : creer votre propre serveur MCP. Le SDK officiel en TypeScript rend le processus accessible en quelques heures. Vous definissez les tools, les resources et les prompts que votre serveur expose, puis vous le branchez dans votre configuration client.
Notre [tutoriel complet pour creer un serveur MCP en TypeScript](/creer-serveur-mcp-typescript-tutoriel/) vous guide pas a pas, du setup initial a la publication.
Comment choisir ses serveurs
Installer 20 serveurs d'un coup n'est pas la bonne approche. Chaque serveur lance un processus et consomme des ressources. Procedez par couches :
Couche de base : Filesystem + GitHub (ou GitLab). Suffisant pour 80% du travail de developpement quotidien.
Couche donnees : ajoutez votre base de donnees (PostgreSQL, SQLite ou Redis) quand vous avez besoin d'explorer des donnees.
Couche integration : Slack, Linear ou Jira selon votre stack d'equipe.
Couche avancee : Sentry, Datadog, AWS, Kubernetes pour les workflows DevOps et production.
Testez chaque serveur individuellement avant de les combiner. Verifiez les permissions accordees et limitez les acces en ecriture aux cas ou c'est reellement necessaire.
Ce qu'il faut retenir
L'ecosysteme MCP est passe de quelques serveurs experimentaux a un catalogue de milliers de connecteurs en moins d'un an. Les 20 serveurs presentes dans cet article couvrent les besoins fondamentaux de la majorite des equipes de developpement.
Le [Model Context Protocol](/mcp-model-context-protocol-guide/) a standardise la facon dont l'IA accede aux outils. Les serveurs MCP sont les briques qui rendent cette standardisation concretement utile. Commencez par un ou deux serveurs, mesurez le gain de productivite, puis elargissez progressivement votre configuration.
La prochaine etape logique : quand aucun serveur existant ne correspond a votre besoin, [creez le votre](/creer-serveur-mcp-typescript-tutoriel/).