MCP

Ecosysteme MCP : les 20 serveurs indispensables

Le Model Context Protocol a transforme la facon dont les developpeurs interagissent avec leurs outils via l'IA. Mais le protocole seul ne suffit pas : c'est son ecosysteme de serveurs qui lui donne toute sa puissance. En avril 2026, plus de 3 000 serveurs MCP sont disponibles sur le registre officiel et les depots communautaires. Parmi eux, une vingtaine se sont imposes comme des incontournables. Si vous decouvrez MCP, notre [guide complet du protocole](/mcp-model-context-protocol-guide/) vou

Jean-Michel Helem

Jean-Michel Helem

7 avril 2026 · 7 min de lecture

Ecosysteme MCP : les 20 serveurs indispensables

Le Model Context Protocol a transforme la facon dont les developpeurs interagissent avec leurs outils via l'IA. Mais le protocole seul ne suffit pas : c'est son ecosysteme de serveurs qui lui donne toute sa puissance. En avril 2026, plus de 3 000 serveurs MCP sont disponibles sur le registre officiel et les depots communautaires. Parmi eux, une vingtaine se sont imposes comme des incontournables.

Si vous decouvrez MCP, notre [guide complet du protocole](/mcp-model-context-protocol-guide/) vous donnera les bases. Cet article se concentre sur les serveurs que vous devriez installer des maintenant, avec leur configuration exacte et des cas d'usage concrets.

MCP en 30 secondes

Le [Model Context Protocol](/mcp-model-context-protocol-guide/) permet a un LLM de communiquer avec des services externes via un protocole standardise. Chaque serveur MCP expose des tools (actions executables), des resources (donnees lisibles) et des prompts (templates de conversation).

Un serveur MCP se declare dans la configuration de votre client (Claude Code, Cline, Cursor). Le client detecte automatiquement les outils disponibles et les propose au LLM. Aucun copier-coller, aucun middleware custom : le protocole gere tout.

Developpement et gestion de projet

1. GitHub

Le serveur le plus utilise de l'ecosysteme. Il donne a l'IA un acces complet a vos repositories, issues, pull requests et GitHub Actions.

{
  "mcpServers": {
    "github": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-github"],
      "env": {
        "GITHUB_PERSONAL_ACCESS_TOKEN": "<votre-token>"
      }
    }
  }
}

Cas d'usage : demander a Claude de creer une issue a partir d'un bug detecte dans le code, puis de soumettre une PR avec le correctif. Le serveur gere la creation de branche, le commit et l'ouverture de la PR.

2. GitLab

L'equivalent pour les equipes sur GitLab. Supporte les projets, merge requests, pipelines CI/CD et le registre de conteneurs.

{
  "mcpServers": {
    "gitlab": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-gitlab"],
      "env": {
        "GITLAB_TOKEN": "<votre-token>",
        "GITLAB_URL": "https://gitlab.com"
      }
    }
  }
}

Cas d'usage : analyser les merge requests ouvertes, identifier les conflits potentiels et suggerer des resolutions.

3. Linear

Gestion de projet optimisee pour les equipes produit. Acces aux issues, cycles, projets et roadmaps.

{
  "mcpServers": {
    "linear": {
      "command": "npx",
      "args": ["-y", "mcp-linear"],
      "env": {
        "LINEAR_API_KEY": "<votre-cle>"
      }
    }
  }
}

Cas d'usage : creer automatiquement des tickets Linear a partir de TODO dans le code, avec priorite et assignation basees sur le contexte.

4. Jira

Pour les organisations sur Atlassian. Lecture et creation de tickets, gestion des sprints et des epics.

{
  "mcpServers": {
    "jira": {
      "command": "npx",
      "args": ["-y", "mcp-server-jira"],
      "env": {
        "JIRA_URL": "https://votre-instance.atlassian.net",
        "JIRA_EMAIL": "<votre-email>",
        "JIRA_API_TOKEN": "<votre-token>"
      }
    }
  }
}

Cas d'usage : synchroniser l'avancement du code avec les tickets Jira. Le LLM met a jour le statut et ajoute des commentaires techniques automatiquement.

Bases de donnees

5. PostgreSQL

Connexion directe a vos bases PostgreSQL. Le LLM peut lire les schemas, executer des requetes SELECT et analyser les donnees.

{
  "mcpServers": {
    "postgres": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-postgres",
               "postgresql://user:password@localhost:5432/mydb"]
    }
  }
}

Cas d'usage : demander une analyse de performance sur vos tables. Le LLM inspecte les index manquants, identifie les requetes lentes et propose des optimisations.

6. SQLite

Ideal pour le developpement local et les bases embarquees. Lecture du schema, requetes et analyse de donnees.

{
  "mcpServers": {
    "sqlite": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-sqlite",
               "/chemin/vers/base.db"]
    }
  }
}

Cas d'usage : explorer une base SQLite inconnue, comprendre sa structure et generer les types TypeScript correspondants.

7. Redis

Acces a vos instances Redis pour lire les cles, inspecter les structures de donnees et analyser les patterns de cache.

{
  "mcpServers": {
    "redis": {
      "command": "npx",
      "args": ["-y", "mcp-server-redis"],
      "env": {
        "REDIS_URL": "redis://localhost:6379"
      }
    }
  }
}

Cas d'usage : debugger un probleme de cache en demandant au LLM d'inspecter les TTL, les tailles de cles et les patterns d'utilisation.

Cloud et DevOps

8. AWS

Acces aux services AWS : S3, Lambda, EC2, CloudWatch, IAM. Le serveur le plus complet pour le cloud.

{
  "mcpServers": {
    "aws": {
      "command": "npx",
      "args": ["-y", "mcp-server-aws"],
      "env": {
        "AWS_ACCESS_KEY_ID": "<votre-cle>",
        "AWS_SECRET_ACCESS_KEY": "<votre-secret>",
        "AWS_REGION": "eu-west-1"
      }
    }
  }
}

Cas d'usage : demander au LLM de diagnostiquer pourquoi une Lambda echoue en analysant les logs CloudWatch, la configuration IAM et les variables d'environnement.

9. Docker

Gestion des conteneurs, images, volumes et reseaux Docker directement depuis le LLM.

{
  "mcpServers": {
    "docker": {
      "command": "npx",
      "args": ["-y", "mcp-server-docker"]
    }
  }
}

Cas d'usage : analyser les conteneurs en cours d'execution, identifier ceux qui consomment trop de ressources et proposer des optimisations du Dockerfile.

10. Kubernetes

Acces au cluster Kubernetes : pods, deployments, services, logs et events.

{
  "mcpServers": {
    "kubernetes": {
      "command": "npx",
      "args": ["-y", "mcp-server-kubernetes"],
      "env": {
        "KUBECONFIG": "/chemin/vers/.kube/config"
      }
    }
  }
}

Cas d'usage : diagnostiquer un pod en CrashLoopBackOff en demandant au LLM d'analyser les logs, les events et la configuration du deployment.

Documentation et connaissances

11. Notion

Lecture et ecriture dans vos espaces Notion. Pages, bases de donnees, blocs.

{
  "mcpServers": {
    "notion": {
      "command": "npx",
      "args": ["-y", "mcp-server-notion"],
      "env": {
        "NOTION_API_KEY": "<votre-cle>"
      }
    }
  }
}

Cas d'usage : generer automatiquement la documentation technique d'un module dans Notion a partir du code source analyse par le LLM.

12. Confluence

Pour les organisations sur Atlassian. Recherche et lecture des pages de documentation existantes.

{
  "mcpServers": {
    "confluence": {
      "command": "npx",
      "args": ["-y", "mcp-server-confluence"],
      "env": {
        "CONFLUENCE_URL": "https://votre-instance.atlassian.net/wiki",
        "CONFLUENCE_EMAIL": "<votre-email>",
        "CONFLUENCE_API_TOKEN": "<votre-token>"
      }
    }
  }
}

Cas d'usage : avant de coder une feature, demander au LLM de rechercher les specifications et decisions architecturales dans Confluence.

13. Context7

Serveur specialise qui fournit de la documentation a jour pour les librairies et frameworks. Resout le probleme des connaissances obsoletes du LLM.

{
  "mcpServers": {
    "context7": {
      "command": "npx",
      "args": ["-y", "context7-mcp"]
    }
  }
}

Cas d'usage : quand le LLM genere du code avec une API deprecated, Context7 lui fournit la documentation actuelle pour qu'il corrige automatiquement.

Communication

14. Slack

Lecture et envoi de messages, gestion des channels, recherche dans l'historique.

{
  "mcpServers": {
    "slack": {
      "command": "npx",
      "args": ["-y", "mcp-server-slack"],
      "env": {
        "SLACK_BOT_TOKEN": "xoxb-votre-token"
      }
    }
  }
}

Cas d'usage : apres un deploiement, le LLM envoie un resume des changements dans le channel #deployments avec les metriques cles.

15. Discord

Meme principe pour les communautes Discord. Lecture des messages, envoi de notifications.

{
  "mcpServers": {
    "discord": {
      "command": "npx",
      "args": ["-y", "mcp-server-discord"],
      "env": {
        "DISCORD_BOT_TOKEN": "<votre-token>"
      }
    }
  }
}

Cas d'usage : monitorer un channel de support et generer des resumes quotidiens des problemes remontes par la communaute.

Fichiers et recherche

16. Filesystem

Acces au systeme de fichiers local. Lecture, ecriture, recherche de fichiers dans des repertoires autorises.

{
  "mcpServers": {
    "filesystem": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-filesystem",
               "/chemin/vers/projet"]
    }
  }
}

Cas d'usage : analyser la structure d'un projet inconnu, identifier les patterns architecturaux et generer un rapport de code review.

Recherche web via l'API Brave Search. Permet au LLM d'acceder a des informations actualisees.

{
  "mcpServers": {
    "brave-search": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-brave-search"],
      "env": {
        "BRAVE_API_KEY": "<votre-cle>"
      }
    }
  }
}

Cas d'usage : rechercher les dernieres vulnerabilites CVE pour les dependances de votre projet et evaluer leur impact.

18. Puppeteer

Controle d'un navigateur headless. Navigation, capture d'ecran, extraction de donnees.

{
  "mcpServers": {
    "puppeteer": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-puppeteer"]
    }
  }
}

Cas d'usage : tester visuellement une page web, capturer un screenshot et demander au LLM d'identifier les problemes d'accessibilite ou de responsive.

Observabilite

19. Sentry

Acces aux erreurs, events et metriques de performance Sentry.

{
  "mcpServers": {
    "sentry": {
      "command": "npx",
      "args": ["-y", "mcp-server-sentry"],
      "env": {
        "SENTRY_AUTH_TOKEN": "<votre-token>",
        "SENTRY_ORG": "<votre-org>"
      }
    }
  }
}

Cas d'usage : le LLM analyse les erreurs les plus frequentes dans Sentry, identifie la cause racine dans le code et propose un correctif.

20. Datadog

Acces aux metriques, traces et logs Datadog pour le monitoring de production.

{
  "mcpServers": {
    "datadog": {
      "command": "npx",
      "args": ["-y", "mcp-server-datadog"],
      "env": {
        "DD_API_KEY": "<votre-cle>",
        "DD_APP_KEY": "<votre-cle-app>"
      }
    }
  }
}

Cas d'usage : detecter une anomalie de latence dans Datadog, tracer le probleme jusqu'au service concerne et analyser le code responsable.

Combiner les serveurs dans un workflow reel

La vraie puissance de MCP apparait quand vous combinez plusieurs serveurs. Voici un workflow concret de correction de bug en production :

Etape 1 : Sentry detecte une nouvelle erreur critique. Le LLM la lit via le serveur Sentry et identifie le stacktrace.

Etape 2 : via le serveur GitHub, il localise le fichier et la ligne responsable dans le repository.

Etape 3 : il interroge PostgreSQL pour comprendre les donnees qui ont provoque l'erreur.

Etape 4 : il cree une branche, corrige le code et ouvre une PR via GitHub.

Etape 5 : il envoie un message Slack dans le channel de l'equipe pour notifier la correction.

La configuration combinee dans votre claude_desktop_config.json ou .mcp.json :

{
  "mcpServers": {
    "github": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-github"],
      "env": { "GITHUB_PERSONAL_ACCESS_TOKEN": "<token>" }
    },
    "postgres": {
      "command": "npx",
      "args": ["-y", "@modelcontextprotocol/server-postgres",
               "postgresql://user:pass@host:5432/db"]
    },
    "sentry": {
      "command": "npx",
      "args": ["-y", "mcp-server-sentry"],
      "env": { "SENTRY_AUTH_TOKEN": "<token>", "SENTRY_ORG": "<org>" }
    },
    "slack": {
      "command": "npx",
      "args": ["-y", "mcp-server-slack"],
      "env": { "SLACK_BOT_TOKEN": "xoxb-token" }
    }
  }
}

Chaque serveur tourne comme un processus independant. Le client MCP orchestre les appels en fonction du contexte de la conversation.

Creer son propre serveur MCP

Les 20 serveurs presentes couvrent les cas generiques, mais votre organisation a des outils internes que personne d'autre n'utilise : un CRM maison, une API metier, un systeme de ticketing custom.

La solution : creer votre propre serveur MCP. Le SDK officiel en TypeScript rend le processus accessible en quelques heures. Vous definissez les tools, les resources et les prompts que votre serveur expose, puis vous le branchez dans votre configuration client.

Notre [tutoriel complet pour creer un serveur MCP en TypeScript](/creer-serveur-mcp-typescript-tutoriel/) vous guide pas a pas, du setup initial a la publication.

Comment choisir ses serveurs

Installer 20 serveurs d'un coup n'est pas la bonne approche. Chaque serveur lance un processus et consomme des ressources. Procedez par couches :

Couche de base : Filesystem + GitHub (ou GitLab). Suffisant pour 80% du travail de developpement quotidien.

Couche donnees : ajoutez votre base de donnees (PostgreSQL, SQLite ou Redis) quand vous avez besoin d'explorer des donnees.

Couche integration : Slack, Linear ou Jira selon votre stack d'equipe.

Couche avancee : Sentry, Datadog, AWS, Kubernetes pour les workflows DevOps et production.

Testez chaque serveur individuellement avant de les combiner. Verifiez les permissions accordees et limitez les acces en ecriture aux cas ou c'est reellement necessaire.

Ce qu'il faut retenir

L'ecosysteme MCP est passe de quelques serveurs experimentaux a un catalogue de milliers de connecteurs en moins d'un an. Les 20 serveurs presentes dans cet article couvrent les besoins fondamentaux de la majorite des equipes de developpement.

Le [Model Context Protocol](/mcp-model-context-protocol-guide/) a standardise la facon dont l'IA accede aux outils. Les serveurs MCP sont les briques qui rendent cette standardisation concretement utile. Commencez par un ou deux serveurs, mesurez le gain de productivite, puis elargissez progressivement votre configuration.

La prochaine etape logique : quand aucun serveur existant ne correspond a votre besoin, [creez le votre](/creer-serveur-mcp-typescript-tutoriel/).

Articles similaires

Creer un serveur MCP en TypeScript pas a pas
MCP

Creer un serveur MCP en TypeScript pas a pas

Le Model Context Protocol (MCP) permet a vos outils IA de se connecter a des sources de donnees et des services externes. Les serveurs communautaires couvrent les cas generiques (GitHub, PostgreSQL, Slack), mais pour vos outils internes, vous devez creer votre propre serveur. Ce tutoriel vous guide pas a pas pour creer un serveur MCP en TypeScript, du setup initial jusqu'a l'integration avec Claude Code. Prerequis * Node.js 18+ et npm * TypeScript 5+ * Un outil compatible MCP (Claude Code

Jean-Michel Helem · 26 mars 2026 · 4 min
MCP : le protocole qui connecte l'IA au code
MCP

MCP : le protocole qui connecte l'IA au code

Le Model Context Protocol (MCP) est devenu en quelques mois le standard de facto pour connecter les LLM a des outils externes. Adopte par Anthropic, OpenAI, Hugging Face et LangChain, il resout un probleme fondamental : comment donner a l'IA un acces structure et securise a votre environnement de travail. Avant MCP, chaque outil inventait sa propre facon de connecter l'IA aux donnees. Avec MCP, un seul protocole permet a n'importe quel LLM de se connecter a n'importe quel outil. C'est le USB-C

Jean-Michel Helem · 24 mars 2026 · 4 min
Agentic AI Foundation : OpenAI et Anthropic s'allient pour standardiser les agents IA
IA

Agentic AI Foundation : OpenAI et Anthropic s'allient pour standardiser les agents IA

Le 9 décembre 2025 restera comme une date charnière dans l'histoire de l'intelligence artificielle. Ce jour-là, trois géants de l'IA habituellement en concurrence frontale - OpenAI, Anthropic et Block - ont annoncé la création de l'Agentic AI Foundation (AAIF) sous l'égide de la Linux Foundation. Cette alliance stratégique vise à établir des standards ouverts pour les agents IA, ces systèmes autonomes capables d'exécuter des tâches complexes sans intervention humaine constante. Une alliance hi

Jean-Michel Helem · 8 décembre 2025 · 7 min