Le MCP est-il déjà dépassé ? La vraie raison pour laquelle Anthropic a expédié des compétences et comment les associer à Milvus
Au cours des dernières semaines, une discussion étonnamment animée a éclaté sur X et Hacker News : Avons-nous encore besoin des serveurs MCP ? Certains développeurs affirment que MCP est trop technique, gourmand en jetons et fondamentalement mal aligné sur la façon dont les agents devraient utiliser les outils. D'autres défendent MCP comme le moyen fiable d'exposer les capacités du monde réel aux modèles de langage. Selon le fil de discussion que vous lisez, MCP est soit l'avenir de l'utilisation des outils, soit mort à l'arrivée.
La frustration est compréhensible. MCP vous donne un accès robuste aux systèmes externes, mais il oblige également le modèle à charger de longs schémas, des descriptions verbeuses et des listes d'outils tentaculaires. Cela représente un coût réel. Si vous téléchargez la transcription d'une réunion et que vous l'introduisez ensuite dans un autre outil, le modèle peut retraiter le même texte plusieurs fois, gonflant ainsi l'utilisation des jetons sans bénéfice évident. Pour les équipes opérant à grande échelle, il ne s'agit pas d'un inconvénient, mais d'une facture.
Mais déclarer MCP obsolète est prématuré. Anthropic - la même équipe qui a inventé MCP - a tranquillement introduit quelque chose de nouveau : Skills. Les compétences sont des définitions Markdown/YAML légères qui décrivent comment et quand un outil doit être utilisé. Au lieu de déverser des schémas complets dans la fenêtre contextuelle, le modèle lit d'abord les métadonnées compactes et les utilise pour planifier. Dans la pratique, les Skills réduisent considérablement la charge de travail des jetons et donnent aux développeurs plus de contrôle sur l'orchestration des outils.
Cela signifie-t-il que les Skills vont remplacer MCP ? Pas tout à fait. Les compétences rationalisent la planification, mais MCP fournit toujours les capacités réelles : lecture de fichiers, appel d'API, interaction avec les systèmes de stockage ou connexion à une infrastructure externe comme Milvus, une base de données vectorielle open-source qui sous-tend la recherche sémantique rapide à l'échelle, ce qui en fait un backend critique lorsque vos compétences ont besoin d'un accès réel aux données.
Cet article explique ce que les compétences font bien, où MCP est encore important, et comment les deux s'intègrent dans l'architecture évolutive des agents d'Anthropic. Nous verrons ensuite comment construire vos propres compétences qui s'intègrent parfaitement à Milvus.
Que sont les compétences des agents Anthropic et comment fonctionnent-elles ?
L'un des problèmes de longue date des agents d'IA traditionnels est que les instructions s'effacent au fur et à mesure que la conversation s'intensifie.
Même avec les invites les plus soigneusement conçues, le comportement du modèle peut progressivement dériver au cours de la conversation. Après plusieurs tours, Claude commence à oublier les instructions initiales ou à s'en désintéresser.
Le problème réside dans la structure de l'invite du système. Il s'agit d'une injection unique et statique qui se dispute l'espace dans la fenêtre contextuelle du modèle, aux côtés de l'historique de la conversation, des documents et de toute autre entrée. Au fur et à mesure que la fenêtre contextuelle se remplit, l'attention du modèle pour l'invite du système se dilue de plus en plus, ce qui entraîne une perte de cohérence au fil du temps.
Les compétences ont été conçues pour résoudre ce problème. Les compétences sont des dossiers contenant des instructions, des scripts et des ressources. Plutôt que de s'appuyer sur un message-guide statique, les compétences décomposent l'expertise en paquets d'instructions modulaires, réutilisables et persistants que Claude peut découvrir et charger dynamiquement lorsqu'il en a besoin pour une tâche.
Lorsque Claude commence une tâche, il effectue d'abord un balayage léger de toutes les compétences disponibles en lisant uniquement leurs métadonnées YAML (quelques dizaines de tokens seulement). Ces métadonnées fournissent juste assez d'informations pour que Claude puisse déterminer si une compétence est pertinente pour la tâche en cours. Si c'est le cas, Claude développe l'ensemble des instructions (généralement moins de 5k tokens), et des ressources ou des scripts supplémentaires ne sont chargés que si c'est nécessaire.
Cette divulgation progressive permet à Claude d'initialiser une compétence avec seulement 30 à 50 tokens, ce qui améliore considérablement l'efficacité et réduit les surcharges de contexte inutiles.
Comparaison des compétences avec les invites, les projets, les MCP et les sous-agents
Aujourd'hui, le paysage des outils de modélisation peut sembler encombré. Même au sein de l'écosystème agentique de Claude, il existe plusieurs composants distincts : Compétences, invites, projets, sous-agents et MCP.
Maintenant que nous comprenons ce que sont les compétences et comment elles fonctionnent grâce aux paquets d'instructions modulaires et au chargement dynamique, nous devons savoir comment les compétences sont liées à d'autres parties de l'écosystème Claude, en particulier MCP. En voici un résumé :
1. Les compétences
Les compétences sont des dossiers qui contiennent des instructions, des scripts et des ressources. Claude les découvre et les charge dynamiquement en utilisant la divulgation progressive : d'abord les métadonnées, puis les instructions complètes, et enfin tous les fichiers nécessaires.
Idéal pour :
Les flux de travail organisationnels (directives de marque, procédures de conformité)
Expertise dans un domaine (formules Excel, analyse de données)
Préférences personnelles (systèmes de prise de notes, modèles de codage)
Les tâches professionnelles qui doivent être réutilisées au fil des conversations (examens de la sécurité du code basés sur OWASP).
2. Invites
Les invites sont les instructions en langage naturel que vous donnez à Claude au cours d'une conversation. Ils sont temporaires et n'existent que dans la conversation en cours.
C'est la solution idéale :
Les demandes ponctuelles (résumer un article, mettre en forme une liste)
Amélioration de la conversation (ajuster le ton, ajouter des détails)
Contexte immédiat (analyse de données spécifiques, interprétation du contenu)
Instructions ad hoc
3. Les projets
Les projets sont des espaces de travail autonomes disposant de leur propre historique de conversation et de leur propre base de connaissances. Chaque projet offre une fenêtre contextuelle de 200K. Lorsque la connaissance de votre projet approche les limites du contexte, Claude passe de façon transparente en mode RAG, ce qui permet de multiplier par 10 la capacité effective.
Idéal pour :
Contexte persistant (par exemple, toutes les conversations liées au lancement d'un produit)
Organisation de l'espace de travail (contextes distincts pour différentes initiatives)
Collaboration d'équipe (pour les plans Team et Enterprise)
Instructions personnalisées (ton ou perspective spécifique à un projet)
4. Sous-agents
Les sous-agents sont des assistants spécialisés de l'IA qui disposent de leurs propres fenêtres contextuelles, d'invites système personnalisées et d'autorisations d'utilisation d'outils spécifiques. Ils peuvent travailler de manière indépendante et renvoyer les résultats à l'agent principal.
Idéal pour :
Spécialisation des tâches (examen du code, génération de tests, audits de sécurité)
Gestion du contexte (maintenir l'attention sur la conversation principale)
Traitement parallèle (plusieurs sous-agents travaillant simultanément sur différents aspects)
Restriction des outils (par exemple, accès en lecture seule)
5. MCP (Model Context Protocol)
Le protocole de contexte de modèle (MCP) est une norme ouverte qui relie les modèles d'IA à des outils et des sources de données externes.
Idéal pour :
Accéder à des données externes (Google Drive, Slack, GitHub, bases de données)
Utiliser des outils commerciaux (systèmes CRM, plateformes de gestion de projet)
Connexion à des environnements de développement (fichiers locaux, IDE, contrôle de version)
Intégration avec des systèmes personnalisés (outils et sources de données propriétaires)
Sur la base de ce qui précède, nous pouvons constater que les compétences et le MCP répondent à des défis différents et se complètent mutuellement.
| Dimension | MCP | Compétences |
|---|---|---|
| Valeur fondamentale | Connexion à des systèmes externes (bases de données, API, plateformes SaaS) | Définit les spécifications de comportement (comment traiter et présenter les données) |
| Réponses aux questions | "À quoi Claude peut-il accéder ? | "Que doit faire Claude ? |
| Mise en œuvre | Protocole client-serveur + schéma JSON | Fichier Markdown + métadonnées YAML |
| Consommation de contexte | Des dizaines de milliers de jetons (accumulations multiples sur le serveur) | 30-50 jetons par opération |
| Cas d'utilisation | Interrogation de grandes bases de données, appel des API de GitHub | Définition de stratégies de recherche, application de règles de filtrage, formatage des résultats |
Prenons l'exemple de la recherche de code.
MCP (par exemple, claude-context) : Permet d'accéder à la base de données vectorielle Milvus.
Compétences : Définit le flux de travail, tel que la priorisation du code le plus récemment modifié, le tri des résultats par pertinence et la présentation des données dans un tableau Markdown.
MCP fournit la capacité, tandis que les compétences définissent le processus. Ensemble, ils forment une paire complémentaire.
Comment créer des compétences personnalisées avec Claude-Context et Milvus
Claude-Context est un plugin MCP qui ajoute une fonctionnalité de recherche sémantique de code à Claude Code, transformant l'ensemble de la base de code en contexte de Claude.
Prérequis
Configuration requise :
Node.js: Version >= 20.0.0 et < 24.0.0
Clé API OpenAI (pour l'intégration de modèles)
Clé APIZilliz Cloud (service Milvus géré)
Étape 1 : Configurer le service MCP (claude-context)
Exécutez la commande suivante dans le terminal :
claude mcp add claude-context \
-e OPENAI_API_KEY=sk-your-openai-api-key \
-e MILVUS_ADDRESS=https://xxxxxxxxx-cn-hangzhou.cloud.zilliz.com.cn \
-e MILVUS_TOKEN=your-zilliz-cloud-api-key \
-e COLLECTION_NAME=medium_articles \
-- npx @zilliz/claude-context-mcp@latest
Vérifier la configuration :
claude mcp list
La configuration du MCP est terminée. Claude peut maintenant accéder à la base de données vectorielle Milvus.
Etape 2 : Créer la compétence
Créer le répertoire Skills :
mkdir -p ~/.claude/skills/milvus-code-search
cd ~/.claude/skills/milvus-code-search
Créer le fichier SKILL.md :
---
name: milvus-code-search
description: A semantic code search and architecture analysis skill designed for the Milvus codebase
---
## Instructions
When the user asks questions related to the Milvus codebase, I will:
1. Code Search : Use semantic search to locate relevant code snippets across the Milvus repository
2. Architecture Analysis : Analyze Milvus’s module structure, component relationships, and design patterns
3. Feature Explanation : Explain how specific features are implemented and how the corresponding logic works
4. Development Guidance : Provide suggestions, best practices, and improvement ideas for modifying the code
## Target Repository
- Core Modules:
<span class="hljs-keyword">internal</span>/ — Core internal components
pkg/ — Public packages and utilities
client/ — Go client implementation
cmd/ — Command-line tools
## Usage Examples
### Architecture Query
User: How does Milvus’s query coordinator work?
Assistant: (searching for querycoordv2) Let me walk you through how the query coordinator operates in Milvus…
### Feature Implementation
User: How does Milvus implement vector indexing?
Assistant: (searching for index code) The vector indexing logic in Milvus is mainly implemented in the following modules…
### Code Understanding
User: What does this function do? (points to a specific file)
Assistant: (analyzing the surrounding code) Based on the context of the Milvus codebase, this function is responsible for…
### Development Guidance
User: How can I add a new vector distance metric to Milvus?
Assistant: (searching for distance implementations) Following the existing pattern, you can add a new distance method by…
## Best Practices
1. Precise Search : Use specific technical terms and module names
2. Contextual Understanding : Interpret code within Milvus’s overall system architecture
3. Actionable Advice : Provide practical, implementation-ready suggestions
4. Performance Awareness : Consider Milvus’s requirements as a high-performance vector database
A custom code-search Skill tailored for the open-source Milvus vector database project.
Étape 3 : Redémarrer Claude pour appliquer les compétences
Exécutez la commande suivante pour redémarrer Claude :
claude
Note : Une fois la configuration terminée, vous pouvez immédiatement utiliser les compétences pour interroger la base de code Milvus.
Vous trouverez ci-dessous un exemple de fonctionnement.
Interroger : Comment fonctionne Milvus QueryCoord ?
Conclusion
À la base, les compétences constituent un mécanisme d'encapsulation et de transfert de connaissances spécialisées. En utilisant les compétences, l'IA peut hériter de l'expérience d'une équipe et suivre les meilleures pratiques de l'industrie, qu'il s'agisse d'une liste de contrôle pour les examens de code ou de normes de documentation. Lorsque ces connaissances tacites sont rendues explicites par le biais de fichiers Markdown, la qualité des résultats générés par l'IA peut s'en trouver considérablement améliorée.
À l'avenir, la capacité à exploiter efficacement les compétences pourrait devenir un facteur de différenciation clé dans la manière dont les équipes et les individus utilisent l'IA à leur avantage.
Alors que vous exploitez le potentiel de l'IA dans votre entreprise, Milvus est un outil essentiel pour la gestion et la recherche de données vectorielles à grande échelle. En associant la puissante base de données vectorielles de Milvus à des outils d'IA tels que Skills, vous pouvez améliorer non seulement vos flux de travail, mais aussi la profondeur et la rapidité de vos informations fondées sur des données.
Vous avez des questions ou souhaitez approfondir une fonctionnalité ? Rejoignez notre canal Discord pour discuter avec nos ingénieurs et d'autres ingénieurs en IA de la communauté. Vous pouvez également réserver une session individuelle de 20 minutes pour obtenir des informations, des conseils et des réponses à vos questions dans le cadre des Milvus Office Hours.
Try Managed Milvus for Free
Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.
Get StartedLike the article? Spread the word



