Milvus
Zilliz
  • Home
  • Blog
  • 7 ans, 2 reconstructions majeures, 40K+ GitHub Stars : L'ascension de Milvus en tant que principale base de données vectorielles open-source

7 ans, 2 reconstructions majeures, 40K+ GitHub Stars : L'ascension de Milvus en tant que principale base de données vectorielles open-source

  • announcements
December 02, 2025
Fendy Feng

En juin 2025, Milvus a atteint 35 000 étoiles GitHub. Quelques mois plus tard, nous avons franchi le cap des 40 000 étoiles, preuvenon seulement de notre dynamisme, mais aussi de l'existence d'une communauté mondiale qui ne cesse de faire avancer l'avenir de la recherche vectorielle et multimodale.

Nous sommes profondément reconnaissants. À tous ceux qui ont marqué d'un astérisque ou d'une fourche, déposé des problèmes, débattu d'une API, partagé un benchmark ou construit quelque chose d'incroyable avec Milvus : merci, et c'est grâce à vous que ce projet avance aussi vite. Chaque étoile représente plus qu'un bouton pressé - elle reflète quelqu'un qui choisit Milvus pour alimenter son travail, quelqu'un qui croit en ce que nous construisons, quelqu'un qui partage notre vision d'une infrastructure d'IA ouverte, accessible et performante.

Alors que nous célébrons, nous regardons également vers l'avenir - vers les fonctionnalités que vous demandez, vers les architectures que l'IA exige désormais, et vers un monde où la compréhension multimodale et sémantique est la valeur par défaut de toutes les applications.

Le voyage : De zéro à plus de 40 000 étoiles

Lorsque nous avons commencé à construire Milvus en 2017, le terme de base de données vectorielle n'existait même pas. Nous n'étions qu'une petite équipe d'ingénieurs convaincus que les applications d'IA auraient bientôt besoin d'un nouveau type d'infrastructure de données - une infrastructure construite non pas pour des lignes et des colonnes, mais pour des données hautement dimensionnelles, non structurées et multimodales. Les bases de données traditionnelles n'étaient pas conçues pour ce monde, et nous savions que quelqu'un devait réimaginer ce à quoi pourraient ressembler le stockage et la recherche de données.

Les débuts ont été loin d'être glorieux. La mise en place d'une infrastructure d'entreprise est un travail lent et obstiné - des semaines passées à profiler les chemins de code, à réécrire les composants et à remettre en question les choix de conception à 2 heures du matin. Mais nous nous sommes accrochés à une mission simple : rendre la recherche vectorielle accessible, évolutive et fiable pour tous les développeurs qui créent des applications d'intelligence artificielle. Cette mission nous a permis de réaliser les premières percées et d'essuyer les inévitables revers.

Et en cours de route, quelques tournants ont tout changé :

  • 2019 : Nous avons mis Milvus 0.10 en open-source. Cela signifiait exposer toutes nos aspérités - les hacks, les TODO, les éléments dont nous n'étions pas encore fiers. Mais la communauté s'est manifestée. Les développeurs ont signalé des problèmes que nous n'aurions jamais trouvés, ont proposé des fonctionnalités que nous n'avions pas imaginées et ont remis en question des hypothèses qui ont finalement rendu Milvus plus fort.

  • 2020-2021 : Nous avons rejoint la LF AI & Data Foundation, livré Milvus 1.0, obtenu le diplôme de la LF AI & Data et remporté le défi BigANN de recherche vectorielle à l'échelle du milliard, preuve précoce que notre architecture pouvait supporter une échelle réelle.

  • 2022 : Les utilisateurs d'entreprise avaient besoin d'une mise à l'échelle native de Kubernetes, d'élasticité et d'une véritable séparation du stockage et du calcul. Nous avons été confrontés à une décision difficile : patcher l'ancien système ou tout reconstruire. Nous avons choisi la voie la plus difficile. Milvus 2.0 a été une réinvention de fond en comble, introduisant une architecture cloud-native entièrement découplée qui a transformé Milvus en une plateforme de niveau production pour les charges de travail d'IA critiques.

  • 2024-2025 : Zilliz (l'équipe derrière Milvus) a été nommée leader par Forrester, a dépassé les 30 000 étoiles et est maintenant au-delà de 40 000. Elle est devenue l'épine dorsale de la recherche multimodale, des systèmes RAG, des flux de travail agentiques et de la recherche à l'échelle du milliard dans les secteurs de l'éducation, de la finance, de la production créative, de la recherche scientifique, etc.

Cette étape a été franchie non pas grâce à un battage médiatique, mais grâce aux développeurs qui ont choisi Milvus pour des charges de travail de production réelles et qui nous ont poussés à nous améliorer à chaque étape du processus.

2025 : Deux versions majeures, des gains de performance massifs

2025 a été l'année où Milvus est entré dans une nouvelle catégorie. Alors que la recherche vectorielle excelle dans la compréhension sémantique, la réalité en production est simple : les développeurs ont toujours besoin d'une correspondance précise des mots clés pour les identifiants de produits, les numéros de série, les phrases exactes, les termes juridiques, etc. Sans recherche plein texte native, les équipes étaient obligées de maintenir des clusters Elasticsearch/OpenSearch ou de coller leurs propres solutions personnalisées, ce qui doublait les frais généraux opérationnels et la fragmentation.

Milvus 2.5 a changé la donne. Il a introduit une recherche hybride véritablement native, combinant la recherche en texte intégral et la recherche vectorielle dans un moteur unique. Pour la première fois, les développeurs pouvaient exécuter des requêtes lexicales, des requêtes sémantiques et des filtres de métadonnées ensemble sans avoir à jongler avec des systèmes supplémentaires ou à synchroniser des pipelines. Nous avons également amélioré le filtrage des métadonnées, l'analyse des expressions et l'efficacité de l'exécution afin que les requêtes hybrides soient naturelles et rapides sous des charges de production réelles.

Milvus 2.6 a poursuivi sur cette lancée, en ciblant les deux défis les plus souvent évoqués par les utilisateurs fonctionnant à l'échelle : le coût et les performances. Cette version a apporté de profondes améliorations architecturales : des chemins d'interrogation plus prévisibles, une indexation plus rapide, une utilisation de la mémoire considérablement réduite et un stockage nettement plus efficace. De nombreuses équipes ont constaté des gains immédiats sans modifier une seule ligne du code de l'application.

Voici quelques points forts de Milvus 2.6 :

  • Stockage hiérarchisé qui permet aux équipes d'équilibrer les coûts et les performances de manière plus intelligente, réduisant les coûts de stockage jusqu'à 50 %.

  • D'énormes économies de mémoire grâce à la quantification à 1 bit RaBitQ - réduisant l'utilisation de la mémoire jusqu'à 72 % tout en offrant des requêtes plus rapides.

  • Un moteur plein texte repensé avec une implémentation BM25 significativement plus rapide - jusqu'à 4× plus rapide qu'Elasticsearch dans nos benchmarks.

  • Un nouveau Path Index pour les métadonnées structurées en JSON, permettant un filtrage jusqu'à 100 fois plus rapide sur les documents complexes.

  • AiSAQ: compression à l'échelle du milliard avec une réduction de stockage de 3200× et un rappel important.

  • Recherchesémantique + géospatiale avec R-Tree : Combinaison de l'emplacement des choses et de leur signification pour des résultats plus pertinents.

  • CAGRA+ Vamana: Réduction des coûts de déploiement grâce à un mode CAGRA hybride qui s'appuie sur le GPU, mais dont les requêtes sont effectuées par l'unité centrale.

  • Unflux de travail"données entrantes, données sortantes" qui simplifie l'ingestion et la récupération des données intégrées, en particulier pour les pipelines multimodaux.

  • La prise en charge d'un maximum de 100 000 collections dans un seul cluster - une étape importante vers une véritable multi-tenance à l'échelle.

Pour en savoir plus sur Milvus 2.6, consultez les notes de version complètes.

Au-delà de Milvus : des outils open-source pour les développeurs d'IA

En 2025, nous ne nous sommes pas contentés d'améliorer Milvus, nous avons créé des outils qui renforcent l'ensemble de l'écosystème des développeurs d'IA. Notre objectif n'était pas de suivre les tendances, mais de fournir aux développeurs le type d'outils ouverts, puissants et transparents dont nous avons toujours souhaité l'existence.

DeepSearcher : La recherche sans enfermement dans le nuage

Deep Researcher d'OpenAI a prouvé ce que les agents de raisonnement profond peuvent faire. Mais il est fermé, coûteux et enfermé dans des API en nuage. DeepSearcher est notre réponse. Il s'agit d'un moteur de recherche approfondie local et open-source conçu pour tous ceux qui souhaitent des investigations structurées sans sacrifier le contrôle ou la confidentialité.

DeepSearcher fonctionne entièrement sur votre machine, rassemblant des informations à travers les sources, synthétisant les idées et fournissant des citations, des étapes de raisonnement et une traçabilité - des caractéristiques essentielles pour une véritable recherche, et pas seulement des résumés de surface. Pas de boîte noire. Pas de verrouillage des fournisseurs. Juste des analyses transparentes et reproductibles auxquelles les développeurs et les chercheurs peuvent faire confiance.

Claude Context : Des assistants de codage qui comprennent réellement votre code

La plupart des outils de codage d'IA se comportent encore comme des pipelines grep fantaisistes - rapides, superficiels, brûleurs de jetons et inconscients de la structure réelle du projet. Claude Context change cela. Construit comme un plugin MCP, il donne enfin aux assistants de codage ce qui leur manquait : une véritable compréhension sémantique de votre base de code.

Claude Context construit un index sémantique vectoriel à travers votre projet, permettant aux agents de trouver les bons modules, de suivre les relations entre les fichiers, de comprendre l'intention au niveau de l'architecture, et de répondre aux questions avec pertinence plutôt qu'avec des suppositions. Il réduit le gaspillage de jetons, augmente la précision et, surtout, permet aux assistants de codage de se comporter comme s'ils comprenaient vraiment votre logiciel plutôt que de faire semblant.

Les deux outils sont entièrement open source. Parce que l'infrastructure de l'IA devrait appartenir à tout le monde et parce que l'avenir de l'IA ne devrait pas être enfermé derrière des murs propriétaires.

La confiance de plus de 10 000 équipes en production

Aujourd'hui, plus de 10 000 équipes d'entreprise utilisent Milvus en production, qu'il s'agisse de startups à croissance rapide ou de sociétés technologiques parmi les plus établies au monde et figurant au classement Fortune 500. Les équipes de NVIDIA, Salesforce, eBay, Airbnb, IBM, AT&T, LINE, Shopee, Roblox, Bosch et Microsoft s'appuient sur Milvus pour alimenter les systèmes d'IA qui fonctionnent à chaque minute de la journée. Leurs charges de travail couvrent la recherche, les recommandations, les pipelines agentiques, la recherche multimodale et d'autres applications qui poussent l'infrastructure vectorielle à ses limites.

Mais ce qui importe le plus, ce n'est pas seulement qui utilise Milvus, c'est ce qu'ils construisent avec. Dans tous les secteurs, Milvus se trouve derrière des systèmes qui façonnent la façon dont les entreprises fonctionnent, innovent et sont compétitives :

  • Des copilotes d'IA et des assistants d'entreprise qui améliorent l'assistance à la clientèle, les flux de travail de vente et la prise de décision interne grâce à un accès instantané à des milliards d'éléments intégrés.

  • La recherche sémantique et visuelle dans le commerce électronique, les médias et la publicité, qui permet d'augmenter le taux de conversion, d'améliorer la découverte et d'accélérer la production créative.

  • Plateformes d'intelligence juridique, financière et scientifique où la précision, l'auditabilité et la conformité se traduisent par des gains opérationnels réels.

  • Lesmoteurs de détection des fraudes et des risques dans les secteurs de la fintech et de la banque, qui dépendent d'une correspondance sémantique rapide pour prévenir les pertes en temps réel.

  • Dessystèmes RAG et agentiques à grande échelle qui donnent aux équipes un comportement d'IA profondément contextuel et conscient du domaine.

  • Les couches de connaissances d'entreprise qui unifient le texte, le code, les images et les métadonnées en un tissu sémantique cohérent.

Et il ne s'agit pas de références de laboratoire, mais de déploiements de production parmi les plus exigeants au monde. Milvus tient régulièrement ses promesses :

  • Recherche en moins de 50 ms sur des milliards de vecteurs

  • Des milliards de documents et d'événements gérés dans un seul système

  • Des flux de travail 5 à 10 fois plus rapides que les solutions alternatives

  • Des architectures multi-locataires prenant en charge des centaines de milliers de collections

Les équipes choisissent Milvus pour une raison simple : il répond aux besoins en termes de vitesse, de fiabilité, de rentabilité et de capacité à évoluer vers des milliards sans avoir à démanteler leur architecture tous les deux ou trois mois. La confiance que ces équipes nous accordent est la raison pour laquelle nous continuons à renforcer Milvus pour la décennie d'IA à venir.

Lorsque vous avez besoin de Milvus sans les opérations : Zilliz Cloud

Milvus est gratuit, puissant et éprouvé. Mais c'est aussi un système distribué, et le bon fonctionnement des systèmes distribués est un véritable travail d'ingénierie. Le réglage de l'index, la gestion de la mémoire, la stabilité du cluster, la mise à l'échelle, l'observabilité... ces tâches nécessitent du temps et une expertise que de nombreuses équipes n'ont tout simplement pas à leur disposition. Les développeurs voulaient la puissance de Milvus, mais sans le poids opérationnel qui vient inévitablement avec la gestion à l'échelle.

Cette réalité nous a conduits à une conclusion simple : si Milvus devait devenir l'infrastructure de base des applications d'IA, nous devions la rendre facile à exploiter. C'est pourquoi nous avons créé Zilliz Cloud, le service Milvus entièrement géré, créé et maintenu par la même équipe que celle qui est à l'origine du projet open-source.

Zilliz Cloud offre aux développeurs le Milvus qu'ils connaissent déjà et auquel ils font confiance, mais sans avoir à provisionner des clusters, à lutter contre les problèmes de performances, à planifier des mises à niveau ou à s'inquiéter du réglage du stockage et de l'informatique. Et comme il inclut des optimisations impossibles à exécuter dans des environnements autogérés, il est encore plus rapide et plus fiable. Cardinal, notre moteur vectoriel auto-optimisant de qualité commerciale, offre des performances 10 fois supérieures à celles du logiciel libre Milvus.

Ce qui distingue Zilliz Cloud

  • Performances auto-optimisées : AutoIndex ajuste automatiquement HNSW, IVF et DiskANN, offrant un rappel de plus de 96 % sans aucune configuration manuelle.
  • Elastique et rentable : La tarification à la carte, l'autoscaling sans serveur et la gestion intelligente des ressources réduisent souvent les coûts de 50 % ou plus par rapport aux déploiements autogérés.

  • Fiabilité de niveau entreprise : SLA de 99,95 % de temps de disponibilité, redondance multi-AZ, conformité SOC 2 Type II, ISO 27001 et GDPR. Prise en charge complète du RBAC, du BYOC, des journaux d'audit et du chiffrement.

  • Déploiement agnostique : Exécution sur AWS, Azure, GCP, Alibaba Cloud ou Tencent Cloud - pas de dépendance à l'égard d'un fournisseur, performances constantes partout.

  • Requêtes en langage naturel : La prise en charge intégrée du serveur MCP vous permet d'interroger les données de manière conversationnelle au lieu de rédiger manuellement des appels d'API.

  • Migration sans effort: Passez de Milvus, Pinecone, Qdrant, Weaviate, Elasticsearch ou PostgreSQL à l'aide d'outils de migration intégrés - aucune réécriture de schéma ni aucun temps d'arrêt n'est nécessaire.

  • 100% compatible avec Milvus open-source. Pas de forks propriétaires. Pas d'enfermement. Juste Milvus, plus facile.

Milvus restera toujours open source et libre d'utilisation. Mais son fonctionnement et son exploitation fiables à l'échelle de l'entreprise requièrent une expertise et des ressources importantes. Zilliz Cloud est notre réponse à cette lacune. Déployé dans 29 régions et cinq nuages majeurs, Zilliz Cloud offre des performances, une sécurité et une rentabilité de niveau professionnel tout en vous permettant de rester totalement aligné sur le Milvus que vous connaissez déjà.

Démarrer l'essai gratuit →

Prochaines étapes : Milvus Lake

En tant qu'équipe ayant introduit la base de données vectorielle, nous sommes aux premières loges pour observer l'évolution des données d'entreprise. Ce qui tenait autrefois dans des téraoctets de tables structurées se transforme rapidement en pétaoctets - et bientôt en trillions - d'objets multimodaux. Texte, images, audio, vidéo, flux de séries temporelles, journaux multi-capteurs... tels sont les ensembles de données sur lesquels s'appuient les systèmes d'intelligence artificielle modernes.

Les bases de données vectorielles sont conçues pour les données non structurées et multimodales, mais elles ne constituent pas toujours le choix le plus économique ou le plus judicieux sur le plan architectural, en particulier lorsque la grande majorité des données sont froides. Les corpus de formation pour les grands modèles, les journaux de perception de la conduite autonome et les ensembles de données robotiques ne nécessitent généralement pas une latence de l'ordre de la milliseconde ou une concurrence élevée. Faire passer ce volume de données par une base de données vectorielle en temps réel devient coûteux, lourd sur le plan opérationnel et trop complexe pour les pipelines qui n'ont pas besoin de ce niveau de performance.

Cette réalité nous a conduits à notre prochaine initiative majeure : Milvus Lake - unebase de données sémantique, indexée et multimodale, conçue pour les données à l'échelle de l'IA. Milvus Lake unifie les signaux sémantiques de toutes les modalités (vecteurs, métadonnées, étiquettes, descriptions générées par LLM et champs structurés) et les organise dans des tables étendues sémantiques ancrées autour d'entités commerciales réelles. Les données qui se présentaient auparavant sous la forme de fichiers bruts et dispersés dans le stockage d'objets, les entrepôts de données et les pipelines de modèles deviennent une couche sémantique unifiée et interrogeable. Les corpus multimodaux massifs se transforment en actifs gérables, récupérables et réutilisables avec une signification cohérente dans l'ensemble de l'entreprise.

Sous le capot, Milvus Lake est construit sur une architecture manifeste + données + index propre qui traite l'indexation comme un élément fondamental plutôt que comme une réflexion après coup. Cela permet de débloquer un flux de travail " récupérer d'abord, traiter ensuite " optimisé pour des données froides à l'échelle du trillion, offrant une latence prévisible, des coûts de stockage considérablement réduits et une stabilité opérationnelle bien plus grande. Une approche de stockage à plusieurs niveaux - NVMe/SSD pour les chemins d'accès rapides et le stockage d'objets pour les archives profondes - associée à une compression efficace et à des index chargés paresseusement préserve la fidélité sémantique tout en gardant le contrôle sur les frais généraux de l'infrastructure.

Milvus Lake s'intègre également de manière transparente dans l'écosystème des données modernes, avec Paimon, Iceberg, Hudi, Spark, Ray et d'autres moteurs et formats de big data. Les équipes peuvent exécuter le traitement par lots, les pipelines en temps quasi réel, la récupération sémantique, l'ingénierie des fonctionnalités et la préparation des données de formation en un seul endroit, sans avoir à reformater leurs flux de travail existants. Qu'il s'agisse de constituer des corpus de modèles de base, de gérer des bibliothèques de simulations de conduite autonome, de former des agents robotiques ou d'alimenter des systèmes de recherche à grande échelle, Milvus Lake constitue une base de données sémantiques extensible et rentable pour l'ère de l'IA.

Milvus Lake est en cours de développement. Vous souhaitez bénéficier d'un accès anticipé ou en savoir plus ?

Contactez-nous →

Construit par la communauté, pour la communauté

Ce qui rend Milvus spécial, ce n'est pas seulement la technologie, ce sont les personnes qui la soutiennent. Notre base de contributeurs couvre le monde entier et rassemble des spécialistes du calcul haute performance, des systèmes distribués et de l'infrastructure de l'IA. Des ingénieurs et des chercheurs d'ARM, NVIDIA, AMD, Intel, Meta, IBM, Salesforce, Alibaba, Microsoft et bien d'autres encore ont apporté leur expertise pour faire de Milvus ce qu'il est aujourd'hui.

Chaque demande d'extension, chaque rapport de bogue, chaque question traitée dans nos forums, chaque tutoriel créé - ces contributions permettent à Milvus d'être meilleur pour tout le monde.

Ce jalon vous appartient à tous :

  • À nos contributeurs: Merci pour votre code, vos idées et votre temps. Vous améliorez Milvus chaque jour.

  • À nos utilisateurs: Merci de confier à Milvus vos charges de travail de production et de partager vos expériences, qu'elles soient bonnes ou difficiles. Vos commentaires orientent notre feuille de route.

  • Aux membres de notre communauté: Merci de répondre aux questions, de rédiger des tutoriels, de créer du contenu et d'aider les nouveaux venus à démarrer. Vous rendez notre communauté accueillante et inclusive.

  • À nos partenaires et intégrateurs: Merci de construire avec nous et de faire de Milvus un citoyen de premier ordre dans l'écosystème du développement de l'IA.

  • À l'équipe Zilliz: Merci pour votre engagement inébranlable envers le projet open-source et la réussite de nos utilisateurs.

Milvus s'est développé parce que des milliers de personnes ont décidé de construire quelque chose ensemble - ouvertement, généreusement, et avec la conviction que l'infrastructure fondamentale de l'IA devrait être accessible à tous.

Rejoignez-nous dans cette aventure

Que vous construisiez votre première application de recherche vectorielle ou que vous passiez à des milliards de vecteurs, nous serions ravis de vous compter parmi les membres de la communauté Milvus.

Commencez:

Le chemin à parcourir est passionnant. Alors que l'IA remodèle les industries et ouvre de nouvelles possibilités, les bases de données vectorielles se situeront au cœur de cette transformation. Ensemble, nous construisons le socle sémantique sur lequel reposent les applications modernes d'IA, et nous ne faisons que commencer.

Voici les prochaines 40 000 étoiles, et à construire ensemble l'avenir de l'infrastructure de l'IA. 🎉

    Try Managed Milvus for Free

    Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.

    Get Started

    Like the article? Spread the word

    Continuer à Lire