Milvus
Zilliz
  • Home
  • Blog
  • 7 años, 2 grandes reconstrucciones, más de 40.000 estrellas GitHub: El ascenso de Milvus como principal base de datos vectorial de código abierto

7 años, 2 grandes reconstrucciones, más de 40.000 estrellas GitHub: El ascenso de Milvus como principal base de datos vectorial de código abierto

  • announcements
December 02, 2025
Fendy Feng

En junio de 2025, Milvus alcanzó las 35.000 estrellas de GitHub. Tan solo unos meses después, hemos superado las 40.000, pruebano solo del impulso, sino también de una comunidad global que sigue impulsando el futuro de la búsqueda vectorial y multimodal.

Estamos profundamente agradecidos. A todos los que han puesto una estrella, han hecho un fork, han presentado problemas, han discutido sobre una API, han compartido un benchmark o han construido algo increíble con Milvus: Gracias, y ustedes son la razón por la que este proyecto se mueve tan rápido como lo hace. Cada estrella representa algo más que un botón pulsado: refleja a alguien que elige Milvus para impulsar su trabajo, alguien que cree en lo que estamos construyendo, alguien que comparte nuestra visión de una infraestructura de IA abierta, accesible y de alto rendimiento.

Así que, mientras celebramos, también miramos hacia el futuro: hacia las funciones que usted nos pide, hacia las arquitecturas que la IA exige ahora y hacia un mundo en el que la comprensión multimodal y semántica sea la norma en todas las aplicaciones.

El viaje: De cero a más de 40.000 estrellas

Cuando empezamos a construir Milvus en 2017, el término base de datos vectorial ni siquiera existía. Solo éramos un pequeño equipo de ingenieros convencidos de que las aplicaciones de IA pronto necesitarían un nuevo tipo de infraestructura de datos: una construida no para filas y columnas, sino para datos multidimensionales, no estructurados y multimodales. Las bases de datos tradicionales no estaban hechas para ese mundo, y sabíamos que alguien tenía que reimaginar cómo podría ser el almacenamiento y la recuperación.

Los primeros días no fueron nada glamurosos. Construir una infraestructura de nivel empresarial es un trabajo lento y obstinado: semanas dedicadas a perfilar rutas de código, reescribir componentes y cuestionar decisiones de diseño a las 2 de la madrugada. Pero nos aferramos a una misión sencilla: hacer que la búsqueda vectorial fuera accesible, escalable y fiable para todos los desarrolladores que crean aplicaciones de IA. Esa misión nos llevó a través de los primeros avances y a través de los inevitables contratiempos.

Y en el camino, algunos puntos de inflexión lo cambiaron todo:

  • 2019: Pusimos Milvus 0.10 en código abierto. Significó exponer todos nuestros bordes ásperos: los hacks, los TODOs, las piezas de las que aún no estábamos orgullosos. Pero la comunidad apareció. Los desarrolladores presentaron problemas que nunca habríamos encontrado, propusieron características que no habíamos imaginado y desafiaron suposiciones que, en última instancia, hicieron que Milvus fuera más fuerte.

  • 2020-2021: Nos unimos a la Fundación LF AI & Data, lanzamos Milvus 1.0, nos graduamos de LF AI & Data y ganamos el desafío de búsqueda vectorial a escala de mil millones de BigANN, una prueba temprana de que nuestra arquitectura podía manejar la escala del mundo real.

  • 2022: Los usuarios empresariales necesitaban un escalado nativo de Kubernetes, elasticidad y una separación real entre almacenamiento y computación. Nos enfrentamos a una difícil decisión: parchear el sistema antiguo o reconstruirlo todo. Elegimos el camino más difícil. Milvus 2.0 fue una reinvención desde cero, introduciendo una arquitectura nativa de la nube totalmente desacoplada que transformó Milvus en una plataforma de nivel de producción para cargas de trabajo de IA de misión crítica.

  • 2024-2025: Zilliz (el equipo detrás de Milvus) fue nombrado líder por Forrester, superó las 30.000 estrellas y ahora está por encima de las 40.000. Se convirtió en la columna vertebral de las empresas multiservicio. Se convirtió en la columna vertebral de la búsqueda multimodal, los sistemas RAG, los flujos de trabajo agénticos y la recuperación a escala de miles de millones en todos los sectores (educación, finanzas, producción creativa, investigación científica, etc.).

Este hito no se consiguió a base de bombo y platillo, sino gracias a que los desarrolladores eligieron Milvus para cargas de trabajo de producción reales y nos empujaron a mejorar en cada paso del camino.

2025: Dos grandes lanzamientos, enormes mejoras de rendimiento

2025 fue el año en que Milvus entró en una nueva liga. Aunque la búsqueda vectorial destaca en la comprensión semántica, la realidad en la producción es simple: los desarrolladores siguen necesitando una concordancia precisa de palabras clave para ID de productos, números de serie, frases exactas, términos legales y mucho más. Sin la búsqueda nativa de texto completo, los equipos se veían obligados a mantener clústeres de Elasticsearch/OpenSearch o a unir sus propias soluciones personalizadas, lo que duplicaba la sobrecarga operativa y la fragmentación.

Milvus 2.5 cambió eso. Introdujo la búsqueda híbrida verdaderamente nativa, combinando la recuperación de texto completo y la búsqueda vectorial en un único motor. Por primera vez, los desarrolladores podían ejecutar conjuntamente consultas léxicas, consultas semánticas y filtros de metadatos sin tener que hacer malabarismos con sistemas adicionales ni sincronizar canalizaciones. También mejoramos el filtrado de metadatos, el análisis sintáctico de expresiones y la eficiencia de ejecución para que las consultas híbridas resultaran naturales y rápidas bajo cargas de producción reales.

Milvus 2.6 impulsó aún más este impulso, centrándose en los dos retos que escuchamos con más frecuencia de los usuarios que trabajan a escala: el coste y el rendimiento. Esta versión aportó profundas mejoras arquitectónicas: rutas de consulta más predecibles, indexación más rápida, uso de memoria mucho menor y almacenamiento mucho más eficiente. Muchos equipos informaron de mejoras inmediatas sin cambiar ni una sola línea del código de la aplicación.

Estos son algunos de los aspectos más destacados de Milvus 2.6:

  • Almacenamiento por niveles que permite a los equipos equilibrar el coste y el rendimiento de forma más inteligente, reduciendo los costes de almacenamiento hasta en un 50%.

  • Enorme ahorro de memoria gracias a la cuantización RaBitQ de 1 bit, que reduce el uso de memoria hasta en un 72% sin dejar de ofrecer consultas más rápidas.

  • Un motor de texto completo rediseñado con una implementación de BM25 significativamente más rápida: hasta 4 veces más rápido que Elasticsearch en nuestras pruebas comparativas.

  • Un nuevo índice de rutas para metadatos estructurados en JSON, que permite un filtrado hasta 100 veces más rápido de documentos complejos.

  • AiSAQ: compresión a escala de miles de millones con una reducción de almacenamiento de 3200× y una gran capacidad de recuperación.

  • Búsquedasemántica y geoespacial con R-Tree: Combinación de dónde están las cosas con lo que significan para obtener resultados más relevantes.

  • CAGRA+ Vamana: Reduce los costes de implantación con un modo CAGRA híbrido que se basa en la GPU pero realiza las consultas en la CPU.

  • Unflujo de trabajode "entrada de datos, salida de datos" que simplifica la ingesta y recuperación de incrustaciones, especialmente para canalizaciones multimodales.

  • Soporte de hasta 100.000 colecciones en un único clúster, lo que supone un gran paso hacia la verdadera multitenencia a escala.

Para más información sobre Milvus 2.6, consulte las notas de la versión completa.

Más allá de Milvus: herramientas de código abierto para desarrolladores de IA

En 2025, no sólo mejoramos Milvus, sino que creamos herramientas que fortalecen todo el ecosistema de desarrolladores de IA. Nuestro objetivo no era perseguir tendencias, sino ofrecer a los desarrolladores el tipo de herramientas abiertas, potentes y transparentes que siempre hemos deseado que existieran.

DeepSearcher: Investigación sin bloqueo en la nube

Deep Researcher de OpenAI demostró lo que pueden hacer los agentes de razonamiento profundo. Pero es cerrado, caro y está bloqueado detrás de las API de la nube. DeepSearcher es nuestra respuesta. Es un motor de investigación profunda local y de código abierto diseñado para cualquiera que desee investigaciones estructuradas sin sacrificar el control o la privacidad.

DeepSearcher se ejecuta completamente en su máquina, recopilando información a través de fuentes, sintetizando ideas y proporcionando citas, pasos de razonamiento y trazabilidad, características esenciales para la investigación real, no sólo resúmenes superficiales. Sin cajas negras. Sin dependencia de un proveedor. Sólo análisis transparentes y reproducibles en los que puedan confiar desarrolladores e investigadores.

Claude Context: Asistentes de codificación que realmente entienden su código

La mayoría de las herramientas de codificación de IA todavía se comportan como extravagantes tuberías grep: rápidas, superficiales, quemadoras de tokens y ajenas a la estructura real del proyecto. Claude Context cambia eso. Construido como un plugin MCP, por fin ofrece a los asistentes de codificación lo que les faltaba: una auténtica comprensión semántica de tu código base.

Claude Context construye un índice semántico vectorial a través de su proyecto, permitiendo a los agentes encontrar los módulos correctos, seguir las relaciones entre los archivos, entender la intención a nivel de arquitectura, y responder a las preguntas con relevancia en lugar de conjeturas. Reduce el desperdicio de fichas, aumenta la precisión y, lo que es más importante, permite que los asistentes de codificación se comporten como si realmente entendieran el software en lugar de fingir que lo hacen.

Ambas herramientas son de código abierto. Porque la infraestructura de IA debería pertenecer a todo el mundo y porque el futuro de la IA no debería estar encerrado tras muros propietarios.

Con la confianza de más de 10.000 equipos en producción

En la actualidad, más de 10.000 equipos empresariales utilizan Milvus en producción, desde empresas emergentes de rápido crecimiento hasta algunas de las compañías tecnológicas más consolidadas del mundo y de la lista Fortune 500. Los equipos de NVIDIA, Sales & Co. Los equipos de NVIDIA, Salesforce, eBay, Airbnb, IBM, AT&T, LINE, Shopee, Roblox, Bosch y Microsoft confían en Milvus para impulsar sistemas de IA que funcionan cada minuto del día. Sus cargas de trabajo abarcan la búsqueda, las recomendaciones, las canalizaciones agénticas, la recuperación multimodal y otras aplicaciones que llevan al límite la infraestructura de vectores.

Pero lo más importante no es sólo quién utiliza Milvus, sino lo que están construyendo con él. En todos los sectores, Milvus está detrás de sistemas que determinan la forma en que las empresas operan, innovan y compiten:

  • Copilotos de IA y asistentes de empresa que mejoran la atención al cliente, los flujos de trabajo de ventas y la toma de decisiones interna con acceso instantáneo a miles de millones de incrustaciones.

  • Búsqueda semántica y visual en comercio electrónico, medios de comunicación y publicidad, que impulsa una mayor conversión, un mejor descubrimiento y una producción creativa más rápida.

  • Plataformas de inteligencia jurídica, financiera y científica en las que la precisión, la auditabilidad y el cumplimiento se traducen en beneficios operativos reales.

  • Motores de detección de fraudes y riesgos en la banca y la tecnología financiera que dependen de una rápida correspondencia semántica para evitar pérdidas en tiempo real.

  • Sistemas RAG y agénticos a gran escala que proporcionan a los equipos un comportamiento de IA profundamente contextual y consciente del dominio.

  • Capas de conocimiento empresarial que unifican texto, código, imágenes y metadatos en un tejido semántico coherente.

Y no se trata de pruebas de laboratorio, sino de algunas de las implantaciones de producción más exigentes del mundo. Milvus lo consigue de forma rutinaria:

  • Recuperación en menos de 50 ms de miles de millones de vectores

  • Miles de millones de documentos y eventos gestionados en un único sistema

  • Flujos de trabajo entre 5 y 10 veces más rápidos que las soluciones alternativas

  • Arquitecturas multiusuario que soportan cientos de miles de colecciones

Los equipos eligen Milvus por una sencilla razón: ofrece lo que importa: velocidad, fiabilidad, rentabilidad y la capacidad de escalar a miles de millones sin tener que desmontar su arquitectura cada pocos meses. La confianza que estos equipos depositan en nosotros es la razón por la que seguimos reforzando Milvus para la década de IA que tenemos por delante.

Cuando necesite Milvus sin las operaciones: Zilliz Cloud

Milvus es gratuito, potente y de eficacia probada. Pero también es un sistema distribuido y el buen funcionamiento de los sistemas distribuidos es un verdadero trabajo de ingeniería. El ajuste de índices, la gestión de la memoria, la estabilidad de los clústeres, el escalado, la observabilidad... estas tareas requieren un tiempo y una experiencia de los que muchos equipos simplemente no disponen. Los desarrolladores querían la potencia de Milvus, pero sin el peso operativo que inevitablemente conlleva su gestión a escala.

Esta realidad nos llevó a una sencilla conclusión: si Milvus iba a convertirse en la infraestructura central de las aplicaciones de IA, necesitábamos que su funcionamiento no supusiera ningún esfuerzo. Por eso creamos Zilliz Cloud, el servicio Milvus totalmente gestionado, creado y mantenido por el mismo equipo que está detrás del proyecto de código abierto.

Zilliz Cloud ofrece a los desarrolladores el Milvus que ya conocen y en el que confían, pero sin necesidad de aprovisionar clústeres, solucionar problemas de rendimiento, planificar actualizaciones o preocuparse por el almacenamiento y el ajuste informático. Y como incluye optimizaciones imposibles de ejecutar en entornos autogestionados, es aún más rápido y fiable. Cardinal, nuestro motor vectorial autooptimizado de calidad comercial, ofrece un rendimiento 10 veces superior al Milvus de código abierto.

Lo que diferencia a Zilliz Cloud

  • Rendimiento autooptimizado: AutoIndex ajusta automáticamente HNSW, IVF y DiskANN, ofreciendo una recuperación superior al 96% sin necesidad de configuración manual.
  • Elástico y rentable: Los precios de pago por uso, el escalado automático sin servidor y la gestión inteligente de recursos suelen reducir los costes en un 50% o más en comparación con las implantaciones autogestionadas.

  • Fiabilidad de nivel empresarial: SLA de tiempo de actividad del 99,95%, redundancia multi-AZ, cumplimiento de SOC 2 Tipo II, ISO 27001 y GDPR. Compatibilidad total con RBAC, BYOC, registros de auditoría y cifrado.

  • Despliegue independiente de la nube: Ejecute en AWS, Azure, GCP, Alibaba Cloud o Tencent Cloud, sin dependencia del proveedor, rendimiento constante en todas partes.

  • Consultas en lenguaje natural: La compatibilidad integrada con el servidor MCP le permite consultar los datos de forma conversacional en lugar de elaborar manualmente llamadas a la API.

  • Migración sin esfuerzo: Migre desde Milvus, Pinecone, Qdrant, Weaviate, Elasticsearch o PostgreSQL utilizando herramientas de migración integradas, sin necesidad de reescribir esquemas ni tiempos de inactividad.

  • 100% compatible con Milvus de código abierto. Sin bifurcaciones propietarias. Sin dependencia. Sólo Milvus, más fácil.

Milvus seguirá siendo siempre de código abierto y de uso gratuito. Pero ejecutarlo y hacerlo funcionar de forma fiable a escala empresarial requiere una experiencia y unos recursos considerables. Zilliz Cloud es nuestra respuesta a ese vacío. Desplegado en 29 regiones y cinco nubes principales, Zilliz Cloud proporciona rendimiento, seguridad y rentabilidad de nivel empresarial, al tiempo que le mantiene completamente alineado con el Milvus que ya conoce.

Iniciar prueba gratuita →

Lo que viene a continuación: Milvus Lake

Como el equipo que introdujo la base de datos vectorial, hemos tenido un asiento en primera fila para ver cómo están cambiando los datos empresariales. Lo que antes cabía perfectamente en terabytes de tablas estructuradas se está convirtiendo rápidamente en petabytes -y pronto billones- de objetos multimodales. Texto, imágenes, audio, vídeo, flujos de series temporales, registros de multisensores... estos son los conjuntos de datos en los que se basan los modernos sistemas de IA.

Las bases de datos vectoriales están diseñadas específicamente para datos no estructurados y multimodales, pero no siempre son la opción más económica o la más adecuada desde el punto de vista arquitectónico, especialmente cuando la gran mayoría de los datos son fríos. Los corpus de entrenamiento para modelos de gran tamaño, los registros de percepción de conducción autónoma y los conjuntos de datos de robótica no suelen requerir latencia de milisegundos ni alta concurrencia. La ejecución de este volumen de datos a través de una base de datos vectorial en tiempo real resulta cara, pesada desde el punto de vista operativo y demasiado compleja para los procesos que no requieren ese nivel de rendimiento.

Esta realidad nos llevó a nuestra siguiente gran iniciativa: Milvus Lake, unlago multimodal basado en la semántica y en el índice diseñado para datos a escala de IA. Milvus Lake unifica las señales semánticas en todas las modalidades -vectores, metadatos, etiquetas, descripciones generadas por LLM y campos estructurados- y las organiza en tablas semánticas ancladas en torno a entidades empresariales reales. Los datos que antes vivían como archivos en bruto y dispersos en almacenes de objetos, almacenes de lagos y canalizaciones de modelos se convierten en una capa semántica unificada y consultable. Los corpus multimodales masivos se convierten en activos manejables, recuperables y reutilizables con un significado coherente en toda la empresa.

Bajo el capó, Milvus Lake se basa en una arquitectura limpia de manifiesto + datos + índice que trata la indexación como algo fundamental y no como una ocurrencia tardía. Esto desbloquea un flujo de trabajo de "recuperar primero, procesar después" optimizado para datos fríos a escala de billones, que ofrece una latencia predecible, unos costes de almacenamiento drásticamente inferiores y una estabilidad operativa mucho mayor. Un enfoque de almacenamiento por niveles -NVMe/SSD para rutas activas y almacenamiento de objetos para archivos profundos- combinado con una compresión eficiente e índices de carga lenta preserva la fidelidad semántica a la vez que mantiene la sobrecarga de la infraestructura bajo control.

Milvus Lake también se integra perfectamente en el ecosistema de datos moderno, con Paimon, Iceberg, Hudi, Spark, Ray y otros motores y formatos de big data. Los equipos pueden ejecutar el procesamiento por lotes, las canalizaciones en tiempo casi real, la recuperación semántica, la ingeniería de funciones y la preparación de datos de formación en un solo lugar, sin tener que volver a configurar sus flujos de trabajo existentes. Tanto si está construyendo corpus de modelos básicos, gestionando bibliotecas de simulación de conducción autónoma, entrenando agentes robóticos o alimentando sistemas de recuperación a gran escala, Milvus Lake proporciona un lago semántico extensible y rentable para la era de la IA.

Milvus Lake está en desarrollo activo. Le interesa el acceso anticipado o quiere saber más?

Ponte en contacto con nosotros →

Construido por la comunidad, para la comunidad

Lo que hace especial a Milvus no es solo la tecnología, sino la gente que hay detrás. Nuestra base de colaboradores se extiende por todo el mundo, reuniendo a especialistas en computación de alto rendimiento, sistemas distribuidos e infraestructura de IA. Ingenieros e investigadores de ARM, NVIDIA, AMD, Intel, Meta, IBM, Salesforce, Alibaba, Microsoft y muchos más han contribuido con su experiencia a dar forma a Milvus para convertirlo en lo que es hoy.

Cada pull request, cada informe de error, cada pregunta respondida en nuestros foros, cada tutorial creado... estas contribuciones hacen que Milvus sea mejor para todos.

Este hito os pertenece a todos:

  • A nuestros colaboradores: Gracias por su código, sus ideas y su tiempo. Hacéis que Milvus sea mejor cada día.

  • A nuestros usuarios: Gracias por confiar en Milvus con sus cargas de trabajo de producción y por compartir sus experiencias, tanto buenas como difíciles. Sus comentarios impulsan nuestra hoja de ruta.

  • A los seguidores de nuestra comunidad: Gracias por responder preguntas, escribir tutoriales, crear contenido y ayudar a los recién llegados a empezar. Gracias a vosotros, nuestra comunidad es acogedora e integradora.

  • A nuestros socios e integradores: Gracias por construir con nosotros y hacer de Milvus un ciudadano de primera clase en el ecosistema de desarrollo de IA.

  • Al equipo de Zilliz: Gracias por vuestro inquebrantable compromiso tanto con el proyecto de código abierto como con el éxito de nuestros usuarios.

Milvus ha crecido porque miles de personas decidieron construir algo juntos, de forma abierta, generosa y con la creencia de que la infraestructura básica de la IA debería ser accesible para todos.

Únase a nosotros en este viaje

Ya sea que esté construyendo su primera aplicación de búsqueda de vectores o escalando a miles de millones de vectores, nos encantaría tenerlo como parte de la comunidad Milvus.

Comience:

El camino que tenemos por delante es apasionante. A medida que la IA reconfigura las industrias y abre nuevas posibilidades, las bases de datos vectoriales se situarán en el centro de esta transformación. Juntos, estamos construyendo la base semántica en la que se apoyan las aplicaciones modernas de IA, y no hemos hecho más que empezar.

Brindemos por las próximas 40.000 estrellas y por construir juntos el futuro de la infraestructura de la IA. 🎉

    Try Managed Milvus for Free

    Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.

    Get Started

    Like the article? Spread the word

    Sigue Leyendo