7 Anos, 2 Grandes Rebuilds, 40K+ Estrelas no GitHub: A ascensão do Milvus como a principal base de dados vetorial de código aberto
Em junho de 2025, o Milvus atingiu 35.000 estrelas no GitHub. Alguns meses depois, já ultrapassámos as 40.000, o que provanão só a dinâmica, mas também uma comunidade global que continua a impulsionar o futuro da pesquisa vetorial e multimodal.
Estamos profundamente gratos. A todos os que fizeram estrelas, bifurcaram, apresentaram problemas, discutiram sobre uma API, partilharam um benchmark, ou construíram algo incrível com o Milvus: Obrigado, e vocês são a razão pela qual este projeto se move tão rapidamente como o faz. Cada estrela representa mais do que um botão premido - reflecte alguém que escolheu o Milvus para impulsionar o seu trabalho, alguém que acredita no que estamos a construir, alguém que partilha a nossa visão de uma infraestrutura de IA aberta, acessível e de alto desempenho.
Por isso, enquanto celebramos, também estamos a olhar para o futuro - para as funcionalidades que pedem, para as arquitecturas que a IA exige agora e para um mundo onde a compreensão multimodal e semântica é o padrão em todas as aplicações.
A viagem: De zero a mais de 40.000 estrelas
Quando começámos a construir a Milvus em 2017, o termo base de dados vetorial nem sequer existia. Éramos apenas uma pequena equipa de engenheiros convencidos de que as aplicações de IA precisariam em breve de um novo tipo de infraestrutura de dados - uma infraestrutura criada não para linhas e colunas, mas para dados multidimensionais, não estruturados e multimodais. As bases de dados tradicionais não foram criadas para esse mundo e sabíamos que alguém tinha de reimaginar como seria o armazenamento e a recuperação.
Os primeiros tempos estavam longe de ser glamorosos. Construir uma infraestrutura de nível empresarial é um trabalho lento e teimoso - semanas passadas a traçar perfis de caminhos de código, a reescrever componentes e a questionar as escolhas de design às 2 da manhã. Mas mantivemos uma missão simples: tornar a pesquisa vetorial acessível, escalável e fiável para todos os programadores que criam aplicações de IA. Essa missão levou-nos às primeiras descobertas e aos inevitáveis contratempos.
E, ao longo do caminho, alguns pontos de viragem mudaram tudo:
2019: Abrimos o código aberto do Milvus 0.10. Isso significava expor todas as nossas arestas - os hacks, os TODOs, as peças das quais ainda não estávamos orgulhosos. Mas a comunidade apareceu. Os desenvolvedores apresentaram problemas que nunca teríamos encontrado, propuseram recursos que não havíamos imaginado e desafiaram suposições que acabaram por tornar o Milvus mais forte.
2020-2021: Entramos para a LF AI & Data Foundation, enviamos o Milvus 1.0, nos formamos na LF AI & Data e vencemos o desafio de pesquisa vetorial em escala de bilhões da BigANN - uma prova precoce de que nossa arquitetura poderia lidar com a escala do mundo real.
2022: Os utilizadores empresariais precisavam de escalabilidade nativa do Kubernetes, elasticidade e separação real de armazenamento e computação. Enfrentamos uma decisão difícil: corrigir o sistema antigo ou reconstruir tudo. Escolhemos o caminho mais difícil. O Milvus 2.0 foi uma reinvenção completa, introduzindo uma arquitetura nativa da nuvem totalmente desacoplada que transformou o Milvus em uma plataforma de nível de produção para cargas de trabalho de IA de missão crítica.
2024-2025: A Zilliz (a equipa por detrás do Milvus) foi nomeada líder pela Forrester, ultrapassou as 30.000 estrelas e está agora acima das 40.000. Tornou-se a espinha dorsal da pesquisa multimodal, dos sistemas RAG, dos fluxos de trabalho agênticos e da recuperação à escala de milhares de milhões em todos os sectores - educação, finanças, produção criativa, investigação científica e muito mais.
Este marco não foi conquistado através de propaganda, mas através de programadores que escolheram o Milvus para cargas de trabalho de produção reais e que nos incentivaram a melhorar a cada passo do caminho.
2025: Dois lançamentos principais, ganhos maciços de desempenho
2025 foi o ano em que o Milvus entrou numa nova liga. Embora a pesquisa vetorial se destaque na compreensão semântica, a realidade na produção é simples: os desenvolvedores ainda precisam de correspondência precisa de palavras-chave para IDs de produtos, números de série, frases exatas, termos legais e muito mais. Sem a pesquisa de texto completo nativa, as equipas eram forçadas a manter clusters Elasticsearch/OpenSearch ou a juntar as suas próprias soluções personalizadas - duplicando a sobrecarga operacional e a fragmentação.
O Milvus 2.5 mudou isso. Ele introduziu a pesquisa híbrida verdadeiramente nativa, combinando a recuperação de texto completo e a pesquisa vetorial em um único mecanismo. Pela primeira vez, os programadores puderam executar consultas lexicais, consultas semânticas e filtros de metadados em conjunto, sem terem de fazer malabarismos com sistemas adicionais ou sincronizar condutas. Também actualizámos a filtragem de metadados, a análise de expressões e a eficiência de execução, para que as consultas híbridas parecessem naturais - e rápidas - sob cargas de produção reais.
O Milvus 2.6 impulsionou ainda mais essa dinâmica, visando os dois desafios que ouvimos com mais frequência dos usuários que executam em escala: custo e desempenho. Esta versão proporcionou melhorias profundas na arquitetura - caminhos de consulta mais previsíveis, indexação mais rápida, utilização de memória drasticamente inferior e armazenamento significativamente mais eficiente. Muitas equipas relataram ganhos imediatos sem alterar uma única linha de código da aplicação.
Aqui estão apenas alguns destaques do Milvus 2.6:
Armazenamento em camadas que permite às equipas equilibrar o custo e o desempenho de forma mais inteligente, reduzindo os custos de armazenamento até 50%.
Enorme economia de memória por meio da quantização de 1 bit RaBitQ - reduzindo o uso de memória em até 72% e ainda fornecendo consultas mais rápidas.
Um mecanismo de texto completo redesenhado com uma implementação BM25 significativamente mais rápida - até 4 vezes mais rápido que o Elasticsearch em nossos benchmarks.
Um novo Path Index para metadados estruturados em JSON, desbloqueando uma filtragem até 100 vezes mais rápida em documentos complexos.
AiSAQ: compactação em escala de bilhões com redução de armazenamento de 3200× e forte recall
Pesquisasemântica + geoespacial com R-Tree: Combinando onde as coisas estão com o que significam para obter resultados mais relevantes
CAGRA + Vamana: Reduz o custo de implementação com um modo CAGRA híbrido que se baseia na GPU mas consulta na CPU
Umfluxo de trabalho"data in, data out" que simplifica a ingestão e a recuperação de incorporação, especialmente para pipelines multimodais.
Suporte para até 100 mil coleções em um único cluster - um grande passo em direção ao verdadeiro multi-tenancy em escala.
Para uma análise mais aprofundada do Milvus 2.6, consulte as notas de lançamento completas.
Além do Milvus: ferramentas de código aberto para desenvolvedores de IA
Em 2025, não nos limitámos a melhorar o Milvus - criámos ferramentas que reforçam todo o ecossistema de programadores de IA. Nosso objetivo não era perseguir tendências, mas dar aos construtores o tipo de ferramentas abertas, poderosas e transparentes que sempre desejamos que existissem.
DeepSearcher: Pesquisa sem bloqueio de nuvem
O Deep Researcher da OpenAI provou o que os agentes de raciocínio profundo podem fazer. Mas ele é fechado, caro e bloqueado por APIs em nuvem. O DeepSearcher é a nossa resposta. É um mecanismo de pesquisa profunda local e de código aberto projetado para qualquer pessoa que queira investigações estruturadas sem sacrificar o controle ou a privacidade.
O DeepSearcher é executado inteiramente em sua máquina, reunindo informações de várias fontes, sintetizando insights e fornecendo citações, etapas de raciocínio e rastreabilidade - recursos essenciais para pesquisas reais, não apenas resumos de nível superficial. Sem caixas negras. Sem dependência de fornecedores. Apenas análises transparentes e reproduzíveis em que os programadores e investigadores podem confiar.
Contexto de Claude: Assistentes de codificação que realmente entendem seu código
A maioria das ferramentas de codificação de IA ainda se comporta como pipelines grep sofisticados - rápidos, superficiais, com queima de tokens e alheios à estrutura real do projeto. O Claude Context muda isso. Criado como um plug-in MCP, ele finalmente oferece aos assistentes de codificação o que eles não têm: compreensão semântica genuína da sua base de código.
O Claude Context constrói um índice semântico vetorial em todo o seu projeto, permitindo que os agentes encontrem os módulos certos, sigam as relações entre os arquivos, entendam a intenção no nível da arquitetura e respondam às perguntas com relevância em vez de adivinhação. Reduz o desperdício de tokens, aumenta a precisão e, o mais importante, permite que os assistentes de codificação se comportem como se compreendessem verdadeiramente o seu software, em vez de o fingirem.
Ambas as ferramentas são totalmente de código aberto. Porque a infraestrutura de IA deve pertencer a todos - e porque o futuro da IA não deve ficar trancado atrás de paredes proprietárias.
Com a confiança de mais de 10.000 equipas em produção
Atualmente, mais de 10.000 equipas empresariais utilizam o Milvus na produção - desde startups em rápido crescimento a algumas das empresas tecnológicas mais estabelecidas do mundo e empresas da Fortune 500. As equipas da NVIDIA, Salesforce, eBay, Airbnb, IBM, AT&T, LINE, Shopee, Roblox, Bosch e da Microsoft confiam no Milvus para alimentar sistemas de IA que funcionam a cada minuto de cada dia. As suas cargas de trabalho abrangem pesquisa, recomendações, pipelines agênticos, recuperação multimodal e outras aplicações que levam a infraestrutura de vectores aos seus limites.
Mas o mais importante não é apenas quem usa o Milvus - é o que eles estão construindo com ele. Em todos os sectores, o Milvus está por detrás de sistemas que moldam a forma como as empresas operam, inovam e competem:
Co-pilotos de IA e assistentes empresariais que melhoram o apoio ao cliente, os fluxos de trabalho de vendas e a tomada de decisões internas com acesso instantâneo a milhares de milhões de incorporados.
Pesquisa semântica e visual no comércio eletrónico, nos meios de comunicação social e na publicidade, que conduz a uma maior conversão, a uma melhor descoberta e a uma produção criativa mais rápida.
Plataformas de inteligência jurídica, financeira e científica em que a precisão, a auditabilidade e a conformidade se traduzem em ganhos operacionais reais.
Mecanismos de deteção de fraude e risco em fintech e banca que dependem da correspondência semântica rápida para evitar perdas em tempo real.
RAG em grande escala e sistemas agênticos que dão às equipas um comportamento de IA profundamente contextual e sensível ao domínio.
Camadas de conhecimento empresarial que unificam texto, código, imagens e metadados num tecido semântico coerente.
E estes não são benchmarks de laboratório - são algumas das implementações de produção mais exigentes do mundo. O Milvus cumpre rotineiramente:
Recuperação abaixo de 50 ms em bilhões de vetores
Biliões de documentos e eventos geridos num único sistema
Fluxos de trabalho 5-10× mais rápidos do que as soluções alternativas
Arquitecturas multi-tenant que suportam centenas de milhares de colecções
As equipas escolhem a Milvus por uma razão simples: a Milvus fornece resultados onde é importante - velocidade, fiabilidade, eficiência de custos e a capacidade de escalar para milhares de milhões sem ter de desmontar a sua arquitetura de tempos a tempos. A confiança que estas equipas depositam em nós é a razão pela qual continuamos a reforçar o Milvus para a década de IA que se avizinha.
Quando precisa do Milvus sem as operações: Zilliz Cloud
O Milvus é gratuito, poderoso e testado em combate. Mas também é um sistema distribuído - e executar bem sistemas distribuídos é um verdadeiro trabalho de engenharia. Ajuste de índices, gestão de memória, estabilidade do cluster, escalonamento, observabilidade... estas tarefas requerem tempo e experiência que muitas equipas simplesmente não têm para dispensar. Os programadores queriam o poder do Milvus, mas sem o peso operacional que inevitavelmente advém da sua gestão à escala.
Esta realidade levou-nos a uma conclusão simples: se o Milvus se ia tornar a infraestrutura central das aplicações de IA, precisávamos de o tornar fácil de operar. Foi por isso que criámos o Zilliz Cloud, o serviço Milvus totalmente gerido, criado e mantido pela mesma equipa por detrás do projeto de código aberto.
O Zilliz Cloud dá aos programadores o Milvus que já conhecem e em que confiam - mas sem provisionar clusters, combater problemas de desempenho, planear actualizações ou preocupar-se com o armazenamento e a afinação da computação. E como inclui optimizações impossíveis de executar em ambientes auto-geridos, é ainda mais rápido e fiável. O Cardinal, o nosso motor vetorial de otimização automática de nível comercial, oferece 10× o desempenho do Milvus de código aberto.
O que distingue o Zilliz Cloud
- Desempenho auto-otimizado: O AutoIndex ajusta automaticamente o HNSW, o IVF e o DiskANN, proporcionando uma recuperação de mais de 96% com nenhuma configuração manual.
Elástico e económico: O preço pago conforme o uso, o dimensionamento automático sem servidor e o gerenciamento inteligente de recursos geralmente reduzem os custos em 50% ou mais em comparação com implantações autogerenciadas.
Confiabilidade de nível empresarial: SLA de 99,95% de tempo de atividade, redundância multi-AZ, conformidade com SOC 2 Tipo II, ISO 27001 e GDPR. Suporte completo para RBAC, BYOC, registos de auditoria e encriptação.
Implantação independente de nuvem: Execute no AWS, Azure, GCP, Alibaba Cloud ou Tencent Cloud - sem dependência de fornecedor, desempenho consistente em qualquer lugar.
Consultas em linguagem natural: O suporte integrado ao servidor MCP permite consultar dados de forma conversacional em vez de criar manualmente chamadas de API.
Migração sem esforço: Migre do Milvus, Pinecone, Qdrant, Weaviate, Elasticsearch ou PostgreSQL usando ferramentas de migração integradas - sem necessidade de reescrita de esquemas ou tempo de inatividade.
100% compatível com o Milvus de código aberto. Sem bifurcações proprietárias. Sem bloqueio. Apenas Milvus, tornado mais fácil.
O Milvus permanecerá sempre de código aberto e de utilização gratuita. Mas a sua execução e operação fiável à escala empresarial requerem conhecimentos e recursos significativos. Zilliz Cloud é a nossa resposta a essa lacuna. Implementado em 29 regiões e em cinco grandes clouds, o Zilliz Cloud oferece desempenho, segurança e eficiência de custos de nível empresarial, mantendo-o completamente alinhado com o Milvus que já conhece.
O que vem a seguir: Milvus Lake
Como a equipa que introduziu a base de dados vetorial, tivemos um lugar na primeira fila para ver como os dados empresariais estão a mudar. O que antes se encaixava perfeitamente em terabytes de tabelas estruturadas está rapidamente a transformar-se em petabytes - e em breve triliões - de objectos multimodais. Texto, imagens, áudio, vídeo, fluxos de séries temporais, registos de vários sensores... estes definem agora os conjuntos de dados em que os sistemas de IA modernos se baseiam.
As bases de dados vectoriais são concebidas especificamente para dados não estruturados e multimodais, mas nem sempre são a escolha mais económica ou arquitetonicamente sólida - especialmente quando a grande maioria dos dados é fria. Os corpora de treino para grandes modelos, os registos de perceção de condução autónoma e os conjuntos de dados de robótica normalmente não requerem latência ao nível dos milissegundos ou elevada concorrência. A execução deste volume de dados através de uma base de dados vetorial em tempo real torna-se dispendiosa, operacionalmente pesada e excessivamente complexa para pipelines que não requerem esse nível de desempenho.
Essa realidade nos levou à nossa próxima grande iniciativa: Milvus Lake - umlakehouse multimodal orientado por semântica e que prioriza o índice, projetado para dados em escala de IA. O Milvus Lake unifica sinais semânticos em todas as modalidades - vetores, metadados, rótulos, descrições geradas pelo LLM e campos estruturados - e os organiza em Semantic Wide Tables ancoradas em entidades comerciais reais. Os dados que anteriormente viviam como ficheiros brutos e dispersos no armazenamento de objectos, lakehouses e pipelines de modelos tornam-se uma camada semântica unificada e consultável. Corpora multimodais maciços transformam-se em activos geríveis, recuperáveis e reutilizáveis com um significado consistente em toda a empresa.
O Milvus Lake é construído com base numa arquitetura limpa de manifesto + dados + índice que trata a indexação como fundamental e não como uma reflexão posterior. Isso desbloqueia um fluxo de trabalho "recuperar primeiro, processar depois" otimizado para dados frios em escala trilionária - oferecendo latência previsível, custos de armazenamento drasticamente menores e estabilidade operacional muito maior. Uma abordagem de armazenamento em camadas - NVMe/SSD para caminhos quentes e armazenamento de objectos para arquivos profundos - combinada com uma compressão eficiente e índices de carga lenta preserva a fidelidade semântica, mantendo a sobrecarga da infraestrutura firmemente sob controlo.
O Milvus Lake também se conecta perfeitamente ao ecossistema de dados modernos, integrando-se com Paimon, Iceberg, Hudi, Spark, Ray e outros mecanismos e formatos de big data. As equipas podem executar o processamento em lote, pipelines quase em tempo real, recuperação semântica, engenharia de caraterísticas e preparação de dados de formação, tudo num único local - sem reformular os fluxos de trabalho existentes. Quer esteja a construir corpora de modelos de base, a gerir bibliotecas de simulações de condução autónoma, a treinar agentes de robótica ou a alimentar sistemas de recuperação em grande escala, o Milvus Lake fornece um lago semântico extensível e económico para a era da IA.
O Milvus Lake está em desenvolvimento ativo. Interessado no acesso antecipado ou quer saber mais?
Construído pela comunidade, para a comunidade
O que torna Milvus especial não é apenas a tecnologia - são as pessoas por trás dela. A nossa base de colaboradores abrange todo o mundo, reunindo especialistas em computação de alto desempenho, sistemas distribuídos e infra-estruturas de IA. Engenheiros e investigadores da ARM, NVIDIA, AMD, Intel, Meta, IBM, Salesforce, Alibaba, Microsoft e muitos outros contribuíram com os seus conhecimentos para transformar o Milvus naquilo que é hoje.
Cada pull request, cada relatório de bug, cada pergunta respondida em nossos fóruns, cada tutorial criado - essas contribuições tornam o Milvus melhor para todos.
Este marco pertence a todos vós:
Aos nossos contribuidores: Obrigado pelo vosso código, pelas vossas ideias e pelo vosso tempo. Vocês tornam o Milvus melhor todos os dias.
Aos nossos utilizadores: Obrigado por confiarem ao Milvus as vossas cargas de trabalho de produção e por partilharem as vossas experiências, tanto as boas como as difíceis. Os vossos comentários orientam o nosso roteiro.
Aos apoiantes da nossa comunidade: Obrigado por responderem a perguntas, escreverem tutoriais, criarem conteúdos e ajudarem os recém-chegados a começar. Vocês tornam a nossa comunidade acolhedora e inclusiva.
Aos nossos parceiros e integradores: Obrigado por construírem connosco e fazerem do Milvus um cidadão de primeira classe no ecossistema de desenvolvimento de IA.
À equipa Zilliz: Obrigado pelo vosso compromisso inabalável com o projeto de código aberto e com o sucesso dos nossos utilizadores.
O Milvus cresceu porque milhares de pessoas decidiram construir algo em conjunto - de forma aberta, generosa e com a convicção de que a infraestrutura fundamental de IA deve ser acessível a todos.
Junte-se a nós nesta jornada
Quer esteja a construir a sua primeira aplicação de pesquisa vetorial ou a escalar para milhares de milhões de vectores, gostaríamos de o ter como parte da comunidade Milvus.
Começar:
⭐ Inscreva-nos no GitHub: github.com/milvus-io/milvus
☁️ Experimente o Zilliz Cloud gratuitamente: zilliz.com/cloud
Junta-te ao nosso Discord para te ligares a programadores de todo o mundo
Explore os nossos documentos: Documentação do Milvus
Reserve uma sessão individual de 20 minutos para obter informações, orientações e respostas às suas perguntas.
O caminho que temos pela frente é empolgante. À medida que a IA remodela os setores e abre novas possibilidades, os bancos de dados vetoriais estarão no centro dessa transformação. Juntos, estamos a construir a base semântica da qual dependem as aplicações de IA modernas - e estamos apenas a começar.
Um brinde às próximas 40.000 estrelas e à construção conjunta do futuro da infraestrutura de IA. 🎉
Try Managed Milvus for Free
Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.
Get StartedLike the article? Spread the word



