7 Jahre, 2 große Rebuilds, 40K+ GitHub-Sterne: Der Aufstieg von Milvus zur führenden Open-Source-Vektordatenbank
Im Juni 2025 erreichte Milvus 35.000 GitHub-Sterne. Nur wenige Monate später haben wir 40.000 überschritten - ein Beweisnicht nur für die Dynamik, sondern auch für eine globale Community, die die Zukunft der vektoriellen und multimodalen Suche vorantreibt.
Wir sind zutiefst dankbar. An alle, die Milvus mit Sternen versehen, geforkt, Probleme gemeldet, über eine API gestritten, einen Benchmark geteilt oder etwas Unglaubliches mit Milvus gebaut haben: Danke, und ihr seid der Grund, warum dieses Projekt so schnell voranschreitet. Jeder Stern steht für mehr als nur einen gedrückten Knopf - er spiegelt jemanden wider, der Milvus als Antrieb für seine Arbeit gewählt hat, jemanden, der an das glaubt, was wir aufbauen, jemanden, der unsere Vision einer offenen, zugänglichen und leistungsstarken KI-Infrastruktur teilt.
Während wir also feiern, blicken wir auch in die Zukunft - auf die Funktionen, die Sie fordern, auf die Architekturen, die KI jetzt verlangt, und auf eine Welt, in der multimodales, semantisches Verstehen der Standard in jeder Anwendung ist.
Die Reise: Von Null auf 40.000+ Sterne
Als wir 2017 mit der Entwicklung von Milvus begannen, gab es den Begriff Vektordatenbank noch gar nicht. Wir waren nur ein kleines Team von Ingenieuren, die davon überzeugt waren, dass KI-Anwendungen bald eine neue Art von Dateninfrastruktur benötigen würden - eine, die nicht für Zeilen und Spalten, sondern für hochdimensionale, unstrukturierte, multimodale Daten ausgelegt ist. Herkömmliche Datenbanken waren für diese Welt nicht geeignet, und wir wussten, dass jemand neu erfinden musste, wie Speicherung und Abruf aussehen könnten.
Die ersten Tage waren alles andere als glamourös. Der Aufbau einer unternehmenstauglichen Infrastruktur ist langsame, hartnäckige Arbeit - Wochen, in denen wir nachts um 2 Uhr Codepfade profilieren, Komponenten neu schreiben und Designentscheidungen in Frage stellen. Diese Mission trug uns durch die ersten Durchbrüche und durch die unvermeidlichen Rückschläge.
Und auf dem Weg dorthin gab es einige Wendepunkte, die alles veränderten:
2019: Wir haben Milvus 0.10 veröffentlicht. Das bedeutete, dass wir alle unsere Ecken und Kanten offenlegen mussten - die Hacks, die TODOs, die Teile, auf die wir noch nicht stolz waren. Aber die Community war da. Die Entwickler meldeten Probleme, die wir nie gefunden hätten, schlugen Funktionen vor, die wir uns nicht vorgestellt hatten, und stellten Annahmen in Frage, die Milvus letztendlich stärker machten.
2020-2021: Wir traten der LF AI & Data Foundation bei, lieferten Milvus 1.0 aus, schlossen die LF AI & Data ab und gewannen die BigANN-Milliarden-Vektorsuchherausforderung - ein früher Beweis dafür, dass unsere Architektur mit realem Umfang umgehen konnte.
2022: Unternehmensanwender brauchten Kubernetes-native Skalierung, Elastizität und eine echte Trennung von Speicher und Rechenleistung. Wir standen vor einer schwierigen Entscheidung: das alte System zu flicken oder alles neu zu bauen. Wir wählten den schwierigeren Weg. Milvus 2.0 war eine grundlegende Neuerfindung, die eine vollständig entkoppelte Cloud-native Architektur einführte, die Milvus in eine produktionsfähige Plattform für geschäftskritische KI-Workloads verwandelte.
2024-2025: Zilliz (das Team hinter Milvus) wurde von Forrester zum Marktführer ernannt, überschritt die 30.000-Sterne-Marke und liegt nun bei über 40.000. Es wurde zum Rückgrat für multimodale Suche, RAG-Systeme, agentenbasierte Workflows und Retrieval in Milliardenhöhe in verschiedenen Branchen - Bildung, Finanzen, kreative Produktion, wissenschaftliche Forschung und mehr.
Dieser Meilenstein wurde nicht durch einen Hype erreicht, sondern dadurch, dass Entwickler Milvus für reale Arbeitslasten in der Produktion einsetzen und uns bei jedem Schritt zur Verbesserung anspornen.
2025: Zwei große Releases, enorme Leistungssteigerungen
2025 war das Jahr, in dem Milvus in eine neue Liga aufgestiegen ist. Während die Vektorsuche ein hervorragendes semantisches Verständnis bietet, ist die Realität in der Produktion einfach: Entwickler benötigen immer noch einen präzisen Schlüsselwortabgleich für Produkt-IDs, Seriennummern, exakte Phrasen, rechtliche Begriffe und vieles mehr. Ohne native Volltextsuche waren die Teams gezwungen, Elasticsearch/OpenSearch-Cluster zu pflegen oder ihre eigenen benutzerdefinierten Lösungen zusammenzukleben - was den betrieblichen Aufwand und die Fragmentierung verdoppelte.
Mit Milvus 2.5 hat sich das geändert. Es wurde eine wirklich native hybride Suche eingeführt, die Volltextsuche und Vektorsuche in einer einzigen Engine kombiniert. Zum ersten Mal konnten Entwickler lexikalische Abfragen, semantische Abfragen und Metadatenfilter zusammen ausführen, ohne mit zusätzlichen Systemen jonglieren oder Pipelines synchronisieren zu müssen. Außerdem haben wir die Metadatenfilterung, das Parsen von Ausdrücken und die Ausführungseffizienz verbessert, so dass sich hybride Abfragen unter echten Produktionslasten natürlich und schnell anfühlen.
MitMilvus 2.6 haben wir diese Entwicklung weiter vorangetrieben und uns auf die beiden Herausforderungen konzentriert, die wir am häufigsten von Anwendern hören, die in großem Maßstab arbeiten: Kosten und Leistung. Diese Version brachte tiefgreifende architektonische Verbesserungen mit sich: besser vorhersehbare Abfragepfade, schnellere Indizierung, drastisch geringere Speichernutzung und deutlich effizientere Speicherung. Viele Teams berichteten von unmittelbaren Verbesserungen, ohne eine einzige Zeile des Anwendungscodes zu ändern.
Hier sind nur einige der Highlights von Milvus 2.6:
Ein abgestufter Speicher, mit dem Teams Kosten und Leistung intelligenter ausbalancieren und die Speicherkosten um bis zu 50 % senken können.
Enorme Speichereinsparungen durch RaBitQ 1-Bit-Quantisierung - Reduzierung der Speichernutzung um bis zu 72 % bei gleichzeitig schnelleren Abfragen.
Eine neu gestaltete Volltext-Engine mit einer deutlich schnelleren BM25-Implementierung - in unseren Benchmarks bis zu 4× schneller als Elasticsearch.
Ein neuer Path Index für JSON-strukturierte Metadaten, der eine bis zu 100-fach schnellere Filterung komplexer Dokumente ermöglicht.
AiSAQ: Milliardenfache Komprimierung mit 3200-facher Speicherreduzierung und starkem Recall
Semantische und raumbezogene Suche mit R-Tree: Kombiniert den Ort der Dinge mit ihrer Bedeutung für relevantere Ergebnisse
CAGRA+ Vamana: Senkt die Bereitstellungskosten mit einem hybriden CAGRA-Modus, der auf GPUs aufbaut, aber Abfragen auf CPUs stellt
Ein "Daten rein, Daten raus"-Workflow, der die Einbettung von Ingestion und Retrieval vereinfacht, insbesondere für multimodale Pipelines.
Unterstützung für bis zu 100K Sammlungen in einem einzigen Cluster - ein wichtiger Schritt in Richtung echter Multi-Tenancy im großen Maßstab.
Einen tieferen Einblick in Milvus 2.6 erhalten Sie in den vollständigen Versionshinweisen.
Über Milvus hinaus: Open-Source-Tools für KI-Entwickler
Im Jahr 2025 haben wir nicht nur Milvus verbessert, sondern auch Tools entwickelt, die das gesamte Ökosystem der KI-Entwickler stärken. Unser Ziel war es nicht, Trends hinterherzulaufen, sondern Entwicklern die Art von offenen, leistungsstarken und transparenten Tools zur Verfügung zu stellen, die wir uns schon immer gewünscht haben.
DeepSearcher: Forschung ohne Cloud-Lock-In
Der Deep Researcher von OpenAI hat bewiesen, was Deep Reasoning Agents leisten können. Aber er ist geschlossen, teuer und hinter Cloud-APIs verschlossen. DeepSearcher ist unsere Antwort. Es ist eine lokale, quelloffene Deep Research-Engine, die für alle entwickelt wurde, die strukturierte Untersuchungen durchführen wollen, ohne auf Kontrolle oder Datenschutz verzichten zu müssen.
DeepSearcher läuft vollständig auf Ihrem Computer, sammelt Informationen aus verschiedenen Quellen, fasst Erkenntnisse zusammen und stellt Zitate, Argumentationsschritte und Rückverfolgbarkeit bereit - Funktionen, die für eine echte Recherche unerlässlich sind, nicht nur oberflächliche Zusammenfassungen. Keine Blackboxen. Keine Bindung an einen bestimmten Anbieter. Nur transparente, reproduzierbare Analysen, denen Entwickler und Forscher vertrauen können.
Claude Context: Kodierassistenten, die Ihren Code wirklich verstehen
Die meisten KI-Codierwerkzeuge verhalten sich immer noch wie ausgefallene Grep-Pipelines - schnell, oberflächlich, Token-verbrennend und ohne Kenntnis der tatsächlichen Projektstruktur. Claude Context ändert das. Claude Context wurde als MCP-Plugin entwickelt und bietet Programmierassistenten endlich das, was sie bisher vermisst haben: ein echtes semantisches Verständnis Ihrer Codebasis.
Claude Context erstellt einen vektorgestützten semantischen Index für Ihr Projekt, mit dem Agenten die richtigen Module finden, Beziehungen zwischen Dateien verfolgen, die Absicht auf Architekturebene verstehen und Fragen mit Relevanz statt mit Vermutungen beantworten können. Es reduziert die Verschwendung von Token, erhöht die Präzision und - was am wichtigsten ist - lässt Programmierassistenten sich so verhalten, als würden sie Ihre Software wirklich verstehen, anstatt so zu tun, als ob.
Beide Tools sind vollständig quelloffen. Weil die KI-Infrastruktur allen gehören sollte - und weil die Zukunft der KI nicht hinter proprietären Mauern eingeschlossen sein sollte.
Mehr als 10.000 Teams in der Produktion vertrauen darauf
Heute setzen mehr als 10.000 Unternehmensteams Milvus in der Produktion ein - von schnell wachsenden Startups bis hin zu einigen der weltweit etabliertesten Technologie- und Fortune 500-Unternehmen. Teams bei NVIDIA, Salesforce, eBay, Airbnb, IBM, AT&T, LINE, Shopee, Roblox, Bosch und innerhalb von Microsoft verlassen sich auf Milvus, um KI-Systeme zu betreiben, die jede Minute eines jeden Tages funktionieren. Ihre Workloads umfassen Suche, Empfehlungen, agentenbasierte Pipelines, multimodales Retrieval und andere Anwendungen, die die Vektorinfrastruktur an ihre Grenzen bringen.
Aber was am meisten zählt, ist nicht nur, wer Milvus nutzt, sondern auch, was sie damit aufbauen. Milvus ist branchenübergreifend für Systeme zuständig, die die Art und Weise beeinflussen, wie Unternehmen arbeiten, innovieren und konkurrieren:
KI-Kopiloten und Unternehmensassistenten, die den Kundensupport, die Vertriebsabläufe und die interne Entscheidungsfindung mit sofortigem Zugriff auf Milliarden von Einbettungen verbessern.
Semantische und visuelle Suche im E-Commerce, in den Medien und in der Werbung, die zu höheren Umsätzen, besserer Entdeckung und schnellerer kreativer Produktion führt.
Rechtliche, finanzielle und wissenschaftliche Intelligenzplattformen, bei denen sich Präzision, Überprüfbarkeit und Compliance in echte betriebliche Vorteile umsetzen lassen.
Betrugserkennung und Risiko-Engines in der Finanztechnologie und im Bankwesen, die auf schnellem semantischem Abgleich beruhen, um Verluste in Echtzeit zu verhindern.
Groß angelegte RAG- und Agentensysteme, die Teams ein tiefgreifend kontextbezogenes, domänenspezifisches KI-Verhalten ermöglichen.
Wissensschichten in Unternehmen, die Text, Code, Bilder und Metadaten zu einer kohärenten semantischen Struktur vereinen.
Und das sind keine Labor-Benchmarks - es sind einige der weltweit anspruchsvollsten Produktionsanwendungen. Milvus liefert routinemäßig:
Abrufzeiten unter 50 ms für Milliarden von Vektoren
Verwaltung von Milliarden von Dokumenten und Ereignissen in einem einzigen System
5-10x schnellere Arbeitsabläufe als alternative Lösungen
Mandantenfähige Architekturen, die Hunderttausende von Sammlungen unterstützen
Teams entscheiden sich aus einem einfachen Grund für Milvus: Es liefert dort, wo es darauf ankommt, Geschwindigkeit, Zuverlässigkeit, Kosteneffizienz und die Fähigkeit, auf Milliarden von Dokumenten zu skalieren, ohne ihre Architektur alle paar Monate auseinander zu reißen. Das Vertrauen, das diese Teams in uns setzen, ist der Grund, warum wir Milvus für das kommende Jahrzehnt der künstlichen Intelligenz weiter ausbauen.
Wenn Sie Milvus ohne die Ops brauchen: Zilliz Cloud
Milvus ist kostenlos, leistungsstark und kampferprobt. Aber es ist auch ein verteiltes System - und verteilte Systeme gut zu betreiben ist echte Ingenieursarbeit. Index-Tuning, Speicherverwaltung, Cluster-Stabilität, Skalierung, Beobachtbarkeit... diese Aufgaben erfordern Zeit und Fachwissen, das viele Teams einfach nicht erübrigen können. Die Entwickler wollten die Leistung von Milvus, nur ohne den operativen Aufwand, der unweigerlich mit der Verwaltung in großem Maßstab verbunden ist.
Diese Realität führte uns zu einer einfachen Schlussfolgerung: Wenn Milvus zur Kerninfrastruktur für KI-Anwendungen werden sollte, mussten wir es mühelos betreiben können. Aus diesem Grund haben wir Zilliz Cloud entwickelt, den vollständig verwalteten Milvus-Service, der von demselben Team entwickelt und gepflegt wird, das auch hinter dem Open-Source-Projekt steht.
Zilliz Cloud bietet Entwicklern das Milvus, das sie bereits kennen und dem sie vertrauen - allerdings ohne die Bereitstellung von Clustern, die Behebung von Leistungsproblemen, die Planung von Upgrades oder die Sorge um Storage- und Compute-Tuning. Und weil es Optimierungen enthält, die in selbstverwalteten Umgebungen nicht möglich sind, ist es sogar noch schneller und zuverlässiger. Cardinal, unsere kommerzielle, selbstoptimierende Vektor-Engine, bietet die 10-fache Leistung von Open-Source Milvus.
Was Zilliz Cloud auszeichnet
- Selbst-optimierende Leistung: AutoIndex stimmt HNSW, IVF und DiskANN automatisch ab und liefert 96%+ Recall ohne manuelle Konfiguration.
Elastisch und kosteneffizient: Pay-as-you-go-Preise, serverlose Autoskalierung und intelligentes Ressourcenmanagement senken die Kosten im Vergleich zu selbstverwalteten Bereitstellungen oft um 50 % oder mehr.
Zuverlässigkeit auf Unternehmensebene: 99,95 % Betriebszeit SLA, Multi-AZ-Redundanz, SOC 2 Typ II, ISO 27001 und GDPR-Konformität. Volle Unterstützung für RBAC, BYOC, Audit-Protokolle und Verschlüsselung.
Cloud-agnostische Bereitstellung: Ausführung auf AWS, Azure, GCP, Alibaba Cloud oder Tencent Cloud - keine Anbieterbindung, überall gleichbleibende Leistung.
Abfragen in natürlicher Sprache: Dank der integrierten MCP-Serverunterstützung können Sie Daten in natürlicher Sprache abfragen, anstatt API-Aufrufe manuell zu verfassen.
Mühelose Migration: Wechseln Sie von Milvus, Pinecone, Qdrant, Weaviate, Elasticsearch oder PostgreSQL mithilfe integrierter Migrationstools - ohne Schema-Neuschreiben oder Ausfallzeiten.
100% kompatibel mit Open-Source Milvus. Keine proprietären Forks. Kein Lock-in. Einfach Milvus, einfacher gemacht.
Milvus wird immer quelloffen und frei verwendbar bleiben. Aber der zuverlässige Betrieb im Unternehmensmaßstab erfordert erhebliche Fachkenntnisse und Ressourcen. Zilliz Cloud ist unsere Antwort auf diese Lücke. Zilliz Cloud wird in 29 Regionen und fünf großen Clouds eingesetzt und bietet Leistung, Sicherheit und Kosteneffizienz auf Unternehmensniveau, ohne dass Sie auf das Milvus, das Sie bereits kennen, verzichten müssen.
Kostenlose Testversion → starten
Was kommt als Nächstes? Milvus Lake
Als das Team, das die Vektordatenbank eingeführt hat, konnten wir aus der ersten Reihe miterleben, wie sich die Unternehmensdaten verändern. Was früher in strukturierten Tabellen im Terabyte-Bereich untergebracht war, entwickelt sich schnell zu Petabytes - und bald zu Billionen - von multimodalen Objekten. Text, Bilder, Audio, Video, Zeitreihenströme, Multisensorprotokolle... das sind die Datensätze, auf die moderne KI-Systeme angewiesen sind.
Vektordatenbanken sind speziell für unstrukturierte und multimodale Daten konzipiert, aber sie sind nicht immer die wirtschaftlichste oder architektonisch sinnvollste Wahl - vor allem, wenn der Großteil der Daten kalt ist. Trainingskorpora für große Modelle, Wahrnehmungsprotokolle für autonomes Fahren und Robotikdatensätze erfordern in der Regel keine Latenzzeiten im Millisekundenbereich oder hohe Gleichzeitigkeit. Die Ausführung dieser Datenmengen durch eine Echtzeit-Vektordatenbank wird für Pipelines, die dieses Leistungsniveau nicht benötigen, teuer, schwerfällig und übermäßig komplex.
Diese Realität führte uns zu unserer nächsten großen Initiative: Milvus Lake - einsemantikgesteuertes, indexbasiertes, multimodales Lakehouse, das für KI-Daten entwickelt wurde. Milvus Lake vereint semantische Signale über alle Modalitäten hinweg - Vektoren, Metadaten, Beschriftungen, LLM-generierte Beschreibungen und strukturierte Felder - und organisiert sie in Semantic Wide Tables, die um echte Geschäftseinheiten herum verankert sind. Daten, die zuvor als rohe, verstreute Dateien in Objektspeichern, Lakehouses und Modellpipelines vorhanden waren, werden zu einer einheitlichen, abfragbaren semantischen Ebene. Massive multimodale Korpora werden zu verwaltbaren, abrufbaren, wiederverwendbaren Assets mit konsistenter Bedeutung im gesamten Unternehmen.
Milvus Lake basiert auf einer sauberen Manifest-, Daten- und Indexarchitektur, bei der die Indizierung als grundlegend und nicht als nachträglicher Gedanke betrachtet wird. Dies ermöglicht einen Workflow nach dem Motto "erst abrufen, dann verarbeiten", der für kalte Daten in Billionenhöhe optimiert ist und vorhersehbare Latenzzeiten, drastisch niedrigere Speicherkosten und eine weitaus höhere Betriebsstabilität bietet. Ein Tiered-Storage-Ansatz - NVMe/SSD für Hot-Paths und Objektspeicher für tiefe Archive - gepaart mit effizienter Komprimierung und Lazy-Load-Indizes bewahrt die semantische Treue und hält den Infrastruktur-Overhead fest im Griff.
Milvus Lake fügt sich außerdem nahtlos in das moderne Datenökosystem ein und lässt sich mit Paimon, Iceberg, Hudi, Spark, Ray und anderen Big-Data-Engines und -Formaten integrieren. Teams können Stapelverarbeitung, Echtzeit-Pipelines, semantisches Retrieval, Feature-Engineering und die Vorbereitung von Trainingsdaten an einem Ort ausführen, ohne ihre bestehenden Workflows neu zu gestalten. Ganz gleich, ob Sie grundlegende Modellkorpora aufbauen, Bibliotheken für autonome Fahrsimulationen verwalten, Robotik-Agenten trainieren oder umfangreiche Retrievalsysteme betreiben, Milvus Lake bietet ein erweiterbares und kosteneffizientes semantisches Seehaus für das KI-Zeitalter.
Milvus Lake befindet sich in aktiver Entwicklung. Sind Sie an einem frühen Zugang interessiert oder möchten Sie mehr erfahren?
Gebaut von der Gemeinschaft, für die Gemeinschaft
Was Milvus so besonders macht, ist nicht nur die Technologie, sondern auch die Menschen, die dahinter stehen. Unsere Mitarbeiter kommen aus der ganzen Welt und sind Spezialisten für High-Performance-Computing, verteilte Systeme und KI-Infrastruktur. Ingenieure und Forscher von ARM, NVIDIA, AMD, Intel, Meta, IBM, Salesforce, Alibaba, Microsoft und vielen anderen haben mit ihrer Expertise dazu beigetragen, Milvus zu dem zu machen, was es heute ist.
Jeder Pull-Request, jeder Bug-Report, jede in unseren Foren beantwortete Frage, jedes erstellte Tutorial - diese Beiträge machen Milvus für alle besser.
Dieser Meilenstein gehört Ihnen allen:
Unseren Mitwirkenden: Vielen Dank für Ihren Code, Ihre Ideen und Ihre Zeit. Sie machen Milvus jeden einzelnen Tag besser.
An unsere Benutzer: Vielen Dank, dass Sie Milvus Ihre Arbeitslasten anvertrauen und uns Ihre Erfahrungen mitteilen, sowohl die guten als auch die schwierigen. Ihr Feedback treibt unsere Roadmap voran.
An unsere Community-Unterstützer: Vielen Dank für die Beantwortung von Fragen, das Schreiben von Tutorials, die Erstellung von Inhalten und die Unterstützung von Neulingen beim Einstieg. Sie machen unsere Community zu einer einladenden und integrativen Gemeinschaft.
An unsere Partner und Integratoren: Vielen Dank, dass Sie mit uns zusammenarbeiten und Milvus zu einem erstklassigen Bürger im Ökosystem der KI-Entwicklung machen.
An das Zilliz-Team: Vielen Dank für Ihr unermüdliches Engagement für das Open-Source-Projekt und den Erfolg unserer Nutzer.
Milvus ist gewachsen, weil Tausende von Menschen beschlossen haben, gemeinsam etwas aufzubauen - offen, großzügig und in der Überzeugung, dass grundlegende KI-Infrastruktur für jeden zugänglich sein sollte.
Begleiten Sie uns auf dieser Reise
Ganz gleich, ob Sie Ihre erste Vektorsuchanwendung entwickeln oder auf Milliarden von Vektoren skalieren, wir würden uns freuen, Sie als Teil der Milvus-Community begrüßen zu dürfen.
Fangen Sie an:
⭐ Starten Sie uns auf GitHub: github.com/milvus-io/milvus
☁️ Zilliz Cloud kostenlos testen: zilliz.com/cloud
💬 Treten Sie unserem Discord bei, um sich mit Entwicklern weltweit zu verbinden
📚 Erforschen Sie unsere Dokumentationen: Milvus Dokumentation
💬 Buchen Sie ein 20-minütiges persönliches Gespräch, um Einblicke, Anleitung und Antworten auf Ihre Fragen zu erhalten.
Der Weg, der vor uns liegt, ist spannend. Während KI Branchen umgestaltet und neue Möglichkeiten eröffnet, werden Vektordatenbanken im Zentrum dieser Transformation stehen. Gemeinsam schaffen wir die semantische Grundlage, auf die sich moderne KI-Anwendungen stützen - und wir stehen erst am Anfang.
Auf die nächsten 40.000 Sterne und darauf, gemeinsam die Zukunft der KI-Infrastruktur zu gestalten. 🎉
Try Managed Milvus for Free
Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.
Get StartedLike the article? Spread the word



