7 anni, 2 grandi ricostruzioni, oltre 40.000 stelle GitHub: L'ascesa di Milvus come principale database vettoriale open source
Nel giugno 2025, Milvus ha raggiunto le 35.000 stelle di GitHub. A pochi mesi di distanza, abbiamo superato le 40.000 stelle, a riprovanon solo dello slancio, ma anche di una comunità globale che continua a spingere in avanti il futuro della ricerca vettoriale e multimodale.
Siamo profondamente grati. A tutti coloro che hanno dato la stelletta, hanno fatto il fork, hanno presentato problemi, hanno discusso su un'API, hanno condiviso un benchmark o hanno costruito qualcosa di incredibile con Milvus: grazie, e siete il motivo per cui questo progetto si muove così velocemente. Ogni stella rappresenta più di un pulsante premuto: riflette qualcuno che ha scelto Milvus per alimentare il proprio lavoro, qualcuno che crede in ciò che stiamo costruendo, qualcuno che condivide la nostra visione di un'infrastruttura AI aperta, accessibile e ad alte prestazioni.
Perciò, mentre festeggiamo, guardiamo anche al futuro: alle funzionalità che ci chiedete, alle architetture che l'IA ora richiede e a un mondo in cui la comprensione multimodale e semantica è l'opzione predefinita in ogni applicazione.
Il viaggio: Da zero a oltre 40.000 stelle
Quando abbiamo iniziato a costruire Milvus nel 2017, il termine database vettoriale non esisteva nemmeno. Eravamo solo un piccolo team di ingegneri convinti che le applicazioni di intelligenza artificiale avrebbero presto avuto bisogno di un nuovo tipo di infrastruttura di dati, costruita non per righe e colonne, ma per dati multimodali, destrutturati e ad alta dimensione. I database tradizionali non sono stati costruiti per questo mondo e sapevamo che qualcuno doveva reimmaginare l'aspetto dell'archiviazione e del recupero dei dati.
I primi tempi sono stati tutt'altro che entusiasmanti. Costruire un'infrastruttura di livello aziendale è un lavoro lento e ostinato: settimane passate a profilare i percorsi del codice, a riscrivere i componenti e a mettere in discussione le scelte di progettazione alle due di notte. Ma noi ci siamo attenuti a una semplice missione: rendere la ricerca vettoriale accessibile, scalabile e affidabile per ogni sviluppatore che realizza applicazioni di intelligenza artificiale. Questa missione ci ha portato a superare le prime scoperte e le inevitabili battute d'arresto.
E lungo il percorso, alcuni punti di svolta hanno cambiato tutto:
2019: abbiamo reso disponibile Milvus 0.10. Significava esporre tutte le nostre asperità: gli hack, i TODO, i pezzi di cui non eravamo ancora orgogliosi. Ma la comunità si è fatta sentire. Gli sviluppatori hanno presentato problemi che non avremmo mai trovato, hanno proposto funzionalità che non avevamo immaginato e hanno messo in discussione ipotesi che alla fine hanno reso Milvus più forte.
2020-2021: Ci siamo uniti alla LF AI & Data Foundation, abbiamo distribuito Milvus 1.0, ci siamo diplomati alla LF AI & Data e abbiamo vinto la sfida della ricerca vettoriale su scala di un miliardo di BigANN: una prima prova che la nostra architettura era in grado di gestire la scala del mondo reale.
2022: gli utenti aziendali avevano bisogno di una scalabilità nativa Kubernetes, di elasticità e di una reale separazione tra storage e calcolo. Ci trovammo di fronte a una decisione difficile: mettere mano al vecchio sistema o ricostruire tutto. Abbiamo scelto la strada più difficile. Milvus 2.0 è stato reinventato, introducendo un'architettura cloud-nativa completamente disaccoppiata che ha trasformato Milvus in una piattaforma di livello produttivo per carichi di lavoro AI mission-critical.
2024-2025: Zilliz (il team dietro Milvus) è stato nominato leader da Forrester, ha superato le 30.000 stelle e ora è oltre le 40.000. È diventato la spina dorsale della ricerca multimodale, dei sistemi RAG, dei flussi di lavoro agici e del reperimento su scala miliardaria in tutti i settori: istruzione, finanza, produzione creativa, ricerca scientifica e altro ancora.
Questo traguardo è stato raggiunto non grazie all'hype, ma grazie agli sviluppatori che hanno scelto Milvus per carichi di lavoro di produzione reali e che ci hanno spinto a migliorare in ogni momento.
2025: Due importanti release, enormi guadagni in termini di prestazioni
Il 2025 è stato l'anno in cui Milvus è entrato in un nuovo campionato. Mentre la ricerca vettoriale eccelle nella comprensione semantica, la realtà in produzione è semplice: gli sviluppatori hanno ancora bisogno di una corrispondenza precisa delle parole chiave per gli ID dei prodotti, i numeri di serie, le frasi esatte, i termini legali e altro ancora. Senza la ricerca full-text nativa, i team erano costretti a mantenere cluster Elasticsearch/OpenSearch o a incollare insieme le proprie soluzioni personalizzate, raddoppiando i costi operativi e la frammentazione.
Milvus 2.5 ha cambiato le cose. Ha introdotto una ricerca ibrida veramente nativa, combinando il reperimento del testo completo e la ricerca vettoriale in un unico motore. Per la prima volta, gli sviluppatori hanno potuto eseguire insieme query lessicali, semantiche e filtri di metadati senza dover ricorrere a sistemi aggiuntivi o a pipeline di sincronizzazione. Abbiamo anche migliorato il filtraggio dei metadati, l'analisi delle espressioni e l'efficienza di esecuzione, in modo che le query ibride risultassero naturali e veloci sotto carichi di produzione reali.
Milvus 2.6 ha spinto ulteriormente questo slancio, affrontando le due sfide che sentiamo più spesso dagli utenti che operano su scala: costi e prestazioni. Questa versione ha apportato profondi miglioramenti architetturali: percorsi di query più prevedibili, indicizzazione più veloce, utilizzo della memoria nettamente inferiore e archiviazione significativamente più efficiente. Molti team hanno registrato guadagni immediati senza modificare una sola riga di codice dell'applicazione.
Ecco alcuni punti salienti di Milvus 2.6:
Archiviazione a livelli che consente ai team di bilanciare in modo più intelligente costi e prestazioni, riducendo i costi di archiviazione fino al 50%.
Enorme risparmio di memoria grazie alla quantizzazione a 1 bit RaBitQ, che consente di ridurre l'utilizzo della memoria fino al 72% pur garantendo query più veloci.
Un motore full-text riprogettato con un'implementazione BM25 significativamente più veloce - fino a 4 volte più veloce di Elasticsearch nei nostri benchmark.
Un nuovo Path Index per i metadati strutturati in JSON, che consente un filtraggio fino a 100 volte più veloce su documenti complessi.
AiSAQ: compressione su scala miliardaria con riduzione dello storage di 3200× e forte richiamo.
Ricercasemantica e geospaziale con R-Tree: Combinare la posizione degli oggetti con il loro significato per ottenere risultati più pertinenti.
CAGRA+ Vamana: Riduce i costi di implementazione con una modalità ibrida CAGRA che si basa sulla GPU ma esegue le query sulla CPU.
Unflusso di lavoro"data in, data out" che semplifica l'ingestione e il recupero degli embedding, soprattutto per le pipeline multimodali.
Supporto per un massimo di 100K collezioni in un singolo cluster: un passo importante verso una vera multi-tenancy su scala.
Per un approfondimento su Milvus 2.6, consultate le note di rilascio complete.
Oltre Milvus: strumenti open source per gli sviluppatori di IA
Nel 2025 non ci siamo limitati a migliorare Milvus, ma abbiamo costruito strumenti che rafforzano l'intero ecosistema degli sviluppatori di IA. Il nostro obiettivo non è stato quello di inseguire le tendenze, ma di fornire ai costruttori il tipo di strumenti aperti, potenti e trasparenti che abbiamo sempre desiderato esistessero.
DeepSearcher: Ricerca senza blocco del cloud
Deep Researcher di OpenAI ha dimostrato cosa possono fare gli agenti di ragionamento profondo. Ma è chiuso, costoso e bloccato dietro API cloud. DeepSearcher è la nostra risposta. È un motore di ricerca profonda locale e open-source progettato per tutti coloro che desiderano indagini strutturate senza sacrificare il controllo o la privacy.
DeepSearcher viene eseguito interamente sulla vostra macchina, raccoglie informazioni da tutte le fonti, sintetizza le intuizioni e fornisce citazioni, fasi di ragionamento e tracciabilità, caratteristiche essenziali per una vera ricerca, non solo per riassunti di superficie. Nessuna scatola nera. Nessun vincolo con il fornitore. Solo analisi trasparenti e riproducibili di cui sviluppatori e ricercatori possono fidarsi.
Claude Context: Assistenti di codifica che capiscono davvero il vostro codice
La maggior parte degli strumenti di codifica dell'intelligenza artificiale si comportano ancora come pipeline di grep di fantasia: veloci, superficiali, bruciano token e non tengono conto della struttura reale del progetto. Claude Context cambia questa situazione. Costruito come plugin MCP, offre finalmente agli assistenti di codifica ciò che mancava loro: una vera comprensione semantica della vostra base di codice.
Claude Context costruisce un indice semantico vettoriale del progetto, consentendo agli agenti di trovare i moduli giusti, seguire le relazioni tra i file, comprendere l'intento a livello di architettura e rispondere alle domande con pertinenza anziché con congetture. Riduce lo spreco di token, aumenta la precisione e, cosa più importante, permette agli assistenti di codifica di comportarsi come se capissero davvero il vostro software, anziché fingere.
Entrambi gli strumenti sono completamente open source. Perché l'infrastruttura dell'IA dovrebbe essere di tutti e perché il futuro dell'IA non dovrebbe essere rinchiuso dietro mura proprietarie.
Affidato a più di 10.000 team in produzione
Oggi, più di 10.000 team aziendali utilizzano Milvus in produzione, da startup in rapida crescita ad alcune delle aziende tecnologiche più affermate al mondo e alle Fortune 500. I team di NVIDIA, Salesforce, eBay, Airbnb, IBM, AT&T, LINE, Shopee, Roblox, Bosch e Microsoft si affidano a Milvus per alimentare i sistemi di intelligenza artificiale che operano ogni minuto di ogni giorno. I loro carichi di lavoro comprendono ricerca, raccomandazioni, pipeline agenziali, recupero multimodale e altre applicazioni che spingono l'infrastruttura vettoriale ai suoi limiti.
Ma ciò che conta di più non è solo chi usa Milvus: è ciò che costruiscono con esso. In tutti i settori, Milvus è alla base di sistemi che modellano il modo in cui le aziende operano, innovano e competono:
Copiloti AI e assistenti aziendali che migliorano l'assistenza ai clienti, i flussi di lavoro di vendita e il processo decisionale interno grazie all'accesso istantaneo a miliardi di embeddings.
Ricerca semantica e visiva nell'e-commerce, nei media e nella pubblicità, per aumentare la conversione, migliorare la scoperta e velocizzare la produzione creativa.
Piattaforme di intelligence legale, finanziaria e scientifica in cui precisione, verificabilità e conformità si traducono in reali vantaggi operativi.
Motori di rilevamento delle frodi e dei rischi nel settore fintech e bancario che dipendono da una rapida corrispondenza semantica per prevenire le perdite in tempo reale.
Sistemi RAG e agenziali su larga scala che forniscono ai team un comportamento AI profondamente contestuale e consapevole del dominio.
Livelli di conoscenza aziendali che unificano testo, codice, immagini e metadati in un unico tessuto semantico coerente.
E non si tratta di benchmark di laboratorio, ma di alcune delle implementazioni di produzione più impegnative al mondo. Milvus è sempre all'altezza:
Recupero in meno di 50 ms su miliardi di vettori
Miliardi di documenti ed eventi gestiti in un unico sistema
Flussi di lavoro 5-10 volte più veloci rispetto a soluzioni alternative
Architetture multi-tenant che supportano centinaia di migliaia di collezioni
I team scelgono Milvus per un semplice motivo: offre i risultati che contano in termini di velocità, affidabilità, efficienza dei costi e capacità di scalare fino a miliardi senza dover smantellare l'architettura ogni pochi mesi. La fiducia che questi team ripongono in noi è il motivo per cui continuiamo a rafforzare Milvus per il decennio di AI che ci attende.
Quando serve Milvus senza le operazioni: Zilliz Cloud
Milvus è gratuito, potente e collaudato. Ma è anche un sistema distribuito e far funzionare bene i sistemi distribuiti è un vero lavoro di ingegneria. La messa a punto degli indici, la gestione della memoria, la stabilità del cluster, la scalabilità, l'osservabilità... sono compiti che richiedono tempo e competenze che molti team non hanno a disposizione. Gli sviluppatori volevano la potenza di Milvus, ma senza il peso operativo che inevitabilmente deriva dalla gestione su scala.
Questa realtà ci ha portato a una semplice conclusione: se Milvus doveva diventare l'infrastruttura principale per le applicazioni di intelligenza artificiale, dovevamo renderlo facile da gestire. Ecco perché abbiamo costruito Zilliz Cloud, il servizio Milvus completamente gestito, creato e mantenuto dallo stesso team che sta dietro al progetto open-source.
Zilliz Cloud offre agli sviluppatori il Milvus che già conoscono e di cui si fidano, ma senza dover fare il provisioning dei cluster, combattere i problemi di prestazioni, pianificare gli aggiornamenti o preoccuparsi della messa a punto dello storage e del calcolo. E poiché include ottimizzazioni impossibili da eseguire in ambienti autogestiti, è ancora più veloce e affidabile. Cardinal, il nostro motore vettoriale auto-ottimizzante di livello commerciale, offre prestazioni 10 volte superiori a Milvus open-source.
Cosa distingue Zilliz Cloud
- Prestazioni auto-ottimizzanti: AutoIndex regola automaticamente HNSW, IVF e DiskANN, garantendo un richiamo superiore al 96% senza alcuna configurazione manuale.
Elastico ed efficiente in termini di costi: I prezzi pay-as-you-go, l'autoscaling serverless e la gestione intelligente delle risorse spesso riducono i costi del 50% o più rispetto alle implementazioni autogestite.
Affidabilità di livello enterprise: SLA di uptime del 99,95%, ridondanza multi-AZ, conformità SOC 2 Type II, ISO 27001 e GDPR. Supporto completo per RBAC, BYOC, registri di audit e crittografia.
Distribuzione cloud-agnostica: Esecuzione su AWS, Azure, GCP, Alibaba Cloud o Tencent Cloud: nessun vendor lock-in, prestazioni uniformi ovunque.
Query in linguaggio naturale: Il supporto integrato per i server MCP consente di interrogare i dati in modo conversazionale, invece di creare manualmente le chiamate API.
Migrazione senza sforzo: Passate da Milvus, Pinecone, Qdrant, Weaviate, Elasticsearch o PostgreSQL utilizzando gli strumenti di migrazione integrati: non sono necessarie riscritture dello schema o tempi di inattività.
100% compatibile con Milvus open-source. Nessun fork proprietario. Nessun lock-in. Solo Milvus, reso più semplice.
Milvus rimarrà sempre open source e gratuito. Ma per gestirlo e farlo funzionare in modo affidabile su scala aziendale sono necessarie competenze e risorse significative. Zilliz Cloud è la nostra risposta a questa lacuna. Distribuito in 29 regioni e su cinque cloud principali, Zilliz Cloud offre prestazioni, sicurezza ed efficienza economica di livello aziendale, mantenendo l'allineamento completo con il Milvus che già conoscete.
Cosa c'è dopo: Milvus Lake
In qualità di team che ha introdotto il database vettoriale, abbiamo assistito in prima fila al cambiamento dei dati aziendali. Ciò che un tempo si inseriva ordinatamente in terabyte di tabelle strutturate si sta rapidamente trasformando in petabyte - e presto in trilioni - di oggetti multimodali. Testo, immagini, audio, video, flussi di serie temporali, registri multisensoriali... questi sono i set di dati su cui si basano i moderni sistemi di intelligenza artificiale.
I database vettoriali sono costruiti appositamente per i dati non strutturati e multimodali, ma non sempre sono la scelta più economica o architetturale, soprattutto quando la maggior parte dei dati è fredda. I corpora di addestramento per i modelli di grandi dimensioni, i registri di percezione della guida autonoma e i set di dati della robotica di solito non richiedono una latenza di millisecondi o un'elevata concurrency. L'esecuzione di questo volume di dati attraverso un database vettoriale in tempo reale diventa costosa, pesante dal punto di vista operativo ed eccessivamente complessa per le pipeline che non richiedono questo livello di prestazioni.
Questa realtà ci ha portato alla nostra prossima importante iniziativa: Milvus Lake, unlakehouse multimodale semantico e index-first progettato per i dati su scala AI. Milvus Lake unifica i segnali semantici in tutte le modalità - vettori, metadati, etichette, descrizioni generate da LLM e campi strutturati - e li organizza in Semantic Wide Tables ancorate a entità aziendali reali. I dati che prima vivevano come file grezzi e sparsi in archivi di oggetti, lakehouse e pipeline di modelli diventano un livello semantico unificato e interrogabile. I grandi corpora multimodali si trasformano in risorse gestibili, recuperabili e riutilizzabili con un significato coerente in tutta l'azienda.
Sotto il cofano, Milvus Lake è costruito su un'architettura pulita di manifesto + dati + indice, che considera l'indicizzazione come fondamentale e non come un ripensamento. Questo sblocca un flusso di lavoro "recupera prima, elabora poi" ottimizzato per i dati freddi su scala trilionaria, offrendo una latenza prevedibile, costi di archiviazione nettamente inferiori e una stabilità operativa di gran lunga superiore. Un approccio di archiviazione a più livelli -VMe/SSD per i percorsi caldi e storage a oggetti per gli archivi profondi - abbinato a una compressione efficiente e a indici pigri, preserva la fedeltà semantica e tiene sotto controllo i costi dell'infrastruttura.
Milvus Lake si inserisce perfettamente nell'ecosistema dei dati moderni, integrandosi con Paimon, Iceberg, Hudi, Spark, Ray e altri motori e formati di big data. I team possono eseguire l'elaborazione batch, le pipeline quasi in tempo reale, il recupero semantico, l'ingegnerizzazione delle caratteristiche e la preparazione dei dati di formazione in un unico luogo, senza dover riformulare i flussi di lavoro esistenti. Che si tratti di costruire corpora di modelli di base, di gestire librerie di simulazioni di guida autonoma, di addestrare agenti robotici o di alimentare sistemi di reperimento su larga scala, Milvus Lake fornisce un lago semantico estensibile e conveniente per l'era dell'intelligenza artificiale.
Milvus Lake è in fase di sviluppo attivo. Siete interessati all'accesso anticipato o volete saperne di più?
Costruito dalla comunità, per la comunità
Ciò che rende speciale Milvus non è solo la tecnologia, ma anche le persone che ci sono dietro. La nostra base di collaboratori abbraccia tutto il mondo, riunendo specialisti del calcolo ad alte prestazioni, dei sistemi distribuiti e dell'infrastruttura AI. Ingegneri e ricercatori di ARM, NVIDIA, AMD, Intel, Meta, IBM, Salesforce, Alibaba, Microsoft e molti altri hanno contribuito con la loro esperienza a trasformare Milvus in ciò che è oggi.
Ogni richiesta di pull, ogni segnalazione di bug, ogni domanda a cui si risponde nei nostri forum, ogni tutorial creato: questi contributi rendono Milvus migliore per tutti.
Questa pietra miliare appartiene a tutti voi:
Ai nostri collaboratori: Grazie per il vostro codice, le vostre idee e il vostro tempo. Rendete Milvus migliore ogni singolo giorno.
Ai nostri utenti: Grazie per aver affidato a Milvus i vostri carichi di lavoro di produzione e per aver condiviso le vostre esperienze, sia positive che negative. Il vostro feedback guida la nostra tabella di marcia.
Ai sostenitori della nostra comunità: Grazie per rispondere alle domande, scrivere tutorial, creare contenuti e aiutare i nuovi arrivati a iniziare. Siete voi a rendere la nostra comunità accogliente e inclusiva.
Ai nostri partner e integratori: Grazie per aver costruito con noi e per aver reso Milvus un cittadino di prima classe nell'ecosistema di sviluppo dell'intelligenza artificiale.
Al team di Zilliz: Grazie per il vostro costante impegno sia per il progetto open-source che per il successo dei nostri utenti.
Milvus è cresciuto perché migliaia di persone hanno deciso di costruire qualcosa insieme, in modo aperto, generoso e con la convinzione che un'infrastruttura di AI fondamentale debba essere accessibile a tutti.
Unitevi a noi in questo viaggio
Sia che stiate costruendo la vostra prima applicazione di ricerca vettoriale o che stiate scalando verso miliardi di vettori, ci piacerebbe avervi come parte della comunità Milvus.
Iniziate:
Inizia su GitHub: github.com/milvus-io/milvus
☁️ Prova Zilliz Cloud gratuitamente: zilliz.com/cloud
💬 Unisciti al nostro Discord per connetterti con gli sviluppatori di tutto il mondo
📚 Esplora la nostra documentazione: Documentazione Milvus
💬 Prenotate una sessione individuale di 20 minuti per ottenere approfondimenti, indicazioni e risposte alle vostre domande.
La strada da percorrere è entusiasmante. Mentre l'intelligenza artificiale rimodella i settori e apre nuove possibilità, i database vettoriali saranno al centro di questa trasformazione. Insieme, stiamo costruendo le fondamenta semantiche su cui si basano le moderne applicazioni di IA, e siamo solo all'inizio.
Alle prossime 40.000 stelle e a costruire insieme il futuro dell'infrastruttura dell'IA. 🎉
Try Managed Milvus for Free
Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.
Get StartedLike the article? Spread the word



