🚀 Prova Zilliz Cloud, la versione completamente gestita di Milvus, gratuitamente—sperimenta prestazioni 10 volte più veloci! Prova Ora>>

milvus-logo
LFAI

2023: l'anno dell'IA

    January 05, 2024
    James Luan

    This image is generated by AI. Questa immagine è generata dall'intelligenza artificiale.

    Questo post è stato scritto da James Luan con l'aiuto di ChatGPT. James ha scritto principalmente i suggerimenti e ha rivisto e rifinito i contenuti generati dall'IA.

    2023: l'anno dell'IA

    Il 2023 segna un punto di svolta fondamentale per l'intelligenza artificiale (AI). I Large Language Models (LLM) hanno conquistato il centro della scena, ottenendo un ampio riconoscimento per le loro eccezionali capacità di elaborazione del linguaggio naturale. Questo aumento di popolarità ha ampliato notevolmente le possibilità delle applicazioni di apprendimento automatico, consentendo agli sviluppatori di costruire applicazioni più intelligenti e interattive.

    In questa rivoluzione, i database vettoriali sono emersi come una componente cruciale, che funge da memoria a lungo termine per gli LLM. L'ascesa dei modelli RAG (Retrieval-Augmented Generation), degli agenti intelligenti e delle applicazioni di recupero multimodale ha dimostrato il vasto potenziale dei database vettoriali nel migliorare l'efficienza del recupero dei dati multimodali, nel ridurre le allucinazioni nei LLM e nell'integrare la conoscenza del dominio.

    L'evoluzione degli LLM ha anche catalizzato progressi significativi nelle tecnologie di incorporamento. Secondo la Massive Text Embedding Benchmark (MTEB) Leaderboard su HuggingFace, i principali modelli di embedding come UAE, VoyageAI, CohereV3 e Bge sono stati tutti rilasciati nel 2023. Questi progressi hanno rafforzato l'efficacia del recupero vettoriale di varie tecnologie di ricerca vettoriale come Milvus, fornendo capacità di elaborazione dei dati più precise ed efficienti per le applicazioni di IA.

    Tuttavia, con la crescente popolarità dei database vettoriali, sono sorti dibattiti sulla necessità di soluzioni specializzate. Decine di startup sono entrate nell'arena dei database vettoriali. Molti database relazionali e NoSQL tradizionali hanno iniziato a trattare i vettori come un tipo di dati significativo e molti sostengono di essere in grado di sostituire i database vettoriali specializzati in ogni situazione.

    Con l'ingresso nel 2024, è un momento sensato per riflettere sull'intero settore dei database vettoriali, con un'attenzione particolare a Milvus, un prodotto di spicco in questo panorama.

    Milvus nel 2023: i numeri non mentono

    Lanciato per la prima volta nel 2019, Milvus è stato un pioniere del concetto di database vettoriale e ha mantenuto una reputazione di elevata affidabilità, scalabilità, qualità della ricerca e prestazioni. Nel 2023, Milvus ha ottenuto risultati impressionanti e ha subito cambiamenti significativi, guidati principalmente dal rapido avanzamento dei LLM e dal boom delle applicazioni AIGC. Ecco alcune cifre chiave che rappresentano al meglio i progressi di Milvus nel 2023.

    ZERO tempi di inattività durante gli aggiornamenti periodici

    Per chi è alle prime armi con i database vettoriali, l'attenzione principale è rivolta alla funzionalità piuttosto che alla manutenzione operativa. Molti sviluppatori di applicazioni prestano meno attenzione alla stabilità dei loro database vettoriali rispetto ai database transazionali, poiché le loro applicazioni sono spesso nelle prime fasi di esplorazione. Tuttavia, la stabilità diventa indispensabile se si vuole distribuire la propria applicazione AIGC in un ambiente di produzione e ottenere la migliore esperienza utente.

    Milvus si distingue per dare priorità non solo alla funzionalità, ma anche alla stabilità operativa. A partire dalla versione 2.2.3 abbiamo aggiunto a Milvus l'aggiornamento continuo. Dopo un continuo perfezionamento, questa funzione è in grado di garantire zero tempi di inattività durante gli aggiornamenti senza interrompere i processi aziendali.

    Miglioramento delle prestazioni 3x in ambienti di produzione

    Il miglioramento delle prestazioni della ricerca vettoriale deve essere un obiettivo primario per i database vettoriali. Molte soluzioni di ricerca vettoriale hanno scelto di basarsi sull'adattamento dell'algoritmo HNSW per arrivare rapidamente sul mercato; sfortunatamente, questo li porta ad affrontare sfide significative negli ambienti di produzione reali, specialmente con ricerche altamente filtrate (oltre il 90%) e frequenti cancellazioni di dati. Milvus considera le prestazioni fin dall'inizio ed eccelle nell'ottimizzazione delle prestazioni durante qualsiasi fase di sviluppo, soprattutto negli ambienti di produzione, ottenendo un miglioramento di tre volte delle prestazioni di ricerca, in particolare nelle situazioni di ricerca filtrata e di inserimento/ricerca in streaming.

    Per aiutare ulteriormente la comunità dei database vettoriali, l'anno scorso abbiamo introdotto VectorDBBench, uno strumento di benchmarking open-source. Questo strumento è fondamentale per le prime valutazioni dei database vettoriali in diverse condizioni. A differenza dei metodi di valutazione tradizionali, VectorDBBench valuta i database utilizzando dati del mondo reale, compresi i dataset di grandi dimensioni o quelli che assomigliano molto ai dati dei modelli di embedding reali, fornendo agli utenti informazioni più approfondite per un processo decisionale consapevole.

    Miglioramento del 5% del richiamo sul set di dati Beir

    Sebbene le incorporazioni dense si siano dimostrate efficaci nella ricerca vettoriale, devono recuperare il ritardo nella ricerca di nomi, oggetti, abbreviazioni e contesti di query brevi. In risposta ai loro limiti, Milvus ha introdotto un approccio di query ibrido che integra embeddings densi con embeddings radi per migliorare la qualità dei risultati di ricerca. La sinergia di questa soluzione ibrida con un modello di reranking ha portato a un sostanziale miglioramento del 5% del tasso di richiamo sul dataset Beir, come confermato dai nostri test.

    Oltre a migliorare la qualità della ricerca, Milvus ha anche presentato una soluzione di retrieval basata su grafi e adattata a embeddings sparsi, superando le prestazioni di algoritmi di ricerca convenzionali come WAND.

    Al concorso NeurIPS BigANN 2023, Zihao Wang, un ingegnere di talento di Zilliz, ha presentato Pyanns, un algoritmo di ricerca che ha dimostrato una superiorità significativa rispetto agli altri prodotti nella traccia di ricerca degli embedding sparsi. Questa soluzione innovativa è un precursore dei nostri algoritmi di ricerca sparse embedding per gli ambienti di produzione.

    Risparmio di memoria 10 volte su grandi insiemi di dati

    LaRetrieval Augmented Generation (RAG ) è stato il caso d'uso più diffuso per i database vettoriali nel 2023. Tuttavia, l'aumento dei volumi di dati vettoriali con le applicazioni RAG rappresenta una sfida per lo storage di queste applicazioni. Questa sfida è particolarmente vera quando il volume dei vettori trasformati supera quello dei pezzi di documento originali, con un potenziale aumento dei costi di utilizzo della memoria. Ad esempio, dopo la suddivisione dei documenti in chunk, la dimensione di un vettore float32 a 1536 dimensioni (circa 3kb) trasformato da un chunk di 500 token (circa 1kb) è maggiore del chunk di 500 token.

    Milvus è il primo database vettoriale open source a supportare l'indicizzazione su disco, con un notevole risparmio di memoria pari a 5 volte. Entro la fine del 2023, abbiamo introdotto Milvus 2.3.4, che consente di caricare dati/indici scalari e vettoriali sul disco utilizzando file con mappatura della memoria(MMap). Questo progresso offre una riduzione di oltre 10 volte nell'utilizzo della memoria rispetto all'indicizzazione tradizionale in memoria.

    20 versioni di Milvus

    Nel 2023, Milvus ha intrapreso un percorso di trasformazione segnato da tappe significative. Nel corso dell'anno abbiamo lanciato 20 release, a testimonianza della dedizione di oltre 300 sviluppatori della comunità e della realizzazione del nostro impegno per un approccio allo sviluppo guidato dall'utente.

    Ad esempio, Milvus 2.2.9 ha introdotto lo schema dinamico, segnando un passaggio cruciale dalla priorità delle prestazioni al miglioramento dell'usabilità. Sulla base di ciò, Milvus 2.3 ha introdotto funzionalità critiche come Upsert, Range Search, metriche del coseno e altre ancora, tutte guidate dalle esigenze e dai feedback specifici della nostra comunità di utenti. Questo processo di sviluppo iterativo sottolinea il nostro impegno ad allineare continuamente Milvus alle esigenze in evoluzione dei nostri utenti.

    1.000.000 di inquilini in un solo Custer

    L'implementazione della multi-tenancy è fondamentale per lo sviluppo di sistemi RAG, agenti AI e altre applicazioni LLM, in grado di soddisfare le crescenti richieste di isolamento dei dati da parte degli utenti. Per le aziende B2C, il numero di tenant può arrivare a milioni, rendendo impraticabile l'isolamento fisico dei dati degli utenti (ad esempio, è improbabile che qualcuno crei milioni di tabelle in un database relazionale). Milvus ha introdotto la funzione Chiave di partizione, che consente un isolamento logico efficiente e un filtraggio dei dati basato su chiavi di partizione, utile su larga scala.

    Al contrario, le aziende B2B, abituate a gestire decine di migliaia di tenant, beneficiano di una strategia più sfumata che prevede l'isolamento delle risorse fisiche. L'ultima versione di Milvus 2.3.4 migliora la gestione della memoria, la gestione delle coroutine e l'ottimizzazione della CPU, facilitando la creazione di decine di migliaia di tabelle all'interno di un singolo cluster. Questo miglioramento soddisfa anche le esigenze delle aziende B2B con una maggiore efficienza e controllo.

    10.000.000 di estrazioni di immagini Docker

    Alla fine del 2023, Milvus ha raggiunto un traguardo impressionante con 10 milioni di download di immagini Docker. Questo traguardo segnala il crescente interesse della comunità di sviluppatori per Milvus e sottolinea la sua crescente importanza nell'ambito dei database vettoriali.

    Primo database vettoriale cloud-native al mondo, Milvus vanta una perfetta integrazione con Kubernetes e con il più ampio ecosistema dei container. Guardando al futuro, non si può fare a meno di riflettere sul prossimo punto focale nel panorama dei database vettoriali in continua evoluzione. Potrebbe essere l'ascesa dei servizi Serverless?

    10 miliardi di entità in una singola raccolta

    Sebbene la scalabilità non sia al momento al centro dell'attenzione nel fenomeno dell'intelligenza artificiale, essa gioca certamente un ruolo fondamentale, lungi dall'essere un semplice aspetto secondario. Il database vettoriale Milvus è in grado di scalare senza problemi fino a ospitare miliardi di dati vettoriali senza sudare. Prendiamo ad esempio uno dei nostri clienti LLM. Milvus ha aiutato questo cliente a memorizzare, elaborare e recuperare ben 10 miliardi di punti di dati. Ma come si fa a bilanciare costi e prestazioni quando si ha a che fare con un volume di dati così elevato? Mivus ha diverse capacità per aiutarvi ad affrontare questa sfida e a migliorare la vostra esperienza.

    Oltre i numeri: le nuove intuizioni sui database vettoriali

    Al di là delle pietre miliari numeriche, il 2023 ci ha arricchito di preziose intuizioni. Abbiamo approfondito le complessità del panorama dei database vettoriali, andando oltre le semplici statistiche per cogliere le sottili sfumature e le dinamiche in evoluzione della tecnologia di ricerca vettoriale.

    Le applicazioni LLM sono ancora agli inizi.

    Se pensiamo ai primi tempi del boom di Internet mobile, molti sviluppatori creavano semplici applicazioni come torce elettriche o previsioni del tempo, che alla fine venivano integrate nei sistemi operativi degli smartphone. L'anno scorso, la maggior parte delle applicazioni AI native, come AutoGPT, che ha rapidamente raggiunto le 100.000 stelle su GitHub, non fornivano un valore pratico ma rappresentavano solo esperimenti significativi. Per le applicazioni di database vettoriali, i casi d'uso attuali potrebbero essere solo la prima ondata di trasformazioni AI Native, e mi aspetto con ansia che emergano altri casi d'uso di successo.

    I database vettoriali vanno verso la diversificazione.

    Analogamente all'evoluzione dei database in categorie come OLTP, OLAP e NoSQL, i database vettoriali mostrano una chiara tendenza alla diversificazione. Rispetto alla convenzionale focalizzazione sui servizi online, l'analisi offline ha guadagnato una posizione significativa. Un altro esempio significativo di questo cambiamento è l'introduzione di GPTCache, una cache semantica open-source rilasciata nel 2023. Essa migliora l'efficienza e la velocità delle applicazioni basate su GPT, memorizzando e recuperando le risposte generate dai modelli linguistici.

    Siamo fiduciosi ed entusiasti di assistere ad applicazioni e progetti di sistema ancora più diversificati nei database vettoriali nel prossimo anno.

    Le operazioni vettoriali stanno diventando sempre più complicate.

    Sebbene il supporto della ricerca approssimativa dei vicini (ANN) sia una caratteristica distintiva dei database vettoriali, esso non è sufficiente. La convinzione comune che sia sufficiente mantenere la ricerca per prossimità per classificare un database come database vettoriale o nativo di intelligenza artificiale semplifica eccessivamente le complessità delle operazioni vettoriali. Oltre alle funzionalità di base del filtraggio scalare ibrido e della ricerca vettoriale, i database realizzati su misura per le applicazioni native dell'intelligenza artificiale dovrebbero supportare funzionalità semantiche più sofisticate come il filtraggio NN, il KNN Join e l'interrogazione di cluster.

    La scalabilità elastica è essenziale per le applicazioni native di IA.

    La crescita esponenziale delle applicazioni di intelligenza artificiale, esemplificata da ChatGPT che ha superato i 100 milioni di utenti attivi mensili in due mesi, supera qualsiasi traiettoria commerciale precedente. La scalabilità rapida da 1 milione a 1 miliardo di punti dati diventa fondamentale quando le aziende raggiungono il loro livello di crescita. Gli sviluppatori di applicazioni di intelligenza artificiale traggono vantaggio dal modello di servizio "pay-as-you-go" dei fornitori di LLM, che porta a una sostanziale riduzione dei costi operativi. Allo stesso modo, l'archiviazione dei dati in linea con questo modello di prezzo si rivela vantaggiosa per gli sviluppatori, consentendo loro di concentrarsi maggiormente sul core business.

    A differenza dei modelli linguistici (LLM) e di vari altri sistemi tecnologici, i database vettoriali operano in modo statico e richiedono una memorizzazione persistente dei dati per le loro funzionalità. Di conseguenza, nella scelta dei database vettoriali è fondamentale dare priorità all'elasticità e alla scalabilità. Questa priorità garantisce l'allineamento con le esigenze dinamiche delle applicazioni di intelligenza artificiale in evoluzione, evidenziando la necessità di una perfetta adattabilità ai carichi di lavoro in evoluzione.

    L'utilizzo dell'apprendimento automatico nei database vettoriali può dare risultati straordinari.

    Nel 2023, il nostro investimento sostanziale nei progetti AI4DB (AI for Database) ha dato risultati notevoli. Nell'ambito dei nostri sforzi, abbiamo introdotto due funzionalità fondamentali in Zilliz Cloud, la soluzione Milvus completamente gestita: 1) AutoIndex, un indice di regolazione automatica dei parametri basato sull'apprendimento automatico, e 2) una strategia di partizione dei dati basata sul clustering dei dati. Entrambe le innovazioni hanno avuto un ruolo cruciale nel migliorare significativamente le prestazioni di ricerca di Zilliz Cloud.

    Open source vs. closed source

    I LLM closed-source, come la serie GPT di OpenAI e Claude, sono attualmente al primo posto e la comunità open-source è svantaggiata a causa dell'assenza di risorse computazionali e di dati comparabili.

    Tuttavia, nell'ambito dei database vettoriali, l'open source finirà per diventare la scelta preferita dagli utenti. La scelta dell'open source presenta molti vantaggi, tra cui una maggiore varietà di casi d'uso, un'iterazione più rapida e la coltivazione di un ecosistema più solido. Inoltre, i sistemi di database sono così intricati che non possono permettersi l'opacità spesso associata ai LLM. Gli utenti devono comprendere a fondo il database prima di scegliere l'approccio più ragionevole per il suo utilizzo. Inoltre, la trasparenza insita nell'open source consente agli utenti di avere la libertà e il controllo di personalizzare il database in base alle proprie esigenze.

    Epilogo - E un nuovo inizio!

    Mentre il 2023 passa rapidamente in mezzo a cambiamenti trasformativi, la storia dei database vettoriali è appena iniziata. Il nostro viaggio con il database vettoriale Milvus è qualcosa di diverso dal perdersi nel clamore dell'AIGC. Ci concentriamo invece sullo sviluppo meticoloso del nostro prodotto, sull'identificazione e la coltivazione di casi d'uso delle applicazioni che si allineano con i nostri punti di forza e sul servizio costante ai nostri utenti. Il nostro impegno verso l'open source mira a colmare il divario tra noi e i nostri utenti, consentendo loro di percepire la nostra dedizione e maestria, anche a distanza.

    Il 2023 ha visto anche la fondazione di molte startup di intelligenza artificiale e l'ottenimento dei primi finanziamenti. È emozionante vedere l'innovazione di questi sviluppatori e mi ricorda il motivo per cui ho iniziato a sviluppare VectorDB. Il 2024 sarà l'anno in cui tutte queste applicazioni innovative guadagneranno una reale trazione, attirando non solo finanziamenti ma anche veri e propri clienti paganti. Le entrate dei clienti comporteranno requisiti diversi per questi sviluppatori, in quanto la costruzione di una soluzione completamente scalabile con tempi di inattività minimi o nulli è fondamentale.

    Facciamo in modo che nel 2024 accadano cose straordinarie!

    Try Managed Milvus for Free

    Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.

    Get Started

    Like the article? Spread the word

    Continua a Leggere