2023 : l'année de l'IA
Cette image est générée par l'IA.
Cet article a été rédigé par James Luan avec l'aide de ChatGPT. James a principalement rédigé des messages-guides et a révisé et peaufiné le contenu généré par l'IA.
2023 : l'année de l'IA
L'année 2023 marque un tournant décisif dans l'intelligence artificielle (IA). Les grands modèles de langage (LLM) ont pris le devant de la scène et ont été largement reconnus pour leurs capacités exceptionnelles de traitement du langage naturel. Ce regain de popularité a considérablement élargi les possibilités des applications d'apprentissage automatique, permettant aux développeurs de créer des applications plus intelligentes et plus interactives.
Au milieu de cette révolution, les bases de données vectorielles sont apparues comme un élément crucial, jouant le rôle de mémoire à long terme pour les LLM. L'essor des modèles RAG (Retrieval-Augmented Generation), des agents intelligents et des applications de recherche multimodale a démontré le vaste potentiel des bases de données vectorielles dans l'amélioration de l'efficacité de la recherche de données multimodales, la réduction des hallucinations dans les LLM et l'enrichissement de la connaissance du domaine.
L'évolution du LLM a également catalysé des avancées significatives dans les technologies d'intégration. Selon le classement du Massive Text Embedding Benchmark (MTEB ) sur HuggingFace, les principaux modèles d'intégration tels que UAE, VoyageAI, CohereV3 et Bge ont tous été publiés en 2023. Ces avancées ont renforcé l'efficacité de l'extraction vectorielle de diverses technologies de recherche vectorielle telles que Milvus, offrant des capacités de traitement des données plus précises et plus efficaces pour les applications d'IA.
Toutefois, la popularité croissante des bases de données vectorielles a suscité des débats sur la nécessité de solutions spécialisées. Des dizaines de startups se sont lancées dans le domaine des bases de données vectorielles. De nombreuses bases de données relationnelles et NoSQL traditionnelles ont commencé à traiter les vecteurs comme un type de données significatif, et beaucoup prétendent être capables de remplacer les bases de données vectorielles spécialisées dans toutes les situations.
À l'aube de l'année 2024, il est judicieux de se pencher sur l'ensemble du secteur des bases de données vectorielles, et plus particulièrement sur Milvus, un produit qui se démarque dans ce paysage.
Milvus en 2023 : les chiffres ne mentent pas
Lancé pour la première fois en 2019, Milvus a été le pionnier du concept des bases de données vectorielles et s'est toujours distingué par sa fiabilité, son évolutivité, la qualité de ses recherches et ses performances. En 2023, Milvus a obtenu des résultats impressionnants et a connu des changements importants, principalement motivés par la progression rapide des LLM et le boom des demandes d'AIGC. Voici quelques chiffres clés qui représentent le mieux les progrès de Milvus en 2023.
ZÉRO temps d'arrêt pendant les mises à niveau en continu
Pour ceux qui découvrent les bases de données vectorielles, l'accent est mis sur la fonctionnalité plutôt que sur la maintenance opérationnelle. De nombreux développeurs d'applications accordent également moins d'attention à la stabilité de leurs bases de données vectorielles qu'à celle des bases de données transactionnelles, car leurs applications en sont souvent aux premiers stades de l'exploration. Cependant, la stabilité devient indispensable si vous souhaitez déployer votre application AIGC dans un environnement de production et obtenir la meilleure expérience utilisateur.
Milvus se distingue en donnant la priorité non seulement à la fonctionnalité, mais aussi à la stabilité opérationnelle. Nous avons ajouté des mises à niveau en continu à Milvus à partir de la version 2.2.3. Après un perfectionnement continu, cette fonctionnalité peut garantir un temps d'arrêt nul pendant les mises à niveau, sans interrompre les processus opérationnels.
Amélioration des performances de 3x dans les environnements de production
L'amélioration des performances de la recherche vectorielle doit être un objectif prioritaire pour les bases de données vectorielles. De nombreuses solutions de recherche vectorielle ont choisi de baser leur solution sur l'adaptation de l'algorithme HNSW pour être rapidement sur le marché. Malheureusement, cela les conduit à faire face à des défis importants dans les environnements de production réels, en particulier avec des recherches hautement filtrées (plus de 90 %) et des suppressions de données fréquentes. Milvus prend en compte les performances dès le départ et excelle dans l'optimisation des performances pendant toutes les phases de développement, en particulier dans les environnements de production, multipliant par trois les performances de recherche, notamment dans les situations de recherche filtrée et d'insertion/recherche en continu.
Pour aider davantage la communauté des bases de données vectorielles, nous avons introduit l'année dernière VectorDBBench, un outil d'analyse comparative open-source. Cet outil est essentiel pour les évaluations préliminaires des bases de données vectorielles dans différentes conditions. Contrairement aux méthodes d'évaluation traditionnelles, VectorDBBench évalue les bases de données à l'aide de données réelles, y compris de très grands ensembles de données ou ceux qui ressemblent le plus à des données provenant de modèles d'intégration réels, fournissant ainsi aux utilisateurs des informations plus pertinentes pour une prise de décision éclairée.
Amélioration de 5 % du rappel sur l'ensemble de données Beir
Si les encastrements denses se sont avérés efficaces dans la recherche vectorielle, ils doivent rattraper leur retard lorsqu'il s'agit de rechercher des noms, des objets, des abréviations et des contextes d'interrogation courts. En réponse à ces limitations, Milvus a introduit une approche de requête hybride qui intègre des encastrements denses avec des encastrements épars afin d'améliorer la qualité des résultats de recherche. La synergie de cette solution hybride avec un modèle de reclassement a permis une amélioration substantielle de 5 % du taux de rappel sur l'ensemble de données Beir, comme l'ont validé nos tests.
Au-delà de l'amélioration de la qualité de la recherche, Milvus a également dévoilé une solution de recherche basée sur les graphes, adaptée aux encastrements épars, qui surpasse les performances des algorithmes de recherche conventionnels tels que WAND.
Lors de la compétition 2023 NeurIPS BigANN, Zihao Wang, un ingénieur talentueux de Zilliz, a présenté Pyanns, un algorithme de recherche qui a démontré une supériorité significative par rapport à d'autres entrées dans la piste de recherche d'encastrement clairsemé. Cette solution révolutionnaire est un précurseur de nos algorithmes de recherche par intégration de données éparses pour les environnements de production.
Une économie de mémoire de 10 fois sur les grands ensembles de données
En 2023, lagénération augmentée par récupération (RAG) était le cas d'utilisation le plus populaire pour les bases de données vectorielles. Cependant, l'augmentation des volumes de données vectorielles dans les applications RAG pose un problème de stockage pour ces applications. Ce défi est particulièrement vrai lorsque le volume des vecteurs transformés dépasse celui des morceaux de documents originaux, ce qui peut faire grimper les coûts d'utilisation de la mémoire. Par exemple, après avoir divisé les documents en morceaux, la taille d'un vecteur float32 à 1536 dimensions (environ 3 kb) transformé à partir d'un morceau de 500 tokens (environ 1 kb) est supérieure à celle du morceau de 500 tokens.
Milvus est la première base de données vectorielles open-source à prendre en charge l'indexation sur disque, ce qui permet d'économiser 5 fois plus de mémoire. À la fin de l'année 2023, nous avons introduit Milvus 2.3.4, qui permet de charger des données/index scalaires et vectorielles sur le disque à l'aide de fichiers mappés en mémoire(MMap). Cette avancée permet de réduire de plus de 10 fois l'utilisation de la mémoire par rapport à l'indexation traditionnelle en mémoire.
20 versions de Milvus
En 2023, Milvus a connu un parcours de transformation marqué par des étapes importantes. Au cours de l'année, nous avons lancé 20 versions, ce qui témoigne du dévouement de plus de 300 développeurs de la communauté et de la concrétisation de notre engagement en faveur d'une approche du développement axée sur l'utilisateur.
Par exemple, Milvus 2.2.9 a introduit le schéma dynamique, marquant un changement crucial de la priorité donnée aux performances à l'amélioration de la convivialité. Sur cette base, Milvus 2.3 a introduit des fonctionnalités essentielles telles que Upsert, Range Search, Cosine metrics, et bien d'autres encore, toutes guidées par les besoins et les commentaires spécifiques de notre communauté d'utilisateurs. Ce processus de développement itératif souligne notre engagement à aligner en permanence Milvus sur les exigences en constante évolution de nos utilisateurs.
1 000 000 de locataires dans un seul Custer
La mise en œuvre de la multi-location est cruciale pour le développement de systèmes RAG, d'agents d'intelligence artificielle et d'autres applications LLM, répondant aux exigences accrues des utilisateurs en matière d'isolation des données. Pour les entreprises B2C, le nombre de locataires peut atteindre des millions, ce qui rend l'isolation physique des données utilisateur peu pratique (à titre d'exemple, il est peu probable que quelqu'un crée des millions de tables dans une base de données relationnelle). Milvus a introduit la fonction Partition Key, qui permet une isolation logique efficace et un filtrage des données basé sur les clés de partition, ce qui est pratique à grande échelle.
À l'inverse, les entreprises B2B, habituées à gérer des dizaines de milliers de locataires, bénéficient d'une stratégie plus nuancée impliquant l'isolation des ressources physiques. La dernière version de Milvus 2.3.4 améliore la gestion de la mémoire, le traitement des coroutines et l'optimisation de l'unité centrale, ce qui facilite la création de dizaines de milliers de tables au sein d'une seule grappe. Cette amélioration répond également aux besoins des entreprises B2B en améliorant l'efficacité et le contrôle.
10 000 000 de tirages d'images Docker
À la fin de l'année 2023, Milvus a franchi une étape impressionnante avec 10 millions de téléchargements d'images Docker. Cette réalisation témoigne de la fascination croissante de la communauté des développeurs pour Milvus et souligne son importance grandissante dans le domaine des bases de données vectorielles.
En tant que première base de données vectorielles cloud-native au monde, Milvus se targue d'une intégration transparente avec Kubernetes et l'écosystème de conteneurs au sens large. En regardant vers l'avenir, on ne peut s'empêcher de réfléchir au prochain point focal dans le paysage en constante évolution des bases de données vectorielles. Serait-ce l'essor des services sans serveur ?
10 milliards d'entités dans une seule collection
Si l'évolutivité ne vole pas actuellement la vedette au phénomène de l'IA, elle joue assurément un rôle central, loin d'être une simple attraction. La base de données vectorielles Milvus peut évoluer de manière transparente pour accueillir des milliards de données vectorielles sans la moindre difficulté. Prenons l'exemple de l'un de nos clients LLM. Milvus a aidé ce client à stocker, traiter et récupérer sans effort un nombre stupéfiant de 10 milliards de points de données. Mais comment équilibrer les coûts et les performances lorsque l'on traite un volume de données aussi important ? Rassurez-vous, Mivus dispose de plusieurs capacités pour vous aider à relever ce défi et à améliorer votre expérience.
Au-delà des chiffres : les nouvelles perspectives des bases de données vectorielles
Au-delà des chiffres, 2023 nous a apporté de précieuses informations. Nous nous sommes plongés dans les subtilités du paysage des bases de données vectorielles, allant au-delà des simples statistiques pour saisir les nuances subtiles et la dynamique évolutive de la technologie de recherche vectorielle.
Les applications LLM en sont encore à leurs débuts.
Si l'on se réfère aux premiers jours du boom de l'internet mobile, de nombreux développeurs ont créé des applications simples comme des lampes de poche ou des prévisions météorologiques, qui ont fini par être intégrées dans les systèmes d'exploitation des smartphones. L'année dernière, la plupart des applications AI Native, comme AutoGPT, qui a rapidement atteint 100 000 étoiles sur GitHub, n'ont pas apporté de valeur pratique, mais représentaient seulement des expériences significatives. Pour les applications de bases de données vectorielles, les cas d'utilisation actuels pourraient n'être que la première vague de transformations AI Native, et j'attends avec impatience l'émergence d'autres cas d'utilisation mortels.
Les bases de données vectorielles se diversifient.
À l'instar de l'évolution des bases de données dans des catégories telles que OLTP, OLAP et NoSQL, les bases de données vectorielles affichent une nette tendance à la diversification. S'écartant de l'approche conventionnelle des services en ligne, l'analyse hors ligne a gagné en importance. Un autre exemple notable de cette évolution est l'introduction de GPTCache, un cache sémantique en libre accès lancé en 2023. Il améliore l'efficacité et la vitesse des applications basées sur la technologie GPT en stockant et en récupérant les réponses générées par les modèles de langage.
Nous avons bon espoir de voir des applications et des systèmes encore plus diversifiés dans les bases de données vectorielles au cours de l'année à venir.
Les opérations vectorielles sont de plus en plus complexes.
Si la prise en charge de la recherche par approximation du plus proche voisin (ANN) est une caractéristique déterminante des bases de données vectorielles, elle n'est pas suffisante. La croyance commune selon laquelle le simple fait de conserver la recherche du plus proche voisin suffit à classer une base de données comme une base de données vectorielle ou native pour l'IA simplifie à l'excès les complexités des opérations vectorielles. Au-delà des capacités de base du filtrage scalaire hybride et de la recherche vectorielle, les bases de données conçues pour les applications natives de l'IA doivent prendre en charge des capacités sémantiques plus sophistiquées telles que le filtrage NN, la jointure KNN et l'interrogation en grappes.
L'évolutivité élastique est essentielle pour les applications natives d'IA.
La croissance exponentielle des applications d'IA, illustrée par ChatGPT qui a atteint plus de 100 millions d'utilisateurs actifs mensuels en deux mois, dépasse toute trajectoire commerciale antérieure. Passer rapidement d'un million à un milliard de points de données devient primordial une fois que les entreprises ont atteint leur rythme de croissance. Les développeurs d'applications d'IA bénéficient du modèle de service "pay-as-you-go" mis en place par les fournisseurs de LLM, ce qui entraîne des réductions substantielles des coûts opérationnels. De même, le stockage des données qui s'aligne sur ce modèle de tarification s'avère avantageux pour les développeurs, ce qui leur permet de consacrer plus d'attention à leur cœur de métier.
Contrairement aux modèles de langage (LLM) et à d'autres systèmes technologiques, les bases de données vectorielles fonctionnent avec un état, ce qui nécessite un stockage persistant des données pour assurer leur fonctionnalité. Par conséquent, lors de la sélection des bases de données vectorielles, il est essentiel de donner la priorité à l'élasticité et à l'évolutivité. Cette priorité garantit l'alignement sur les demandes dynamiques des applications d'IA en évolution, soulignant la nécessité d'une adaptabilité transparente aux charges de travail changeantes.
L'exploitation de l'apprentissage automatique dans les bases de données vectorielles peut donner des résultats extraordinaires.
En 2023, notre investissement substantiel dans les projets AI4DB (AI for Database) a donné des résultats remarquables. Dans le cadre de nos efforts, nous avons introduit deux capacités essentielles dans Zilliz Cloud, la solution Milvus entièrement gérée : 1) AutoIndex, un index de réglage automatique des paramètres basé sur l'apprentissage automatique, et 2) une stratégie de partitionnement des données basée sur le regroupement des données. Ces deux innovations ont joué un rôle crucial dans l'amélioration significative des performances de recherche de Zilliz Cloud.
Open source vs. closed source
Les LLM à source fermée tels que la série GPT de l'OpenAI et Claude sont actuellement en tête, ce qui désavantage la communauté à source ouverte en raison de l'absence de ressources de calcul et de données comparables.
Toutefois, dans les bases de données vectorielles, le logiciel libre finira par s'imposer aux utilisateurs. Le choix de l'open source présente de nombreux avantages, notamment des cas d'utilisation plus diversifiés, une itération accélérée et la culture d'un écosystème plus robuste. En outre, les systèmes de bases de données sont si complexes qu'ils ne peuvent se permettre l'opacité souvent associée aux LLM. Les utilisateurs doivent comprendre parfaitement la base de données avant de choisir l'approche la plus raisonnable pour son utilisation. En outre, la transparence inhérente à l'open source permet aux utilisateurs de disposer de la liberté et du contrôle nécessaires pour personnaliser la base de données en fonction de leurs besoins.
Épilogue - Et un nouveau départ !
Alors que l'année 2023 s'écoule rapidement au milieu de changements transformateurs, l'histoire des bases de données vectorielles ne fait que commencer. Notre voyage avec la base de données vectorielles Milvus ne se limite pas à se perdre dans le battage médiatique de l'AIGC. Au contraire, nous nous concentrons sur le développement méticuleux de notre produit, sur l'identification et le développement d'applications qui correspondent à nos points forts et sur le service inébranlable à nos utilisateurs. Notre engagement en faveur de l'open source vise à combler le fossé qui nous sépare de nos utilisateurs, en leur permettant de ressentir notre dévouement et notre savoir-faire, même à distance.
L'année 2023 a également été marquée par la création de nombreuses startups spécialisées dans l'IA et par leurs premiers tours de table. Il est passionnant de voir l'innovation de ces développeurs, et cela me rappelle pourquoi je me suis lancé dans le développement de VectorDB au départ. 2024 sera l'année où toutes ces applications innovantes gagneront vraiment du terrain, attirant non seulement des fonds mais aussi de vrais clients payants. Les revenus des clients entraîneront des exigences différentes pour ces développeurs, car la construction d'une solution entièrement évolutive avec peu ou pas de temps d'arrêt est primordiale.
Faisons en sorte que des choses extraordinaires se produisent en 2024 !
- Milvus en 2023 : les chiffres ne mentent pas
- Au-delà des chiffres : les nouvelles perspectives des bases de données vectorielles
- Épilogue - Et un nouveau départ !
On This Page
Try Managed Milvus for Free
Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.
Get StartedLike the article? Spread the word