2023: el año de la IA
Esta imagen está generada por IA.
Este post ha sido escrito por James Luan con la ayuda de ChatGPT. James se encargó principalmente de escribir las instrucciones y de revisar y pulir el contenido generado por la IA.
2023: el año de la IA
2023 marca un punto de inflexión en la inteligencia artificial (IA). Los grandes modelos lingüísticos (LL M) se han convertido en el centro de atención y han obtenido un amplio reconocimiento por sus excepcionales capacidades de procesamiento del lenguaje natural. Este aumento de popularidad ha ampliado sustancialmente las posibilidades de las aplicaciones de aprendizaje automático, permitiendo a los desarrolladores construir aplicaciones más inteligentes e interactivas.
En medio de esta revolución, las bases de datos vectoriales han surgido como un componente crucial, actuando como memoria a largo plazo para los LLM. El auge de los modelos de Generación Mejorada de Recuperación (RAG), los agentes inteligentes y las aplicaciones de recuperación multimodal ha demostrado el enorme potencial de las bases de datos vectoriales para mejorar la eficiencia de la recuperación de datos multimodales, reducir las alucinaciones en los LLM y complementar el conocimiento del dominio.
La evolución de los LLM también ha catalizado avances significativos en las tecnologías de incrustación. Según el Massive Text Embedding Benchmark (MTEB) Leaderboard de HuggingFace, los principales modelos de incrustación, como UAE, VoyageAI, CohereV3 y Bge, se lanzaron en 2023. Estos avances han reforzado la eficacia de la recuperación vectorial de varias tecnologías de búsqueda vectorial como Milvus, proporcionando capacidades de procesamiento de datos más precisas y eficientes para aplicaciones de IA.
Sin embargo, con la creciente popularidad de las bases de datos vectoriales, surgieron debates sobre la necesidad de soluciones especializadas. Decenas de empresas emergentes han entrado en el ámbito de las bases de datos vectoriales. Muchas bases de datos relacionales y NoSQL tradicionales han empezado a tratar los vectores como un tipo de datos importante, y muchas afirman ser capaces de sustituir a las bases de datos vectoriales especializadas en cualquier situación.
A medida que nos adentramos en 2024, es un momento sensato para reflexionar sobre todo el sector de las bases de datos vectoriales, con especial atención a Milvus, un producto destacado en este panorama.
Milvus en 2023: los números no mienten
Lanzado por primera vez en 2019, Milvus ha sido pionero en el concepto de bases de datos vectoriales y ha mantenido constantemente una reputación de alta fiabilidad, escalabilidad, calidad de búsqueda y rendimiento. En 2023, Milvus logró resultados impresionantes y experimentó cambios significativos, impulsados principalmente por el rápido avance de los LLM y el auge de las aplicaciones AIGC. Estas son algunas de las cifras clave que mejor representan el progreso de Milvus en 2023.
CERO tiempo de inactividad durante las actualizaciones continuas
Para los que se inician en las bases de datos vectoriales, su principal interés se centra en la funcionalidad más que en el mantenimiento operativo. Muchos desarrolladores de aplicaciones también prestan menos atención a la estabilidad en sus bases de datos vectoriales que en las transaccionales, ya que sus aplicaciones se encuentran a menudo en las primeras fases de exploración. Sin embargo, la estabilidad se vuelve indispensable si su objetivo es desplegar su aplicación AIGC en un entorno de producción y lograr la mejor experiencia de usuario.
Milvus se distingue por dar prioridad no sólo a la funcionalidad, sino también a la estabilidad operativa. Hemos añadido actualizaciones continuas a Milvus a partir de la versión 2.2.3. Tras un continuo perfeccionamiento, esta función puede garantizar un tiempo de inactividad nulo durante las actualizaciones sin interrumpir los procesos empresariales.
3 veces más rendimiento en entornos de producción
Aumentar el rendimiento de la búsqueda vectorial debe ser un objetivo primordial para las bases de datos vectoriales. Muchas soluciones de búsqueda vectorial optaron por basar su solución en la adaptación del algoritmo HNSW para llegar rápidamente al mercado; lamentablemente, esto les lleva a enfrentarse a importantes retos en entornos de producción del mundo real, especialmente con búsquedas muy filtradas (más del 90%) y frecuentes eliminaciones de datos. Milvus tiene en cuenta el rendimiento desde el principio y destaca en la optimización del rendimiento durante cualquier fase del desarrollo, especialmente en entornos de producción, consiguiendo triplicar el rendimiento de la búsqueda, especialmente en situaciones de búsqueda filtrada y de inserción/búsqueda en flujo.
Para ayudar aún más a la comunidad de bases de datos vectoriales, el año pasado presentamos VectorDBBench, una herramienta de evaluación comparativa de código abierto. Esta herramienta es vital para las primeras evaluaciones de bases de datos vectoriales en diferentes condiciones. A diferencia de los métodos de evaluación tradicionales, VectorDBBench evalúa las bases de datos a partir de datos del mundo real, incluidos conjuntos de datos supergrandes o muy parecidos a los datos de modelos de incrustación reales, lo que proporciona a los usuarios más información para tomar decisiones con conocimiento de causa.
Mejora de la recuperación del 5% en el conjunto de datos Beir
Aunque las incrustaciones densas han demostrado su eficacia en la búsqueda vectorial, deben ponerse al día en la búsqueda de nombres, objetos, abreviaturas y contextos de consulta breves. En respuesta a sus limitaciones, Milvus ha introducido un enfoque de consulta híbrido que integra incrustaciones densas con incrustaciones dispersas para mejorar la calidad de los resultados de búsqueda. La sinergia de esta solución híbrida con un modelo de reordenación ha dado como resultado una mejora sustancial del 5% en la tasa de recuperación en el conjunto de datos Beir, como validan nuestras pruebas.
Más allá de las mejoras en la calidad de la búsqueda, Milvus también ha presentado una solución de recuperación basada en grafos adaptada a incrustaciones dispersas, que supera el rendimiento de algoritmos de búsqueda convencionales como WAND.
En la competición NeurIPS BigANN 2023, Zihao Wang, un ingeniero de Zilliz, presentó Pyanns, un algoritmo de búsqueda que demostró una superioridad significativa sobre otros participantes en la pista de búsqueda de incrustación dispersa. Esta innovadora solución es precursora de nuestros algoritmos de búsqueda de incrustación dispersa para entornos de producción.
Ahorro de memoria 10 veces superior en grandes conjuntos de datos
La Generación Aumentada de Recuperación (RAG) fue el caso de uso más popular para las bases de datos vectoriales en 2023. Sin embargo, el aumento de los volúmenes de datos vectoriales con aplicaciones RAG presenta un reto de almacenamiento para estas aplicaciones. Este reto es especialmente cierto cuando el volumen de vectores transformados supera al de los trozos de documentos originales, lo que puede incrementar los costes de uso de memoria. Por ejemplo, tras dividir los documentos en trozos, el tamaño de un vector float32 de 1536 dimensiones (aproximadamente 3kb) transformado a partir de un trozo de 500 tokens (aproximadamente 1kb) es mayor que el del trozo de 500 tokens.
Milvus es la primera base de datos vectorial de código abierto que admite la indexación basada en disco, lo que supone un notable ahorro de memoria de 5 veces. A finales de 2023, introdujimos Milvus 2.3.4, permitiendo la capacidad de cargar datos/índices escalares y vectoriales en el disco utilizando archivos mapeados en memoria(MMap). Este avance ofrece una reducción de más de 10 veces en el uso de memoria en comparación con la indexación tradicional en memoria.
20 versiones de Milvus
En 2023, Milvus experimentó un viaje transformador marcado por hitos significativos. A lo largo del año, lanzamos 20 versiones, un testimonio de la dedicación de más de 300 desarrolladores de la comunidad y la realización de nuestro compromiso con un enfoque impulsado por el usuario en el desarrollo.
A modo de ejemplo, Milvus 2.2.9 introdujo el esquema dinámico, marcando un cambio crucial desde la prioridad del rendimiento a la mejora de la usabilidad. A partir de ahí, Milvus 2.3 introdujo funciones críticas como Upsert, Range Search, Cosine metrics, etc., todas ellas impulsadas por las necesidades específicas y los comentarios de nuestra comunidad de usuarios. Este proceso de desarrollo iterativo subraya nuestro compromiso de adaptar continuamente Milvus a las necesidades cambiantes de nuestros usuarios.
1.000.000 de inquilinos en un solo Custer
Implementar multi-tenancy es crucial para desarrollar sistemas RAG, agentes AI y otras aplicaciones LLM, satisfaciendo las crecientes demandas de aislamiento de datos por parte de los usuarios. En el caso de las empresas B2C, el número de inquilinos puede dispararse a millones, lo que hace poco práctico el aislamiento físico de los datos de los usuarios (como ejemplo, es poco probable que alguien cree millones de tablas en una base de datos relacional). Milvus introdujo la función Partition Key, que permite un aislamiento lógico eficaz y un filtrado de datos basado en claves de partición, lo que resulta práctico a gran escala.
Por el contrario, las empresas B2B, acostumbradas a tratar con decenas de miles de inquilinos, se benefician de una estrategia más matizada que implica el aislamiento de recursos físicos. La última versión de Milvus 2.3.4 mejora la gestión de la memoria, la gestión de coroutines y la optimización de la CPU, lo que facilita la creación de decenas de miles de tablas en un único clúster. Esta mejora también se adapta a las necesidades de las empresas B2B con mayor eficiencia y control.
10.000.000 de extracciones de imágenes Docker
A finales de 2023, Milvus alcanzó un hito impresionante con 10 millones de descargas de Docker pull. Este logro indica la creciente fascinación de la comunidad de desarrolladores por Milvus y subraya su creciente importancia en el ámbito de las bases de datos vectoriales.
Como primera base de datos vectorial nativa de la nube del mundo, Milvus cuenta con una integración perfecta con Kubernetes y el ecosistema de contenedores más amplio. Mirando hacia el futuro, uno no puede evitar preguntarse cuál será el próximo punto focal en el panorama de las bases de datos vectoriales en constante evolución. ¿Podría ser el auge de los servicios sin servidor?
10.000 millones de entidades en una sola colección
Aunque la escalabilidad no sea actualmente el centro de atención del fenómeno de la IA, sin duda desempeña un papel fundamental, lejos de ser un mero espectáculo secundario. La base de datos vectorial de Milvus puede escalarse sin problemas para dar cabida a miles de millones de datos vectoriales sin sudar la gota gorda. Echemos un vistazo a uno de nuestros clientes LLM, por ejemplo. Milvus ayudó sin esfuerzo a este cliente a almacenar, procesar y recuperar la asombrosa cifra de 10.000 millones de puntos de datos. Pero, ¿cómo equilibrar el coste y el rendimiento cuando se trata de un volumen de datos tan masivo? Tenga la seguridad de que Mivus dispone de varias capacidades para ayudarle a afrontar ese reto y elevar su experiencia.
Más allá de los números: las nuevas perspectivas de las bases de datos vectoriales
Más allá de los hitos numéricos, 2023 nos ha enriquecido con valiosos conocimientos. Nos hemos adentrado en los entresijos del panorama de las bases de datos vectoriales, yendo más allá de las meras estadísticas para comprender los sutiles matices y la dinámica evolutiva de la tecnología de búsqueda vectorial.
Las aplicaciones LLM aún están en sus primeras fases.
Recordando los primeros días del auge de Internet móvil, muchos desarrolladores crearon aplicaciones sencillas como linternas o previsiones meteorológicas, que acabaron integrándose en los sistemas operativos de los smartphones. El año pasado, la mayoría de las aplicaciones nativas de IA, como AutoGPT, que alcanzó rápidamente las 100.000 estrellas en GitHub, no aportaban valor práctico, sino que sólo representaban experimentos significativos. Para las aplicaciones de bases de datos vectoriales, los casos de uso actuales pueden ser sólo la primera ola de transformaciones de AI Native, y anticipo con entusiasmo que surgirán más casos de uso asesinos.
Las bases de datos vectoriales van hacia la diversificación.
De forma similar a la evolución de las bases de datos en categorías como OLTP, OLAP y NoSQL, las bases de datos vectoriales muestran una clara tendencia hacia la diversificación. Partiendo del enfoque convencional de los servicios en línea, el análisis fuera de línea ha ganado una tracción significativa. Otro ejemplo notable de este cambio es la introducción de GPTCache, una caché semántica de código abierto lanzada en 2023. Mejora la eficacia y la velocidad de las aplicaciones basadas en GPT almacenando y recuperando respuestas generadas por modelos lingüísticos.
Tenemos la esperanza y el entusiasmo de ser testigos de aplicaciones y diseños de sistemas aún más diversificados en bases de datos vectoriales el año que viene.
Las operaciones vectoriales son cada vez más complicadas.
Aunque el soporte de la búsqueda por vecino más próximo aproximado (RNA ) es una característica definitoria de las bases de datos vectoriales, no es la única. La creencia común de que basta con mantener la búsqueda por vecino más próximo para clasificar una base de datos como vectorial o nativa de IA simplifica en exceso las complejidades de las operaciones vectoriales. Más allá de las capacidades básicas del filtrado escalar híbrido y la búsqueda vectorial, las bases de datos adaptadas a las aplicaciones nativas de IA deben admitir capacidades semánticas más sofisticadas como el filtrado NN, la unión KNN y la consulta de clústeres.
La escalabilidad elástica es esencial para las aplicaciones nativas de IA.
El crecimiento exponencial de las aplicaciones de IA, ejemplificado por ChatGPT, que acumula más de 100 millones de usuarios activos mensuales en dos meses, supera cualquier trayectoria empresarial anterior. Escalar rápidamente de 1 millón a 1.000 millones de puntos de datos se convierte en algo primordial una vez que las empresas alcanzan su punto álgido de crecimiento. Los desarrolladores de aplicaciones de IA se benefician del modelo de servicio de pago por uso establecido por los proveedores de LLM, lo que se traduce en una reducción sustancial de los costes operativos. Del mismo modo, el almacenamiento de datos que se alinea con este modelo de precios resulta ventajoso para los desarrolladores, permitiéndoles canalizar más atención hacia el negocio principal.
A diferencia de los Modelos de Lenguaje (LLM) y otros sistemas tecnológicos, las bases de datos vectoriales operan con un estado, lo que requiere un almacenamiento de datos persistente para su funcionalidad. En consecuencia, a la hora de seleccionar bases de datos vectoriales, es crucial priorizar la elasticidad y la escalabilidad. Esta priorización garantiza la alineación con las demandas dinámicas de las aplicaciones de IA en evolución, destacando la necesidad de una adaptabilidad sin fisuras a las cargas de trabajo cambiantes.
Aprovechar el aprendizaje automático en las bases de datos vectoriales puede producir resultados extraordinarios.
En 2023, nuestra importante inversión en los proyectos AI4DB (AI for Database) cosechó un éxito notable. Como parte de nuestros esfuerzos, introdujimos dos capacidades fundamentales en Zilliz Cloud, la solución Milvus totalmente gestionada: 1) AutoIndex, un índice de ajuste automático de parámetros basado en el aprendizaje automático, y 2) una estrategia de partición de datos basada en la agrupación de datos. Ambas innovaciones desempeñaron un papel crucial en la mejora significativa del rendimiento de búsqueda de Zilliz Cloud.
Código abierto frente a código cerrado
Los LLM de código cerrado, como la serie GPT de OpenAI y Claude, llevan actualmente la delantera, lo que coloca a la comunidad de código abierto en desventaja debido a la ausencia de recursos computacionales y de datos comparables.
Sin embargo, dentro de las bases de datos vectoriales, el código abierto acabará convirtiéndose en la opción preferida por los usuarios. Optar por el código abierto presenta muchas ventajas, como una mayor diversidad de casos de uso, una iteración más rápida y el cultivo de un ecosistema más sólido. Además, los sistemas de bases de datos son tan intrincados que no pueden permitirse la opacidad que suele asociarse a los LLM. Los usuarios deben comprender a fondo la base de datos antes de elegir el enfoque más razonable para su utilización. Además, la transparencia del código abierto permite a los usuarios tener la libertad y el control para personalizar la base de datos según sus necesidades.
Epílogo - ¡Y un nuevo comienzo!
Mientras el año 2023 pasa velozmente en medio de cambios transformadores, la historia de las bases de datos vectoriales no ha hecho más que empezar. Nuestro viaje con la base de datos vectoriales Milvus consiste en algo más que perdernos en el bombo de la AIGC. En lugar de eso, nos centramos en desarrollar meticulosamente nuestro producto, identificar y alimentar casos de uso de aplicaciones que se alineen con nuestros puntos fuertes, y servir inquebrantablemente a nuestros usuarios. Nuestro compromiso con el código abierto pretende tender un puente entre nosotros y nuestros usuarios, permitiéndoles percibir nuestra dedicación y artesanía, incluso desde la distancia.
En 2023 también se fundaron muchas empresas de IA y obtuvieron sus primeras rondas de financiación. Es emocionante ver la innovación de estos desarrolladores, y me recuerda por qué me metí en el desarrollo de VectorDB en primer lugar. 2024 será un año en el que todas estas aplicaciones innovadoras ganarán tracción real, atrayendo no sólo financiación, sino clientes de pago reales. Los ingresos de los clientes traerán consigo requisitos diferentes para estos desarrolladores, ya que es primordial crear una solución totalmente escalable con poco o ningún tiempo de inactividad.
¡Hagamos que ocurran cosas extraordinarias en 2024!
- Milvus en 2023: los números no mienten
- Más allá de los números: las nuevas perspectivas de las bases de datos vectoriales
- Epílogo - ¡Y un nuevo comienzo!
On This Page
Try Managed Milvus for Free
Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.
Get StartedLike the article? Spread the word