🚀 Experimente o Zilliz Cloud, o Milvus totalmente gerenciado, gratuitamente—experimente um desempenho 10x mais rápido! Experimente Agora>>

milvus-logo
LFAI

2023: o ano da IA

    January 05, 2024
    James Luan

    This image is generated by AI. Esta imagem é gerada por IA.

    Este post foi escrito por James Luan com a ajuda do ChatGPT. James escreveu principalmente prompts e reviu e aperfeiçoou o conteúdo gerado pela IA.

    2023: o ano da IA

    2023 marca um ponto de viragem fundamental na inteligência artificial (IA). Os Modelos de Linguagem de Grande Dimensão (LLM) assumiram um papel central, obtendo um reconhecimento generalizado pelas suas excepcionais capacidades de processamento de linguagem natural. Este aumento de popularidade expandiu substancialmente as possibilidades das aplicações de aprendizagem automática, permitindo aos programadores criar aplicações mais inteligentes e interactivas.

    No meio desta revolução, as bases de dados vectoriais surgiram como um componente crucial, actuando como a memória de longo prazo para os LLMs. O surgimento de modelos RAG (Retrieval-Augmented Generation), agentes inteligentes e aplicações de recuperação multimodal demonstrou o vasto potencial das bases de dados vectoriais para melhorar a eficiência da recuperação de dados multimodais, reduzir as alucinações nas LLM e complementar o conhecimento do domínio.

    A evolução dos LLM também catalisou avanços significativos nas tecnologias de incorporação. De acordo com a tabela de classificação do Massive Text Embedding Benchmark (MTEB) no HuggingFace, os principais modelos de incorporação, como UAE, VoyageAI, CohereV3 e Bge, foram todos lançados em 2023. Estes avanços reforçaram a eficácia da recuperação de vectores de várias tecnologias de pesquisa de vectores como o Milvus, fornecendo capacidades de processamento de dados mais precisas e eficientes para aplicações de IA.

    No entanto, com a crescente popularidade das bases de dados vetoriais, surgiram debates sobre a necessidade de soluções especializadas. Dezenas de startups entraram na arena das bases de dados vectoriais. Muitos bancos de dados relacionais e NoSQL tradicionais começaram a tratar os vetores como um tipo de dados significativo, e muitos afirmam ser capazes de substituir bancos de dados vetoriais especializados em todas as situações.

    À medida que entramos em 2024, é um momento sensato para refletir sobre toda a indústria de bases de dados vectoriais, com um foco especial no Milvus - um produto de destaque neste cenário.

    Milvus em 2023: os números não mentem

    Lançado pela primeira vez em 2019, o Milvus foi pioneiro no conceito de bases de dados vetoriais e manteve consistentemente uma reputação de elevada fiabilidade, escalabilidade, qualidade de pesquisa e desempenho. Em 2023, o Milvus alcançou resultados impressionantes e passou por mudanças significativas, impulsionadas principalmente pelo rápido avanço dos LLMs e pelo boom das aplicações do AIGC. Aqui estão alguns números-chave que melhor representam o progresso do Milvus em 2023.

    ZERO tempo de inatividade durante as actualizações contínuas

    Para os novos utilizadores de bases de dados vectoriais, o seu foco principal centra-se na funcionalidade e não na manutenção operacional. Muitos programadores de aplicações também prestam menos atenção à estabilidade nas suas bases de dados vectoriais do que nas bases de dados transaccionais, uma vez que as suas aplicações estão frequentemente nas fases iniciais de exploração. No entanto, a estabilidade torna-se indispensável se pretender implementar a sua aplicação AIGC num ambiente de produção e obter a melhor experiência para o utilizador.

    O Milvus distingue-se por dar prioridade não só à funcionalidade, mas também à estabilidade operacional. Adicionámos actualizações contínuas ao Milvus a partir da versão 2.2.3. Após um aperfeiçoamento contínuo, esta funcionalidade pode garantir um tempo de inatividade zero durante as actualizações sem interromper os processos empresariais.

    Melhoria de 3x do desempenho em ambientes de produção

    Aumentar o desempenho da pesquisa vetorial deve ser o principal objetivo das bases de dados vectoriais. Muitas soluções de pesquisa vetorial optaram por basear a sua solução na adaptação do algoritmo HNSW para chegar rapidamente ao mercado; infelizmente, isto leva a que enfrentem desafios significativos em ambientes de produção reais, especialmente com pesquisas altamente filtradas (mais de 90%) e eliminações frequentes de dados. O Milvus considera o desempenho desde o início e destaca-se pela otimização do desempenho durante qualquer fase do desenvolvimento, especialmente em ambientes de produção, conseguindo uma melhoria de três vezes no desempenho da pesquisa, especialmente em situações de pesquisa filtrada e de inserção/pesquisa em fluxo contínuo.

    Para ajudar ainda mais a comunidade de bases de dados vectoriais, introduzimos o VectorDBBench, uma ferramenta de benchmarking de código aberto, no ano passado. Esta ferramenta é vital para avaliações iniciais de bases de dados vectoriais em diferentes condições. Ao contrário dos métodos de avaliação tradicionais, o VectorDBBench avalia as bases de dados utilizando dados do mundo real, incluindo conjuntos de dados supergrandes ou que se assemelham a dados de modelos de incorporação reais, fornecendo aos utilizadores informações mais perspicazes para uma tomada de decisões informada.

    Melhoria de 5% na recuperação do conjunto de dados Beir

    Embora as incorporações densas se tenham revelado eficazes na pesquisa de vectores, têm de recuperar o atraso na pesquisa de nomes, objectos, abreviaturas e contextos de consulta curtos. Em resposta às suas limitações, a Milvus introduziu uma abordagem de consulta híbrida que integra embeddings densos com embeddings esparsos para melhorar a qualidade dos resultados da pesquisa. A sinergia desta solução híbrida com um modelo de reanálise resultou numa melhoria substancial de 5% na taxa de recuperação no conjunto de dados Beir, conforme validado pelos nossos testes.

    Indo além das melhorias na qualidade da pesquisa, Milvus também revelou uma solução de recuperação baseada em gráficos adaptada para embeddings esparsos, superando o desempenho de algoritmos de pesquisa convencionais como WAND.

    Na competição NeurIPS BigANN 2023, Zihao Wang, um engenheiro talentoso da Zilliz, apresentou o Pyanns, um algoritmo de pesquisa que demonstrou superioridade significativa em relação a outras entradas na faixa de pesquisa de incorporação esparsa. Esta solução inovadora é um precursor dos nossos algoritmos de pesquisa de incorporação esparsa para ambientes de produção.

    Poupança de memória de 10x em grandes conjuntos de dados

    O RetrievalAugmented Generation (RAG) foi o caso de utilização mais popular para bases de dados vectoriais em 2023. No entanto, o aumento dos volumes de dados vectoriais com aplicações RAG apresenta um desafio de armazenamento para estas aplicações. Este desafio é especialmente verdadeiro quando o volume de vectores transformados excede o dos blocos de documentos originais, aumentando potencialmente os custos de utilização da memória. Por exemplo, após a divisão dos documentos em blocos, o tamanho de um vetor float32 de 1536 dimensões (cerca de 3kb) transformado a partir de um bloco de 500 tokens (cerca de 1kb) é superior ao do bloco de 500 tokens.

    O Milvus é a primeira base de dados vetorial de código aberto a suportar indexação baseada em disco, o que permite uma notável poupança de memória de 5x. No final de 2023, introduzimos o Milvus 2.3.4, permitindo a capacidade de carregar dados/índices escalares e vectoriais no disco utilizando ficheiros mapeados na memória(MMap). Este avanço oferece uma redução de mais de 10 vezes na utilização da memória em comparação com a indexação tradicional na memória.

    20 lançamentos do Milvus

    Em 2023, o Milvus passou por uma jornada transformadora marcada por marcos significativos. Ao longo do ano, lançámos 20 versões, um testemunho da dedicação de mais de 300 programadores da comunidade e da concretização do nosso compromisso com uma abordagem de desenvolvimento orientada para o utilizador.

    Para ilustrar, o Milvus 2.2.9 introduziu o esquema dinâmico, marcando uma mudança crucial da prioridade do desempenho para a melhoria da usabilidade. Com base nisto, o Milvus 2.3 introduziu funcionalidades críticas como Upsert, Range Search, Cosine metrics, entre outras, todas elas impulsionadas pelas necessidades e feedback específicos da nossa comunidade de utilizadores. Este processo de desenvolvimento iterativo sublinha o nosso compromisso de alinhar continuamente o Milvus com os requisitos em evolução dos nossos utilizadores.

    1.000.000 de inquilinos num único Custer

    A implementação de multi-tenancy é crucial para o desenvolvimento de sistemas RAG, agentes de IA e outras aplicações LLM, satisfazendo as elevadas exigências dos utilizadores em termos de isolamento de dados. Para as empresas B2C, o número de inquilinos pode disparar para milhões, tornando impraticável o isolamento físico dos dados do utilizador (por exemplo, é improvável que alguém crie milhões de tabelas numa base de dados relacional). A Milvus introduziu a funcionalidade Chave de partição, que permite um isolamento lógico eficiente e a filtragem de dados com base em chaves de partição, o que é útil em grande escala.

    Por outro lado, as empresas B2B, habituadas a lidar com dezenas de milhares de inquilinos, beneficiam de uma estratégia mais matizada que envolve o isolamento de recursos físicos. O Milvus 2.3.4 mais recente traz uma gestão de memória melhorada, tratamento de corrotinas e otimização da CPU, facilitando a criação de dezenas de milhares de tabelas num único cluster. Esta melhoria também se adapta às necessidades das empresas B2B com maior eficiência e controlo.

    10.000.000 de pulls de imagens do Docker

    À medida que 2023 se aproximava do fim, Milvus atingiu um marco impressionante com 10 milhões de downloads de Docker pull. Esta conquista sinaliza o crescente fascínio da comunidade de programadores pelo Milvus e enfatiza a sua crescente importância no domínio da base de dados vetorial.

    Como o primeiro banco de dados vetorial nativo da nuvem do mundo, o Milvus possui uma integração perfeita com o Kubernetes e o ecossistema de contêineres mais amplo. Olhando para o futuro, não podemos deixar de refletir sobre o próximo ponto focal no cenário de banco de dados vetorial em constante evolução. Será a ascensão dos serviços sem servidor?

    10 mil milhões de entidades numa única coleção

    Embora a escalabilidade possa não ser atualmente o centro das atenções no fenómeno da IA, desempenha certamente um papel fundamental, longe de ser um mero espetáculo secundário. A base de dados vetorial Milvus pode ser facilmente escalada para acomodar milhares de milhões de dados vectoriais sem esforço. Veja-se o caso de um dos nossos clientes LLM, por exemplo. A Milvus ajudou este cliente a armazenar, processar e recuperar, sem esforço, uns espantosos 10 mil milhões de pontos de dados. Mas como equilibrar o custo e o desempenho ao lidar com um volume tão grande de dados? Fique descansado, a Mivus tem várias capacidades para o ajudar a enfrentar esse desafio e a melhorar a sua experiência.

    Para além dos números: as novas perspectivas das bases de dados vectoriais

    Para além dos marcos numéricos, 2023 enriqueceu-nos com informações valiosas. Aprofundámos os meandros do panorama das bases de dados vectoriais, indo além das meras estatísticas para compreender as nuances subtis e a dinâmica em evolução da tecnologia de pesquisa vetorial.

    As aplicações LLM ainda estão na fase inicial.

    Reflectindo sobre os primeiros dias do boom da Internet móvel, muitos programadores criaram aplicações simples, como lanternas ou previsões meteorológicas, que acabaram por ser integradas nos sistemas operativos dos smartphones. No ano passado, a maior parte das aplicações nativas de IA, como o AutoGPT, que rapidamente atingiu 100 000 estrelas no GitHub, não produziu valor prático, representando apenas experiências significativas. Para aplicativos de banco de dados vetoriais, os casos de uso atuais podem ser apenas a primeira onda de transformações nativas de IA, e eu antecipo ansiosamente o surgimento de mais casos de uso matadores.

    Os bancos de dados vetoriais vão em direção à diversificação.

    Semelhante à evolução dos bancos de dados em categorias como OLTP, OLAP e NoSQL, os bancos de dados vetoriais mostram uma tendência clara de diversificação. Afastando-se do foco convencional nos serviços online, a análise offline ganhou uma força significativa. Outro exemplo notável desta mudança é a introdução da GPTCache, uma cache semântica de código aberto lançada em 2023. Melhora a eficiência e a velocidade das aplicações baseadas em GPT, armazenando e recuperando respostas geradas por modelos de linguagem.

    Esperamos e estamos entusiasmados por testemunhar aplicações e concepções de sistemas ainda mais diversificadas em bases de dados vectoriais no próximo ano.

    As operações vectoriais estão a tornar-se mais complicadas.

    Embora o suporte da pesquisa ANN (Approximate Nearest Neighbor ) seja uma caraterística que define as bases de dados vectoriais, não é a única. A crença comum de que a simples manutenção da Pesquisa do Vizinho Mais Próximo é suficiente para classificar uma base de dados como uma base de dados vetorial ou nativa de IA simplifica demasiado as complexidades das operações vectoriais. Para além das capacidades básicas da filtragem escalar híbrida e da pesquisa vetorial, as bases de dados concebidas para aplicações nativas de IA devem suportar capacidades semânticas mais sofisticadas, como a filtragem NN, a junção KNN e a consulta em cluster.

    A escalabilidade elástica é essencial para aplicações nativas de IA.

    O crescimento exponencial das aplicações de IA, exemplificado pelo ChatGPT que acumulou mais de 100 milhões de utilizadores activos mensais em dois meses, ultrapassa qualquer trajetória empresarial anterior. O escalonamento rápido de 1 milhão para 1 bilião de pontos de dados torna-se fundamental quando as empresas atingem o seu ritmo de crescimento. Os criadores de aplicações de IA beneficiam do modelo de serviço "pay-as-you-go" definido pelos fornecedores de LLM, o que leva a reduções substanciais nos custos operacionais. Da mesma forma, o armazenamento de dados que se alinha com este modelo de preços revela-se vantajoso para os programadores, permitindo-lhes canalizar mais atenção para a atividade principal.

    Ao contrário dos Modelos de Linguagem (LLM) e de vários outros sistemas tecnológicos, as bases de dados vectoriais funcionam com estado, exigindo um armazenamento de dados persistente para a sua funcionalidade. Por conseguinte, ao selecionar bases de dados vectoriais, é crucial dar prioridade à elasticidade e à escalabilidade. Essa priorização garante o alinhamento com as demandas dinâmicas das aplicações de IA em evolução, destacando a necessidade de adaptabilidade contínua às cargas de trabalho em constante mudança.

    Aproveitar o aprendizado de máquina em bancos de dados vetoriais pode produzir resultados extraordinários.

    Em 2023, o nosso investimento substancial nos projetos AI4DB (IA para bases de dados) produziu um sucesso notável. Como parte dos nossos esforços, introduzimos duas capacidades essenciais no Zilliz Cloud, a solução Milvus totalmente gerida: 1) AutoIndex, um índice de afinação automática de parâmetros baseado na aprendizagem automática, e 2) uma estratégia de particionamento de dados baseada no agrupamento de dados. Ambas as inovações desempenharam um papel crucial na melhoria significativa do desempenho de pesquisa do Zilliz Cloud.

    Código aberto vs. código fechado

    Os LLM de código fechado, como a série GPT da OpenAI e o Claude, assumem atualmente a liderança, colocando a comunidade de código aberto em desvantagem devido à ausência de recursos computacionais e de dados comparáveis.

    No entanto, nas bases de dados vectoriais, o código aberto acabará por se tornar a escolha preferida dos utilizadores. Optar pelo código-fonte aberto apresenta muitas vantagens, incluindo casos de utilização mais diversificados, iteração acelerada e cultivo de um ecossistema mais robusto. Além disso, os sistemas de bases de dados são tão complexos que não podem permitir a opacidade frequentemente associada aos LLM. Os utilizadores devem compreender bem a base de dados antes de escolherem a abordagem mais razoável para a sua utilização. Além disso, a transparência inerente ao código aberto permite que os utilizadores tenham a liberdade e o controlo para personalizar a base de dados de acordo com as suas necessidades.

    Epílogo - E um novo começo!

    À medida que 2023 passa rapidamente no meio de mudanças transformadoras, a história das bases de dados vectoriais está apenas a começar. O nosso percurso com a base de dados vectoriais Milvus não se limita a perdermo-nos no entusiasmo do AIGC. Em vez disso, concentramo-nos em desenvolver meticulosamente o nosso produto, identificando e alimentando casos de utilização de aplicações que se alinham com os nossos pontos fortes e servindo inabalavelmente os nossos utilizadores. O nosso compromisso com o código aberto visa colmatar o fosso entre nós e os nossos utilizadores, permitindo-lhes sentir a nossa dedicação e habilidade, mesmo à distância.

    O ano de 2023 também foi marcado pela fundação de muitas startups de IA e pela obtenção das suas primeiras rondas de financiamento. É emocionante ver a inovação desses desenvolvedores e isso me lembra por que entrei no desenvolvimento do VectorDB em primeiro lugar. 2024 será um ano em que todas essas aplicações inovadoras ganharão força real, atraindo não apenas financiamento, mas também clientes pagantes reais. A receita do cliente trará requisitos diferentes para esses desenvolvedores, pois a criação de uma solução totalmente escalonável com pouco ou nenhum tempo de inatividade é fundamental.

    Vamos fazer com que aconteçam coisas extraordinárias em 2024!

    Like the article? Spread the word

    Continue Lendo