milvus-logo
LFAI
Home
  • Modelos

Mistral AI

Os modelos de incorporação daMistral AI são modelos de incorporação de texto projetados para converter entradas textuais em vetores numéricos densos, capturando efetivamente o significado subjacente do texto. Estes modelos são altamente optimizados para tarefas como a pesquisa semântica, a compreensão da linguagem natural e as aplicações sensíveis ao contexto, o que os torna adequados para uma vasta gama de soluções alimentadas por IA.

Milvus integra-se com os modelos de incorporação da Mistral AI através da classe MistralAIEmbeddingFunction. Essa classe fornece métodos para codificar documentos e consultas usando os modelos de incorporação da Mistral AI e retornando as incorporações como vetores densos compatíveis com a indexação Milvus. Para utilizar essa funcionalidade, obtenha uma chave de API da Mistral AI.

Para usar esse recurso, instale as dependências necessárias:

pip install --upgrade pymilvus
pip install "pymilvus[model]"

Em seguida, instancie a MistralAIEmbeddingFunction:

from pymilvus.model.dense import MistralAIEmbeddingFunction

ef = MistralAIEmbeddingFunction(
    model_name="mistral-embed", # Defaults to `mistral-embed`
    api_key="MISTRAL_API_KEY" # Provide your Mistral AI API key
)

Parâmetros:

  • model_name (string)

    O nome do modelo de incorporação do Mistral AI a ser usado para codificação. O valor padrão é mistral-embed. Para obter mais informações, consulte Embeddings.

  • api_key (string)

    A chave da API para acessar a API do Mistral AI.

Para criar embeddings para documentos, use o método encode_documents():

docs = [
    "Artificial intelligence was founded as an academic discipline in 1956.",
    "Alan Turing was the first person to conduct substantial research in AI.",
    "Born in Maida Vale, London, Turing was raised in southern England.",
]

docs_embeddings = ef.encode_documents(docs)

# Print embeddings
print("Embeddings:", docs_embeddings)
# Print dimension and shape of embeddings
print("Dim:", ef.dim, docs_embeddings[0].shape)

A saída esperada é semelhante à seguinte:

Embeddings: [array([-0.06051636, 0.03207397, 0.04684448, ..., -0.01618958,
       0.02442932, -0.01302338]), array([-0.04675293, 0.06512451, 0.04290771, ..., -0.01454926,
       0.0014801 , 0.00686646]), array([-0.05978394, 0.08728027, 0.02217102, ..., -0.00681305,
       0.03634644, -0.01802063])]
Dim: 1024 (1024,)

Para criar embeddings para consultas, use o método encode_queries():

queries = ["When was artificial intelligence founded",
           "Where was Alan Turing born?"]

query_embeddings = ef.encode_queries(queries)

print("Embeddings:", query_embeddings)
print("Dim", ef.dim, query_embeddings[0].shape)

O resultado esperado é semelhante ao seguinte:

Embeddings: [array([-0.04916382, 0.04568481, 0.03594971, ..., -0.02653503,
       0.02804565, 0.00600815]), array([-0.05938721, 0.07098389, 0.01773071, ..., -0.01708984,
       0.03582764, 0.00366592])]
Dim 1024 (1024,)

Traduzido porDeepLogo

Tabela de conteúdos
Feedback

Esta página foi útil?