milvus-logo
LFAI
Home
  • Modèles

Mistral AI

Les modèles d'intégration deMistral AI sont des modèles d'intégration de texte conçus pour convertir les entrées textuelles en vecteurs numériques denses, capturant efficacement le sens sous-jacent du texte. Ces modèles sont hautement optimisés pour des tâches telles que la recherche sémantique, la compréhension du langage naturel et les applications contextuelles, ce qui les rend adaptés à un large éventail de solutions basées sur l'IA.

Milvus s'intègre aux modèles d'intégration de Mistral AI via la classe MistralAIEmbeddingFunction. Cette classe fournit des méthodes pour encoder les documents et les requêtes à l'aide des modèles d'intégration de Mistral AI et pour renvoyer les intégrations sous forme de vecteurs denses compatibles avec l'indexation de Milvus. Pour utiliser cette fonctionnalité, obtenez une clé API de Mistral AI.

Pour utiliser cette fonctionnalité, installez les dépendances nécessaires :

pip install --upgrade pymilvus
pip install "pymilvus[model]"

Ensuite, instanciez la fonction MistralAIEmbeddingFunction :

from pymilvus.model.dense import MistralAIEmbeddingFunction

ef = MistralAIEmbeddingFunction(
    model_name="mistral-embed", # Defaults to `mistral-embed`
    api_key="MISTRAL_API_KEY" # Provide your Mistral AI API key
)

Paramètres:

  • model_name (chaîne)

    Le nom du modèle d'intégration de Mistral AI à utiliser pour l'encodage. La valeur par défaut est mistral-embed. Pour plus d'informations, voir Embeddings.

  • api_key (chaîne)

    La clé d'API permettant d'accéder à l'API de Mistral AI.

Pour créer des embeddings pour les documents, utilisez la méthode encode_documents():

docs = [
    "Artificial intelligence was founded as an academic discipline in 1956.",
    "Alan Turing was the first person to conduct substantial research in AI.",
    "Born in Maida Vale, London, Turing was raised in southern England.",
]

docs_embeddings = ef.encode_documents(docs)

# Print embeddings
print("Embeddings:", docs_embeddings)
# Print dimension and shape of embeddings
print("Dim:", ef.dim, docs_embeddings[0].shape)

Le résultat attendu est similaire à ce qui suit :

Embeddings: [array([-0.06051636, 0.03207397, 0.04684448, ..., -0.01618958,
       0.02442932, -0.01302338]), array([-0.04675293, 0.06512451, 0.04290771, ..., -0.01454926,
       0.0014801 , 0.00686646]), array([-0.05978394, 0.08728027, 0.02217102, ..., -0.00681305,
       0.03634644, -0.01802063])]
Dim: 1024 (1024,)

Pour créer des embeddings pour des requêtes, utilisez la méthode encode_queries():

queries = ["When was artificial intelligence founded",
           "Where was Alan Turing born?"]

query_embeddings = ef.encode_queries(queries)

print("Embeddings:", query_embeddings)
print("Dim", ef.dim, query_embeddings[0].shape)

Le résultat attendu est similaire à ce qui suit :

Embeddings: [array([-0.04916382, 0.04568481, 0.03594971, ..., -0.02653503,
       0.02804565, 0.00600815]), array([-0.05938721, 0.07098389, 0.01773071, ..., -0.01708984,
       0.03582764, 0.00366592])]
Dim 1024 (1024,)

Traduit parDeepLogo

Table de contenu
Feedback

Cette page a-t - elle été utile ?