Milvus
Zilliz
  • Home
  • Blog
  • GLM-5 مقابل MiniMax M2.5 مقابل Gemini 3 Deep Think: ما النموذج الذي يناسب مجموعة عملاء الذكاء الاصطناعي لديك؟

GLM-5 مقابل MiniMax M2.5 مقابل Gemini 3 Deep Think: ما النموذج الذي يناسب مجموعة عملاء الذكاء الاصطناعي لديك؟

  • Engineering
February 14, 2026
Lumina Wang, Julie Xia

في غضون يومين فقط، تم طرح ثلاثة نماذج رئيسية متتالية: GLM-5، وMiniMax M2.5، وGemini 3 Deep Think. تتصدر النماذج الثلاثة نفس الإمكانيات: الترميز، والتفكير العميق، وسير العمل العميل. ويدعي الثلاثة جميعهم تحقيق أحدث النتائج. إذا حدَّقت في أوراق المواصفات، يمكنك تقريبًا أن تلعب لعبة مطابقة وتزيل نقاط الحديث المتطابقة في الثلاثة.

الفكرة الأكثر رعباً؟ من المحتمل أن يكون رئيسك في العمل قد اطلع بالفعل على الإعلانات ويتحرق شوقاً لأن تقوم ببناء تسعة تطبيقات داخلية باستخدام النماذج الثلاثة قبل انتهاء الأسبوع.

فما الذي يميز هذه النماذج عن بعضها البعض؟ وكيف يجب عليك الاختيار بينها؟ و (كما هو الحال دائمًا) كيف يمكنك ربطها مع ميلفوس لشحن قاعدة معرفية داخلية؟ ضع إشارة مرجعية على هذه الصفحة. فهي تحتوي على كل ما تحتاجه.

لمحة سريعة عن GLM-5 وMiniMax M2.5 وGemini 3 Deep Think في لمحة سريعة

يتصدر GLM-5 في هندسة الأنظمة المعقدة ومهام الوكيل طويل المدى

في 12 فبراير، أطلقت شركة Zhipu رسميًا نموذج GLM-5، الذي يتفوق في هندسة الأنظمة المعقدة ومهام سير عمل الوكلاء طويلة المدى.

يحتوي النموذج على 355B-744B معلمة (40B نشطة)، تم تدريبها على 28.5T توكين. وهو يدمج آليات انتباه متناثرة مع إطار عمل للتعلم المعزز غير المتزامن يسمى Slime، مما يمكّنه من التعامل مع السياقات الطويلة للغاية دون فقدان الجودة مع الحفاظ على انخفاض تكاليف النشر.

تصدرت GLM-5 الحزمة مفتوحة المصدر في المعايير الرئيسية، حيث احتلت المرتبة الأولى في اختبار SWE-bench Verified (77.8) والمرتبة الأولى في اختبار Terminal Bench 2.0 (56.2) - متقدمة على MiniMax 2.5 وGemini 3 Deep Think. ومع ذلك، لا تزال نتائجه الرئيسية تتخلف عن أفضل النماذج المغلقة المصدر مثل Claude Opus 4.5 و GPT-5.2. في Vending Bench 2، وهو تقييم لمحاكاة الأعمال، حقق GLM-5 أرباحًا سنوية بالمحاكاة بلغت 4432 دولارًا، مما يضعه تقريبًا في نفس نطاق الأنظمة المغلقة المصدر.

كما أدخلت GLM-5 أيضًا ترقيات كبيرة على هندسة النظام وقدرات الوكيل طويل المدى. ويمكنه الآن تحويل النصوص أو المواد الخام مباشرةً إلى ملفات .docx و .pdf و .xlsx، وإنشاء مخرجات محددة مثل مستندات متطلبات المنتج وخطط الدروس والامتحانات وجداول البيانات والتقارير المالية والمخططات الانسيابية والقوائم.

Gemini 3 Deep Think يضع معيارًا جديدًا للتفكير العلمي

في الساعات الأولى من يوم 13 فبراير 2026، أصدرت Google رسميًا Gemini 3 Deep Think، وهو ترقية رئيسية سأطلق عليها (مبدئيًا) أقوى نموذج للبحث والاستدلال على هذا الكوكب. ففي النهاية، كان Gemini هو النموذج الوحيد الذي اجتاز اختبار غسيل السيارات: "أريد أن أغسل سيارتي ومغسلة السيارات على بعد 50 مترًا فقط. هل أشغل سيارتي وأقودها إلى هناك أم أم أمشي فقط؟

تكمن قوتها الأساسية في الأداء المنطقي والتنافسي من الدرجة الأولى: فقد وصلت إلى 3455 Elo على Codeforces، أي ما يعادل ثامن أفضل مبرمج تنافسي في العالم. وقد وصل إلى مستوى الميدالية الذهبية في الأجزاء الكتابية من أولمبياد الفيزياء والكيمياء والرياضيات الدولي لعام 2025. كفاءة التكلفة هي إنجاز آخر. إذ يعمل ARC-AGI-1 بسعر 7.17 دولار فقط لكل مهمة، أي بتخفيض يتراوح بين 280 ضعفاً و420 ضعفاً مقارنةً بـ o3-preview من OpenAI قبل 14 شهراً. على الجانب التطبيقي، تتمثل أكبر مكاسب Deep Think في البحث العلمي. حيث يستخدمه الخبراء بالفعل في مراجعة الأقران لأوراق الرياضيات الاحترافية ولتحسين سير عمل تحضير نمو البلورات المعقدة.

يتنافس MiniMax M2.5 على التكلفة والسرعة في أعباء عمل الإنتاج

في اليوم نفسه، أصدرت MiniMax الإصدار M2.5، مما جعله بطل التكلفة والكفاءة لحالات استخدام الإنتاج.

وباعتباره واحدًا من أسرع عائلات الطرازات في الصناعة، فإن M2.5 يحقق نتائج جديدة في مجال البرمجة واستدعاء الأدوات والبحث والإنتاجية المكتبية. التكلفة هي أكبر نقطة بيع لها: يعمل الإصدار السريع بسرعة 100 TPS تقريبًا، حيث يبلغ سعر المدخلات 0.30لكل مليونوالإخراج 0.30 لكل مليون توكين والإخراج0 .40 لكل مليون توكين. يقلل الإصدار 50 TPS من تكلفة الإنتاج بمقدار النصف الآخر. تحسّنت السرعة بنسبة 37% مقارنةً بالإصدار M2.1 السابق، ويُكمل المهام التي تم التحقق منها في اختبار SWE في متوسط 22.8 دقيقة، وهو ما يتطابق تقريبًا مع كلود أوبوس 4.6. من ناحية القدرات، يدعم M2.5 تطوير المكدس الكامل بأكثر من 10 لغات، بما في ذلك Go وRust وKotlin، ويغطي كل شيء بدءاً من تصميم النظام من صفر إلى واحد إلى المراجعة الكاملة للأكواد. بالنسبة لسير العمل المكتبي، تتكامل ميزة المهارات المكتبية بعمق مع Word وPPT وExcel. وعند دمجها مع معرفة المجال في التمويل والقانون، يمكنها إنشاء تقارير بحثية ونماذج مالية جاهزة للاستخدام المباشر.

هذه هي النظرة العامة رفيعة المستوى. بعد ذلك، دعونا نلقي نظرة على كيفية أدائها الفعلي في الاختبارات العملية.

مقارنات عملية

عرض المشهد ثلاثي الأبعاد: ينتج Gemini 3 Deep Think أكثر النتائج واقعية

لقد أخذنا مطالبة اختبرها المستخدمون بالفعل على Gemini 3 Deep Think وقمنا بتشغيلها من خلال GLM-5 و MiniMax M2.5 لإجراء مقارنة مباشرة. المطالبة: إنشاء مشهد كامل من Three.js في ملف HTML واحد يعرض غرفة داخلية ثلاثية الأبعاد بالكامل لا يمكن تمييزها عن لوحة زيتية كلاسيكية في متحف.

الجوزاء 3 التفكير العميق

GLM-5

ميني ماكس M2.5

حققGemini 3 Deep Think أقوى نتيجة. فقد ترجمت المطالبة بدقة وأنشأت مشهدًا ثلاثي الأبعاد عالي الجودة. كانت الإضاءة هي الأبرز: بدا اتجاه الظل وتراجعه طبيعيًا، حيث نقل بوضوح العلاقة المكانية للضوء الطبيعي القادم من النافذة. كانت التفاصيل الدقيقة مثيرة للإعجاب أيضًا، بما في ذلك الملمس النصف ذائب للشموع وجودة المواد المستخدمة في الأختام الشمعية الحمراء. كانت الدقة البصرية بشكل عام عالية.

أنتجGLM-5 نمذجة مفصلة للأجسام ونسيجًا تفصيليًا، لكن نظام الإضاءة الخاص به كان به مشاكل ملحوظة. ظهرت ظلال الطاولة ككتل صلبة سوداء نقية دون انتقالات ناعمة. بدا ختم الشمع وكأنه يطفو فوق سطح الطاولة، وفشل في التعامل مع علاقة التلامس بين الأجسام وسطح الطاولة بشكل صحيح. تشير هذه القطع الأثرية إلى وجود مجال للتحسين في الإضاءة العامة والمنطق المكاني.

لم يتمكنMiniMax M2.5 من تحليل وصف المشهد المعقد بشكل فعال. كان الناتج مجرد حركة جسيمات مضطربة، مما يشير إلى وجود قيود كبيرة في كل من الفهم والتوليد عند التعامل مع التعليمات الدلالية متعددة الطبقات مع متطلبات بصرية دقيقة.

توليد SVG: جميع النماذج الثلاثة تتعامل معه بشكل مختلف

موجه: أنشئ صورة SVG لبجع بني كاليفورنيا يركب دراجة. يجب أن تحتوي الدراجة على قضبان وإطار دراجة بشكل صحيح. يجب أن يكون للبجعة جرابها الكبير المميز، ويجب أن يكون هناك إشارة واضحة للريش. يجب أن يكون البجع يقود الدراجة بشكل واضح. يجب أن تظهر الصورة ريش التكاثر الكامل للبجع البني في كاليفورنيا.

الجوزاء 3 التفكير العميق

Gemini 3 Deep Think الجوزاء 3 ديب ثينك

GLM-5

GLM-5 GLM-5

ميني ماكس M2.5

MiniMax M2.5 ميني ماكس M2.5

أنتججيمني 3 ديب ثينك Gemini 3 ديب ثينك أكثر مجموعة SVG اكتمالاً بشكل عام. وضعية ركوب البجعة دقيقة: يستقر مركز ثقلها بشكل طبيعي على المقعد، وتستقر قدماها على الدواسات في وضعية ركوب الدراجات الديناميكية. نسيج الريش مفصل ومتعدد الطبقات. نقطة الضعف الوحيدة هي أن الحقيبة الحلقية المميزة للبجعة مرسومة بشكل كبير للغاية، مما يؤدي إلى إبعاد النسب الكلية قليلاً.

كان لدىGLM-5 مشاكل ملحوظة في الوضعية. يتم وضع القدمين بشكل صحيح على الدواسات، لكن وضعية الجلوس بشكل عام تبتعد عن وضعية الركوب الطبيعية، وتبدو العلاقة بين الجسم والمقعد غير واضحة. ومع ذلك، فإن تفاصيلها متينة: إن كيس الحلق متناسب بشكل جيد، وجودة نسيج الريش محترمة.

اتبعتMiniMax M2.5 أسلوبًا بسيطًا وتخطت عناصر الخلفية تمامًا. موضع البجعة على الدراجة صحيح تقريبًا، لكن التفاصيل لا تفي بالغرض. المقاود ذات الشكل الخاطئ، وملمس الريش غير موجود تقريبًا، والرقبة سميكة جدًا، وهناك قطع بيضاوية بيضاء شاردة في الصورة لا ينبغي أن تكون موجودة.

كيفية الاختيار بين GLM-5 و MiniMax M2.5 و Gemin 3 Deep Think

عبر جميع اختباراتنا، كانت MiniMax M2.5 الأبطأ في توليد المخرجات، حيث تطلبت أطول وقت للتفكير والاستنتاج. كان أداء GLM-5 متسقًا وكان متساويًا تقريبًا مع Gemini 3 Deep Think في السرعة.

إليك دليل اختيار سريع وضعناه معًا:

حالة الاستخدام الأساسيةالنموذج الموصى بهنقاط القوة الرئيسية
البحث العلمي والتفكير المتقدم (الفيزياء والكيمياء والرياضيات وتصميم الخوارزميات المعقدة)الجوزاء 3 التفكير العميقالأداء الحائز على الميدالية الذهبية في المسابقات الأكاديمية. التحقق من البيانات العلمية من الدرجة الأولى. برمجة تنافسية عالمية المستوى على Codeforces. تطبيقات بحثية مثبتة، بما في ذلك تحديد العيوب المنطقية في الأوراق البحثية الاحترافية. (يقتصر حاليًا على مشتركي Google AI Ultra ومستخدمي المؤسسات المختارة؛ تكلفة كل مهمة مرتفعة نسبيًا).
نشر مفتوح المصدر، وتخصيص الشبكة الداخلية للمؤسسات، والتطوير المتكامل، وتكامل المهارات المكتبيةZhipu GLM-5النموذج مفتوح المصدر الأعلى تصنيفًا. قدرات هندسية قوية على مستوى النظام. يدعم النشر المحلي بتكاليف يمكن التحكم فيها.
أعباء العمل الحساسة من حيث التكلفة، والبرمجة متعددة اللغات، والتطوير عبر المنصات (ويب/أندرويد/iOS/ويندوز)، والتوافق المكتبيميني ماكس M2.5عند 100 TPS: 0.30لكل مليونرمز إدخال و0.30 لكل مليون رمز إخراج،0 رمز إخراج، .40 لكل مليون رمز إخراج. SOTA عبر معايير المكتب والترميز واستدعاء الأدوات. احتلت المرتبة الأولى في معيار Multi-SWE-Bench. تعميم قوي. تجاوزت معدلات النجاح في Droid/OpenCode كلود أوبوس 4.6.

برنامج RAG التعليمي: توصيل GLM-5 مع ميلفوس لقاعدة المعرفة

يتوفر كل من GLM-5 وMiniMax M2.5 من خلال OpenRouter. قم بالتسجيل وإنشاء OPENROUTER_API_KEY للبدء.

يستخدم هذا البرنامج التعليمي GLM-5 من Zhipu كمثال على LLM. لاستخدام MiniMax بدلاً من ذلك، ما عليك سوى تبديل اسم النموذج إلى minimax/minimax-m2.5.

التبعيات وإعداد البيئة

قم بتثبيت أو ترقية كل من pymilvus و openai و requests و tqdm إلى أحدث إصداراتها:

pip install --upgrade pymilvus openai requests tqdm 

يستخدم هذا البرنامج التعليمي GLM-5 كنموذج LLM ونموذج التضمين النصي OpenAI- تضمين النص 3-صغير كنموذج تضمين.

import os
os.environ["OPENROUTER_API_KEY"] = "**********" 

إعداد البيانات

سوف نستخدم صفحات الأسئلة الشائعة من وثائق Milvus 2.4.x كقاعدة معرفية خاصة بنا.

قم بتنزيل الملف المضغوط واستخرج المستندات في مجلد milvus_docs:

wget https://github.com/milvus-io/milvus-docs/releases/download/v2.4.6-preview/milvus_docs_2.4.x_en.zip
unzip -q milvus_docs_2.4.x_en.zip -d milvus_docs

قم بتحميل جميع ملفات Markdown من milvus_docs/en/faq. قمنا بتقسيم كل ملف على "# " لفصل المحتوى تقريبًا حسب الأقسام الرئيسية:

from glob import glob
text_lines = []
for file_path in glob("milvus_docs/en/faq/*.md", recursive=True):
    with open(file_path, "r") as file:
        file_text = file.read()
    text_lines += file_text.split("# ")

LLM وإعداد نموذج التضمين

سوف نستخدم GLM-5 كنموذج LLM ونموذج التضمين النصي 3-صغير كنموذج التضمين:

from openai import OpenAI
glm_client = OpenAI(
    api_key=os.environ["OPENROUTER_API_KEY"],
    base_url="https://openrouter.ai/api/v1",
)

توليد تضمين اختباري وطباعة أبعاده وعناصره القليلة الأولى:

EMBEDDING_MODEL = "openai/text-embedding-3-small"  # OpenRouter embedding model
resp = glm_client.embeddings.create(
    model=EMBEDDING_MODEL,
    input=["This is a test1", "This is a test2"],
)
test_embeddings = [d.embedding for d in resp.data]
embedding_dim = len(test_embeddings[0])
print(embedding_dim)
print(test_embeddings[0][:10])

الإخراج:

1536
[0.010637564584612846, -0.017222722992300987, 0.05409347265958786, -0.04377825930714607, -0.017545074224472046, -0.04196695610880852, -0.0011963422875851393, 0.03837504982948303, 0.0008855042979121208, 0.015181170776486397]

تحميل البيانات إلى ميلفوس

إنشاء مجموعة:

from pymilvus import MilvusClient
milvus_client = MilvusClient(uri="./milvus_demo.db")
collection_name = "my_rag_collection"

ملاحظة حول تكوين MilvusClient:

  • تعيين URI إلى ملف محلي (على سبيل المثال، ./milvus.db) هو أبسط خيار. يستخدم تلقائيًا Milvus Lite لتخزين جميع البيانات في هذا الملف.

  • بالنسبة للبيانات واسعة النطاق، يمكنك نشر خادم Milvus أكثر أداءً على Docker أو Kubernetes. في هذه الحالة، استخدم URI الخادم (على سبيل المثال، http://localhost:19530).

  • لاستخدام Zilliz Cloud (الإصدار السحابي المُدار بالكامل من Milvus)، قم بتعيين URI والرمز المميز إلى نقطة النهاية العامة ومفتاح API من وحدة تحكم Zilliz Cloud.

تحقق مما إذا كانت المجموعة موجودة بالفعل، وقم بإسقاطها إذا كان الأمر كذلك:

if milvus_client.has_collection(collection_name):
    milvus_client.drop_collection(collection_name)

قم بإنشاء مجموعة جديدة بالمعلمات المحددة. إذا لم تقم بتوفير تعريفات الحقول، يقوم ميلفوس تلقائيًا بإنشاء حقل افتراضي id كمفتاح أساسي وحقل vector للبيانات المتجهة. يخزن حقل JSON المحجوز أي حقول وقيم غير محددة في المخطط:

milvus_client.create_collection(
    collection_name=collection_name,
    dimension=embedding_dim,
    metric_type="COSINE",
    consistency_level="Strong",
)

إدراج البيانات

قم بتكرار الأسطر النصية وإنشاء التضمينات وإدراج البيانات في Milvus. لم يتم تعريف الحقل text هنا في المخطط. تتم إضافته تلقائيًا كحقل ديناميكي مدعوم بحقل JSON المحجوز في Milvus:

from tqdm import tqdm
data = []
resp = glm_client.embeddings.create(model=EMBEDDING_MODEL, input=text_lines)
doc_embeddings = [d.embedding for d in resp.data]
for i, line in enumerate(tqdm(text_lines, desc="Creating embeddings")):
    data.append({"id": i, "vector": doc_embeddings[i], "text": line})
milvus_client.insert(collection_name=collection_name, data=data)

الإخراج:

Creating embeddings: 100%|██████████████████████████| 72/72 [00:00<00:00, 125203.10it/s]
{'insert_count': 72, 'ids': [0, 1, 2, ..., 71], 'cost': 0}

بناء خط أنابيب RAG

استرجاع المستندات ذات الصلة:

لنطرح سؤالاً شائعاً حول ملفوس:

question = "How is data stored in milvus?"

ابحث في المجموعة عن أفضل 3 نتائج ذات صلة:

resp = glm_client.embeddings.create(model=EMBEDDING_MODEL, input=[question])
question_embedding = resp.data[0].embedding
search_res = milvus_client.search(
    collection_name=collection_name,
    data=[question_embedding],
    limit=3,
    search_params={"metric_type": "COSINE", "params": {}},
    output_fields=["text"],
)

يتم فرز النتائج حسب المسافة، الأقرب أولاً:

import json

retrieved_lines_with_distances = [ (res[“entity”][“text”], res[“distance”]) for res in search_res[0] ] print(json.dumps(retrieved_lines_with_distances, indent=4))

[ [ " Where does Milvus store data?\n\nMilvus deals with two types of data, inserted data and metadata. \n\nInserted data, including vector data, scalar data, and collection-specific schema, are stored in persistent storage as incremental log. Milvus supports multiple object storage backends, including MinIO, AWS S3, Google Cloud Storage (GCS), Azure Blob Storage, Alibaba Cloud OSS, and Tencent Cloud Object Storage (COS).\n\nMetadata are generated within Milvus. Each Milvus module has its own metadata that are stored in etcd.\n\n###", 0.7826977372169495 ], [ “How does Milvus handle vector data types and precision?\n\nMilvus supports Binary, Float32, Float16, and BFloat16 vector types.\n\n- Binary vectors: Store binary data as sequences of 0s and 1s, used in image processing and information retrieval.\n- Float32 vectors: Default storage with a precision of about 7 decimal digits. Even Float64 values are stored with Float32 precision, leading to potential precision loss upon retrieval.\n- Float16 and BFloat16 vectors: Offer reduced precision and memory usage. Float16 is suitable for applications with limited bandwidth and storage, while BFloat16 balances range and efficiency, commonly used in deep learning to reduce computational requirements without significantly impacting accuracy.\n\n###”, 0.6772387027740479 ], [ “How much does Milvus cost?\n\nMilvus is a 100% free open-source project.\n\nPlease adhere to Apache License 2.0 when using Milvus for production or distribution purposes.\n\nZilliz, the company behind Milvus, also offers a fully managed cloud version of the platform for those that don’t want to build and maintain their own distributed instance. Zilliz Cloud automatically maintains data reliability and allows users to pay only for what they use.\n\n###”, 0.6467022895812988 ] ]

إنشاء استجابة مع LLM:

دمج المستندات المسترجعة في سلسلة سياق:

context = "\n".join(
    [line_with_distance[0] for line_with_distance in retrieved_lines_with_distances]
)

إعداد النظام ومطالبات المستخدم. يتم إنشاء مطالبة المستخدم من المستندات المسترجعة من ميلفوس:

SYSTEM_PROMPT = """
Human: You are an AI assistant. You can find answers to the questions in the contextual passage snippets provided.
"""
USER_PROMPT = f"""
Use the following pieces of information enclosed in <context> tags to provide an answer to the question enclosed in <question> tags.
<context>
{context}
</context>
<question>
{question}
</question>
"""

استدعاء GLM-5 لتوليد الإجابة النهائية:

response = glm_client.chat.completions.create(
    model="z-ai/glm-5",
    messages=[
        {"role": "system", "content": SYSTEM_PROMPT},
        {"role": "user", "content": USER_PROMPT},
    ],
)
print(response.choices[0].message.content)

يقوم GLM-5 بإرجاع إجابة جيدة التنظيم:

Based on the provided context, Milvus stores data in two main ways, depending on the data type:

1. Inserted Data

  • What it includes: vector data, scalar data, and collection-specific schema.
  • How it is stored: in persistent storage as an incremental log.
  • Storage Backends: Milvus supports multiple object storage backends, including MinIO, AWS S3, Google Cloud Storage (GCS), Azure Blob Storage, Alibaba Cloud OSS, and Tencent Cloud Object Storage (COS).
  • Vector Specifics: vector data can be stored as Binary vectors (sequences of 0s and 1s), Float32 vectors (default storage), or Float16 and BFloat16 vectors (offering reduced precision and memory usage).
  1. Metadata
    • What it includes: data generated within Milvus modules.
    • How it is stored: in etcd.

الخاتمة: اختر النموذج، ثم قم ببناء خط الأنابيب

جميع النماذج الثلاثة قوية، لكنها قوية في أشياء مختلفة. يعد Gemini 3 Deep Think هو الاختيار عندما يكون عمق التفكير مهمًا أكثر من التكلفة. GLM-5 هو أفضل خيار مفتوح المصدر للفرق التي تحتاج إلى النشر المحلي والهندسة على مستوى النظام. يعد MiniMax M2.5 منطقيًا عندما تقوم بتحسين الإنتاجية والميزانية عبر أعباء عمل الإنتاج.

النموذج الذي تختاره هو نصف المعادلة فقط. لتحويل أي منها إلى تطبيق مفيد، تحتاج إلى طبقة استرجاع يمكنها التوسع مع بياناتك. وهنا يأتي دور ميلفوس. يعمل البرنامج التعليمي RAG أعلاه مع أي نموذج متوافق مع OpenAI، لذا فإن التبديل بين GLM-5 أو MiniMax M2.5 أو أي إصدار مستقبلي يتطلب تغيير سطر واحد.

إذا كنت تصمم وكلاء ذكاء اصطناعي محليين أو محليين وترغب في مناقشة بنية التخزين أو تصميم الجلسات أو الاستعادة الآمنة بمزيد من التفاصيل، فلا تتردد في الانضمام إلى قناة Slack الخاصة بنا، ويمكنك أيضًا حجز جلسة فردية لمدة 20 دقيقة من خلال ساعات عمل Milvus المكتبية للحصول على إرشادات مخصصة.

إذا كنت ترغب في التعمق أكثر في بناء وكلاء الذكاء الاصطناعي، فإليك المزيد من الموارد لمساعدتك على البدء.

    Try Managed Milvus for Free

    Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.

    Get Started

    Like the article? Spread the word

    استمر في القراءة