Milvus
Zilliz
  • Home
  • Blog
  • Kami Melatih dan Membuka Sumber Model Penyorotan Semantik Bilingual untuk RAG Produksi dan Pencarian AI

Kami Melatih dan Membuka Sumber Model Penyorotan Semantik Bilingual untuk RAG Produksi dan Pencarian AI

  • Engineering
January 06, 2026
Cheney Zhang

Baik Anda membangun pencarian produk, pipeline RAG, atau agen AI, pengguna pada akhirnya membutuhkan hal yang sama: cara cepat untuk mengetahui mengapa suatu hasil relevan. Penyorotan membantu dengan menandai teks yang tepat yang mendukung kecocokan, sehingga pengguna tidak perlu memindai seluruh dokumen.

Sebagian besar sistem masih mengandalkan penyorotan berbasis kata kunci. Jika pengguna mencari "kinerja iPhone," sistem akan menyoroti token yang tepat "iPhone" dan "kinerja." Namun hal ini akan rusak segera setelah teks mengekspresikan ide yang sama dengan menggunakan kata-kata yang berbeda. Deskripsi seperti "Chip A15 Bionic, lebih dari satu juta dalam benchmark, lancar tanpa lag" dengan jelas membahas kinerja, namun tidak ada yang disorot karena kata kuncinya tidak pernah muncul.

Penyorotan semantik memecahkan masalah ini. Alih-alih mencocokkan string yang sama persis, fitur ini mengidentifikasi rentang teks yang secara semantik selaras dengan kueri. Untuk sistem RAG, pencarian AI, dan agen-di mana relevansi bergantung pada makna, bukan pada bentuk permukaan-ini menghasilkan penjelasan yang lebih tepat dan lebih dapat diandalkan tentang mengapa sebuah dokumen diambil.

Namun, metode penyorotan semantik yang ada saat ini tidak dirancang untuk beban kerja AI produksi. Setelah mengevaluasi semua solusi yang tersedia, kami menemukan bahwa tidak ada yang memberikan ketepatan, latensi, cakupan multibahasa, atau ketangguhan yang diperlukan untuk pipeline RAG, sistem agen, atau pencarian web berskala besar. Jadi kami melatih model penyorotan semantik dwibahasa kami sendiri-dan menyediakannya secara terbuka.

Cara Kerja Penyorotan Berbasis Kata Kunci - dan Mengapa Gagal dalam Sistem AI Modern

Sistem pencarian tradisional menerapkan penyorotan melalui pencocokan kata kunci sederhana. Ketika hasil dikembalikan, mesin akan menemukan posisi token yang tepat yang sesuai dengan kueri dan membungkusnya dengan markup (biasanya tag <em> ), sehingga frontend dapat menampilkan sorotan. Ini bekerja dengan baik ketika istilah kueri muncul kata demi kata dalam teks.

Masalahnya adalah model ini mengasumsikan relevansi terkait dengan tumpang tindih kata kunci yang tepat. Begitu asumsi itu rusak, keandalannya akan menurun dengan cepat. Hasil apa pun yang mengekspresikan ide yang tepat dengan kata-kata yang berbeda akan berakhir tanpa sorotan sama sekali, meskipun langkah pengambilannya benar.

Kelemahan ini menjadi jelas dalam aplikasi AI modern. Dalam pipeline RAG dan alur kerja agen AI, kueri lebih abstrak, dokumen lebih panjang, dan informasi yang relevan mungkin tidak menggunakan kata-kata yang sama. Penyorotan berbasis kata kunci tidak lagi dapat menunjukkan kepada pengembang-atau pengguna akhir-di manajawaban sebenarnya, yang membuat keseluruhan sistem terasa kurang akurat bahkan ketika pencarian kembali berfungsi sebagaimana mestinya.

Misalkan seorang pengguna bertanya: "Bagaimana cara meningkatkan efisiensi eksekusi kode Python?" Sistem mengambil dokumen teknis dari database vektor. Penyorotan tradisional hanya dapat menandai kecocokan literal seperti "Python", "kode", "eksekusi", dan "efisiensi".

Namun, bagian yang paling berguna dari dokumen tersebut mungkin saja:

  • Gunakan operasi vektor NumPy alih-alih perulangan eksplisit

  • Hindari membuat objek di dalam perulangan secara berulang-ulang

Kalimat-kalimat ini secara langsung menjawab pertanyaan, tetapi tidak mengandung istilah kueri. Akibatnya, penyorotan tradisional gagal total. Dokumen tersebut mungkin relevan, tetapi pengguna masih harus memindai baris demi baris untuk menemukan jawaban yang sebenarnya.

Masalahnya menjadi lebih parah dengan agen AI. Permintaan pencarian agen sering kali bukan merupakan pertanyaan asli dari pengguna, tetapi merupakan instruksi turunan yang dihasilkan melalui penalaran dan penguraian tugas. Misalnya, jika pengguna bertanya, "Dapatkah Anda menganalisis tren pasar saat ini?", agen dapat menghasilkan kueri seperti "Ambil data penjualan elektronik konsumen Q4 2024, tingkat pertumbuhan dari tahun ke tahun, perubahan pangsa pasar pesaing utama, dan fluktuasi biaya rantai pasokan".

Kueri ini menjangkau berbagai dimensi dan mengkodekan maksud yang kompleks. Akan tetapi, penyorotan berbasis kata kunci tradisional hanya dapat menandai kecocokan secara harfiah seperti "2024", "data penjualan", atau "tingkat pertumbuhan".

Sementara itu, wawasan yang paling berharga mungkin terlihat seperti:

  • Seri iPhone 15 mendorong pemulihan pasar yang lebih luas

  • Kendala pasokan chip mendorong kenaikan biaya sebesar 15%

Kesimpulan ini mungkin tidak memiliki kata kunci yang sama dengan kueri, meskipun kata kunci tersebut adalah yang ingin diekstrak oleh agen. Agen harus dengan cepat mengidentifikasi informasi yang benar-benar berguna dari konten yang diambil dalam jumlah besar - dan penyorotan berbasis kata kunci tidak memberikan bantuan yang nyata.

Apa Itu Penyorotan Semantik, dan Poin Utama dalam Solusi Saat Ini

Penyorotan semantik dibangun di atas ide yang sama di balik pencarian semantik: pencocokan berdasarkan makna, bukan kata-kata yang tepat. Dalam pencarian semantik, model penyematan memetakan teks ke dalam vektor sehingga sistem pencarian-biasanya didukung oleh basis data vektor seperti Milvus-dapatmengambil bagian yang menyampaikan ide yang sama dengan kueri, meskipun kata-katanya berbeda. Penyorotan semantik menerapkan prinsip ini pada granularitas yang lebih halus. Alih-alih menandai kata kunci secara harfiah, Milvus menyoroti rentang tertentu di dalam dokumen yang secara semantik relevan dengan maksud pengguna.

Pendekatan ini memecahkan masalah inti dengan penyorotan tradisional, yang hanya berfungsi jika istilah kueri muncul secara kata demi kata. Jika pengguna mencari "kinerja iPhone," penyorotan berbasis kata kunci mengabaikan frasa seperti "chip A15 Bionic," "lebih dari satu juta dalam tolok ukur," atau "lancar tanpa jeda," meskipun kalimat-kalimat tersebut dengan jelas menjawab pertanyaan. Penyorotan semantik menangkap hubungan yang digerakkan oleh makna ini dan menampilkan bagian teks yang benar-benar penting bagi pengguna.

Secara teori, ini adalah masalah pencocokan semantik yang mudah. Model penyematan modern sudah mengkodekan kemiripan dengan baik, sehingga bagian konseptualnya sudah ada. Tantangannya berasal dari kendala dunia nyata: penyorotan terjadi pada setiap kueri, sering kali pada banyak dokumen yang diambil, membuat latensi, throughput, dan ketahanan lintas domain menjadi persyaratan yang tidak dapat dinegosiasikan. Model bahasa yang besar terlalu lambat dan terlalu mahal untuk dijalankan di jalur frekuensi tinggi ini.

Itulah sebabnya mengapa penyorotan semantik praktis membutuhkan model yang ringan dan khusus - cukup kecil untuk ditempatkan di samping infrastruktur pencarian dan cukup cepat untuk mengembalikan hasil dalam beberapa milidetik. Di sinilah sebagian besar solusi yang ada saat ini rusak. Model yang berat memberikan akurasi tetapi tidak dapat berjalan dalam skala besar; model yang lebih ringan cepat tetapi kehilangan presisi atau gagal pada data multibahasa atau data khusus domain.

penyorot-semantik-open-search

Tahun lalu, OpenSearch merilis model khusus untuk penyorotan semantik: opensearch-semantic-highlighter-v1. Meskipun ini adalah upaya yang berarti untuk mengatasi masalah ini, model ini memiliki dua batasan penting.

  • Jendela konteks yang kecil: Model ini didasarkan pada arsitektur BERT dan mendukung maksimum 512 token - sekitar 300-400 karakter bahasa Mandarin atau 400-500 kata dalam bahasa Inggris. Dalam skenario dunia nyata, deskripsi produk dan dokumen teknis sering kali terdiri dari ribuan kata. Konten di luar jendela pertama akan terpotong begitu saja, memaksa model untuk mengidentifikasi sorotan berdasarkan hanya sebagian kecil dari dokumen.

  • Generalisasi di luar domain yang buruk: Model ini bekerja dengan baik hanya pada distribusi data yang mirip dengan set pelatihannya. Ketika diterapkan pada data di luar domain-seperti menggunakan model yang dilatih pada artikel berita untuk menyoroti konten e-commerce atau dokumentasi teknis-kinerja menurun tajam. Dalam percobaan kami, model ini mencapai skor F1 sekitar 0,72 pada data dalam domain, tetapi turun menjadi sekitar 0,46 pada set data di luar domain. Tingkat ketidakstabilan ini merupakan masalah dalam produksi. Selain itu, model ini tidak mendukung bahasa Mandarin.

Provence / XProvence

Provence adalah model yang dikembangkan oleh Naver dan pada awalnya dilatih untuk pemangkasan konteks-tugasyang terkait erat dengan penyorotan semantik.

Kedua tugas tersebut dibangun di atas ide dasar yang sama: menggunakan pencocokan semantik untuk mengidentifikasi konten yang relevan dan menyaring bagian yang tidak relevan. Karena alasan ini, Provence dapat digunakan kembali untuk penyorotan semantik dengan adaptasi yang relatif sedikit.

Provence adalah model khusus bahasa Inggris dan berkinerja cukup baik dalam pengaturan tersebut. XProvence adalah varian multibahasa, mendukung lebih dari selusin bahasa, termasuk bahasa Mandarin, Jepang, dan Korea. Sekilas, ini membuat XProvence tampak sebagai kandidat yang baik untuk skenario penyorotan semantik bilingual atau multibahasa.

Namun dalam praktiknya, baik Provence maupun XProvence memiliki beberapa keterbatasan penting:

  • Performa bahasa Inggris yang lebih lemah dalam model multibahasa: XProvence tidak menyamai kinerja Provence pada tolok ukur bahasa Inggris. Ini adalah pertukaran yang umum terjadi pada model multibahasa: kapasitas dibagi di berbagai bahasa, yang sering kali menyebabkan kinerja yang lebih lemah pada bahasa dengan sumber daya tinggi seperti bahasa Inggris. Keterbatasan ini penting dalam sistem dunia nyata di mana bahasa Inggris tetap menjadi beban kerja utama atau dominan.

  • Performa bahasa Mandarin yang terbatas: XProvence mendukung banyak bahasa. Selama pelatihan multibahasa, data dan kapasitas model tersebar di berbagai bahasa, yang membatasi seberapa baik model dapat mengkhususkan diri pada satu bahasa. Akibatnya, kinerja bahasa Mandarinnya hanya dapat diterima secara marginal dan sering kali tidak cukup untuk kasus penggunaan penyorotan presisi tinggi.

  • Ketidaksesuaian antara pemangkasan dan tujuan penyorotan: Provence dioptimalkan untuk pemangkasan konteks, di mana prioritasnya adalah mengingat kembali sebanyak mungkin konten yang berpotensi berguna untuk menghindari kehilangan informasi penting. Sebaliknya, penyorotan semantik menekankan pada ketepatan: hanya menyoroti kalimat yang paling relevan, bukan sebagian besar dokumen. Ketika model gaya Provence diterapkan pada penyorotan, ketidaksesuaian ini sering kali menyebabkan penyorotan yang terlalu luas atau berisik.

  • Lisensi yang membatasi: Baik Provence maupun XProvence dirilis di bawah lisensi CC BY-NC 4.0, yang tidak mengizinkan penggunaan komersial. Pembatasan ini saja sudah membuat mereka tidak cocok untuk banyak penerapan produksi.

Open Provence

Open Provence adalah proyek berbasis komunitas yang mengimplementasikan ulang jalur pelatihan Provence secara terbuka dan transparan. Open Provence tidak hanya menyediakan skrip pelatihan, tetapi juga alur kerja pemrosesan data, alat evaluasi, dan model yang telah dilatih sebelumnya dalam berbagai skala.

Keuntungan utama dari Open Provence adalah lisensi MIT-nya yang permisif. Tidak seperti Provence dan XProvence, Open Provence dapat digunakan dengan aman di lingkungan komersial tanpa batasan hukum, yang membuatnya menarik bagi tim yang berorientasi pada produksi.

Meskipun demikian, Open Provence saat ini hanya mendukung bahasa Inggris dan Jepang, yang membuatnya tidak cocok untuk kasus penggunaan dwibahasa.

Kami Melatih dan Membuka Sumber Model Penyorotan Semantik Bilingual

Model penyorotan semantik yang dirancang untuk beban kerja di dunia nyata harus memberikan beberapa kemampuan penting:

  • Performa multibahasa yang kuat

  • Jendela konteks yang cukup besar untuk mendukung dokumen yang panjang

  • Generalisasi di luar domain yang kuat

  • Presisi tinggi dalam tugas penyorotan semantik

  • Lisensi yang permisif dan ramah produksi (MIT atau Apache 2.0)

Setelah mengevaluasi solusi yang ada, kami menemukan bahwa tidak ada satu pun model yang tersedia yang memenuhi persyaratan yang diperlukan untuk penggunaan produksi. Jadi kami memutuskan untuk melatih model sorotan semantik kami sendiri: zilliz/semantic-highlight-bilingual-v1.

Untuk mencapai semua ini, kami mengadopsi pendekatan langsung: menggunakan model bahasa yang besar untuk menghasilkan data berlabel berkualitas tinggi, kemudian melatih model penyorotan semantik ringan di atasnya dengan menggunakan perangkat sumber terbuka. Hal ini memungkinkan kami menggabungkan kekuatan penalaran LLM dengan efisiensi dan latensi rendah yang diperlukan dalam sistem produksi.

Bagian yang paling menantang dari proses ini adalah konstruksi data. Selama anotasi, kami meminta LLM (Qwen3 8B) untuk mengeluarkan tidak hanya rentang sorotan tetapi juga seluruh penalaran di baliknya. Sinyal penalaran tambahan ini menghasilkan pengawasan yang lebih akurat dan konsisten dan secara signifikan meningkatkan kualitas model yang dihasilkan.

Pada tingkat tinggi, pipeline anotasi bekerja sebagai berikut: Penalaran LLM → label sorotan → penyaringan → sampel pelatihan akhir.

Desain ini memberikan tiga manfaat konkret dalam praktiknya:

  • Kualitas pelabelan yang lebih tinggi: Model diminta untuk berpikir terlebih dahulu, baru kemudian menjawab. Langkah penalaran menengah ini berfungsi sebagai pemeriksaan mandiri bawaan, mengurangi kemungkinan label yang dangkal atau tidak konsisten.

  • Peningkatan kemampuan observasi dan debug: Karena setiap label disertai dengan jejak penalaran, kesalahan menjadi terlihat. Hal ini memudahkan untuk mendiagnosis kasus kegagalan dan dengan cepat menyesuaikan petunjuk, aturan, atau filter data dalam pipeline.

  • Data yang dapat digunakan kembali: Jejak penalaran memberikan konteks yang berharga untuk pelabelan ulang di masa mendatang. Ketika persyaratan berubah, data yang sama dapat ditinjau kembali dan disempurnakan tanpa memulai dari awal.

Dengan menggunakan pipeline ini, kami menghasilkan lebih dari satu juta sampel pelatihan dwibahasa, yang dibagi secara merata antara bahasa Inggris dan Mandarin.

Untuk pelatihan model, kami mulai dari BGE-M3 Reranker v2 (0,6B parameter, 8.192 jendela konteks token), mengadopsi kerangka kerja pelatihan Open Provence, dan melatih selama tiga epoch pada GPU 8× A100, menyelesaikan pelatihan dalam waktu kurang lebih lima jam.

Kami akan membahas lebih dalam mengenai pilihan teknis ini-termasuk mengapa kami mengandalkan jejak penalaran, bagaimana kami memilih model dasar, dan bagaimana dataset dibangun-dalam artikel lanjutan.

Membandingkan Model Penyorotan Semantik Bilingual Zilliz

Untuk menilai kinerja dunia nyata, kami mengevaluasi beberapa model penyorotan semantik di berbagai set data. Tolok ukur ini mencakup skenario dalam domain dan di luar domain, dalam bahasa Inggris dan Mandarin, untuk mencerminkan keragaman konten yang ditemukan dalam sistem produksi.

Dataset

Kami menggunakan dataset berikut ini dalam evaluasi kami:

  • MultiSpanQA (Bahasa Inggris) - dataset penjawab pertanyaan multi-rentang dalam domain

  • WikiText-2 (Bahasa Inggris) - korpus Wikipedia di luar domain

  • MultiSpanQA-ZH (Bahasa Mandarin) - dataset penjawab pertanyaan multi-bentang dalam bahasa Mandarin

  • WikiText-2-ZH (bahasa Mandarin) - korpus Wikipedia bahasa Mandarin di luar domain

Model-model yang Dibandingkan

Model-model yang termasuk dalam perbandingan adalah:

  • Model Open Provence

  • Provence / XProvence (dirilis oleh Naver)

  • Penyorot Semantik OpenSearch

  • Model penyorotan semantik dwibahasa dari Zilliz

Hasil dan Analisis

Kumpulan Data Bahasa Inggris:

Dataset Bahasa Mandarin:

Di seluruh tolok ukur dwibahasa, model kami mencapai skor F1 rata-rata yang canggih, mengungguli semua model dan pendekatan yang telah dievaluasi sebelumnya. Peningkatan ini terutama terlihat pada dataset berbahasa Mandarin, di mana model kami secara signifikan mengungguli XProvence-satu-satunya model yang dievaluasi dengan dukungan bahasa Mandarin.

Lebih penting lagi, model kami memberikan kinerja yang seimbang di bahasa Inggris dan Mandarin, suatu hal yang sulit dicapai oleh solusi yang sudah ada:

  • Open Provence hanya mendukung bahasa Inggris

  • XProvence mengorbankan kinerja bahasa Inggris dibandingkan dengan Provence

  • OpenSearch Semantic Highlighter tidak memiliki dukungan bahasa Mandarin dan menunjukkan generalisasi yang lemah

Hasilnya, model kami menghindari pertukaran yang umum terjadi antara cakupan bahasa dan kinerja, sehingga lebih cocok untuk penerapan dwibahasa di dunia nyata.

Contoh Konkret dalam Praktik

Di luar nilai tolok ukur, sering kali lebih baik untuk memeriksa contoh konkret. Kasus berikut ini menunjukkan bagaimana model kami berperilaku dalam skenario penyorotan semantik yang nyata dan mengapa ketepatan itu penting.

Pertanyaan: Siapa yang menulis film The Killing of a Sacred Deer?

Konteks (5 kalimat):

  1. The Killing of a Sacred Deer adalah sebuah film thriller psikologis tahun 2017 yang disutradarai oleh Yorgos Lanthimos, dengan skenario yang ditulis oleh Lanthimos dan Efthymis Filippou.

  2. Film ini dibintangi oleh Colin Farrell, Nicole Kidman, Barry Keoghan, Raffey Cassidy, Sunny Suljic, Alicia Silverstone, dan Bill Camp.

  3. Kisah ini didasarkan pada drama Yunani kuno Iphigenia in Aulis karya Euripides.

  4. Film ini mengisahkan seorang ahli bedah jantung yang menjalin persahabatan rahasia dengan seorang remaja laki-laki yang terhubung dengan masa lalunya.

  5. Dia memperkenalkan anak laki-laki itu kepada keluarganya, setelah itu penyakit misterius mulai terjadi.

Sorotan yang benar: Kalimat 1 adalah jawaban yang benar, karena secara eksplisit menyatakan bahwa skenario film ini ditulis oleh Yorgos Lanthimos dan Efthymis Filippou.

Contoh ini mengandung jebakan halus. Kalimat 3 menyebutkan Euripides, penulis drama Yunani asli yang menjadi dasar cerita. Namun, pertanyaannya menanyakan siapa yang menulis filmnya, bukan materi sumbernya. Oleh karena itu, jawaban yang benar adalah penulis skenario film tersebut, bukan penulis naskah dari ribuan tahun yang lalu.

Hasil:

Tabel di bawah ini merangkum bagaimana kinerja model yang berbeda pada contoh ini.

ModelJawaban yang Benar DiidentifikasiHasil
Kami (Bilingual M3)✓Kalimat yang dipilih adalah kalimat 1 (benar) dan kalimat 3
XProvence v1✗Hanya memilih kalimat 3, tidak memilih jawaban yang benar
XProvence v2✗Hanya memilih kalimat 3, melewatkan jawaban yang benar

Perbandingan Skor Tingkat Kalimat

KalimatKami (Bilingual M3)XProvence v1XProvence v2
Kalimat 1 (skenario film, benar)0.9150.1330.081
Kalimat 3 (naskah asli, pengalih perhatian)0.7190.9470.802

Di mana XProvence gagal

  • XProvence sangat tertarik pada kata kunci "Euripides" dan "menulis", memberikan skor yang hampir sempurna untuk kalimat 3 (0,947 dan 0,802).

  • Pada saat yang sama, sebagian besar mengabaikan jawaban yang benar pada kalimat 1, memberikan skor yang sangat rendah (0,133 dan 0,081).

  • Bahkan setelah menurunkan ambang batas keputusan dari 0.5 menjadi 0.2, model masih gagal memunculkan jawaban yang benar.

Dengan kata lain, model ini lebih didorong oleh asosiasi kata kunci di tingkat permukaan daripada maksud pertanyaan yang sebenarnya.

Bagaimana model kami berperilaku berbeda

  • Model kami memberikan skor tinggi (0.915) untuk jawaban yang benar pada kalimat 1, dengan mengidentifikasi penulis skenario film dengan benar .

  • Model ini juga memberikan skor moderat (0,719) untuk kalimat 3, karena kalimat tersebut menyebutkan konsep yang berhubungan dengan skenario.

  • Yang terpenting, pemisahannya jelas dan bermakna: 0,915 vs 0,719, selisih hampir 0,2.

Contoh ini menyoroti kekuatan inti dari pendekatan kami: bergerak di luar asosiasi yang digerakkan oleh kata kunci untuk menafsirkan maksud pengguna dengan benar. Bahkan ketika beberapa konsep "penulis" muncul, model ini secara konsisten menyoroti konsep yang sebenarnya dimaksud oleh pertanyaan tersebut.

Kami akan membagikan laporan evaluasi yang lebih rinci dan studi kasus tambahan dalam posting berikutnya.

Cobalah dan Beritahu Kami Apa yang Anda Pikirkan

Kami telah membuka sumber model penyorotan semantik dwibahasa kami di Hugging Face, dengan semua bobot model yang tersedia untuk umum sehingga Anda dapat segera mulai bereksperimen. Kami ingin mendengar bagaimana cara kerjanya untuk Anda-silakan bagikan umpan balik, masalah, atau ide perbaikan saat Anda mencobanya.

Secara paralel, kami sedang mengerjakan layanan inferensi yang siap untuk produksi dan mengintegrasikan model secara langsung ke dalam Milvus sebagai API Semantic Highlighting. Integrasi ini sudah berjalan dan akan segera tersedia.

Penyorotan semantik membuka pintu menuju pengalaman RAG dan AI agentic yang lebih intuitif. Ketika Milvus mengambil beberapa dokumen yang panjang, sistem dapat segera menampilkan kalimat yang paling relevan, sehingga jelas di mana jawabannya. Hal ini tidak hanya meningkatkan pengalaman pengguna akhir, tetapi juga membantu pengembang men-debug pipeline pencarian dengan menunjukkan dengan tepat bagian mana dari konteks yang diandalkan oleh sistem.

Kami yakin penyorotan semantik akan menjadi kemampuan standar dalam sistem pencarian dan RAG generasi berikutnya. Jika Anda memiliki ide, saran, atau kasus penggunaan untuk penyorotan semantik dwibahasa, bergabunglah dengan saluran Discord kami dan bagikan pemikiran Anda. Anda juga dapat memesan sesi tatap muka selama 20 menit untuk mendapatkan wawasan, panduan, dan jawaban atas pertanyaan Anda melalui Milvus Office Hours.

    Try Managed Milvus for Free

    Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.

    Get Started

    Like the article? Spread the word

    Terus Baca