Milvus
Zilliz
  • Home
  • Blog
  • 7年、2度の大規模再構築、40K以上のGitHubスター:オープンソースのベクターデータベースをリードするmilvusの台頭

7年、2度の大規模再構築、40K以上のGitHubスター:オープンソースのベクターデータベースをリードするmilvusの台頭

  • announcements
December 02, 2025
Fendy Feng

2025年6月、Milvusは35,000のGitHubスターを達成しました。それからわずか数ヶ月で、40,000スターを超えました。これは、勢いだけでなく、ベクトル検索とマルチモーダル検索の未来を押し進め続けるグローバル・コミュニティの証でもあります。

深く感謝している。スターを付けてくださった方、フォークしてくださった方、issueを提出してくださった方、APIについて議論してくださった方、ベンチマークを共有してくださった方、milvusを使って素晴らしいものを作ってくださった方:ありがとうございます。すべての星は、ボタンを押したこと以上のことを表しています。それは、Milvusを選んで自分の仕事を動かしている人、私たちが構築しているものを信じている人、オープンでアクセス可能な高性能AIインフラストラクチャという私たちのビジョンに共感している人を反映しています。

私たちは、皆様が求めている機能、AIが今求めているアーキテクチャ、そしてマルチモーダルかつセマンティックな理解があらゆるアプリケーションのデフォルトとなる世界を見据えています。

旅:ゼロから4万以上の星へ

2017年にmilvusの構築を始めたとき、ベクトル・データベースという言葉すら存在しなかった。AIアプリケーションには、行や列のためではなく、高次元の非構造化マルチモーダルデータのために構築された、新しい種類のデータインフラがまもなく必要になると確信していたエンジニアの小さなチームにすぎなかった。従来のデータベースはそのような世界のために構築されたものではなく、ストレージと検索のあり方を誰かが再構築しなければならないと考えていました。

初期の頃は、華やかさとは程遠いものでした。エンタープライズ・グレードのインフラを構築するのは時間がかかる頑固な作業で、コード・パスのプロファイリング、コンポーネントの書き換え、夜中の2時に設計の選択に疑問を投げかけることに何週間も費やした。このミッションは、最初のブレークスルーも、避けられない挫折も、私たちを支えてくれた。

そしてその過程で、いくつかの転機がすべてを変えた:

  • 2019年:Milvus 0.10をオープンソース化。それは、ハックやTODO、まだ誇りに思えない部分など、私たちの荒削りな部分をすべてさらけ出すことを意味した。しかし、コミュニティはそれを受け入れてくれた。開発者たちは、私たちが見つけられなかった問題を提出し、私たちが想像していなかった機能を提案し、最終的にMilvusをより強くする仮定に挑戦してくれた。

  • 2020-2021:私たちはLF AI & Data Foundationに参加し、Milvus 1.0を出荷し、LF AI & Dataを卒業し、BigANNの10億スケールのベクトル検索チャレンジで優勝しました。

  • 2022年:エンタープライズユーザーは、Kubernetesネイティブのスケーリング、弾力性、ストレージとコンピューティングの真の分離を必要としていた。私たちは、古いシステムにパッチを当てるか、すべてを再構築するかという難しい決断に迫られました。私たちはより困難な道を選びました。Milvus 2.0は、完全に分離されたクラウドネイティブアーキテクチャを導入し、MilvusをミッションクリティカルなAIワークロードのためのプロダクショングレードのプラットフォームに変えました。

  • 2024-2025:Milvusの開発チームであるZillizが Forresterのリーダー企業に選出され、30,000スターを突破。マルチモーダル検索、RAGシステム、エージェント型ワークフロー、そして教育、金融、クリエイティブ制作、科学研究などの業界を横断する10億規模の検索を支える存在となった。

このマイルストーンは、誇大広告ではなく、開発者がMilvusを実際のプロダクションワークロードに選択し、あらゆるステップで改善を推し進めた結果、獲得されたものです。

2025:2つのメジャーリリース、大幅なパフォーマンス向上

2025年は、Milvusが新たなステージに踏み出した年である。ベクトル検索はセマンティックな理解に優れていますが、実運用における現実は単純です。開発者は依然として、製品ID、シリアル番号、正確なフレーズ、法律用語などの正確なキーワードマッチングを必要としています。ネイティブのフルテキスト検索がなければ、チームはElasticsearch/OpenSearchクラスタを維持するか、独自のカスタムソリューションを組み合わせることを余儀なくされていました。

Milvus 2.5はそれを変えました。Milvus 2.5は、全文検索とベクトル検索を1つのエンジンに統合した、真にネイティブなハイブリッド検索を導入した。開発者は初めて、余分なシステムや同期パイプラインを操作することなく、語彙クエリ、セマンティッククエリ、メタデータフィルタを一緒に実行できるようになりました。また、メタデータフィルタリング、式解析、実行効率もアップグレードされ、ハイブリッドクエリが自然で、実運用負荷の下でも高速に実行できるようになりました。

Milvus 2.6では 、この勢いをさらに推し進め、大規模な運用を行うユーザーからよく聞かれる2つの課題、すなわちコストと パフォーマンスをターゲットにしました。このリリースでは、より予測可能なクエリパス、より高速なインデックス作成、劇的に低いメモリ使用量、より効率的なストレージなど、アーキテクチャの大幅な改善が行われました。多くのチームが、アプリケーションコードを1行も変更することなく、すぐに効果が得られたと報告しています。

Milvus 2.6のハイライトは以下の通りです:

  • コストとパフォーマンスのバランスをよりインテリジェントにする階層型ストレージにより、ストレージコストを最大50%削減。

  • RaBitQ 1ビット量子化によりメモリを大幅に節約- メモリ使用量を最大72%削減しながら、より高速なクエリを実現。

  • BM25の実装を大幅に高速化し、フルテキストエンジンを再設計

  • JSON構造メタデータ用の新しいPath Indexにより、複雑なドキュメントのフィルタリングを最大100倍高速化。

  • AiSAQ3200倍のストレージ削減と強力なリコールを実現する10億スケールの圧縮。

  • R-Treeによるセマンティック+ 地理空間検索 物事がどこにあるかとそれが何を意味するのかを組み合わせることで、より関連性の高い結果を得ることができます。

  • CAGRA+ VamanaGPUで構築しCPUでクエリを実行するハイブリッドCAGRAモードで導入コストを削減

  • データイン、データアウト」ワークフローにより、特にマルチモーダルパイプラインのエンベデッドインジェストと検索を簡素化。

  • 単一クラスターで最大100Kコレクションをサポート- スケールでの真のマルチテナントへの大きな一歩。

Milvus 2.6の詳細については、リリースノートをご覧ください。

Milvusを超えて:AI開発者のためのオープンソースツール

2025年、私たちはMilvusを改善するだけでなく、AI開発者のエコシステム全体を強化するツールを構築しました。私たちの目標は、流行を追いかけることではなく、私たちが常に存在することを望んでいた、オープンでパワフルで透明性の高いツールを開発者に提供することでした。

DeepSearcher:クラウドロックインのない研究

OpenAIのDeep Researcherは、深い推論エージェントができることを証明しました。しかし、それは閉鎖的で、高価で、クラウドAPIの後ろにロックされています。DeepSearcherは私たちの答えです。これは、コントロールやプライバシーを犠牲にすることなく、構造化された調査を望む人のために設計された、ローカルでオープンソースのディープリサーチエンジンです。

DeepSearcherは完全にあなたのマシン上で動作し、ソースを横断して情報を収集し、洞察を統合し、引用、推論ステップ、トレーサビリティを提供します。ブラックボックスなし。ベンダーに縛られることもない。開発者や研究者が信頼できる、透明で再現可能な分析だけです。

クロード・コンテキストあなたのコードを理解するコーディングアシスタント

ほとんどのAIコーディングツールは、いまだに空想的なgrepパイプラインのように振る舞い、速く、浅く、トークンを燃やし、実際のプロジェクト構造に気づかない。Claude Contextはそれを変える。MCPプラグインとして構築されたClaude Contextは、コードアシスタントに欠けていたもの、つまりコードベースの真の意味的理解を提供します。

Claude Contextは、エージェントが適切なモジュールを見つけ、ファイル間の関係をたどり、アーキテクチャレベルの意図を理解し、推測ではなく関連性のある質問に答えることができるように、プロジェクト全体でベクトル駆動型のセマンティックインデックスを構築します。トークンの無駄を省き、精度を高め、そして最も重要なことは、コーディングアシスタントが、あなたのソフトウェアを理解しているふりをするのではなく、本当に理解しているかのように振る舞うことです。

どちらのツールも完全にオープンソースである。AIのインフラはすべての人のものであるべきであり、AIの未来がプロプライエタリな壁の向こうに閉じ込められてはならないからです。

10,000以上のチームから信頼される本番環境

現在、10,000を超える企業チームがMilvusを実運用しており、その中には急成長中の新興企業から、フォーチュン500に名を連ねる世界有数のテクノロジー企業も含まれています。NVIDIA、Salesforce、eBay、Airbnb、IBM、AT&T、LINE、Shopee、Roblox、Bosch、そしてマイクロソフト社内のチームが、毎日毎分稼働するAIシステムを動かすためにMilvusを利用しています。彼らのワークロードは、検索、レコメンデーション、エージェント・パイプライン、マルチモーダル検索など、ベクター・インフラを限界まで押し上げるアプリケーションに及んでいる。

しかし、最も重要なことは、誰がMilvusを使用しているかということではなく、Milvusを使用して何を構築しているかということです。業界を問わず、Milvusはビジネスの運営、革新、競争の方法を形作るシステムの背後にある:

  • 何十億ものエンベッディングに瞬時にアクセスすることで、カスタマーサポート、営業ワークフロー、社内の意思決定を改善するAIコパイロットやエンタープライズアシスタント

  • 電子商取引、メディア、広告におけるセマンティック検索とビジュアル検索

  • 法律、金融、科学分野のインテリジェンス・プラットフォームでは、精度、監査可能性、コンプライアンスが実際の業務利益につながります。

  • フィンテックとバンキングにおける不正検出とリスクエンジンは、高速なセマンティックマッチングに依存して、リアルタイムで損失を防ぎます。

  • 大規模なRAGとエージェントシステムは、チームに深い文脈とドメインを認識したAI動作を提供します。

  • テキスト、コード、画像、メタデータを1つの一貫したセマンティックファブリックに統合するエンタープライズナレッジレイヤー

これらはラボのベンチマークではなく、世界で最も要求の厳しい実稼働環境です。Milvusは日常的に次のような成果を上げています:

  • 何十億ものベクトルに対して50ms以下の検索時間

  • 数十億のドキュメントとイベントを単一のシステムで管理

  • 代替ソリューションよりも5~10倍高速なワークフロー

  • 数十万のコレクションをサポートするマルチテナントアーキテクチャ

Milvusが選ばれる理由は簡単で、スピード、信頼性、コスト効率、そして数ヶ月ごとにアーキテクチャを解体することなく数十億の規模に拡張できる能力です。私たちがMilvusを10年先のAIに向けて強化し続けているのは、こうしたチームからの信頼があるからです。

運用なしでMilvusが必要な場合:Zilliz Cloud

Milvusは無償で、パワフルで、実戦テスト済みです。しかし、それは分散システムでもあり、分散システムをうまく運用することは真のエンジニアリング作業でもあります。インデックスのチューニング、メモリ管理、クラスタの安定性、スケーリング、可観測性...これらのタスクには時間と専門知識が必要だが、多くのチームにはその余裕がない。開発者はMilvusのパワーを求めていました。ただ、大規模な管理で必然的に発生する運用の負担は避けられなかったのです。

MilvusがAIアプリケーションのコア・インフラになるには、運用を容易にする必要がありました。オープンソースプロジェクトを支える同じチームによって作成・保守されるフルマネージドMilvusサービス、Zilliz Cloudを構築したのはそのためです。

Zilliz Cloudは、開発者がすでに知っていて信頼しているMilvusを提供しますが、クラスタのプロビジョニング、パフォーマンス問題の解決、アップグレードの計画、ストレージやコンピューティングのチューニングの心配は不要です。また、自己管理環境では実行不可能な最適化も含まれているため、さらに高速で信頼性が高くなっています。商用グレードの自己最適化ベクターエンジンであるCardinalはオープンソースのMilvusの10倍のパフォーマンスを実現します。

Zilliz Cloudの特徴

  • 自己最適化パフォーマンス:AutoIndexはHNSW、IVF、DiskANNを自動的にチューニングし、手動設定なしで96%以上の再現率を実現します。
  • 柔軟性とコスト効率:従量課金、サーバーレス自動スケーリング、インテリジェントなリソース管理により、自己管理型の導入と比較してコストを 50% 以上削減できます。

  • エンタープライズグレードの信頼性:99.95%のアップタイムSLA、マルチAZ冗長性、SOC 2 Type II、ISO 27001、GDPRコンプライアンス。RBAC、BYOC、監査ログ、暗号化をフルサポート。

  • クラウドにとらわれない展開:AWS、Azure、GCP、Alibaba Cloud、またはTencent Cloud上で実行できるため、ベンダーロックインがなく、あらゆる場所で一貫したパフォーマンスを実現できます。

  • 自然言語クエリ:内蔵のMCPサーバーサポートにより、手動でAPIコールを作成する代わりに、会話形式でデータを照会できます。

  • 簡単な移行:Milvus、Pinecone、Qdrant、Weaviate、Elasticsearch、またはPostgreSQLから、組み込みの移行ツールを使って移行できます。

  • オープンソースのMilvusと100%互換。プロプライエタリなフォークなし。ロックインもありません。Milvusをより簡単に。

Milvusは今後もオープンソースで無料でご利用いただけます。しかし、それを企業規模で確実に運用するには、かなりの専門知識とリソースが必要です。Zilliz Cloudは、そのギャップに対する私たちの答えです。29のリージョンと5つの主要なクラウドに展開されたZilliz Cloudは、エンタープライズグレードのパフォーマンス、セキュリティ、コスト効率を提供し、お客様が既にご存知のMilvusと完全に連携します。

無料トライアルを開始

次の展開Milvus Lake

ベクターデータベースを導入したチームとして、私たちはエンタープライズデータがどのように変化しているかを最前列で見てきました。かつてはテラバイト単位の構造化されたテーブルにきちんと収まっていたものが、今やペタバイト、そしてやがて兆単位のマルチモーダル・オブジェクトへと急速に変化している。テキスト、画像、音声、ビデオ、時系列ストリーム、マルチセンサーログ...これらは今や、最新のAIシステムが依拠するデータセットを定義している。

ベクトル・データベースは、非構造化データやマルチモーダルデータ用に構築されていますが、最も経済的でアーキテクチャ的に健全な選択とは限りません。大規模なモデルのためのトレーニングコーパス、自律走行知覚ログ、ロボット工学データセットは、通常ミリ秒レベルのレイテンシーや高い同時実行性を必要としません。このような大量のデータをリアルタイム・ベクター・データベースで実行することは、そのレベルのパフォーマンスを必要としないパイプラインにとっては、高価で運用が重く、複雑になりすぎる。

この現実が、私たちを次の大きな取り組みへと導いた:Milvusレイクは、AIスケールデータのために設計された、セマンティック主導、インデックスファーストのマルチモーダルレイクハウスです。Milvus Lakeは、ベクトル、メタデータ、ラベル、LLMで生成された記述、構造化フィールドなど、あらゆるモダリティのセマンティックシグナルを統合し、実際のビジネスエンティティを中心としたセマンティックワイドテーブルに整理します。以前はオブジェクトストレージ、レイクハウス、モデルパイプラインに未加工の散在したファイルとして存在していたデータが、統一されたクエリ可能なセマンティックレイヤーとなる。大規模なマルチモーダルコーパスは、企業全体で一貫した意味を持つ、管理可能で検索可能な再利用可能な資産に変わります。

Milvus Lakeは、クリーンなマニフェスト+データ+インデックスのアーキテクチャで構築されており、インデックス作成は後付けではなく、基礎的なものとして扱われます。これにより、予測可能なレイテンシー、劇的に低いストレージコスト、そしてはるかに高い運用安定性を提供する、兆規模のコールドデータに最適化された「最初に検索し、後で処理する」ワークフローが実現します。ホットパスにはKVMe/SSD、ディープアーカイブにはオブジェクトストレージを使用し、効率的な圧縮と遅延負荷の少ないインデックスと組み合わせることで、セマンティックな忠実性を維持しながら、インフラストラクチャーのオーバーヘッドをしっかりと制御することができます。

Milvus Lakeはまた、Paimon、Iceberg、Hudi、Spark、Ray、その他のビッグデータエンジンやフォーマットと統合し、最新のデータエコシステムにシームレスに接続します。チームは、既存のワークフローを再プラットフォーム化することなく、バッチ処理、ほぼリアルタイムのパイプライン、セマンティック検索、フィーチャーエンジニアリング、トレーニングデータの準備のすべてを一箇所で実行することができます。Milvus Lakeは、基礎モデルコーパスの構築、自律走行シミュレーションライブラリの管理、ロボットエージェントのトレーニング、大規模な検索システムのパワーアップなど、AI時代のための拡張可能でコスト効率の高いセマンティックレイクハウスを提供します。

Milvus Lakeは現在開発中です。早期アクセスにご興味のある方、詳細をお知りになりたい方は、こちらまでご連絡ください。

お問い合わせはこちらから

コミュニティによるコミュニティのための構築

Milvusを特別なものにしているのは、テクノロジーだけではありません。ハイパフォーマンス・コンピューティング、分散システム、AIインフラストラクチャのスペシャリストが世界中から集まっています。ARM、NVIDIA、AMD、Intel、Meta、IBM、Salesforce、Alibaba、Microsoft、その他多くのエンジニアや研究者が専門知識を提供し、Milvusを今日の形に作り上げてきました。

すべてのプルリクエスト、すべてのバグレポート、フォーラムで回答されたすべての質問、作成されたすべてのチュートリアル、これらの貢献がMilvusをより良いものにしています。

このマイルストーンは皆様のものです:

  • 貢献者の皆さん:あなたのコード、アイデア、時間に感謝します。皆様のおかげでMilvusは日々向上しています。

  • ユーザーの皆様へ:Milvusを信頼し、良い経験も困難な経験も共有していただきありがとうございます。皆様のフィードバックが私たちのロードマップの原動力となっています。

  • コミュニティサポーターの皆様:質問に対する回答、チュートリアルの執筆、コンテンツの作成、そして新規ユーザーの立ち上げを支援していただきありがとうございます。私たちのコミュニティを歓迎し、包括的にしてくれています。

  • パートナーおよびインテグレーターの皆様:MilvusをAI開発のエコシステムにおいて一流の市民にしてくださりありがとうございます。

  • Zillizチームへ:オープンソースプロジェクトとユーザーの成功への揺るぎないコミットメントに感謝します。

Milvusが成長したのは、何千人もの人々が、オープンに、寛大に、そして基礎となるAIインフラは誰もがアクセスできるものであるべきだという信念を持って、一緒に何かを作ろうと決めたからです。

私たちと一緒に旅に出よう

あなたが最初のベクター検索アプリケーションを構築している場合でも、数十億のベクターに拡張している場合でも、Milvusコミュニティの一員としてご参加いただけることを嬉しく思います。

始めましょう

前途は多難です。AIが産業を再構築し、新たな可能性を解き放つ中、ベクターデータベースはこの変革の中核に位置することになるでしょう。私たちは共に、最新のAIアプリケーションが依存するセマンティック基盤を構築しています。

次の4万個の星に、そしてAIインフラの未来を共に築くために。🎉

    Try Managed Milvus for Free

    Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.

    Get Started

    Like the article? Spread the word

    続けて読む