milvus-logo
LFAI
フロントページへ
  • スタート

GPU対応Milvusのインストール要件

このページでは、GPUをサポートしたMilvusをセットアップするためのハードウェアとソフトウェアの要件を示します。

計算能力

GPUデバイスの計算能力は以下のいずれかである必要があります:6.0, 7.0, 7.5, 8.0, 8.6, 9.0.

お使いのGPUデバイスが要件を満たしているかどうかを確認するには、NVIDIA開発者向けウェブサイトでYour GPU Compute Capabilityをチェックしてください。

NVIDIAドライバ

GPUデバイス用のNVIDIAドライバは、サポートされているLinuxディストリビューションの1つである必要があり、NVIDIA Container Toolkitは、このガイドに従ってインストールされている必要があります。

Ubuntu 22.04ユーザの場合、以下のコマンドでドライバとコンテナツールキットをインストールできます:

$ sudo apt install --no-install-recommends nvidia-headless-545 nvidia-utils-545

その他のOSユーザーについては、公式のインストールガイドを参照してください。

ドライバが正しくインストールされているかどうかは、以下のコマンドを実行することで確認できます:

$ modinfo nvidia | grep "^version"
version:        545.29.06

バージョン545以上のドライバを使用することを推奨します。

ソフトウェア要件

Linuxプラットフォーム上でKubernetesクラスタを実行することを推奨します。

  • kubectlはKubernetes用のコマンドラインツールです。クラスタのマイナーバージョン差が1つ以内のkubectlバージョンを使用してください。最新バージョンのkubectlを使用することで、予期せぬ問題を回避できます。
  • Kubernetesクラスタをローカルで実行する場合は、minikubeが必要です。minikubeには依存関係としてDockerが必要です。Helmを使用してMilvusをインストールする前に、Dockerをインストールしていることを確認してください。詳しくはGet Dockerを参照してください。
オペレーティングシステムソフトウェア備考
Linuxプラットフォーム
  • Kubernetes 1.16以降
  • kubectl
  • Helm 3.0.0以降
  • minikube (Milvusスタンドアロン用)
  • Docker 19.03以降(Milvusスタンドアロン用)
詳細はHelm Docs を参照してください。

よくある質問

テスト目的でK8sクラスタをローカルで起動するにはどうすればよいですか?

minikubekindKubeadmなどのツールを使って、Kubernetesクラスタをローカルで素早くセットアップできます。以下の手順では、例としてminikubeを使用します。

  1. minikubeをダウンロードする

Get Startedページにアクセスし、What you'll needセクションに記載されている条件を満たしているかどうかを確認し、ターゲットプラットフォームについて記載されているボタンをクリックし、バイナリをダウンロードしてインストールするためのコマンドをコピーします。

  1. minikubeを使ってK8sクラスタを起動する
$ minikube start
  1. K8sクラスタのステータスの確認

以下のコマンドを使用して、インストールしたK8sクラスタのステータスを確認できます。

$ kubectl cluster-info

kubectl 経由でK8sクラスタにアクセスできることを確認します。kubectl をローカルにインストールしていない場合は、「Use kubectl inside minikube」を参照してください。

GPUワーカーノードでK8sクラスタを起動するには?

GPU対応ワーカーノードを使用したい場合は、以下の手順に従ってGPUワーカーノードを持つK8sクラスタを作成できます。GPUワーカーノードを持つK8sクラスタにMilvusをインストールし、プロビジョニングされたデフォルトのストレージクラスを使用することをお勧めします。

  1. GPUワーカーノードの準備

GPU対応ワーカーノードを使用するには、Prepare your GPU nodesの手順に従ってください。

  1. K8sでGPUサポートを有効にする

以下の手順に従って、Helm でnvidia-device-pluginをデプロイします。

設定後、次のコマンドでGPUリソースを表示します。<gpu-worker-node> は実際のノード名に置き換えてください。

  $ kubectl describe node <gpu-worker-node>

  Capacity:
  ...
  nvidia.com/gpu:     4
  ...
  Allocatable:
  ...
  nvidia.com/gpu:     4
  ...
  ```  

翻訳DeepL

Try Managed Milvus for Free

Zilliz Cloud is hassle-free, powered by Milvus and 10x faster.

Get Started
フィードバック

このページは役に立ちましたか ?