Gunakan Milvus di PrivateGPT
PrivateGPT adalah proyek AI siap produksi yang memungkinkan pengguna untuk mengajukan pertanyaan tentang dokumen mereka menggunakan Model Bahasa Besar tanpa koneksi internet sambil memastikan privasi 100%. PrivateGPT menawarkan API yang dibagi menjadi blok tingkat tinggi dan tingkat rendah. Ini juga menyediakan klien Gradio UI dan alat yang berguna seperti skrip pengunduhan model massal dan skrip konsumsi. Secara konseptual, PrivateGPT membungkus pipeline RAG dan mengekspos primitifnya, siap digunakan dan menyediakan implementasi penuh API dan pipeline RAG.
Dalam tutorial ini, kami akan menunjukkan kepada Anda cara menggunakan Milvus sebagai basis data vektor backend untuk PrivateGPT.
Tutorial ini terutama mengacu pada panduan instalasi resmi PrivateGPT. Jika Anda menemukan bahwa tutorial ini memiliki bagian yang sudah usang, Anda dapat memprioritaskan untuk mengikuti panduan resmi dan mengajukan pertanyaan kepada kami.
Persyaratan dasar untuk menjalankan PrivateGPT
1. Kloning Repositori PrivateGPT
Kloning repositori dan arahkan ke sana:
$ git clone https://github.com/zylon-ai/private-gpt
$ cd private-gpt
2. Instal Puisi
Instal Puisi untuk manajemen ketergantungan: Ikuti petunjuk di situs web resmi Poetry untuk menginstalnya.
3. (Opsional) Instal make
Untuk menjalankan berbagai skrip, Anda perlu menginstal make.
macOS (Menggunakan Homebrew):
$ brew install make
Windows (Menggunakan Chocolatey):
$ choco install make
Instal Modul yang Tersedia
PrivateGPT memungkinkan kustomisasi penyiapan untuk beberapa modul, misalnya LLM, Embeddings, Vector Stores, UI.
Dalam tutorial ini, kita akan menggunakan modul-modul berikut:
- LLM: Ollama
- Embeddings: Ollama
- Vector Stores: Milvus
- UI Gradio
Jalankan perintah berikut untuk menggunakan puisi untuk menginstal ketergantungan modul yang diperlukan:
$ poetry install --extras "llms-ollama embeddings-ollama vector-stores-milvus ui"
Memulai layanan Ollama
Buka ollama.ai dan ikuti petunjuk untuk menginstal Ollama di komputer Anda.
Setelah instalasi, pastikan aplikasi desktop Ollama ditutup.
Sekarang, mulai layanan Ollama (ini akan memulai server inferensi lokal, yang melayani LLM dan Embeddings):
$ ollama serve
Instal model yang akan digunakan, defaultnya settings-ollama.yaml
dikonfigurasi untuk pengguna llama3.1
8b LLM (~4GB) dan nomic-embed-text
Embeddings (~275MB)
Secara default, PrivateGPT akan secara otomatis menarik model sesuai kebutuhan. Perilaku ini dapat diubah dengan memodifikasi properti ollama.autopull_models
.
Bagaimanapun, jika Anda ingin menarik model secara manual, jalankan perintah berikut:
$ ollama pull llama3.1
$ ollama pull nomic-embed-text
Anda dapat secara opsional mengubah ke model favorit Anda di file settings-ollama.yaml
dan menariknya secara manual.
Mengubah Pengaturan Milvus
Dalam file settings-ollama.yaml
, atur vectorstore ke milvus:
vectorstore:
database: milvus
Anda juga dapat menambahkan beberapa konfigurasi cumstom Milvus untuk menentukan pengaturan Anda. seperti ini:
milvus:
uri: http://localhost:19530
collection_name: my_collection
Opsi konfigurasi yang tersedia adalah:
Opsi Bidang | Deskripsi |
---|---|
uri | Default diatur ke "local_data/private_gpt/milvus/milvus_local.db" sebagai file lokal; Anda juga dapat mengatur server Milvus yang lebih berkinerja di docker atau k8s, misalnya http://localhost:19530, sebagai uri Anda; Untuk menggunakan Zilliz Cloud, sesuaikan uri dan token dengan Public Endpoint dan API key di Zilliz Cloud. |
token | Pasangkan dengan server Milvus di docker atau k8s atau kunci api zilliz cloud. |
nama_koleksi | Nama koleksi, setel ke default "milvus_db". |
overwrite | Menimpa data dalam koleksi jika sudah ada, setel ke default sebagai True. |
Memulai PrivateGPT
Setelah semua pengaturan selesai, Anda dapat menjalankan PrivateGPT dengan Gradio UI.
PGPT_PROFILES=ollama make run
UI akan tersedia di http://0.0.0.0:8001
.
Anda bisa bermain-main dengan UI dan mengajukan pertanyaan tentang dokumen Anda.
Untuk detail lebih lanjut, silakan lihat dokumentasi resmi PrivateGPT.