Jalankan Ollama pada VPS dengan 1Panel: makmal AI peribadi dalam 10 minit
Panduan ringkas untuk memasang Ollama melalui 1Panel, menjalankan LLM peribadi, dan mengukuhkan keselamatan tanpa konfigurasi rumit.
Ollama VPS 1Panel LLM Self-hosted
TL;DR
Dengan Ollama, anda boleh jalankan model seperti Llama 3 dan Mistral pada VPS sendiri. Melalui App Store 1Panel, pemasangan siap dalam beberapa minit dan persediaan asas boleh disiapkan dalam kurang daripada 10 minit.
Langkah pemasangan dengan 1Panel
Step 1: Pasang 1Panel
bash -c "$(curl -sSL https://resource.1panel.pro/v2/quick_start.sh)"
Step 2: Cari Ollama dalam App Store
Pada bar sisi, buka App Store, cari Ollama, kemudian klik Install.
Step 3: Tetapkan pilihan pemasangan
- Port lalai:
11434 - Had CPU/RAM (pilihan)
- Direktori data model
- Aktifkan
External Accessjika perlu capaian luar

Step 4: Jalankan model pertama
Pergi ke AI > Local Models > Ollama, klik Add dan masukkan nama model. Senarai model: https://ollama.com/search.

Step 5: Uji model
curl http://{SERVER_IP}:11434/api/generate -d '{
"model": "llama3",
"prompt": "Explain self-hosted LLMs in one sentence.",
"stream": false
}'
Step 6: Kuatkan keselamatan
Untuk pendedahan awam, aktifkan AI Proxy Enhancement bagi reverse proxy + HTTPS.
