當然可以!以下是針對 Raspberry Pi 5(RP5) 撰寫的,最新(2025 年)Ollama 安裝與使用的完整圖文教學,支援 ARM64 架構、無需 Docker、無需模擬器,並可用於中文語言模型聊天、推理、API 整合等。
🧠 Raspberry Pi 5 上安裝 Ollama 完整教學(支援 ARM64)
✅ 教學重點:
✅ 適用 Raspberry Pi OS 64-bit / Ubuntu 24.04 ARM
✅ 支援新推出的 Ollama ARM 安裝器
✅ 可運行 Llama2、Mistral、Gemma、TinyLlama 等模型
✅ 提供 CLI 與 REST API 介面
📦 系統需求
| 項目 | 建議規格 |
|---|---|
| 裝置 | Raspberry Pi 5(建議 8GB RAM) |
| 作業系統 | Raspberry Pi OS 64-bit Bookworm / Ubuntu 24.04 |
| 儲存空間 | 16GB+,建議 32GB 以上 |
| 網路 | 必須連網 |
| 電源 | 官方 5V/5A 電源或 USB-C PD |
🛠️ 安裝步驟
✅ 步驟 1:更新系統並安裝基本工具
sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git
✅ 步驟 2:使用 Ollama 官方安裝器(支援 ARM64)
curl -fsSL https://ollama.com/install.sh | sh
-
這個指令會根據系統自動安裝對應的版本(ARM64)
-
會將
ollama二進位檔放入/usr/local/bin
✅ 步驟 3:啟用並啟動 Ollama 服務
sudo systemctl enable ollama
sudo systemctl start ollama
ollama serve
🔎 驗證:
ollama --version
若輸出如
ollama version 0.X.XXX,表示安裝成功!
🤖 模型使用教學
🔹 執行 TinyLlama(最適合 RP5)
ollama run tinyllama
👉 模型會自動下載,約 400MB。
你可以輸入問題,例如:
> 請用中文介紹 Raspberry Pi 是什麼?
🔹 支援的熱門模型指令
| 模型 | 安裝與執行指令 | 適合 RP5? |
|---|---|---|
| TinyLlama | ollama run tinyllama |
✅ 極佳 |
| Phi-2 | ollama run phi |
⚠️ 勉強可用 |
| Mistral 7B | ollama run mistral |
❌ 太大 |
| Gemma 2B | ollama run gemma:2b |
⚠️ 勉強可用 |
| Llama3 8B | ollama run llama3:8b |
❌ 太重 |
🌐 使用 REST API(建構你自己的 Chat App)
Ollama 預設開啟 localhost:11434 的 REST API 伺服器
🔸 測試 API
curl http://localhost:11434/api/generate -d '{
"model": "tinyllama",
"prompt": "請用中文自我介紹",
"stream": false
}'
🔸 回應格式
{
"response": "你好,我是 TinyLlama,一個語言模型...",
"done": true
}
你可用此 API 整合至前端、LineBot、Telegram 等。
📁 Ollama 模型儲存位置
~/.ollama/models/
你可以手動下載 .gguf 模型也放這裡。
🧪 建立背景聊天模式(類似 ChatGPT)
ollama run tinyllama --chat
你可以持續與模型對話,模型會記住上下文。
📌 Bonus:開機自動啟動服務
sudo systemctl enable ollama
⚠️ 效能建議與注意事項
| 項目 | 說明 |
|---|---|
| 散熱 | 高強度推理會讓 RP5 過熱,請使用主動式風扇 |
| 記憶體 | 避免載入 7B 以上模型,RP5 可能 OOM |
| 使用 swap | 若模型太大可使用 zram 交換區輔助 |
| 多語言支援 | 大多數模型(如 Mistral、Gemma)支援中英文 |
🧠 結語:為何用 Ollama on Pi?
-
✅ 最輕量化的本地推理解決方案
-
✅ 超簡單安裝指令,無需 Docker、模擬器
-
✅ 與 x86 的 Ollama 完全一致,可共用模型
\
文章標籤
全站熱搜
