當然可以!以下是針對 Raspberry Pi 5(RP5) 撰寫的,最新(2025 年)Ollama 安裝與使用的完整圖文教學,支援 ARM64 架構、無需 Docker、無需模擬器,並可用於中文語言模型聊天、推理、API 整合等。


🧠 Raspberry Pi 5 上安裝 Ollama 完整教學(支援 ARM64)

✅ 教學重點:

  • ✅ 適用 Raspberry Pi OS 64-bit / Ubuntu 24.04 ARM

  • ✅ 支援新推出的 Ollama ARM 安裝器

  • ✅ 可運行 Llama2、Mistral、Gemma、TinyLlama 等模型

  • ✅ 提供 CLI 與 REST API 介面


📦 系統需求

項目 建議規格
裝置 Raspberry Pi 5(建議 8GB RAM)
作業系統 Raspberry Pi OS 64-bit Bookworm / Ubuntu 24.04
儲存空間 16GB+,建議 32GB 以上
網路 必須連網
電源 官方 5V/5A 電源或 USB-C PD

🛠️ 安裝步驟

✅ 步驟 1:更新系統並安裝基本工具

sudo apt update && sudo apt upgrade -y
sudo apt install -y curl git

✅ 步驟 2:使用 Ollama 官方安裝器(支援 ARM64)

curl -fsSL https://ollama.com/install.sh | sh
  • 這個指令會根據系統自動安裝對應的版本(ARM64)

  • 會將 ollama 二進位檔放入 /usr/local/bin


✅ 步驟 3:啟用並啟動 Ollama 服務

sudo systemctl enable ollama
sudo systemctl start ollama

ollama serve

🔎 驗證:

ollama --version

若輸出如 ollama version 0.X.XXX,表示安裝成功!


🤖 模型使用教學

🔹 執行 TinyLlama(最適合 RP5)

ollama run tinyllama

👉 模型會自動下載,約 400MB。

你可以輸入問題,例如:

> 請用中文介紹 Raspberry Pi 是什麼?

🔹 支援的熱門模型指令

模型 安裝與執行指令 適合 RP5?
TinyLlama ollama run tinyllama ✅ 極佳
Phi-2 ollama run phi ⚠️ 勉強可用
Mistral 7B ollama run mistral ❌ 太大
Gemma 2B ollama run gemma:2b ⚠️ 勉強可用
Llama3 8B ollama run llama3:8b ❌ 太重

🌐 使用 REST API(建構你自己的 Chat App)

Ollama 預設開啟 localhost:11434 的 REST API 伺服器

🔸 測試 API

curl http://localhost:11434/api/generate -d '{
  "model": "tinyllama",
  "prompt": "請用中文自我介紹",
  "stream": false
}'

🔸 回應格式

{
  "response": "你好,我是 TinyLlama,一個語言模型...",
  "done": true
}

你可用此 API 整合至前端、LineBot、Telegram 等。


📁 Ollama 模型儲存位置

~/.ollama/models/

你可以手動下載 .gguf 模型也放這裡。


🧪 建立背景聊天模式(類似 ChatGPT)

ollama run tinyllama --chat

你可以持續與模型對話,模型會記住上下文。


📌 Bonus:開機自動啟動服務

sudo systemctl enable ollama

⚠️ 效能建議與注意事項

項目 說明
散熱 高強度推理會讓 RP5 過熱,請使用主動式風扇
記憶體 避免載入 7B 以上模型,RP5 可能 OOM
使用 swap 若模型太大可使用 zram 交換區輔助
多語言支援 大多數模型(如 Mistral、Gemma)支援中英文

🧠 結語:為何用 Ollama on Pi?

  • ✅ 最輕量化的本地推理解決方案

  • ✅ 超簡單安裝指令,無需 Docker、模擬器

  • ✅ 與 x86 的 Ollama 完全一致,可共用模型


\

文章標籤
全站熱搜
創作者介紹
創作者 liusming 的頭像
liusming

劉老師的跨域創想工坊

liusming 發表在 痞客邦 留言(0) 人氣(30)