Ollama 是一個開放原始碼的工具,旨在簡化和加速在本地運行大型語言模型(LLM)的過程。它提供了一個簡單的命令行介面,使用戶能夠輕鬆下載、運行和管理各種預訓練的語言模型。Ollama 使開發者和研究人員能夠在自己的設備上運行這些模型,而不需要依賴雲端服務。到這裏下載https://ollama.com/download . 完成之後,打開dos prompt輸入ollama –version證明安裝成功。
# Fast, lightweight
ollama pull deepseek-r1:8b
# Balanced performance
ollama pull deepseek-r1:14b
# Heavy processing
ollama pull deepseek-r1:32b
# Max reasoning, slowest
ollama pull deepseek-r1:70b
下戴完成輸入ollama list檢查
輸入ollama run deepseek-r1:8b,然後輸入你的問題,它就會出答案,輸入/bye離開。
如果電腦沒有GPU會跑得比較慢,最好有一張nVidia顯咭,輸入ollama ps可以檢查有否GPU
Ollama是自帶http接口的,打開browser瀏覽http://localhost:11434/證明成功
跑以下python就可以連接上
import pycurl
from io import BytesIO
response_buffer = BytesIO()
c = pycurl.Curl()
c.setopt(c.URL, 'http://localhost:11434/api/generate')
c.setopt(c.POST, 1);
c.setopt(c.WRITEDATA, response_buffer)
c.setopt(c.HTTPHEADER, ['Content-Type: application/json','Accept-Charset: UTF-8'])
c.setopt(c.POSTFIELDS, """{
"model": "deepseek-r1:8b",
"prompt": "how many peter in hong kong",
"stream": false
}""")
c.perform()
c.close()
response_data = response_buffer.getvalue().decode('utf-8')
print(response_data)