App下載

DeepSeek-R1本地部署教程:超詳細步驟與技巧

來源: w3cschool編程獅 2025-02-07 16:15:22 瀏覽數 (1818)
反饋

最近國產 AI 大模型 DeepSeek 爆火出圈,登頂中美 App Store 下載榜,還在性能、性價比上碾壓了 ChatGPT 和 Google Gemini 等硅谷巨頭,直接殺入科技圈C位,成為現象級應用!

然而,不少小伙伴在使用的時候,經常會出現響應遲緩甚至宕機的情況??

DeepSeek服務區(qū)繁忙,請稍后再試

這可怎么辦?

萬幸的是,DeepSeek 是一個開源模型,這意味著我們可以將它部署在自己的電腦上,以便隨時使用!

今天就跟大家分享一下,如何將 DeepSeek 部署在你的電腦上??

Step 1 Ollama環(huán)境搭建

首先我們需要安裝 Ollama,Ollama 是一個用于本地管理和運行大模型的工具,能夠簡化模型的下載和調度操作。

進入 Ollama 官網(ollama.com)。

Ollama 官網

點擊【Download】,選擇適合自己系統(tǒng)的版本(Windows/mac/Linux)。

Ollama下載頁面

下載后點擊安裝,等待安裝完成即可。最好安裝到 C 盤,安裝在其它盤,否則安裝后可能需要重新配置環(huán)境變量。

新建下載任務

Step 2 選擇要安裝的模型

接著返回 Ollama 官網,點擊右上角的【Models】,再選擇【deepseek-r1】。

Ollama 官網 deepseek-r1

下拉可以看到多個參數版本,數字越大,模型參數越多,性能越強,對顯存要求越高。

Ollama 官網 多個參數版本

比如 1.5b 版本擁有15億參數,顯存要求相對較低( 2G 顯存甚至核顯也能跑),而更大參數的模型對顯存要求自然水漲船高。

選中適合你電腦配置的版本(這里以 1.5b 為例),復制頁面中顯示的命令。

Ollama選中適合你電腦配置的版本

Step 3 安裝模型

在 Windows 系統(tǒng)中,按下【Win+R】彈出如下窗口??

在 Windows 系統(tǒng)中安裝模型

輸入【cmd】,點擊【確定】,打開命令行。

Windows運行終端

Windows運行終端安裝模型

在命令行中粘貼剛才復制的命令,按下回車鍵后,系統(tǒng)會自動開始下載模型。

Windows運行終端下載模型

等待下載完成即可。

下載過程中若發(fā)現速度突然變慢,試著關閉命令行再重新打開。

Step 4 開始對話

下載完成后,你的電腦就成功擁有了一個離線 DeepSeek,就算斷網也能使用。

此時,你可以直接在命令行里輸入問題,與模型開始互動。

與模型互動

Step 5 后續(xù)運行模型的小技巧

每次關機后,下次想與 DeepSeek 聊天,你還得重復啟動命令行,輸入下載時的命令即可。

這一點要牢記:點擊桌面的 Ollama 圖標只是啟動了軟件,要想真正開始對話,還得用命令行來“喊話”。

再次按下【Win+R】,在彈出的窗口里輸入【cmd】,點擊【確定】打開命令行。

在命令行界面,輸入剛剛的命令【ollama run deepseek-r1:1.5b】,即可開始對話。

ollama run deepseek-r1:1.5b

如果你不習慣在命令行窗口里面對話,或者希望有個更美觀的交互界面,可以考慮安裝 Open-WebUI。

不過這不是必須的,不熟悉電腦操作的小伙伴可以暫時跳過。

Step 6 安裝 Docker

首先安裝 Docker。

進入官網(www.docker.com),下載并安裝適用于你系統(tǒng)的 Docker 桌面版。

Docker 官網

按步驟下載安裝即可,安裝完成后需要重啟電腦。

安裝 Docker

Step 7 安裝 Open WebUI

進入 Open-WebUI 官網(openwebui.com)。

Open-WebUI 官網

點擊【Get Open WebUI】,來到 Open WebUI 的代碼頁。

Open WebUI

下滑找到【If Ollama is on your computer, use this command】,點擊右邊按鈕復制這個指令。

If Ollama is on your computer, use this command

再次打開命令窗口,粘貼復制的命令,安裝 Open WebUI 即可。

命令安裝 Open WebUI

Step 8 運行Open WebUI

安裝完成后,雙擊桌面上的 Docker 圖標啟動 Docker,再點擊圖片里框選的端口,即可運行 Open-WebUI。

運行 Open-WebUI

接著點擊左上角,選擇模型,就可以開始對話啦。

選擇模型

注意事項 一定要進行本地部署嗎?

本地部署聽起來酷炫,但并不是所有人都適用。

如果你使用AI的頻率并不高,那么直接下載 DeepSeek APP 或使用網頁版,也許是更好的選擇,因為它們使用起來更方便。

部署 DeepSeek 到本地電腦主要適用于以下情況??

1、 硬件條件充足

電腦配置較高,尤其是擁有獨立顯卡,能夠滿足較大模型的顯存要求。

2、數據安全需求高

需要處理敏感或私密數據,不希望數據上傳至云端。

3、高頻調用任務

日常使用頻率較高且調用 API 會產生較高成本,本地部署可以降低費用。

4、個性化定制需求

希望在開源模型基礎上進行二次開發(fā)或定制調整,滿足特殊業(yè)務需求。

通過本地部署,小伙伴們可以更好地保障數據安全、降低使用成本并實現定制化需求,如有需要,按著教程步驟試試吧~

0 人點贊