國家級平臺上線DeepSeek大模型,本地化極簡部署指南來了!
近日,DeepSeek大模型正式上線國家級平臺,標志著我國在人工智能領域邁出了重要一步。
DeepSeek大模型上線國家級平臺
人民網消息顯示,目前DeepSeek-R1、V3、Coder等系列模型已登陸國家超算互聯網平臺,用戶無需下載到本地部署,即可在線完成DeepSeek系列模型的推理、部署及定制化訓練與開發。其中,DeepSeek-R1模型提供一鍵推理服務,無需下載本地;還可根據私有化需求,引入專有數據,對模型進行定制化訓練和開發。此次上線不僅展示了DeepSeek在技術上的領先優勢,也為廣大用戶提供了更加便捷的AI服務。
新華社、環球網等媒體點評稱,DeepSeek 模型依托國家超算互聯網平臺 “普惠易用、豐富好用” 的算力服務,能夠為海量中國企業與用戶提供高性能、高性價比、高可信的選擇。當智能算力不足時,國家超算互聯網平臺所提供的豐富異構算力資源和跨域調度算力功能,能夠確保推理任務的流暢運行,為大規模 AI 應用提供可持續的算力保障。
國家超算互聯網平臺:國家級的創新之舉
國家超算互聯網平臺作為科技部2023年啟動建設的國家級項目,承載著促進超算算力一體化運營、打造國家算力底座的重要使命。為推進這一宏大工程,科技部成立了工作推進組、總體專家組以及超算互聯網聯合體,由時任科技部副部長相里斌擔任工作推進組組長,中科院院士錢德沛擔任總體專家組組長。
錢德沛院士指出,國家超算互聯網平臺以互聯網思維構建國家超算基礎設施,打破了傳統算力資源分散的局面,實現了資源的深度整合。通過該平臺,用戶可便捷獲取所需資源,避免了重復的技術性開發,降低了創新門檻,提高了科研與產業創新效率。在國際上,尚無類似平臺的先例,中國打造國家超算互聯網平臺,彰顯了在算力領域敢為人先的創新勇氣與探索精神。
該平臺還是全國算力資源的統籌調度中心。在算力被視為新質 “能源” 的今天,算力水平已成為衡量國家科技與經濟實力的關鍵指標。國家超算互聯網平臺官網顯示,平臺致力于連接算力產業上下游及供需雙方,實現超算、智算等全國算力資源的統一調度與高效配置,這是打造國家算力底座的關鍵所在。
自2024年4月正式上線以來,截至今年1月,平臺已連接14個省份的20多家超算和智算中心,入駐300多家算力服務商,展現出強大的資源匯聚與整合能力。
DeepSeek-R1 本地化極簡部署簡明指南 (Ollama可視化方案)
【準備工作】
硬件要求:配備NVIDIA顯卡的電腦(顯存≥8GB),建議預留20GB磁盤空間
網絡準備:確保可訪問 https://ollama.com
一、Ollama安裝(以Windows為例)
步驟1:下載安裝包
訪問[Ollama官網](https://ollama.com)→點擊「Download→選擇Windows版本
步驟2:安裝ollama
雙擊安裝包→保持默認選項→點擊「Install」
出現「Installation complete」提示即成功
步驟3:驗證安裝
右鍵點擊Windows開始菜單 ,選擇「終端(管理員)」,在「終端」界面輸入:
ollama——version
這時[版本信息] 應顯示類似“ollama version 0.1.25”這樣的版本號
以上操作也可以采用在鍵盤上按下Win鍵+R,在調出“運行”中輸入“cmd”打開「終端」后輸入指令:
powershell
ollama——version
二、模型部署流程
步驟1:獲取模型文件
在D盤創建專用文件夾:AI_Models\deepseek-R1
也可在「終端」輸入:
powershell
mkdir D:\AI_Models\deepseek-R1
步驟2:編寫配置文件
在上面所建的“deepseek-R1”文件夾內通過Windows的“記事本”編寫并創建“Modelfile”文件,內容如下:
FROM deepseek-ai/deepseek-R1:latest
PARAMETER temperature 0.7 # 控制生成隨機性
PARAMETER num_ctx 4096 # 支持4K上下文
步驟3:執行部署命令
在文件夾內按住Shift+鼠標右鍵,在彈出的選單中選擇「在此處打開Powershell窗口」→輸入:
ollama create deepseek-r1 -f .\Modelfile
觀察終端顯示的下載進度條(約需15-30分鐘)
三、可視化交互(推薦使用 Open WebUI)
步驟1:安裝Docker
訪問Docker官網[Docker Desktop](https://www.docker.com/) →下載安裝→完成基礎配置
步驟2:啟動Web服務
在「終端」執行:
powershell
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
步驟3:訪問控制臺
在瀏覽器界面輸入地址 http://localhost:3000,找到「注冊賬號」完成注冊,選擇「DeepSeek-R1」模型
在對話框中輸入測試問題:“如何理解DeepSeek-R1的推理過程” ,查看生成結果。
四、配置優化
【方案1:量化加速】
修改“Modelfile”添加量化參數:
QUANTIZATION q4_0 # 啟用4bit量化(顯存需求降至6GB)
【方案2:多GPU分配】
在啟動時指定顯卡:
powershell
OLLAMA_NUM_GPU=2 ollama run deepseek-r1 # 使用前兩塊GPU
五、常見問題診斷
癥狀1:生成速度慢
解決方式:
打開[GPU監控] →檢查顯存占用情況→[調整量化等級]→[關閉其他GPU應用]
癥狀2:中文輸出亂碼
解決方式:
在WebUI→Settings→將「Default Language」設置為「中文」
部署后建議首次運行時打開任務管理器觀察GPU負載,正常情況 GPU利用率應波動在60-80%,顯存占用穩定在7-8GB。
責任編輯:張薇