国家级平台上线DeepSeek大模型,本地化极简部署指南来了!

数据观  •  扫码分享
我是创始人李岩:很抱歉!给自己产品做个广告,点击进来看看。  

近日,DeepSeek大模型正式上线国家级平台,标志着我国在人工智能领域迈出了重要一步。

  DeepSeek大模型上线国家级平台

人民网消息显示,目前DeepSeek-R1、V3、Coder等系列模型已登陆国家超算互联网平台,用户无需下载到本地部署,即可在线完成DeepSeek系列模型的推理、部署及定制化训练与开发。其中,DeepSeek-R1模型提供一键推理服务,无需下载本地;还可根据私有化需求,引入专有数据,对模型进行定制化训练和开发。此次上线不仅展示了DeepSeek在技术上的领先优势,也为广大用户提供了更加便捷的AI服务。

新华社、环球网等媒体点评称,DeepSeek 模型依托国家超算互联网平台 “普惠易用、丰富好用” 的算力服务,能够为海量中国企业与用户提供高性能、高性价比、高可信的选择。当智能算力不足时,国家超算互联网平台所提供的丰富异构算力资源和跨域调度算力功能,能够确保推理任务的流畅运行,为大规模 AI 应用提供可持续的算力保障。

  国家超算互联网平台:国家级的创新之举

国家超算互联网平台作为科技部2023年启动建设的国家级项目,承载着促进超算算力一体化运营、打造国家算力底座的重要使命。为推进这一宏大工程,科技部成立了工作推进组、总体专家组以及超算互联网联合体,由时任科技部副部长相里斌担任工作推进组组长,中科院院士钱德沛担任总体专家组组长。

钱德沛院士指出,国家超算互联网平台以互联网思维构建国家超算基础设施,打破了传统算力资源分散的局面,实现了资源的深度整合。通过该平台,用户可便捷获取所需资源,避免了重复的技术性开发,降低了创新门槛,提高了科研与产业创新效率。在国际上,尚无类似平台的先例,中国打造国家超算互联网平台,彰显了在算力领域敢为人先的创新勇气与探索精神。

该平台还是全国算力资源的统筹调度中心。在算力被视为新质 “能源” 的今天,算力水平已成为衡量国家科技与经济实力的关键指标。国家超算互联网平台官网显示,平台致力于连接算力产业上下游及供需双方,实现超算、智算等全国算力资源的统一调度与高效配置,这是打造国家算力底座的关键所在。

自2024年4月正式上线以来,截至今年1月,平台已连接14个省份的20多家超算和智算中心,入驻300多家算力服务商,展现出强大的资源汇聚与整合能力。

DeepSeek-R1 本地化极简部署简明指南 (Ollama可视化方案)

【准备工作】

硬件要求:配备NVIDIA显卡的电脑(显存≥8GB),建议预留20GB磁盘空间

网络准备:确保可访问 https://ollama.com

   一、Ollama安装(以Windows为例)

步骤1:下载安装包

访问[Ollama官网](https://ollama.com)→点击「Download→选择Windows版本

步骤2:安装ollama

双击安装包→保持默认选项→点击「Install」

出现「Installation complete」提示即成功

步骤3:验证安装

右键点击Windows开始菜单 ,选择「终端(管理员)」,在「终端」界面输入:

ollama——version

这时[版本信息] 应显示类似“ollama version 0.1.25”这样的版本号

以上操作也可以采用在键盘上按下Win键+R,在调出“运行”中输入“cmd”打开「终端」后输入指令:

powershell

ollama——version

二、模型部署流程

步骤1:获取模型文件

在D盘创建专用文件夹:AI_Models\deepseek-R1

也可在「终端」输入:

powershell

mkdir D:\AI_Models\deepseek-R1

步骤2:编写配置文件

在上面所建的“deepseek-R1”文件夹内通过Windows的“记事本”编写并创建“Modelfile”文件,内容如下:

FROM deepseek-ai/deepseek-R1:latest

PARAMETER temperature 0.7 # 控制生成随机性

PARAMETER num_ctx 4096 # 支持4K上下文

步骤3:执行部署命令

在文件夹内按住Shift+鼠标右键,在弹出的选单中选择「在此处打开Powershell窗口」→输入:

ollama create deepseek-r1 -f .\Modelfile

观察终端显示的下载进度条(约需15-30分钟)

三、可视化交互(推荐使用 Open WebUI)

步骤1:安装Docker

访问Docker官网[Docker Desktop](https://www.docker.com/) →下载安装→完成基础配置

步骤2:启动Web服务

在「终端」执行:

powershell

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

步骤3:访问控制台

在浏览器界面输入地址 http://localhost:3000,找到「注册账号」完成注册,选择「DeepSeek-R1」模型

在对话框中输入测试问题:“如何理解DeepSeek-R1的推理过程” ,查看生成结果。

四、配置优化

【方案1:量化加速】

修改“Modelfile”添加量化参数:

QUANTIZATION q4_0 # 启用4bit量化(显存需求降至6GB)

【方案2:多GPU分配】

在启动时指定显卡:

powershell

OLLAMA_NUM_GPU=2 ollama run deepseek-r1 # 使用前两块GPU

  五、常见问题诊断

症状1:生成速度慢

解决方式:

打开[GPU监控] →检查显存占用情况→[调整量化等级]→[关闭其他GPU应用]

症状2:中文输出乱码

解决方式:

在WebUI→Settings→将「Default Language」设置为「中文」

部署后建议首次运行时打开任务管理器观察GPU负载,正常情况 GPU利用率应波动在60-80%,显存占用稳定在7-8GB。

责任编辑:张薇

随意打赏

提交建议
微信扫一扫,分享给好友吧。