新闻中心

了解更多网络安全运营信息

当前位置:首页 > 新闻中心 > 行业新闻

手把手教你本地部署DeepSeek-R1模型:两种可视化方法全攻略

分类:行业新闻    时间:2025-02-06 16:25:39    阅读:2369
想要在本地体验国产大模型DeepSeek-R1的强大能力?无需高配显卡,只需一台普通电脑,借助Ollama工具即可轻松部署!本文教你通过Docker+Open WebUIChatbox两种方式实现可视化操作,全程详细步骤+截图指引,从此告别“服务器繁忙”!




一、DeepSeek各模型配置与适用场景表

以下是不同规模DeepSeek模型的关键信息对比(以FP16精度推理为例),帮助您快速匹配需求: 
640.png
表格说明:
    1. 受众群体:根据模型规模划分典型用户类型,避免资源浪费。
    2. 版本区别:重点功能差异(如代码生成、多语言、长文本优化等)。
    3. 显存要求:若使用4-bit量化,显存需求可降低30%-50%(例如7B模型量化后仅需约8GB)。
    4. 无显卡方案:1.5B/2B模型可通过Ollama的CPU模式运行(速度较慢)。


二、准备工作:安装Ollama并拉取DeepSeek-R1模型

1. 下载Ollama
访问官网 https://ollama.com/,根据系统(Windows/Mac/Linux)下载安装包并安装,安装完成后打开终端输入命令验证是否安装成功:

ollama --version

640.png

2.拉取DeepSeek-R1模型
在终端运行以下命令下载模型(确保网络畅通):

ollama run deepseek-r1:8b
等待下载完成后,模型会自动加载,显示“>>> Send a message...”即表示成功。

640.png


三、方法1:Docker部署Open WebUI可视化

优点:界面美观,支持多模型切换,适合长期使用。
步骤1:安装Docker
  •  访问 https://www.docker.com/
640.png
安装完成后需重启电脑
步骤2:一键部署Open WebUI
在终端输入以下命令(直接复制粘贴):

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
640.png
等待镜像拉取完成,浏览器访问 http://localhost:3000 进入Open WebUI。
步骤3:配置Open WebUI连接Ollama
1. 首次登录:点击“开始使用”注册账号(任意邮箱+密码)。
 

640.png

640.png

2. 绑定Ollama服务:点击新对话,选择已经部署好的本地模型
640.png
3. 选择模型:选择“deepseek-r1:8b”即可开始对话!
640.png


四、方法2:Chatbox客户端直连Ollama

优点:无需Docker,轻量级客户端即开即用。
步骤1:下载安装Chatbox
  • 访问 https://chatboxai.app/
640.png
步骤2:配置本地模型
1. 选择本地模型

640.png

2. 选择“Ollama API”

640.png

3. 填写以下参数并保存:

640.png

步骤3:开始对话
返回聊天窗口,输入问题测试模型响应,如“用Python写一个快速排序算法”。

640.png


五、总结与常见问题

  • 两种方案如何选?
  • 追求功能丰富选 Open WebUI,适合多模型管理;
    追求轻便快捷选 Chatbox,适合快速调试。