本地部署 DeepSeek-R1 教程

作者: YuJian @ 码全科技 | 更新时间: 2025-02-24

本教程详细介绍如何通过 Ollama 在本地部署 DeepSeek-R1:7b 模型,并结合 ChatBox 实现便捷交互。适用于 Windows、Mac 和 Linux 系统。

无命令基础的,也可下载 一键部署安装包 快速完成部署

步骤 1:安装 Ollama

Ollama 是一个轻量级工具,用于在本地运行大语言模型。请按照以下步骤完成安装:

  1. 访问 Ollama 官方网站,根据您的操作系统下载安装包。
  2. 运行安装程序并完成安装。
  3. 打开终端,输入以下命令验证 Ollama 是否安装成功:
    ollama --version
    如果返回版本号,则安装完成。

步骤 2:下载并部署 DeepSeek-R1:7b

DeepSeek-R1:7b 是一个 70 亿参数的模型,适合本地运行。部署步骤如下:

  1. 在终端中运行以下命令以下载 DeepSeek-R1:7b
    ollama pull deepseek-r1:7b
    下载时间取决于网络速度。
  2. 下载完成后,启动模型:
    ollama run deepseek-r1:7b
    这将开启一个交互式终端,可与 DeepSeek-R1:7b 对话。
注意: 建议至少 16GB 内存和 5GB 存储空间以确保 DeepSeek-R1:7b 运行顺畅。

步骤 3:安装并配置 ChatBox

ChatBox 提供图形界面,方便与 DeepSeek-R1:7b 交互。安装步骤如下:

  1. 访问 ChatBox 官方网站,下载对应版本。
  2. 安装并打开 ChatBox
  3. 在设置中选择 "Ollama API",并配置 API 地址:
    http://localhost:11434
    这是 Ollama 的默认本地地址。
  4. 选择模型 "deepseek-r1:7b" 并保存。

步骤 4:开始使用 DeepSeek-R1:7b

配置完成后,您可以通过 ChatBox 与本地运行的 DeepSeek-R1:7b 进行对话!

一键部署安装包

下载一键部署安装包,点击 install.bat 安装脚本,一键完成安装

优化提示: 如果性能不足,可尝试更小模型(如 deepseek-r1:1.5b),只需更改步骤 2 中的模型名称。
×
微信公众号二维码

扫描二维码关注公众号获取技术支持