本地部署 DeepSeek-R1(最简单教程)

本地部署 DeepSeek-R1(最简单教程)

本教程适用于 Windows、macOS、Linux,无需复杂操作,仅需使用 Ollama 快速部署 DeepSeek-R1 语言模型。


1. 环境要求

硬件要求

  • 最低配置:仅支持 CPU(速度较慢)
  • 推荐配置:带有 NVIDIA GPU(显存 6GB 及以上可参考大橘的Navida RTX 4060 Ti显卡,只能勉强运行deepseekR1 32b的模型)
本地部署的deep seek  R1运行示例
Navida RTX 4060 Ti显卡运行本地deepseekR1 32b,反应速度很慢。

操作系统

  • Windows 10/11
  • macOS(Apple Silicon & Intel)
  • Linux(Ubuntu/Debian/Arch 等)

网络要求

  • 需要联网下载模型数据(首次运行)

2. 安装 Ollama

下载并安装

  1. 访问 Ollama 官网 下载适合你的版本。
  2. 按照提示安装 Ollama。
20250206152627649 image

验证安装

安装完成后,打开终端(Windows 使用 win+R>cmd,Mac/Linux 使用 Terminal),输入:

ollama

如果显示以下信息,则安装成功。

20250206195247589 image

3. 下载 DeepSeek-R1 模型

选择适合模型命令下载模型:

ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
ollama run deepseek-r1:671b

说明:以上命令行只选择其中之一在终端输入进行对应模型下载。大橘的显卡是4060Ti也只能勉强运行32b,建议大家先从7b尝试(50系的豪哥就当我放屁)。(注意下载速度很慢,20G得下半天)

模型下载命令行示例

4. 运行 DeepSeek-R1

启动模型

下载好模型后,输入对应命令行启动模型

例如:

ollama run deepseek-r1:1.5b

进行交互测试

当命令行中出现提示符 >>> 时,可以直接输入问题,如:

你好,DeepSeek!

模型会返回回答。

注意:首次运行时,可能需要几分钟加载模型。

例如:

20250206200901537 image

5. 建议:使用图形界面扩展程序Page Assist 

如果不想使用命令行,可以安装浏览器插件Page Assist ,实现可视化对话。

20250206201156300 image

安装 Page Assist

使用

  • 如果提前安装好了Ollama,打开扩展就可以看到下入所示对话框,顶部空白框选择所需模型就可以开始聊天啦!
20250206202027378 image

6. 总结

通过 Ollama,我们可以轻松在本地部署 DeepSeek-R1 语言模型:

  • 下载并安装 Ollama
  • 拉取 DeepSeek-R1 模型
  • 运行模型,进行交互
  • (可选)使用Page Assist扩展插件提供可视化界面

整个过程只需几条命令,即可完成本地部署。如果你有更高性能需求,还可以尝试更大参数的 DeepSeek-R1 版本。

如果看文字教程不明白不妨看看这个视频教程:

网站:SEMFollow社区
© 版权声明
THE END
喜欢就支持一下吧
点赞6赞赏 分享
评论 共1条

请登录后发表评论