本教程适用于 Windows、macOS、Linux,无需复杂操作,仅需使用 Ollama 快速部署 DeepSeek-R1 语言模型。
1. 环境要求
硬件要求
- 最低配置:仅支持 CPU(速度较慢)
- 推荐配置:带有 NVIDIA GPU(显存 6GB 及以上可参考大橘的Navida RTX 4060 Ti显卡,只能勉强运行deepseekR1 32b的模型)

操作系统
- Windows 10/11
- macOS(Apple Silicon & Intel)
- Linux(Ubuntu/Debian/Arch 等)
网络要求
- 需要联网下载模型数据(首次运行)
2. 安装 Ollama
下载并安装
- 访问 Ollama 官网 下载适合你的版本。
- 按照提示安装 Ollama。

验证安装
安装完成后,打开终端(Windows 使用 win+R>cmd,Mac/Linux 使用 Terminal),输入:
ollama
如果显示以下信息,则安装成功。

3. 下载 DeepSeek-R1 模型
选择适合模型命令下载模型:
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:7b
ollama run deepseek-r1:8b
ollama run deepseek-r1:14b
ollama run deepseek-r1:32b
ollama run deepseek-r1:70b
ollama run deepseek-r1:671b
说明:以上命令行只选择其中之一在终端输入进行对应模型下载。大橘的显卡是4060Ti也只能勉强运行32b,建议大家先从7b尝试(50系的豪哥就当我放屁)。(注意下载速度很慢,20G得下半天)

4. 运行 DeepSeek-R1
启动模型
下载好模型后,输入对应命令行启动模型
例如:
ollama run deepseek-r1:1.5b
进行交互测试
当命令行中出现提示符 >>>
时,可以直接输入问题,如:
你好,DeepSeek!
模型会返回回答。
注意:首次运行时,可能需要几分钟加载模型。
例如:

5. 建议:使用图形界面扩展程序Page Assist
如果不想使用命令行,可以安装浏览器插件Page Assist ,实现可视化对话。

安装 Page Assist
- 访问 Page Assist扩展商店下载。
使用
- 如果提前安装好了Ollama,打开扩展就可以看到下入所示对话框,顶部空白框选择所需模型就可以开始聊天啦!

6. 总结
通过 Ollama,我们可以轻松在本地部署 DeepSeek-R1 语言模型:
- 下载并安装 Ollama
- 拉取 DeepSeek-R1 模型
- 运行模型,进行交互
- (可选)使用Page Assist扩展插件提供可视化界面
整个过程只需几条命令,即可完成本地部署。如果你有更高性能需求,还可以尝试更大参数的 DeepSeek-R1 版本。
如果看文字教程不明白不妨看看这个视频教程:
网站:SEMFollow社区
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
- 最新
- 最热
只看作者