
DeepSeek R1本地部署指南(win篇)
1.准备
操作系统:建议使用最新版本的 Windows10/11
2.开始部署
1.安装 Ollama
Ollama 是一个用于在本地运行大型语言模型的工具。您可以通过以下步骤安装 Ollama:
1.访问 Ollama 官方网站:https://ollama.com/
2.下载适用于您操作系统的安装包
3.安装 Ollama
验证安装:安装完成后,在终端输入以下命令以确认 Ollama 是否成功安装:
ollama -v
如果安装正确,终端会显示 Ollama 的版本号。
2.下载 DeepSeek R1 模型
根据您的硬件配置,选择适合的模型版本。
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
DeepSeek-R1-671B
ollama run deepseek-r1:671b
此时,您可以在终端与模型进行交互,输入您的问题或任务。
3.使用 Chatbox 进行交互
1.下载 Chatbox:访问 https://chatboxai.app/ 下载适用于您操作系统的版本。
2.安装并启动 Chatbox:按照提示完成安装并启动应用程序。
3.配置 Chatbox:
API 类型:选择 “OLLAMA”。
接口地址:填写 http://localhost:11434/v1/,这是 Ollama 服务的默认接口地址。
模型名称:填写 deepseek-r1:xxb,确保与之前下载的模型版本一致。
4.完成配置后,您可以通过 Chatbox 与本地运行的 DeepSeek R1 模型进行交互。
声明:本文由NaCl编写,请勿抄袭,盗版必究!
- 感谢你赐予我前进的力量
赞赏者名单
因为你们的支持让我意识到写文章的价值🙏
本文是原创文章,采用 CC BY-NC-ND 4.0 协议,完整转载请注明来自 NaCl Blog
评论
匿名评论
隐私政策
你无需删除空行,直接评论以获取最佳展示效果