前言
最近这段时间,“DeepSeek”(深度求索)人工智能平台非常的火爆,正确的使用可以帮我们做很多很多事情,通常我们是在浏览器网页或手机 APP 使用,但是有时会受到本地网络或者远程服务器等限制,导致使用卡顿或无回复。
本文介绍在个人电脑本地部署 DeepSeek-R1 模型,部署完成之后,就可以在本地离线使用,而无需网络连接,能够为用户提供更高效的解决方案。
软件下载
为了能在我们个人电脑本地部署 DeepSeek,需要先下载两个软件,这两个软件都是免费下载使用的。
Ollama
Ollama 是一个开源的本地大语言模型运行框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。Ollama 支持多种操作系统,包括 macOS、Windows、Linux 以及通过 Docker 容器运行。Ollama 提供对模型量化的支持,可以显著降低显存要求,使得在普通家用计算机上运行大型模型成为可能。
官方下载地址:
https://ollama.com/download/windows
支持主流的三大平台,这里我们选择 Windows 系统,目前(2025-03-08)最新版本是 0.5.13,安装包大小是 0.97GB。
- ChatBox
Chatbox AI 是一款 AI 客户端应用和智能助手,支持众多先进的 AI 模型和 API,可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。
官方下载地址:
https://chatboxai.app/zh
同样支持多种平台,目前最新版本是 1.10.4,安装包大小为 146MB。
DeepSeek 部署
下载完成之后,直接双击安装包进行安装。
Ollama 默认无法修改安装路径,默认安装在 C 盘,可以通过命令行的方式来自定义安装位置,由于涉及到环境变量等操作,这里我们不做介绍,采用默认的双击安装方式。
目前 DeepSeek 为了满足不同性能平台的需求,有多种参数量的模型库可供选择,有 1.5b、7b、8b、14b、32b、70b 和 671b,b 代表十亿参数量。1.5b 版本模型库文件最小,只有 1.1GB。
安装完成之后,打开 CMD 窗口,输入如下命令来安装 DeepSeek-R1 1.5b:
ollama run deepseek-r1:1.5b
部署进度和网络情况有关:
等待安装完成后,关闭 cmd 窗口。
至此,DeepSeek-R1 1.5b 版本就已经被部署到我们的电脑本地了,即时断开网络连接也可以正常使用,下面我们来简单体验一下,打开 CMD 窗口,输入如下命令运行 DeepSeek 模型:
ollama run deepseek-r1:1.5b
输入我们的问题后按回车键,就会得到 DeepSeek 给我们的回应。
ChatBox 集成
虽然我们可以通过 CMD 窗口进行对话,但是相对不那么直观,我们可以通过第三方客户端来实现对话聊天的效果。
打开 ChatBox 软件,选择使用自己的本地模型
。
模型提供方选择 Ollama
配置我们刚才下载的 DeepSeek-R1:1.5b 模型文件。
好了,尽情的使用 DeepSeek 吧!
虽然官方推荐的显卡要求是 RTX3060 及以上,但是在我笔记本电脑(MX450 显卡)上也可以正常运行。
END
作者:wcc149
来源:电子电路开发学习
推荐阅读
更多技术干货请关注电子电路开发学习专栏。欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。