【“星睿O6”AI PC开发套件评测】DeepSeek语言大模型部署
本文介绍了瑞莎星睿 O6 (Radxa Orion O6) 开发板通过 Ollama 工具实现 DeepSeek 语言大模型的本地部署。
项目介绍
Ollama 是一个用于在本地运行和管理大语言模型(LLM)的工具,便于在本地设备拉取、运行和管理各种 AI 模型,比如 LLaMA、Mistral、Gemma 等,无需复杂的环境配置。
这里介绍了通过 Ollama 工具实现 DeepSeek 语言大模型的部署方案,包括软件安装、模型部署、模型的查看、运行和停止,以及网页插件对本地模型对话的界面美化等。
部署方案
包括 Ollama 工具软件的安装、模型部署及测试流程。
Ollama 安装
终端执行指令
curl -fsSL https://ollama.com/install.sh | sh
自动下载和安装 Ollama 软件
模型部署
终端执行指令
ollama pull deepseek-r1:1.5b
自动下载模型文件到本地
可运行指令获取已下载的模型列表
ollama list
模型信息
终端执行指令
ollama show deepseek-r1:1.5b
获取模型信息
运行模型
终端执行指令
ollama run deepseek-r1:1.5b
运行目标模型,若模型不存在于本地,则自动从互联网获取
退出模型命令行对话,可使用 Ctrl + D
快捷键。
停止模型
通过指令 ollama ps
获取正在运行的模型;
通过如下指令停止正在运行的模型
ollama stop deepseek-r1:1.5b
若需删除模型,则执行如下指令
ollama rm deepseek-r1:1.5b
测试
为了使对话界面更加美观,这里使用 Page Assist 网页插件实现本地模型对话。
- 打开浏览器,进入扩展商店,搜索并加载 Page Assist 插件(或使用开发者模式加载本地插件);
- 点击
Extensions
图标进入扩展选项,点击 Page Assist 插件并打开主页; - 左上角选择 Ollama 模型,这里使用
deepseek-r1:1.5b
; - 下方对话框输入问题,即可实现 AI 对话;
使用网页插件,相较于终端命令行显示界面更加美观,文字符号等渲染更加直观、对于科研领域如公式渲染等更加直观。
详见:page-assist .
总结
本文介绍了瑞莎星睿 O6 (Radxa Orion O6) 开发板通过 Ollama 工具实现 DeepSeek 语言大模型的本地部署,并通过网页插件对显示效果进行美化,为相关产品的快速开发和应用提供了参考。