无垠的广袤 · 1 天前 · 上海

【“星睿O6”AI PC开发套件评测】DeepSeek语言大模型部署

【“星睿O6”AI PC开发套件评测】DeepSeek语言大模型部署

本文介绍了瑞莎星睿 O6 (Radxa Orion O6) 开发板通过 Ollama 工具实现 DeepSeek 语言大模型的本地部署。

项目介绍

Ollama 是一个用于在本地运行和管理大语言模型(LLM)的工具,便于在本地设备拉取、运行和管理各种 AI 模型,比如 LLaMA、Mistral、Gemma 等,无需复杂的环境配置。

ollama_web.jpg

这里介绍了通过 Ollama 工具实现 DeepSeek 语言大模型的部署方案,包括软件安装、模型部署、模型的查看、运行和停止,以及网页插件对本地模型对话的界面美化等。

部署方案

包括 Ollama 工具软件的安装、模型部署及测试流程。

Ollama 安装

终端执行指令

curl -fsSL https://ollama.com/install.sh | sh

自动下载和安装 Ollama 软件

ollama_install.jpg

模型部署

终端执行指令

ollama pull deepseek-r1:1.5b

自动下载模型文件到本地

ollama_deepseek_1.5b.jpg

可运行指令获取已下载的模型列表

ollama list

ollama_list.jpg

模型信息

终端执行指令

ollama show deepseek-r1:1.5b

获取模型信息

ollama_deepseek_info.jpg

运行模型

终端执行指令

ollama run deepseek-r1:1.5b

运行目标模型,若模型不存在于本地,则自动从互联网获取

ollama_deepseek_run.jpg

退出模型命令行对话,可使用 Ctrl + D 快捷键。

停止模型

通过指令 ollama ps 获取正在运行的模型;

通过如下指令停止正在运行的模型

ollama stop deepseek-r1:1.5b

若需删除模型,则执行如下指令

ollama rm deepseek-r1:1.5b

测试

为了使对话界面更加美观,这里使用 Page Assist 网页插件实现本地模型对话。

page_assist.jpg

  • 打开浏览器,进入扩展商店,搜索并加载 Page Assist 插件(或使用开发者模式加载本地插件);
  • 点击 Extensions 图标进入扩展选项,点击 Page Assist 插件并打开主页;
  • 左上角选择 Ollama 模型,这里使用 deepseek-r1:1.5b
  • 下方对话框输入问题,即可实现 AI 对话;

ollama_ask_questions.png

使用网页插件,相较于终端命令行显示界面更加美观,文字符号等渲染更加直观、对于科研领域如公式渲染等更加直观。

ollama_pageassistant.png

详见:page-assist .

总结

本文介绍了瑞莎星睿 O6 (Radxa Orion O6) 开发板通过 Ollama 工具实现 DeepSeek 语言大模型的本地部署,并通过网页插件对显示效果进行美化,为相关产品的快速开发和应用提供了参考。

推荐阅读
关注数
1
文章数
12
MCU 开发者和爱好者
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息