极术社区
注册
首页
AI开放平台
Top 专栏
读书
专题
问答
公开课
活动
注册 · 登录
▲
爱笑的小姐姐
9430 声望
嵌入式 AI,让AI无处不在。欢迎加入微信交流群,微信号:gg15319381845(...
展开
嵌入式 AI,让AI无处不在。欢迎加入微信交流群,微信号:gg15319381845(备注:嵌入式)
收起
关注他
关注了
7
粉丝数
19032
他的主页
他的提问
他的回答
他的文章
他的关注
他的粉丝
他的收藏
声望记录
他的专栏
嵌入式AI
1493 篇内容 · 18979 关注
Tengine-边缘AI推理框架
68 篇内容 · 3393 关注
他的文章
0
HMPE革新Transformer检测,小目标mAP飙升1.9%,解码器砍掉5层,推理速度翻倍
1
YOLOv13震撼发布 | 超图高阶建模+轻量化模块,保证实时性的情况下,检测精度再创新高!
1
HeteroLLM:利用移动端 SoC 实现 NPU-GPU 并行异构 LLM 推理!
0
【博客转载】CUDA Kernel Execution Overlap
1
Meta Shuffling 的 MoE Grouped GEMM kernel benchmark
0
Soft 最近邻插值 SNI 对齐特征 +ESD 增强空间保留,效率精度双突破
1
图解Vllm V1系列4:加载模型权重(load_model)
4
减少 55% 代码行数、 CPU 和 GPU 峰值内存,加速训练推理!
0
MiniMax AI 开源首个感知+推理的强化学习框架 V-Triune: 统一视觉-语言任务
1
边缘端Qwen2.5-0.5B推理:通过模型压缩和硬件加速实现高效的LLM推理
0
YOPOv2-Tracker开源 | 端到端方法革新,跟踪提速10倍,扰动观测器破解传统框架延迟难题
4
[Triton编程][基础] Triton极简入门: Triton Vector Add
0
VisionReasoner首提统一框架,检测/分割/计数3类任务超越YOLO-World等专用模型
0
混合CPU-GPU调度+Cache管理:MoE推理Prefill1.3倍、Decode1.7倍加速!
1
CMU与Meta提出LithOS:节省 GPU51% 容量、26%能耗,迈向高效机器学习操作系统
3
SGLang 源码学习笔记:Cache、Req与Scheduler
0
基于 LLM 的 RTL 代码生成,VerilogEval 上功能正确性 SOTA
0
在多模态的浪潮之巅,如何“精雕细琢”图文对齐?
1
Tilus 虚拟机:超越 Triton 开启低精度任意比特 GPGPU 的 LLM 高效计算
2
FlashInfer:面向 LLM 服务的可定制且高效的 GPU 注意力引擎
上一页
1
2
3
4
5
…
下一页
回收站有 篇文章
认证与成就
获得 325 次点赞
2020年02月20日 加入
举报他
关注极术微信号
实时接收点赞提醒和评论通知
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
关注安谋科技招聘
实时获取安谋科技中国职位信息
用户指南
·
用户协议
·
隐私政策
关于我们
·
联系合作
粤ICP备18004469号
粤公网安备 44030502008014号
版权所有 © 2025 极术社区
由
SegmentFault
提供技术支持
友情链接
安谋科技
安创空间
开源中国
InfoQ
边缘计算社区
21IC 电子网
HarmonyOS 技术社区
电子芯吧客
CSDN
全志在线
芒果派
深度强化学习实验室
智东西