佐思汽研发布《2025 年 AI 在座舱的应用研究报告》。
从 21 世纪初语音识别、人脸监控功能上车,到 2023 年“大模型上车”趋势兴起,再到 2025 年车企纷纷接入推理模型 DeepSeek-R1,AI 在座舱的应用迄今已历经 3 个阶段:
- 大模型上车前,座舱经历机械式座舱、电子式座舱、智能化座舱的发展,已经开始集成 AI 小模型算法,应用场景为人脸识别、语音识别等;
- 大模型上车后,AI 技术在座舱的应用范围与场景数量增加,AI 技术的应用效果大幅度改善,但精确度和适用性无法保证;
- 多模态大语言模型、推理模型上车后,座舱开始真正从基础的智能化阶段向“深度交互、自我进化”阶段演进。
不同阶段 AI 在座舱的应用特点
整理:佐思汽研
佐思汽研整理了 AI 在座舱不同部件系统中的应用场景,部分如表中所示:
AI 在座舱的应用场景(部分)
整理:佐思汽研
座舱 AI 发展趋势之一:深度交互
深度交互体现在“联动交互”、“多模态交互”、“个性化交互”、“主动交互”以及“精准交互”。
深度交互的维度
整理:佐思汽研
以“精准交互”为例,推理大模型上车不仅提升了语音交互的准确率,尤其是提升连续识别准确率,还降低了语音处理过程中的时延。大模型通过动态理解上下文,结合传感器融合处理数据,可通过多任务学习架构同步处理导航、音乐等复合请求,响应速度较传统方案提升 40%。预计 2025 年,推理模型(如 DeepSeek-R1)大规模装车后,端侧推理能力能够让语音识别过程更快,准确率进一步提高。
部分车企通过 AI 大模型对语音助手的升级情况
整理:佐思汽研
零跑语音大模型优化详情
来源:零跑汽车
以“多模态交互”为例,利用大模型的多源数据处理能力,能构建起跨模态协同的智能交互体系。通过 3D 摄像头与麦克风阵列的深度融合,系统可同步解析手势指令、语音语义及环境特征,在短时间内完成多模态意图理解,较传统方案响应速度提升 60%。基于跨模态对齐模型,可实现手势控制与语音指令的协同操作,进一步降低在复杂驾驶场景下的误操作率。预计 2025-2026 年,多模态数据融合处理能力将成为新一代座舱的标配。典型场景包括:
- 手势控制:驾驶者可以通过简单的手势,例如挥手、指点等,实现对车窗、天窗、音量、导航等功能的便捷控制,无需分散驾驶注意力。
- 面部识别与个性化:系统可以通过面部识别技术自动识别驾驶者身份,并根据其个人偏好自动调整座椅、后视镜、空调、音乐等设置,实现“上车即享”的个性化体验。
- 眼球追踪与注意力监测:通过眼球追踪技术,系统可以监测驾驶者的视线方向和注意力状态,及时发现疲劳驾驶、注意力不集中等风险行为,并进行预警提示,提升行车安全。
- 情绪识别与情感化交互:AI 系统甚至可以识别驾驶者的情绪状态,例如通过面部表情、语音语调等判断驾驶者是否焦虑、疲惫或兴奋,并据此调整车内氛围灯光、音乐、空调等,提供更加贴心的情感化服务。
座舱 AI 发展趋势之二:自我进化
2025 年,座舱 Agent 会成为用户与座舱交互的媒介,其显著特征之一是“自我进化”,体现在“长期记忆”、“反馈学习”、“主动认知”。
自我进化的维度
整理:佐思汽研
“长期记忆”、“反馈学习”、“主动认知”是循序渐进的过程,AI 通过语音交流、面部识别、行为分析等数据构建用户画像,实现“千人千面”的服务。该功能通过强化学习、推理相关技术实现,系统依托数据闭环持续学习用户行为,在强化学习机制下,每一次用户反馈都成为优化推荐结果的关键依据。
随着数据量的不断累积,大模型能够更加快速发现用户兴趣点转移的规律,能够提前预判用户需求。预计未来两年内,借助更先进的强化学习算法与高效推理架构,系统对用户新兴趣领域的挖掘速度提升 50%,推荐结果的精准度进一步提高。如:
- 宝马的座舱系统可记忆驾驶者座椅偏好、常去地点,并在雨天自动调暗氛围灯以缓解焦虑;
- 梅赛德斯-奔驰的语音助理能根据用户日程推荐餐厅,并提前预约充电桩。
宝马的 BMW 智慧语音助理 2.0 基于亚马逊的 Alexa 大语言模型(LLM) 打造,融合个人助理、车辆专家与随行乘员三种角色,通过分析驾驶者的日常路线、音乐偏好甚至座椅调节习惯,生成定制化建议。例如,若系统发现驾驶者每周一早晨常在某家咖啡店停留,它会在类似场景下主动提示:“是否前往附近的星巴克?”此外,该系统还能根据天气或交通状况调整建议,比如在雨天推荐室内停车场;当用户说“你好,BMW,带我回家”、“你好,BMW,帮我找餐厅”,个人助理则能迅速规划路线、推荐餐厅。
BMW 智慧语音助理 2.0
来源:宝马
座舱 AI 发展趋势之三:大模型与小模型“共生”
大模型上车近两年,大模型“完全取代”小模型的现象并未发生,小模型凭借其轻量级、低功耗的特点,在实时性要求高、数据处理量相对较小的端侧任务场景中表现出色;如在智能语音交互中,小模型能够快速解析“打开空调”或“下一首歌”等指令,提供即时响应。同样,在手势识别中,小模型通过本地计算实现低延迟操作,避免了云端传输的时滞。这种高效性使小模型成为提升用户交互体验的关键。
在实际应用中,二者相辅相成;大模型负责后台的复杂计算(如路径规划),小模型则聚焦前台的快速响应(如语音控制),共同构建了一个高效、智能的座舱生态。尤其是受 DeepSeek 的蒸馏技术启发,预计 2025 年之后,通过蒸馏高性能大模型得到的端侧小模型会有一定规模的量产上车。
大模型和小模型协同工作的“好用”体现在 5 个方面
整理:佐思汽研
大模型和小模型协同工作的部分案例
整理:佐思汽研
以蔚来为例,在整体上通过大小模型双轮驱动的方式运行其 AI 应用,重心为大模型,但也不会忽略小模型的应用。
蔚来 AI 应用的算法层采用大小模型协同的方式
来源:蔚来,Infoq
END
作者:佐思汽研
来源:佐思汽车研究
推荐阅读:
更多汽车电子干货请关注汽车电子与软件专栏。欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。