七鑫易维亮相全球智能座舱大会:以视线感知重塑人车交互,推动座舱迈向主动理解时代
2026年3月20日,“2026全球智能座舱与车载显示生态大会”在深圳国际会展中心举办。
本次大会以“显耀智行·创享未来”为主题,汇聚车企、Tier1供应商及显示、芯片、AI等产业链企业,围绕智能座舱与车载显示技术的前沿趋势展开深入交流。
北京七鑫易维科技有限公司受邀出席本次大会,并带来《视线感知赋能:开启智能座舱主动交互新范式》主题分享。七鑫易维代表王一丹博士(毕业于中国科学院生物物理研究所,长期从事视觉认知与眼动研究)参与现场演讲。


智能座舱进入“多模态+主动交互”阶段
会上,七鑫易维指出,随着智能汽车不断升级,座舱正从传统“功能车机”向“沉浸式人机共生空间”演进。中控屏、副驾屏、HUD等多屏系统的普及,使车内信息密度与交互复杂度显著提升。
在这一趋势下,单一的触控或语音交互已难以满足效率与安全的双重要求,行业正加速向多模态融合交互演进。
七鑫易维认为,智能座舱的关键转变在于:从“被动响应用户操作”迈向“主动理解用户意图”,实现“车适应人”的交互升级。而眼动追踪技术正是实现这一转变的核心支撑——通过对瞳孔、眼睑、头部等多维信息的精准检测,结合注视判断、注视轨迹分析、眼跳/漂移分析、注视停留时长等深层数据,并融合人脸关键点检测,系统可实时感知用户视觉注意力分布,进而与HUD等显示设备联动,让交互更自然、更高效。

视线感知成为下一代交互核心入口
围绕这一演进方向,七鑫易维重点分享了眼动追踪技术在智能座舱中的应用价值。
基于“视觉占人类信息获取80%”这一特性,视线成为连接用户与多屏空间最自然的交互媒介。通过对注视点、停留时长、视线轨迹、眼睑闭合度、眨眼频率及眼动数据缺失等指标的实时分析,系统能够精准识别用户关注内容、操作意图与驾驶状态。
在具体应用层面,七鑫易维展示了多项典型场景:
- 基于注视的目标选中与快速操作,如通过注视控制车窗高度、仪表盘亮度调节等;
- 视线与语音融合的多模态交互,实现更自然、更便捷的操控方式与个性化服务;
- 信息界面随注意力动态调整,覆盖中控屏、后座显示屏等多屏娱乐系统;
- AR-HUD 眼动交互,根据驾驶员视线位置自动调节 HUD 的位置与大小,并与仪表信息联动展示;
- DMS 驾驶员监测与分心监测,通过眼睑闭合度、闭眼时间、注视缺失与眼跳时间等数据,判断疲劳与分心状态,提前预警行车安全风险;
- 后视镜注意监测,在开门前检测驾驶员是否注意后视镜图像,有效避免“开门杀”。
该类“非接触式交互”方式,在提升操作效率的同时,有效降低驾驶分心风险,为复杂座舱环境提供更安全、更智能的人机交互方案。

从安全监测到意图理解,拓展智能座舱能力边界
在安全层面,七鑫易维指出,基于眼动数据的驾驶员监测系统(DMS)正逐步成为行业关键能力。相比传统人脸识别方案,眼动追踪能够更精准识别驾驶员疲劳与分心状态,降低误判率,从而提升驾驶安全预警的可靠性。
通过眼动数据智能分析,系统可对驾驶员疲劳状态进行分级预警:
- 轻度疲劳(注意力轻微下降):瞳孔适当缩小、注视时长增加、眼跳速度变慢、注视方向轻微偏离、眨眼频率降低;
- 中度疲劳(注意力中度下降):瞳孔缩小、瞳孔被遮盖面积变大、注视区域减小、注视方向偏离、眼皮闭合时间加长;
- 重度疲劳(注意力严重下降):眼皮持续闭合、打哈欠、注视点丢失、低头。
基于以上眼动指标,系统能够动态判断驾驶员的疲劳程度,及时触发驾驶安全预警,有效保障行车安全。
更进一步,随着AI技术发展,视线数据正成为理解用户行为与意图的重要输入。七鑫易维表示,未来智能座舱将不仅能够识别用户“做了什么”,还将进一步理解用户“想做什么”,通过融合视线、语音与行为数据,实现更自然、更智能的交互体验。
总结
推动产业协同,共建智能座舱新生态面向未来,七鑫易维认为,智能座舱正从单点技术创新走向生态协同发展。眼动追踪作为新型人机交互接口,需要与整车厂、显示厂商及AI生态深度融合,共同推动行业标准与应用落地。作为国内领先的眼动追踪技术企业,七鑫易维已在智能驾驶、人机交互等领域积累丰富实践经验。未来,公司将持续深化视线感知技术在车载场景中的应用,助力构建更加安全、高效、自然的下一代智能座舱。