七鑫易维眼动仪助力北大研究团队发布基于 CNN 的注视点预测科研成果

日前,来自中国北京大学、香港大学及美国马里兰大学的研究团队发布了《DGaze:动态场景中基于CNN的注视预测》研究论文,进一步扩展了关于注视点预测模型的探索工作。

 

 

该论文发布于 IEEE TVCG(IEEE Transactions on Visualization and Computer Graphics)期刊,以北京大学图形与交互技术实验室的 Zhiming Hu 为第一作者、Sheng Li 和 Guoping Wang 为通 讯作者。

 

TVCG 作为计算机图形学和可视化领域的顶级期刊之一,在国际上有着重要的学术 影响力,该论文的发布无疑推动了眼动分析领域的又一次进步。 

 

 

研究团队采用七鑫易维VR眼动分析系统对动态虚拟场景中的用户注视行为进行了创新性的分析,提出了一种基于CNN的算法模型DGaze,用于在虚拟现实头盔(HMD)应用中进行注视点预测。

 

DGaze模型结合了运动物体位置序列,头部速度序列和场景内容的显著性特征来预测用户的注视点位置。该模型不仅可以估算实时的注视点位置,还可以预测一段时间后的注视点位置,同时拥有更好的算法性能。在实时估算方面,以角距离作为评估指标时,DGaze模型的估算准确度在动态场景中比现有模型提高了22.0%,在静态场景中则提高了9.5%。

 

学者们还提出了一种名为DGaze_ET的模型变体,基于七鑫易维眼动仪,收集眼动仪在过去时刻的高精度追踪数据,以此优化模型的注视点预测算法,进而提升模型预测的准确度。

 

在现有的眼动仪中,主要功能是测量当前的视线方向,不能直接对使用者一段时间之后的视线方向进行预测。因此不难想象,该注视点预测模型对于眼动追踪领域的技术革新和产品升级有着划时代的意义。

 

七鑫易维 VR 眼动分析系统为本次科研工作提供了可靠的数据支撑,不仅能够精确记录瞳孔 半径、瞳孔位置、眼睑距离、注视深度、注视点位置等眼动数据指标,还可以提供 3D 内容 创建及美工模型导入 3D 引擎服务,助力实现更加丰富的实验设计方式和途径。

 

科技的发展促进着人类科学的不断进步。眼球追踪+5G+XR 技术的融合将全面升级现有的终 端设备,在日常娱乐、智能手机、医疗健康、心理评估、汽车出行等与人们息息相关的生活 场景中发挥巨大作用,弥补传统交互模式的局限性,开拓属于未来生活的新领域。 

 

 

七鑫易维将与各界专家学者共同努力,继续探索这一领域的前进方向,为科研工作者提供相 关的眼动实验支持,帮助其在学术研究上实现更大突破。同时,七鑫易维也将密切和 XR 设备厂商展开积极合作,为消费者带来全新的眼动交互体验,推动 5G 与 XR 行业应用的落地, 为虚拟现实等新兴技术带来更多可能。

 

2020年3月6日 15:05