为什么这款以色列智能眼镜要加眼动追踪?了解“看一眼就触发”黑科技
今年4月,一家名为Everysight的以色列公司发布了两款智能眼镜——Maverick AI和Maverick AI Pro。其中Pro版本首次将眼动追踪技术集成到了重量仅为47克的智能眼镜里。而带有这样眼动追踪技术的Pro版眼镜超级早鸟价是389美元(约2800元人民币),普通版则是325美元(约2350元人民币),预计2026年8月发货。

图源:James Pero
在此之前,眼动追踪技术主要应用于VR或AR头显上。首先最出名的肯定是苹果的Vision Pro。2023年6月,Vision Pro正式发布,其业内首创的无手柄追踪模式震惊了整个行业,它的眼动追踪技术就是一大亮点。此外,Meta Quest Pro、微软HoloLens 2、PSVR2也同样支持眼动追踪功能。
但是,这些设备的重量普遍在500克以上,价格也不便宜。
而现在,Everysight成功把原本需要较大硬件空间的眼动追踪系统压缩到了普通眼镜的重量级别,这对于整个行业来说,是一个突破性的进展。
这一技术突破,与Everysight的军工背景不无关系。Everysight的母公司Elbit Systems是以色列的国防供应商,长期为战斗机生产平视显示器,F-35战斗机的头盔显示系统就是这家公司提供的。Maverick AI眼镜系列沿用了同样的光学技术路线,这才实现了把军工技术应用到消费级产品上,让眼动追踪在轻量化方向上迈出了关键一步。
眼动追踪技术的早期应用
在了解Maverick AI Pro的眼动追踪功能之前,还是有必要先看看眼动追踪技术此前在VR和AR设备里的应用,不同设备的技术路线和定位也有着一定的区别。
还是先说苹果Vision Pro。作为苹果的首款空间计算产品,它搭载了四颗眼动追踪摄像头,配合LED灯把不可见光点投射到每只眼睛上,再通过捕捉眼球反射的光线来计算注视方向。这套系统把眼动追踪作为主要输入方式,跟手指捏合手势配合使用,成就了Vision Pro的“无手柄追踪”。

Vision Pro的眼动交互能力也被很多人认为是目前AR/VR领域里能够替代鼠标的方案之一。这款产品在硬件集成度、算法成熟度和用户体验上确实树立了标杆——尽管它的销量并不好,但它给行业带来的标杆作用还是不可否认的。
Vision Pro的缺点是太重了,还要外接一个独立电池,续航只有2小时左右。高重量和大体积决定了眼动追踪在Vision Pro上虽然具备极高的性能,但使用起来并不便捷。
近两年,苹果也在努力改变这一问题。2025年,苹果公开了一项“无相机眼动追踪系统”的专利,用扫描光源和光电二极管阵列来检测眼球运动,想摆脱传统相机方案来减小设备厚度和重量。这个专利方向和Everysight的思路有相似之处。

苹果的「无相机眼动追踪系统」; 图片来源:USPTO/专利号:US 2025/0181155 A1
再说Meta Quest Pro。它于2022年发布,在眼动追踪方面的核心应用是注视点渲染功能Eye Tracked Foveated Rendering(ETFR)。这项技术利用眼动追踪数据,高精度渲染用户注视的区域,低精度渲染外围,从而节省GPU算力。据VR游戏《Red Matter 2》的开发者反馈,集成该技术后,Meta Quest Pro的像素密度提升了33%。

Quest Pro还把眼动追踪用到了社交场景。2023年《VRChat》增加了对Quest Pro眼动追踪的原生支持,用户可以用眼球运动控制虚拟角色的眼睛和面部表情。

只不过,虽然Quest Pro展示了眼动追踪在图形优化和社交交互两个方向的应用价值,但它的重量在722克左右,同样没有解决轻量化的问题。
接着说到微软的HoloLens 2。这款设备于2019年发布,是比较早把眼动追踪集成到AR头显里的产品。它的采样率是30Hz,空间精度大约1.5度,用户可以用目光进行目标选择和文本输入。有研究显示,校准后HoloLens 2的眼动目标选择成功率可以超过90%。

HoloLens 2主要面向工业、医疗、教育这些企业场景。眼动追踪在这里的作用是在双手被占用时提升操作效率,比如维修人员可以一边拿着工具一边用目光选择菜单指令。
但HoloLens 2的重量约为566克,还是属于头显,不是日常能戴的眼镜。
除了头显类产品以外,Meta也在开发支持眼动追踪的AR眼镜。2024年9月,Meta在Connect大会上发布了原型机Orion。这款眼镜采用分体式设计,本体重量98克,搭载了7个摄像头,其中包括专门用于眼动追踪的传感器,支持眼部追踪、手势追踪以及通过EMG肌电腕带进行交互。

据官方表示,Orion的视场角达到70度,在同等尺寸的AR眼镜中是较大的水平。根据Meta的规划,Orion原型机将于2026年开始向开发者提供,面向消费者的版本预计在2027年初发布。
Orion的定位与Everysight的Maverick AI Pro有所不同。Orion是Meta的AR原型机,采用光波导光学方案,集成度更高,功能更全面,但目前还无法量产。
可以说,在智能眼镜这个品类里,尤其是消费级智能眼镜,眼动追踪此前几乎是空白。谷歌眼镜2013年发布,完全没有眼动追踪功能;Meta Ray-Ban系列,包括带显示屏的Ray-Ban Display,也没有集成眼动追踪,用户需要通过语音或触控来调用AI功能;今年年初有行业预测说苹果正在开发一款集成眼动追踪的智能眼镜,预计2026到2027年发布。
如果这个预测成真,苹果就会直接和Everysight在这个赛道上竞争。
Maverick AI Pro是怎么把眼动追踪塞进47克的眼镜中的?
通过分析眼动追踪技术在XR产品中的一些应用,我们不难发现,这一技术大多应用在重量不轻的头显上。可见,在该技术的模块应用上还需要升级。而Maverick AI Pro能在这么轻的机身里实现眼动追踪,靠的是一整套技术方案的配合。
它搭载了一套叫GazeIntent的眼动追踪系统。用户注视菜单就能选中,视线移到物体上可以触发AI识别,支持3DoF追踪。这套系统的核心设计是:通过判断用户正在注视什么,AI可以针对当前画面进行分析,而不是全程开着摄像头,这样能节省算力消耗。
从交互逻辑上看,GazeIntent把眼动追踪从“光标控制”变成了“用户意图的理解”。用户不需要说语音指令,眼镜会自动感知视线焦点并提供信息。这和苹果Vision Pro的“注视加捏合”双重确认不一样,GazeIntent更强调“看一眼就触发”的直接性。

这就是 Maverick AI Pro 在追踪你的眼球时所看到的景象,图源:James Pero
和Vision Pro的眼动追踪对比一下,区别很明显:
硬件集成度上,Vision Pro用了四颗专用眼动追踪摄像头,加上多颗世界追踪摄像头,传感器阵列很大,而Maverick AI Pro的眼动追踪模块重量不到1克,集成在镜框里;
交互逻辑上,Vision Pro需要眼动配合手指捏合来完成确认,Maverick AI Pro只用注视时长或注视点来触发;
使用场景上,Vision Pro是沉浸式VR/AR设备,适合固定空间里的深度交互;Maverick AI Pro是日常佩戴的智能眼镜,适合移动、碎片化场景下的快速信息获取。
不过,超小型的功能模块,也在性能上有一定牺牲。业内实测发现,Maverick AI Pro的眼动追踪存在校准敏感的问题——只要调整一下眼镜在鼻梁上的位置,整个追踪就会偏移。另外,注视移动有一定延迟,快速扫视时体验不够流畅——这些问题就是轻量化设计带来的。

图源:James Pero
Maverick AI Pro的低功耗续航优势来自它采用的BEAM自由曲面离轴光路设计。这个方案的光学效率比主流光波导方案高出20倍,整机功耗不到100毫瓦,所以能在47克机身里实现8小时续航——相比之下,市面上集成显示屏的AI眼镜续航普遍只有2到4小时。如果眼镜每两小时就要充电,眼动追踪的实用性就大打折扣了。
Maverick AI Pro的推出有何意义?
行业里有一种观点,下一代XR交互会是眼动追踪、微手势、注视点分析这类的无接触自然交互。
从人机交互的发展来看,我们已经经历了从键盘到鼠标、从鼠标到触屏、从触屏到语音的多次变革。现在,眼动追踪配合AI意图理解,正在开启第四次交互变革,也就是从“发出指令”到“理解意图”的转变。
这种交互的变化,需要硬件层面的支持。Maverick AI Pro的出现正好回应了这一需求,它证明了眼动追踪可以在轻量级眼镜上工作。这打开了眼动追踪从VR/AR头显专属走向日常佩戴设备标配的大门。
但是,眼动追踪向智能眼镜迁移还面临不少挑战。
精度和延迟方面,眼动追踪在移动、强光、快速转头这些复杂场景下的稳定性还没有得到充分验证,而Maverick AI Pro的现有评测已经暴露了校准敏感和延迟问题。
隐私方面,眼动追踪意味着设备需要持续采集用户的视线数据。用户愿不愿意把“在看什么”这么私密的信息交给设备厂商,是产品能不能被接受的关键。
光学方案方面,BEAM方案在功耗上有优势,但自由曲面棱镜的镜片厚度和造型不如光波导方案灵活。在外观很重要的消费电子市场,这个取舍可能会影响大众接受度。
当然还有品牌和生态方面,Everysight不是消费电子大厂,品牌认知度和售后是主要的短板。相比之下,苹果、Meta这些巨头一旦入局,就会改变竞争格局。
小结
2026到2027年会是眼动追踪智能眼镜发展的关键阶段。苹果预计在这个时间段推出集成眼动追踪的智能眼镜,利用它在Vision Pro上积累的技术经验,和Meta的Ray-Ban系列形成差异化竞争。

与此同时,供应链已经开始布局新一代AI穿戴设备的开发,从芯片设计、光机模组到整机制造都有相关项目在推进。
Everysight的尝试给行业提供了一个很有价值的参考。眼动追踪的轻量化已经取得了实质性进展,但要实现大规模普及,还需要在多方面继续优化。
无论最终结果如何,Maverick AI Pro的出现都标志着智能眼镜的交互方式进入了一个新阶段。
接下来,需要消费者检验的就是:在47克甚至更轻的形态里,眼动追踪的精度、延迟和稳定性能不能达到接近头显级别的体验?用户愿不愿意为“看一眼就交互”这种新方式买单?
而这些问题的答案,可能要等到2026年下半年产品正式发货后才能逐渐揭晓了。
参考资料:
1、《苹果公开新专利:用于智能眼镜的无相机眼动追踪系统》
https://naipnews.naipo.com/23549/
2、《Meta分享:Quest Pro眼动注视点渲染的原理、实践和应用》
https://www.arinchina.com/17822.html
3、《优化虚拟物体位置以实现Hololens2中高效的眼视交互》
https://www.tandfonline.com/doi/full/10.1080/21681163.2024.2337765
4、《全球首款眼动追踪智能眼镜引人注目,但尚不完善》
https://gizmodo.com/the-worlds-first-eye-tracking-smart-glasses-are-intriguing-and-unpolished-2000743475
文 / 清月泠
文中未标注的图片均来源于网络
原文标题 : 为什么这款以色列智能眼镜要加眼动追踪?了解“看一眼就触发”黑科技


分享














发表评论
登录
手机
验证码
手机/邮箱/用户名
密码
立即登录即可访问所有OFweek服务
还不是会员?免费注册
忘记密码其他方式
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论