侵权投诉
技术:
MCU/处理器 IP/EDA 封装/测试 电池/电源管理/驱动 传感/识别 显示/触控 声学/模组 OS/软件/算法 VR/AR 人机交互 通信 云服务/大数据 +
安全/隐私 材料/工艺/制造 工业设计 检测/认证 其它
产品:
智能手环 智能手表 智能眼镜 智能头盔 智能耳机 智能首饰 智能服装 智能腰带 智能手套/鞋袜 手持设备
应用:
医疗 运动/健身 娱乐 定位/安全 信息资讯 工业/军用 其它
订阅
纠错
加入自媒体

ARKit 2眼动追踪,人机交互新模式

2018-07-02 08:57
AR酱
关注

一般而言,有两种跟踪眼球的方案,即普通摄像头和红外摄像头。

普通摄像头方便小型化,低成本但是精度低,红外方案体积大,造价高,同时精度高。

但随着技术的发展,优缺点不能一刀切,针对普通摄像头方案,2016年麻省理工开设的“Eye tracking for everyone”就利用了卷积神经网络(CNN)预测用户对手机或者平板的注视位置,只使用普通摄像机的情况下让精度变为1.34cm到2.12cm。

尽管精度上有所提高,但从目前的市场情况可见虽然该技术还并没有成熟。

红外摄像头则一直都是主流的眼动追踪识别方案

例如Tobii眼动仪采用的技术就是通过识别用户眼球上角膜、瞳孔产生的反射图像,使用两个图像传感器分别采集眼睛与反射图像,通过图像处理算法和一个三维眼球模型精确地计算出眼球、注视点在空间中的具体位置。

解决了小型化问题的True-Depth相机模组是否也采用了相似地技术原理呢?

6月20日,开发者Andrew Zimmer在Twitter发布了一个demo,展示ARKit 2对眼睛注视点位置的实时追踪效果,随着Andrew眼球的转动,注视点点的移动在屏幕上画出一条连贯的曲线。在图中,颜色越暖(橘色、红色),代表注视时间越长。注视点位置的检测精确,识别轨迹流畅连贯,在未来的人机交互中潜力巨大。

有相当数量的患者由于操作不便,与信息时代脱节。其中有不少唯一与设备相互动的渠道就是眼睛,眼球追踪加入智能手机的交互模式同样也能造福健全人,让我们在手上没空的情况下操作手机比如做饭看菜谱、开车看导航。

不过同时,技术也带来了很大的隐私问题。相信大家都有同感,在网上浏览过某一类商品之后,pc和手机app的各种广告和弹窗中会根据你的浏览内容推荐一堆类似商品。当未来的APP知道了你因为感兴趣而长时间注视的内容,内容推送会更加精确,人们的注视内容信息会被拿去贩卖,更无隐私可言了。


<上一页  1  2  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

可穿戴设备 猎头职位 更多
文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码:

粤公网安备 44030502002758号