侵权投诉
技术:
MCU/处理器 IP/EDA 封装/测试 电池/电源管理/驱动 传感/识别 显示/触控 声学/模组 OS/软件/算法 VR/AR 人机交互 通信 云服务/大数据 +
安全/隐私 材料/工艺/制造 工业设计 检测/认证 其它
产品:
智能手环 智能手表 智能眼镜 智能头盔 智能耳机 智能首饰 智能服装 智能腰带 智能手套/鞋袜 手持设备
应用:
医疗 运动/健身 娱乐 定位/安全 信息资讯 工业/军用 其它
订阅
纠错
加入自媒体

ARKit 2眼动追踪,人机交互新模式

2018-07-02 08:57
AR酱
关注

在ARKit 2.0发布之后不久,不少开发者发现了新版本ARKit对利用iPhone X前置结构光摄像头进行眼动追踪的支持。

类似的功能我们在过去也见识过(不会写程序怎么当好艺术家?跳出iPhone X屏幕的3D立体视觉效果)

该艺术效果的开发者就是利用了前置景深摄像头获取眼球位置,根据位置实时改变动画呈现角度。

但严格意义来说,这并不算是眼动追踪,只是对眼球位置的识别,换言之如果头部和手机的相对位置不改变,眼球转动时画面不发生变化。

而ARKit 2下眼动追踪的效果效果就非常惊艳了

转动眼睛,屏幕中的十字光标便会随着注视点的移动而移动,响应速度和精确度都很不错

通过眨眼睛(忍不住想眨眼了怎么办,会不会误触)完成点击选择,操纵手机全程不需要动手,在很多场景中可以说是非常方便了。得益于红外方案,即便是在黑暗中也能实现眼动追踪。

手机眼球追踪

用眼动追踪来控制手机,是不少开发者一直以来都在设想的。

去年年初发布的ZTE Hawkeye加入的眼球追踪利用前置摄像机检测用户的虹膜运动,上下或左右滑动控制屏幕。

滑动的功能能方便人们在手上没空的情况下简单的操作手机,但是对于一些使用群体(肢体残障)来说,他们渴望功能更加强大的眼动追踪方案。

1  2  下一页>  
声明: 本文由入驻维科号的作者撰写,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

发表评论

0条评论,0人参与

请输入评论内容...

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

    可穿戴设备 猎头职位 更多
    文章纠错
    x
    *文字标题:
    *纠错内容:
    联系邮箱:
    *验 证 码:

    粤公网安备 44030502002758号