技术:
MCU/处理器 IP/EDA 封装/测试 电池/电源管理/驱动 传感/识别 显示/触控 声学/模组 OS/软件/算法 VR/AR 人机交互 通信 云服务/大数据 +
安全/隐私 材料/工艺/制造 工业设计 检测/认证 其它
产品:
智能手环 智能手表 智能眼镜 智能头盔 智能耳机 智能首饰 智能服装 智能腰带 智能手套/鞋袜 手持设备
应用:
医疗 运动/健身 娱乐 定位/安全 信息资讯 工业/军用 其它
当前位置:

OFweek可穿戴设备网

人机交互

正文

深析:佩戴VR头显之后 如何建立人机交互?

导读: 从Oculus Rift到Apple Watch再到Snap Spectacles,整体趋势正朝着可穿戴计算方向发展。摆在混合现实头显面前的是一个非常棘手的问题:头显佩戴在脸上之后如何建立人机交互?

用混合现实(Mixed-Reality)勾勒的未来,科技观察家普遍认为会是扣人心弦、激动人心的,但遗憾的是在座的有生之年都不会看到。这不仅仅是因为帧率和位置追踪等技术障碍,混合现实更是给那些赋予数字体验以意义的设计师、艺术家、故事讲述者提出了更大的挑战。

而当代开发者所面临的挑战就是,深入认知个人技术样式的迁移方向。从Oculus RiftApple Watch再到Snap Spectacles,整体趋势正朝着可穿戴计算方向发展。摆在混合现实头显面前的是一个非常棘手的问题:头显佩戴在脸上之后如何建立人机交互?

PC行业在演变过程中也遭遇了相似的问题,因此能够给我们一定的启发。自1946年计算机商用以来,关于图形用户界面(GUI)最关键的见解是让计算更私人、更实用、更直观。时间已经证明了基于鼠标点击的GUI是如此的高效,以至于1984年Macintosh诞生的三十年后,依然是主流计算设备的界面。

今天的混合现实设备就像是20世纪70年代的IBM。企业们看到了无穷的潜力,核心的爱好者正在疯狂的尝试,但是普通用户依然无法访问核心技术。因此,混合现实的人机交互需要一次类似于GUI的变革。

blob.png

作为该话题的思想领袖之一,神经科学家和企业家Meron Gribetz创建了Meta,并出任这家公司的首席执行官。目前Meta正在研发一款增强现实(AR)设备,使其和微软、Magic Leap公司保持同一联盟。每当谈起这款设备,Gribetz总是喜欢称其为“零学习曲线”计算设备,这是因为这款设备直观到你不需要学习就知道如何使用。隐含在此类机器中的推论是,设备必须成为大脑的延伸。这也为脑机界面提供了突破口,来重新定义人类如何和周围世界进行交互。

很早之前,科研专家已经开始从事这方面的研究。1924年,脑波被人类首次发现;20世纪70奶奶带,加州大学的科研专家普及推广了脑机界面(Brain-Computer Interface,简称BCI)这个专业术语,特指那些利用脑波来控制物体的硬件和软件系统。虽然BCI已经广泛应用于医疗设备中,但现在伴随着可穿戴计算设备的涌现,它们的潜力才可以完全发挥出来。

当前的局限

鉴于目前增强现实(AR)最常见的应用包括:工作和生产力,建筑,工业装配,运输,体育,军事和执法等等,而所有这些应用都涉及能深度吸引用户的动态环境。那么目前的AR设备能否简化或者复杂这些环境?例如,如何让建筑工人在使用工具或者操作重型机械的同时来操作“智能头盔”?如何让士兵在携带装备并保持无线电通讯的情况下通过AR头显进行快速导航?

这些情景都揭露了现有交互方式的局限性。手势控制意味着离不开双手的操作,而语音命令在公共场合会非常尴尬,而且在嘈杂的环境中往往无法正常听到你下达的命令。尽管每种方式都有自己的优势,但它们的累积效果就是创造输入语言来让用户掌握。我们都应该期望这个障碍会显著减慢AR设备的普及程度。最好的解决方案是创建一个脑机界面,只能通过大脑活动来滚动菜单,选择图标,启用应用程序,甚至是输入文字。可以想象这个高性能,非侵入性和直观的脑机界面将会释放AR的生产力革命。

1  2  下一页>  
声明: 本文由入驻OFweek公众平台的作者撰写,除OFweek官方账号外,观点仅代表作者本人,不代表OFweek立场。如有侵权或其他问题,请联系举报。

我来说两句

(共0条评论,0人参与)

请输入评论

请输入评论/评论长度6~500个字

您提交的评论过于频繁,请输入验证码继续

暂无评论

暂无评论

文章纠错
x
*文字标题:
*纠错内容:
联系邮箱:
*验 证 码: