这可能是2018年最全面的AR操作系统设计指南
关注亮风台的朋友们,一定对AR眼镜不陌生,但仔细想想,是不是对AR眼镜的操作系统和核心用户界面没什么特别的印象?可能你印象中的它们都是碎片式的,一个界面,一个按钮,似乎摘下眼镜就完全失去了印象。是的,没有真正意义上的规则、权衡和能力将定义这种即时的用户体验。
亮风台认为,AR是下一代人机交互平台,为了实现更加自然的交互方式,AR操作系统会是重要的一环。那么,为AR而构建的操作系统,它将会是什么样子?哪些潜在的概念和考量将影响用户的体验?对开发人员有什么规则和限制?
我们如何更接近下一个AR操作系统?
不妨先对未来做一些假设:
AR眼镜制造商想要的是一种可以扩展功能的操作系统
HMDs的AR操作系统应该是原生的,而不同于我们熟悉的移动端系统,目前的操作系统并不能让AR的价值完全被发挥。
下一个AR操作系统应该有能力跨越从短期使用到佩戴一整天的鸿沟。例如微软的Holo UI,它似乎比其他UI更向前迈了半步,但是“以任务为中心的方法”,似乎并不能完美阐述“第一次的AR用户体验”。
AR眼镜具有运动、位置和物体的感知能力
AR眼镜应该支持位置跟踪,需要传感器来识别用户的环境和3D物体。人工智能将提供环境信息和分类。Web服务将用于识别平面图像、3D环境和大型数据库中的对象。
谷歌VPS支持识别预先扫描的环境,并确定精确的位置
AR眼镜的用例将随着时间的推移而发展和扩展
一开始,AR眼镜仅仅被用于单一的任务,比如在工厂进行培训或设备监控。虽然由于舒适度、体积和电池的限制,佩戴时间很短,但是随着软硬件的发展解决了更多的问题,使用时间将会增加。
从2023年到203X年的进展将会时断时续,依赖于硬件的突破
应用程序和标签
运行在AR操作系统上的软件可以分为两大类:应用程序和标签。
应用程序类似于我们熟悉的PC和移动应用程序,它们由用户启动,并且可以定位(尽管是在3D空间),支持多任务切换,并且将一直保持开启状态直到被关闭。
示例:给工人工作参考的应用程序,可以打开并放置在正在处理的对象旁边。
标签更像是自动的应用程序,它们不断地寻找特定的环境或对象,它们可以为其赋予增强的信息,甚至通过可视化来改变世界。
示例:一个建筑物管理器启用一个标记,当它们进入一个房间时,它会高亮显示任何有报告错误的设备。
任务:应用程序
直到今天,移动操作系统中的基本概念还是90年代个人电脑和非智能手机操作系统的延续:专注于单个任务的应用程序从桌面或主屏幕上启动,然后接受输入,直到关闭或暂停。
可惜,这种以任务为中心的模型不适用于AR眼镜。当你拿起手机时,你已经决定了你想要执行的任务。手机操作系统只需要关心它自己的显示,并尽快让你完成正确的任务。
然而,AR UI是持续可见的,与用户正在执行的实际物理任务共享同一个空间:例如在切菜的时候,如果在你的眼前漂浮着一排图标,那么这就是一种糟糕的体验。
AR操作系统的“主屏幕”是基于环境,它需要积极地与世界互动,而不是等待用户选择一个单一的任务。
大多数设备上的体验都不是作为独立的任务来完成整个展示,而是作为应用程序或标签显示在周围:例如视频在墙上播放,菜谱在厨房台面上显示下一步的准备工作,恒温器在门边盘旋等。
我们与环境的关系会影响思维方式,相对于设计2D界面而言,组织物理世界可能与AR的相关性更大一些。当然,我们目前熟悉的以任务为中心的应用程序也会存在,但它们不是AR操作系统的默认状态,相反,它们将是用户输入的特殊状态。AR操作系统的默认模式就像在一个光线充足的客厅,所有可能的任务都是可见的,但不需要注意。一个专注于任务的应用就像关掉灯去看电影,这是一种暂时的情况,可以减少分心。
全环境、以任务为中心的导航应用程序(The Division)
环境:标签
AR能够自然地捕捉我们所处环境中的任务和信息。但是目前,这一功能被锁定在移动操作系统的限制之下。移动AR面临的最大挑战是需要借助特定的App,用户可能愿意为一次简短的品牌体验而下载App,但作为日常生活的一部分,它根本无法扩展。
如何“发现”AR,对于在移动设备和AR操作系统中面向任务的AR应用来说,也是一个大问题。用户需要在现实世界中得到提示(“嘿,下载我们的应用并扫描这个!”),商家通过市场营销的方式才能让用户意识到在某个地点或某个物体上存在AR体验。
发表评论
请输入评论内容...
请输入评论/评论长度6~500个字
暂无评论
暂无评论