Magic Leap终于向我们演示了通过Magic Leap One的AR.doc

Magic Leap终于向我们演示了通过Magic Leap One的AR.doc

ID:27511369

大小:1.97 MB

页数:12页

时间:2018-12-04

Magic Leap终于向我们演示了通过Magic Leap One的AR.doc_第1页
Magic Leap终于向我们演示了通过Magic Leap One的AR.doc_第2页
Magic Leap终于向我们演示了通过Magic Leap One的AR.doc_第3页
Magic Leap终于向我们演示了通过Magic Leap One的AR.doc_第4页
Magic Leap终于向我们演示了通过Magic Leap One的AR.doc_第5页
资源描述:

《Magic Leap终于向我们演示了通过Magic Leap One的AR.doc》由会员上传分享,免费在线阅读,更多相关内容在应用文档-天天文库

1、MagicLeap终于向我们演示了通过MagicLeapOne的AR  MagicLeap在Twitch上的几次直播演示可以说都在画饼,对于实机以及操作并没有进行深入的讲解,这也让大家对于它如何运作充满了各种假设以及好奇心。  在前几天,也就是6月21日的UniteBerlin大会上,MagicLeap讲解了如何开发MagicLeapOne,在其中包含了诸多MagicLeapOne工作及运行的细节,那就让我们一起来看看吧。最关键的是,MagicLeap终于向我们演示了通过MagicLeapOne的AR。  首先他们提出的是通过他们的技

2、术,MagicLeapOne的AR会真实的融入到环境当中去,可以让用户和平时一样观看,而不是与现在的AR眼镜一样叠加在视野的上方。不过他们并没有讲解他们用的是什么技术,就当成他们画的另外一张大饼算了。    不过得到了一张饼也要失去一张饼,这就是大饼守恒定律。  MagicLeap交互实验室的负责人Schwab表示,MagicLeapOne的视场是有限的,并没有此前宣称的那么神奇。不过他也没有具体说明有限到多少,而是告诉开发者再知道MagicLeapOne有限的视场后如何改变他们的开发思路。  Schwab提出了四个观点他认为开发者应

3、该注意的,分别为“LessisMore”、“RespectTheRealWorld”、“GettingyourAttention”、“RealityConsiderations”。    “少即是多”用在这里实在是太取巧了,Schwab提出的这三点其实都很中肯。在AR体验当中,应当以让用户体验到虚拟与现实之间的融合,将AR作为现实世界的延伸,而在视场中过多的填充就会造成反效果。  不过考虑到这是对于MLO有限的视场而做出的策略改变,只能拍着手说有道理了。    这条也是对于“少即是多”的阐述,Schwab做了一个比喻,AR就好比现实世

4、界中的客人,主角任然是现实世界,AR不能喧宾夺主,可以使用更多的线索引导用户。  不过对于有限的视场也可以用其他方法补救。通过眼动追踪我们可以知道用户正在看什么,当用户视线不在目标上的时候,我们可以通过空间化音频或者是外围视场中的运动来引导用户的视线。    在设计的同时,也要考虑到用户的安全。比如你正在走一个下坡路,而AR信息在上方,这就很容易造成事故。而且在沉浸感强烈的情境下,人们的听觉会下降,甚至什么都听不到,这将会造成十分严重的结果,这也是Schwab提醒开发者需要十分注意的事情。    在用户数据方面,MLO会从五方面进行收

5、集。分别是头部姿势、双手、双眼、语音还有地理/临时信息。    头部姿势能够搜集不仅能分析摇头和点头和其他的头部运动,还能检测心跳、步姿和你走路的速度等。  对于眼睛的眼动追踪和语音命令这两个功能,除了本职工作以外,还能够通过眼睛的形态和声调的高低大小来判断用户的情绪。  通过眼睛收集的信息主要来自于眼睛停止转动的时刻,我们的眼睛一直在不断地转动(这期间的速度很快,几乎采集不到什么信息),如果它没动说明我们正在经历某些事情。这时就会采用到心理学的知识,比如眼睛向下看说明在思考,向左上方看时在思考。  最令人意外的还是第一次被透露的地理

6、信息和临时信息的收集,通过收集用户之间交互的地理信息与临时信息来分析趋势,来为用户判断更好的选择。不过如何运行这项功能,并未透露。  至于手部姿势,MLO可以识别八种手势,如下图所示。    在识别手势时,将会先由头部姿势判断,然后开启深度摄像头扫描近场来识别手势,能够同时识别双手的手势。在手势识别的时候,会有八个点跟踪,这将会把八个特定的手势和平常的手势区分开来。  说到这里就要谈一下MLO的交互模式了。MLO对于指令的输入是对综合头部、眼动追踪、手势信息进行的综合,将头部姿势与视线还有手势相结合。    比如眼前有三个方块,通过头

7、部姿势和眼动追踪能够知道你正在看的是哪一个方块,然后再识别手势例如Thumb就能够选中那个方块了,也就是说能够预判用户的选择。    通过之前所讲对于用户心理的分析,MLO可以判断用户是有目的的选择,而不是随便瞎选,从而达到准确的预判。  这种操作设置其实也比较符合人本身的运动规律,在同一时间是多个器官同时运作的。  而与之配套的,MagicLeap开发了一套多式交互模型——TAMDI。    代表着五个步骤,分别为Targeting(目标)、Activation(获取)、Manipulation(操纵)、Deactivation(失

8、活)、Integration(整合),五个步骤构成一个循环过程,对头、眼、手三个部位的信息进行整合判断。  说了半天终于要讲到MLO的演示视频了,不过在此之前我们先来看看公布的MagicLeap的工具包——MagicKi

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。