7月11日,Magic Leap在twitch上进行了第三次直播。雷锋网编辑看完整个直播发现,这估计是Magic Leap对外公布硬件软件信息最多的一次!
核心要点如下:
-
发货时间:Magic Leap One创造者版本将于这个夏天交付(9月22日前)
-
硬件配置:计算单元Lightpack搭载Nvidia Tegra X2 多核处理器
-
软件配置:基于Linux操作系统的64位操作系统
-
内容:Magic Kit第一款教程内容Dodge亮相,可同时识别多个平面,放置虚拟内容,创造房间级体验
槽点:
-
一个小时的直播,Magic Leap One创造者版本头显的佩戴时间不到一分钟,像个玩具摆设
-
Dodge的演示依然是录制好的视频,没有用头显进行实时演示
-
与ARKit的交互设计,看不出大的差别
(Graeme Devine)
4月份,Magic Leap宣布每个月的第一个星期三在twitch上进行直播。由于前两期直播毫无技术干货、产品细节,纯谈概念画大饼而被业界严重吐槽。
在今天,Magic Leap进行了第三期直播,终于拿出了一点诚意,开始直面硬件核心和软件操作。
直播一开始,主持人给出了最关键的信息,Magic Leap将在这个夏天交付Magic Leap One创造者版本,主持人开玩笑说夏天是正常的夏季时段(6月21-9月22),而不是弗罗里达州横跨一年四季的夏天。雷锋网编辑扳指头算了一下,我们最晚还有102天就能看到完整的产品。
直播分了几个小节,分别介绍了CPU和GPU、开发者社区的动态、全新的内容Dodge。
搭载Nvidia Tegra X2 多核处理器
雷锋网曾报道,Magic Leap One创造者版本采用了分体式的设计,包含AR眼镜Lightwear,一个6Dof手柄和一个可以别在腰间的处理器 Lightpack。
Magic Leap一直宣传空间计算、数字光场等炫酷的AR技术,必定需要强大的芯片计算能力支持。目前,HoloLens为了达到不错的空间感知和光学显示效果,几乎把一个计算机放进了头显里,也造成头显重达500多克。Magic Leap采用分体的方式,把计算单元放在Lightpack中,设计成可以别在腰间,一定程度上减轻了头显的重量。但是我们此前一直不知道Magic Leap将采用什么样的芯片方案。
Magic Leap负责开发人员技术战略的Alan Kimball解释说,其计算单元LightPack中采用了 Nvidia Tegra X2,这是一个功能强大的模块,包含三个处理器:四核ARM A57 CPU,双核Denver 2 CPU和基于NVIDIA Pascal的GPU,具有256个CUDA核心。他还提到每个内核具有不同的能耗和性能特征,开发人员可以根据需要在内核之间进行选择,代码可以运行在GPU、可以运行在ARM、或者是Denver。
HoloLens当前版本采用的是英特尔的Atom处理器芯片,对比来看,Magic Leap采用的Nvidia Tegra X2性能更强大,但是由于HoloLens还设计了配合Atom使用的HPU(全息图像处理单元),又增强了其全息显示的能力。雷锋网也曾报道,微软也正在为HoloLens研发专用AI芯片。Magic Leap One的计算能力如何还得看真机效果。
此外,直播还介绍了Magic Leap的底层软件架构是基于Linux操作系统的64位操作系统,具有统一的内存系统。他们没有透露该设备将包含多少内存,但暗示没有人抱怨内存不够。Magic Leap之前曾承诺过几个小时的续航时间,具体将取决于所使用的应用程序。
交互设计曝光
从2014年起,Magic Leap就放出了不少展示其AR效果的视频,有在体育馆中溅起水花的大鲨鱼、有手心里的大象、有躲在办公室桌子腿后面的机器人。这些早期的视频给人的印象是Magic Leap的AR效果简直棒呆了,显示效果十分逼真,还能够被真实物体遮挡,完全与真实世界相融合。但是,这些物体究竟是如何被放置在现实环境中的呢?
2017年6月,苹果发布ARKit,定义了AR的基本交互设计:平面识别、运动追踪和光照估计。
这一次,Magic Leap拿出了第一款给开发者的Demo,我们也终于看到了Magic Leap针对自己的空间计算、数字光场给出的AR交互设计。
Magic Leap首席互动和体验设计师Colman Bryant介绍了Magic Leap开发者套件的第一个教学内容Dodge,在他看来Dodge代表了Magic Leap上混合现实应用最基本的体验。
很多人期待着能以Magic Leap头显的视角进行现场实时的Demo演示,可惜,被称为“视频”公司的Magic Leap这次也还是选择了录制好的视频Demo。Magic Leap的SDK中有视频录制的功能,这次的Demo是由Magic Leap的摄像头录制,再将AR内容与摄像头录制的真实场景相结合。所以我们看到的视频视角也就是佩戴Magic Leap的人的视角。
从演示来看,Magic Leap One和苹果ARKit类似,第一步都是识别房间内的实际表面,支持水平和垂直平面,然后在其之上显示3D数字对象。
从图中可以看到,识别平面时会有蓝色的网格,然后是更密集的红色网格 ,当系统判定这是个可用的平面时会变成绿色。
与苹果ARKit和谷歌ARCore不同的一点是,Magic Leap One可以支持同时识别多个平面地点,使得虚拟内容可以创建在整个房间范围。
在创建好平面之后,我们看到Dodge会从沙发、地板等不同的点出现,然后,然后向人猛掷石块,还会砸得地面砰砰作响。由于Magic Leap有3D空间音效,所以即使你眼睛并没有注视虚拟物体,音效也会指引你去找到虚拟物体出现的方向。Bryant介绍说Dodge这个Demo只是一个“种子”,开发者可以利用Dodge的教学文件,开发出更好玩的游戏。
Bryant也展示了手势识别,其手势和HoloLens唯一的手势很像,捏住拇指和食指表示点击。据说Magic Leap的手势识别SDK还可以跟踪单个手指和关节,拳头和其他全手势,还包括眼动追踪和头部追踪
据了解,要将内容加载到Magic Leap One,可以使用LightPack上的USB-C端口或通过Wi-Fi传输文件。由于多个Magic Leap Ones可以加入相同的Wi-Fi网络,开发人员表示多人游戏和共享混合现实环境是可能的,而且很有趣。
小结
从Dodge展示出的交互设计来看,Magic Leap与ARKit没有太大差别,创新之处在于Magic Leap可以同时支持多个平面识别,创建房间级体验,但是要扫描多个地点也会用用户感到操作困难吧。
虽然公布了硬件和软件的相关信息,但是Magic Leap最主要的空间计算、数字光场等最核心的技术依然是一个谜,而正是这些技术决定了Magic Leap是否能值得接近10亿美元的估值。
雷锋网(公众号:雷锋网)曾报道,从此前公布的专利文件看来,Magic Leap并没有采用其宣传多年的光纤维扫描,而是采用了多层光波导的方式。HoloLens的眼镜采用的就是全息光波导,而有传言称苹果也将生产光波导方案的眼镜,雷锋网编辑不禁为Magic Leap的未来感到担忧。
最后提一下,Magic Leap和AT&T今天宣布,其将成为Magic Leap One设备面向美国消费者的独家线下分销商,并且正在向该公司投入未指定的金额。AT&T声明开发者将比消费者更先拿到设备, AT&T商店将在美国五个城市展开Magic Leap的销售。
相关文章:
Magic Leap CEO深夜连发14条推特,他谈了很多就是不谈产品
Magic Leap 终于揭开神秘面纱!产品将于 2018 年发货
多个娱乐消费应用,Magic Leap One和其他AR眼镜有什么不同
耗时6年,总融资近19亿美金,外媒《滚石》万字长文揭秘AR眼镜 Magic Leap One(上)
耗时6年,总融资近19亿美金,外媒《滚石》万字长文揭秘AR眼镜 Magic Leap One(下)
深度 | 宣传光纤扫描成像多年,Magic Leap最终投入光波导怀抱(最新专利文件详解)
。
原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/92267.html