酱深度酱油AR开发者的多视角透彻地复盘新出炉的AR应用

 

产品其实和技术是分不开的,和软件硬件都是分不开的,AR的摇篮里究竟会孕育什么?...

 

↑  ↑  ↑      关注AR酱,

和我们一起发现闪闪发光的AR从业者!
公告
酱空间开始接受入驻啦

想和我们一起玩,一起high的酱友们

快和我们联系

微信号:18521503035
 

图图酱


躲在绿丛中的小花朵



开深圳已经2天了,然而回忆起来,还是那个特别的味道,可能是深圳这座城市,留着夏天的余热,热情地紧紧地拥抱了我一下,搞得我有点喘不过气,但又不得不承认:我爱这拥抱。无论从街边从未耳闻的各色小吃,到优雅美丽的建筑设计,再到生机勃勃的软件园和互联网氛围;无论从喜欢聊天的出租车司机,到彻夜未眠的餐馆老板,到友好讲理的保安与执勤。这些都是深圳带给我的体验,这个步之所及的最南之地,着实地令人难忘与欣喜。

然而短短的四天,更多的体验在于和搭载了Google的Project Tango技术的Lenovo Phab2 Pro的亲密接触,和小伙伴们一起把它变得有血有肉。

那些比赛的精彩瞬间,包括大咖云集,就不再赘述了。

今天主要想从产品和技术两个角度,复盘一下这些AR应用的点点滴滴。
最终的产品,是最初的梦想


回顾一下满满的十九件作品,从应用角度来看,可以作如下分类:
可以看到开发者开发的应用主要分为三个大类:游戏,工具和生活服务,其中生活服务的覆盖面最广,包括了旅游、购物、家居和教育;按照应用个数占比,可以发现各自类别受到开发者的关注度分别为:
(已经很腻害了有木有,基本上可以用Tango手机陪伴你度过休闲娱乐工作时光了~)

经过仔细的思考,其实部分应用,没有AR的参与,也是可以愉快地玩耍的,换句话讲,AR在一些应用中扮演的角色,或许就像一道咕佬肉,表面撒上了香菜末,变得更加好看或者说更加吸引人的目光,然而并没有对口感带来更多的提升,甚至还不如原来的口感(尤其对于那些不喜欢香菜,认为它们是肥皂味的宝宝们)


(你喜欢哪盘)

但的确,不乏一些应用,真正地让AR变得不可或缺,不可替代。是怎么样判断的呢?这就要从Project Tango的三大关键技术谈起了,谁能让这些技术在功能实现上更加核心,谁就是这次开发比赛的半个赢家吧。
技术的思想,是产品的大脑


Project Tango的关键技术是Motion Tracking,Area Learning和Depth Perception,有了这三项技术的保证,Tango手机具有了其他普通安卓手机所没有的能力,下面这幅图让你很快地明白。
按照这么个思路,分析一下这些个应用,可以发现使用这三项技术的团队比例约等于1:1:1,很多团队用到的甚至是两项甚至三项技术,但是在获奖的前六名团队中,使用这三项技术的团队的比例约为3:5:4。他们的共同特征是使用某一项核心技术,解决了某一个痛点,比如大脚怪团队,使用Depth Perception,结合团队本身的神秘算法,通过Tango手机来给自己的定制鞋量出最贴合自己脚型的模型文件。只是Tango手机的精度只有1cm,而1cm的误差几乎可以造成两个尺码的误差了。不知道大脚怪团队的算法是如何解决这个问题的。

在很多领域还有AR技术的发展空间,比如餐饮业,这是每个人都会非常关注的领域,小编想到很多契合点(我喜欢吃但我嘴刁),比如AR+LBS的餐饮广告啦,比如点餐时候摒弃菜单使用AR技术提高点菜效率啦等等。

不过这一切,都需要Tango手机或者类似的产品真正走向B端和C端,才能有更多发挥的空间和可能性。
未来的方向,兼顾硬件应用场景


Project Tango的三项核心技术如果被放入一个二叉树,它们的父节点,其实就是深度信息,简单来说,它让我们的信息从O-XY坐标系转化到了O-XYZ坐标系,多了一个Z,就多了一个维度的可能性。那个Z,让数据从2D进入了3D,我们有时候也会称之为Point Cloud——“点云”。因为数据集看起来于空间中散乱分布,就像一块云一样。

于是谈到3D建模,其实有多种解决方案的:双目立体视觉,结构光,激光点扫描,飞行时间法(TOF)

双目立体视觉融合两只眼睛获得的图像并观察它们之间的差别,使我们可以获得明显的深度感,建立特征间的对应关系,将同一空间物理点在不同图像中的映像点对应起来,这个差别,我们称作视差(Disparity)图像,通过计算图像对应点间的位置偏差,来获取物体三维几何信息的方法。属于被动式。
一些工业测量的场合会用到,比如机械臂的眼睛,可以用来测量和定位。
结构光是主动投射的是三维测量方法,基于光学三角法原理,投射器投射一定模式的结构光(很好理解不要方,比如条纹),它会因为被测物的表面形貌而发生畸变,这些畸变的图像可以重现物体表面的三维形貌。
比如我们熟悉的Kinect就是通过投射随机的激光散斑, ,通过红外摄像头采集所标记的结构获得三维数据的。。

激光点扫描很逗,这个测量非常慢,因为是逐点或者逐线测量的。。可以理解为一束激光打过去,因为激光的波长很长,会很容易反射,被接收器接收到后,由这个发射和接收的时间差,结合光速,就可以知道激光投射到那一点的深度信息了。

飞行时间方法(TOF)和激光的原理很像,但这个光可以是红外光,就像Tango,,它就是这个原理。TOF其实是未来的一个趋势,因为移动互联网的兴起,直至未来物联网时代,移动端会成为主流,移动端首先需要便携,体积小,相对于双摄像头和带激光器的单摄像头,必然TOF结构更加简单。比如Softkinetic公司近日新推的DS541使用了飞行时间法原理,它是专门为移动平台而设计的。它提供市场上最高效率的性能,非常适合小尺寸产品,例如智能手机和可穿戴设备。
这么小你信么~还真得信。
最后看看硬件,亲身体验


Phab2 Pro和Project Tango平板小编都有幸使用到了,他们屏幕尺寸几乎是一样的(Project Tango平板很大一部分原因是摄像头结构设计得比较大), 虽然Project Tango平板的存储空间是Phab2 Pro的几乎两倍,但是它的发热程度非常严重,而且ADF(Area Description File)数据保存极慢,我因为它太慢每次都主动杀掉应用,放弃保存,但是Phab2 Pro很好地解决了这两个问题。它们的价格肯定是Phab2 Pro要高一点点。

码了这么多字,还是回归主题,我真的很想再经历一次这难忘的四天三夜,至少把Phab2 Pro样机用到不行~~

AR酱原创,转载务必注明

转自微信号AR酱(ARchan_TT)

并附上原文链接
阅读推荐

酱活动 | INTEL® BUZZ WORKSHOP 2016

酱现场 | 从没见过如此激烈的AR开发撕逼大战

酱扯淡 | 闲谈建筑领域的AR应用,是不是一个伪需求
点击下方“阅读原文”查看AR酱官网


    关注 AR酱


微信扫一扫关注公众号

0 个评论

要回复文章请先登录注册