破解3D成像风口之谜 价格难题挡不住利好趋势

苹果在导入3D成像之后,将最先给用户带来哪些全新体验?从近期一系列的动作来看,业内不少人士认为,苹果将紧紧围绕AI+AR两大抓手,匹配3D成像强大的信息输入能力,以人脸识别和AR应用打造3D交互的第一波浪头。
  “3D摄像头并不是普通的功能性组件创新,而是激活光学交互属性,实现二维到三维的交互升级,是继图形界面、触控之后的第三次人机交互跨越。”这是在言谈中,业内人士对于3D摄像头持有的看法。
 
  本文链接:http://www.shoujibao.cn/news/show-htm-itemid-22380.html
 
  的确如此,光学摄像头对消费电子产品来说具有双重意义,一方面提供拍照功能,另一方面又为影像信息提供了唯一入口,即兼具娱乐和交互两种属性,而下一步消费电子的重点创新也被广泛认为是人机交互端,而人机交互的大势所趋则是影像,因此作为影像的唯一入口,光学的交互属性将逐渐被激活,成为最具潜力的爆点。
 
  什么是3D成像:不只是“拍照”
 
  3D代表着空间长、宽、高三个维度,通常情况下,普通的2D成像原理用于平面传感器接受被拍摄物体反射或者发出的可见光,从而形成二维图像,由于现实世界是三维世界,2D成像获得的图像信息你存在特征信息的损失;3D成像则利用深度信息完美的弥补了这一缺陷,获取平面图形的同时还可以捕捉三维信息,为后期的图像分析提供了关键特征,计算机或只能设备据此才能完整的复原现实世界。
 
  作为拓展2D成像的手段,3D成像目前有是三种主流解决方案,这三种方案,可能已经耳熟闻详了,在笔者再次做了相关梳理。
 
  第一种是结构光方案,它对物体拍摄两次即可实现3D距离的探测,其他计算过程都由本地处理器完成,延时非常短,测量速度快,同时经过多年的技术发展,模组体积已经较小。据悉,结构光最早应用于微软的明星产品Kinect上,迄今已有8年,可谓是经过了时间验证的成熟方案。
 
  TOF作为3D成像的第二种解决方案,它的原理是通过给目标连续发送光脉冲,用传感器接手从物体返回的光,通过探测光脉冲的飞行(往返)时间来得到目标物距离。
 
  TOF的优势在于远距离探测,不易受到环境光线的干扰,但是TOF芯片每一个像元要对入射光往返相机与物体之间的相位分别记录,传感器结构比普通图像传感器更复杂,单个像素要大得多,成本和体积更大。
 
  双目视觉技术作为其第三种解决方案,该技术方案通过两个RGB摄像头模仿人的双眼,通过标定后的双摄像头得到同步曝光图像,然后计算获取的二维图像像素点的第三维深度信息,代表厂商是在手势识别领域的领先者Leap Motion。
 
  双目方案算法实现非常复杂,寻找像间对应关系时需要特征提取、特征匹配等一系列复杂的算法,同时光照变化、光线明暗等外在因素的影响会对算法提出更大的挑战。相比双目的被动方案,基于主动光探测的结构光、TOF具有算法简单,相应速度快,识别距离范围大的优势,因而更加契合交互场景的要求。
 
  而就TOF与结构光之间对比而言,结构光在便捷性、成本、成像速度与延时方面占据优势,基于此有相关机构判断结构光将率先借苹果新机登陆前置镜头,而TOF抗干扰性更好,探测距离远,未来将在后置镜头大展拳脚,对接长距应用场景。
 
  笔者从供应链获悉,此次苹果很有可能在它的iphone 8上使用TOF技术,而该技术由ST供应。
 
  导入3D成像后,最先给用户带来的全新体验是啥?
 
  市场关心的另一个问题则是,苹果在导入3D成像之后,将最先给用户带来哪些全新体验?从近期一系列的动作来看,业内不少人士认为,苹果将紧紧围绕AI+AR两大抓手,匹配3D成像强大的信息输入能力,以人脸识别和AR应用打造3D交互的第一波浪头。
 
  普遍观点认为AI是云端的事,本地至负责与用户交互和数据搜集。然后,苹果用实际行动说明了AI与机器学习并不仅仅局限在云端。
 
  2017年WWDC大会,苹果发布了新的机器学习API—Core ML,并宣称图像识别速度比谷歌Pixel快6倍。Core ML提供支持人脸追踪、人脸检测、地标、文本检测等任务的API,它将加快iphone、ipad和Apple Watch上AI任务执行的速度,从文本分析到人脸识别,几乎涉及一切事物。
 
  Core ML含有大量的关键机器学习工具,包括神经网络(深度、循环以及卷积网络),同时也支持线性模型和树集成。有了本地的AI框架Core ML,再配合3D成像输入的全方位、立体化、多维度的图像信息,人脸识别、手势识别自然水到渠成。
 
  AR是iphone 8的另一部重头戏。苹果在WWDC2017全球开发者大会上发布了AR开发平台ARKit,凭借苹果庞大的IOS用户群,ARKit一举成为全球最大的AR开发平台,在推出ARKit的三周后,苹果公司还收购德国眼部追踪技术公司SensoMotoric Instruments,一系列动作意味着苹果在AR领域开始加速前进。
 
  与谷歌的AR平台“Projece Tango”和VR平台“DayDream”相比,ARKit不需配套专门的硬件,传统的单摄像头iphone和ipad借助ARKit也可呈现一定的AR效果,伴随着ios11发布后,理论上可应用于任何的iphone和ipad;而谷歌的平台对硬件有着极高的标准,且安卓机机型众多,硬件配置不统一,目前市面上仅有少数机型支持其应用,因此ARKit的受众更多,平台规模优势显著。
 
  庞大的用户数量决定了ARKit对AR产业前所未有的催熟力度,而导入3D成像之后,ARKit更是如虎添翼,三维的信息输入方式将与其三维输出相匹配,打造更优的AR体验,AR世界的大门将被正式开启。
 
  3D成像能够做什么:小镜头有大用场,下游交互需求广泛
 
  “3D成像未来的发展不可小觑。”这是笔者多次听到的言论。那么3D成像究竟能做什么呢?它的市场又在哪呢?
 
  其实,3D成像与2D成像最大的区别在于提供了深度信息,深度信息意味着对真实世界更真实,更高质量的图像描述,配合人工智能时代激增的信息处理能力,它可以围绕3D建模衍生出多样化的应用,从生物识别、VR/AR到自动驾驶、无人机等领域。
 
  在生物识别系统中,3D成像获取的深度信息可与模型链接,迅速精准的完成匹配检测;在VR/AR方面,3D成像技术可快速扫描真实世界,建立虚拟世界模型,创建交互场景提供了微型化、快速化的解决方案。
 
  在AI领域,机器视觉是人工智能的下一个前沿,而3D成像技术则是机器视觉的关键解决方案;在汽车上,2D成像可以用于自动驾驶,通过3D成像技术对行车环境进行感知,从而获取环境信息以增加安全性,此外还可以用于汽车内的乘客离位检测;在家庭娱乐方面,3D成像作为一个性能的输入设备,实现手势识别功能,为第一人称游戏提供直观的接口。
 
  人工智能AI是信息技术领域正在发生的大革命,很多机器人也已经具备了相当高的智能化特点。业内普遍认为机器视觉将是AI再进一步的关键,只有做好信息输入,机器才能成为真正意义上的AI。
 
  以工业机械手为例,只有判断了要抓取的物品具体位置,继三维坐标,才能精确无误的移动目标物体。
 
  此外,在安防领域,3D成像依然有其存在的价值,视频监控中3D成像可以增加深度信息实现全方位的监控,而在人脸识别门禁中导入3D成像则大大提高了其安全性,值得一提的是,在无人机领域,3D成像还有其避障功能。
 
  2015年Explorer 2无人机首度演示了采用TOF技术的自动避障功能,该无人机悬空时,TOF系统会保持每秒钟旋转2—5圈的状态,快速扫描周围360度的有效半径,及时发现障碍,而大疆科技的Phantom 4无人机则采用了双目3D+超声波的方案,通过将多种避障模块相结合,大幅度提高避障的稳定性和准确度。
 
  由此可见,3D成像并非只是概念的“空中楼阁”,而是有着强劲的下游需求支撑。基于此,更有机构表明,3D成像技术在苹果引领之下,将率先在消费电子应用上大规模落地,随后逐步辐射到各行业,实现2D向3D的交互跨越。
 
  据Yole Development预测,2016—2022年3D成像将在消费电子领域,以接近160%年复合增速迎来大爆发。
 
  笔者从供应链获悉,3D摄像头在国内手机市场的应用将在2018年下半年这一时间段,因为目前价格这一瓶颈目前还没有得以突破,有消息称,华为曾在100台手机中尝试搭载3D摄像头但最终因价格高的原因未批量生产。
 
  从某种程度上来看,制造业本身是最坚实的生产力,一旦完成技术上饿婵变,将存在巨大的利润空间,如果后期这一价格原因得以解决,未来随着其市场利用率的不断提升,3D摄像头的市场空间将不断拉大。
读者们,如果你或你的朋友想被手机报报道,请狠戳这里寻求报道
相关文章
热门话题
推荐作者
热门文章
  • 48小时榜
  • 双周榜
热门评论