在苹果最新iPad Pro产品线中,最大的看点无疑是新iPad Pro上增加的一个激光雷达。一颗激光雷达未来将被苹果应用在哪些领域,可能是很多人都想了解的。
苹果引用激光雷达的用意
激光雷达能通过测量光触及物体并反射回来所需的时间来确定距离,利用直接飞行时间 (dToF),激光雷达能以纳秒速度级测量到从最远五米处反射回来的光,由此为增强现实开启了无限可能。
对于大多消费级普通用户来说,这个硬件的知名度不是那么高,而且也没必要过多关注。但是对于手机供应链,全球激光雷达市场,甚至AR/VR市场来说,苹果的这一次发布,的确是一个不可忽视的信号。
苹果引入此项技术,并不是为了拍照,而是为了 AR,苹果表示,支持 ARKit 的应用程序都将自动获得 LiDAR 所能提供的特性,并且能极大地缩短 AR 建模的速度,提高测量精度,降低抖动、错位的情况。
苹果在iPad Pro上使用的LiDAR通过发射/接收红外激光来测量目标距离,同时进行测量成像,这项技术未来将被广泛应用到苹果的AR应用领域。
应用于最新iPad Pro只是开始
iPad Pro 2020 最为重磅的升级,在于它的摄像头模块。而真正对后置双摄像头形成加持的,是iPad Pro 2020 摄像头模块配置的激光雷达扫描仪。
虽然如 iPhone XR 这样的单摄像头手机也能够使用 AR 功能,但要在空间中精准定位依然需要有更强大的硬件支持,激光雷达扫描仪的精确度显然是有必要的,而本次 iPad Pro 就充当了这样的排头兵作用。
根据目前已经披露的信息,iPad中的激光雷达很有可能是以硬件模块的形式实现的,应该是较为主流的Flash+DTOF方案,当然,也加入了一些更为先进的工艺。
这类方案有个缺陷是会受到室外强光的干扰,但是根据苹果可户外使用的介绍,苹果可能提高了SiPM光电传感器的动态范围以适应户外的强光。
和传统的红外 ToF 相比,LiDAR 的精度更高,因此常被应用在地图绘制、三维建模、体积测定等场景,比如自动驾驶、航空航天。
苹果本身还会融合自家的算法以及摄像头技术,根据苹果官方的介绍,iPad OS 采用全新深度架构,可以和激光雷达探测到的深度点、两个摄像头和运动传感器捕捉的数据相结合,并通过 A12Z 仿生芯片的计算机视觉算法来进一步优化,以更详细地理解场景。
在系统层面,iPad OS 采用全新深度架构,可以和激光雷达探测到的深度点、两个摄像头和运动传感器捕捉的数据相结合,并通过 A12Z 仿生芯片的计算机视觉算法来进一步优化,以更详细地理解场景。
通俗来说,有了这颗LiDAR可以让我们AR体验过程中速度加倍,例如以前放置一个虚拟物体需要等待一个时间,现在就可以做到很快,因为测距的过程交给了LiDAR,完成速度翻倍。
而与此同时,结合深度数据的虚实融合场景也会让AR体验更为沉浸,遮挡,尽可能降低大范围活动时的抖动、错位情况。
苹果这次采用的是Flash激光雷达技术,据推测应该是以硬件模块的形式实现的,是较主流的Flash+DTOF方案,但是有很强的技术壁垒。因此不少人推测,这个Flash激光雷达是苹果跟现在主流芯片供应商联合设计的。
苹果有可能只是在这里奠定基础,而将来会出现更多配备LiDAR的便携式AR设备。
更长远的供应链和市场普及
当大家还在一门心思往前看的时候,苹果在向后寻找切入点。因为苹果的激光雷达采用了DTOF测距技术。而现在,苹果是第一个将DTOF技术商用化的消费级硬件公司。
ToF 模组也包括一个完整的上下游,包括传感器芯片、模组、算法、以及VCSEL(垂直腔面发射激光器)等等,此前,国产厂商采用的 ToF 模组,芯片主要来自索尼,摄像头模组来自舜宇光学和欧菲光。
苹果采用的 3D 模组还是由夏普鸿海和 LG 提供,而配合 ToF 用到的 VCSEL 激光器则是由苹果公司自主设计交给稳懋代工,后者与宏捷科是主要的激光器供应商。
产生规模效应后,相关模组的价格也会下降,不会对整机的价格有明显的影响,比如新的 iPad Pro 就是加量不加价,未来这一技术有望下放到中低段 Android 机上,届时市场规模会有明显提升。
虽然很多手机开始导入 ToF 镜头,但是厂商不会特意宣称 ToF 所能带来的 AR 应用,可能要等到 2020 年,iPhone后镜头开始搭载 ToF 之后,结合苹果这几年来在 AR 的发展。
安卓阵营以及相关开发商,才会有较为明确的方向,而当这些开发商开发出应用功能之后,品牌厂商才会将他们的 ToF 镜头与应用功能做连结,预期要到 2020 年或 2021 后才会比较明显。
结尾:
iPad与iPhone 的引入,会让 LiDAR、ToF 功能再次走入行业的主流视野,苹果也就被寄予了引领行业发展的重任。苹果的入局是一个节点,2020年也许真正会成为 ToF 与消费级 LiDAR 的元年。