查看原文
其他

智能图像传感器的发展现状及未来发展趋势之二

本翼资本 本翼资本CapitalWings 2022-06-19

本章结论

具有微米级特征的MEMS传感器正逐步取代传统机械传感器的主导地位,预计2021年,MEMS智能传感器市场规模可达200亿美元,2016-2021年均复合增速为9%。摄像头技术应用比较成熟,激光雷达尚未实现商业量产,未来可重点关注能够降低成本的固态激光雷达的实现方式。

三、智能图像传感器的技术现状及未来发展趋势

1.MEMS是智能传感器的未来

        智能传感器的基本技术主要包括:功能集成化、人工智能材料的应用、微机械加工技术、三维集成电路、图像处理及DSP(数字信号处理)、数据融合理论(嵌入式数字成像技术),有两种设计结构,分别是:数字传感器信号处理(DSSP)和数字控制的模拟信号处理(DCASP),一般采用DSSP模式,通常至少包括两个传感器:被测量传感器(如图像传感器)和补偿传感器,传感信号经由多路调制器送到A/D转换器,然后在送到微处理器进行信号补偿和校正,测量的稳定性只能由A/D转换器的稳定性决定。

       具有微米量级特征的MEMS传感器可以完成某些传统机械传感器所不能实现的功能。因此,MEMS传感器正逐步取代传统机械传感器的主导地位,在消费电子产品、汽车工业、航空航天、机械、 化工及医药等领域得到广泛的应用。

      MEMS 传感器的门类品种繁多,目前压力传感器、加速度计和陀螺仪是MEMS器件应用最广泛的器件,MEMS的市场总额为54.25亿美元,其中压力传感器、加速度计和陀螺仪合计占比约45%,随着各国对ADAS系统的重视,以及无人驾驶的爆发,未来汽车电子市场的增长将会成为驱动MEMS市场增长的主要动力。

Yole Développement预测,未来MEMS(微机处理系统)智能传感器将会从2015年的115亿美元增长至2021年的200亿美元,年均复合增速为9%,在相同时期,出货量的同比增长率达13%。

2.智能图像传感器技术现状与发展趋势

       智能图像传感器涉及到计算机、图像处理、模式识别、人工智能、信号处理、光机电一体化等多个领域,主要分为硬件系统和软件系统两大部分。硬件系统包含了处理器、存储器和控制器,软件系统主要包括各种驱动和算法。

       目前较为先进的应用主要有:激光雷达、3D成像和传感技术、虹膜识别。

激光雷达的成像主要涉及以下几个主要部件:激光发射器——散射片——接收器——处理器——输出显示,其中关键部件在于激光发射光系统和接收光系统。

       发射光系统中的激光器的输出波长因工作物质的不同而不同,根据工作物质(气体、光纤、半导体、自由电子、液体激光器)、激励能源(光泵、电激励、化学式)以及输出的波长(红外激光器、紫外激光器和可见激光器)可以对激光器进行不同的分类,目前主流激光器主要有:固体Nd:YAG激光器、光纤激光器、半导体激光器等。

       用于激光雷达系统的激光器的关键技术指标在于光波可探测的距离,对于激光雷达来说,激光器发出的光波越长,可探测的距离就越长,而光波长度不仅取决于光波本身的特性还取决于激光器的功率,一般而言,功率越高光波可探测的距离越长。

        激光雷达接收器的作用在于将目标反射或者散射的激光回波信号转换为相应的电信号,主要由:接收光学系统、光电探测器、前置放大器、主放大器和探测器偏压控制电路构成。就接收器使用的材料而言,主要是IV族中的Si、Ge和III-V族的GaAs、InP等材料,但硅材料以其晶体完整性、大尺寸、优良的热学性能等以及硅微电子技术的成熟性等优势,广泛应用与目前的集成电路。但具最新消息,在Luminar公司即将推出的1000台性能优越的激光雷达(40阵列、探测距离可达200米),所用激光接收器为InGaAs接收器。相比硅基的激光接收器,InGaAs接收器具有更高的敏感性,但成本更高,未来随着成本的降低,将会有越来越广泛的应用。

除了有可以接收直线光的接收器之外,还有另外一种形式接受光信号的形式,即是Oryx独家开发的“相干光雷达系统”。不像激光雷达那样通过光电传感器来侦测光线粒子,该系统根据光的“波粒二象性”,以波的形式使用纳米天线来感知反射回来的信号(光)。

其原理是:用激光束照亮前方,用第二套光学仪器,将入射光导引到大量的微型整流纳米天线中。由于系统不需要机械镜面或一系列通道来引导激光、捕捉环境,只需要发出激光束来照亮前方,所以可大大降低成本。另外,系统所使用长波红外光被水吸收的比率很低,也很少受到太阳辐射的影响,所以不会在大雾或强光直射环境下失效。

激光雷达按有无机械旋转部件分类,包括机械激光雷达和固态激光雷达。根据线束数量的多少,又可分为单线束激光雷达与多线束激光雷达。而未来的发展方向将会从机械走向固态,从单线束走向多线束。

目前激光雷达迟迟没有大规模应用的原因在于组装和调试成本高,为了实现激光在水平视角的360°扫描,需要为激光雷达安装机械旋转装置,而降低激光雷达成本的根本手段便是取消机械旋转结构。方法一是:利用MEMS微振镜来控制激光的方向,把所有的机械部件集成到单个芯片,目前荷兰Innoluce公司正在着手这一技术的研发,预计2018年量产,成本不超过100美元。方法二是:完全取消机械结构,采用相控阵列的原理实现固态激光雷达。光相控阵列的原理是:采用多个光源组成阵列,通过控制各光源发射的速度和时间差,灵活合成角度,且精密可控的主光束,目前Quanergy公司的S3产品用的就是这一原理,成本可降低至250美元/台。

随着激光雷达技术的推进,微型化、低成本、高性能将会成为必然趋势,固态激光雷达也将会成为最终的激光雷达形式。全球现有的激光雷达的主要生产厂家,如下表所示:

3D成像能够识别视野内空间每个点位的三维坐标信息,从而使得计算机得到空间的 3D数据并能够复原完整的三维世界并实现各种智能的三维定位。目前在高端市场如:医疗和工业领域的应用逐渐成熟,呈现出加速趋势,预计2018年在移动和计算领域将会有大量3D成像和传感产品面市,如:iPhone 8将采用前置3D摄像头、Kinect游戏配件和Leap motion手势控制器,3D成像技术将是解决人机交互的突破口。

目前主流的 3D 成像技术有三种:

(1)结构光(Structure Light)。具有特别结构的光投射特定的光信息到物体表面后,由摄像头采集。根据物体造成的光信号的变化来计算物体的位置和深度等信息,进而复原整个三维空间,代表公司如:以色列 PrimeSense 公司 Light Coding 方案。Light Coding发射 940nm波长的近红外激光,透过diffuser(光栅、扩散片)将激光均匀分布投射在测量空间中,再透过红外线摄影机记录下空间中每个参考面上的每个散斑,形成基准标定。标定时取的参考面越密,则测量越精确。获取原始数据后,IR传感器捕捉经过被测物体畸变(调制)后的激光散斑pattern。 通过芯片计算,可以得到已知 pattern 与接收pattern 在空间( x, y, z)上的偏移量,求解出被测物体的深度信息。

(2)TOF(Time Of Flight,飞行时间)。通过专有传感器,捕捉近红外光从发射到接收的飞行时间,判断物体距离。TOF的硬件实现方式和结构光类似,区别只是在于算法上,结构光采用编码过的光pattern进行投射,而TOF直接计算光往返各像素点的相位差。

(3)双目测距( Stereo System)。原理类似人的双眼,在自然光下通过两个摄像头抓取图像,通过三角形原理来计算并获得深度信息,目前的双摄像头就是双目测距的典型应用。

从技术角度来说, 3D成像并不是近年才新出现的。自2009年微软发布基于3D成像的游戏体感交互设备Kinect已经有8年时间,而Google的Project Tango也提出了4年。3D 成像已经过了技术基础期,即将进入长达5年以上的高速成长期。

虹膜识别是一种新兴的生物特征识别技术,通过采集虹膜图像,提取和比对虹膜纹理特征点之间的差别来识别身份,相比于传统的指纹、人脸等生物特征识别技术具有唯一性、稳定性和高度的防伪性等优势。对比其他生物测定技术只能读取13-60个特征点,虹膜测定技术可以读取266个特征点,准确率高达99.29%。虹膜识别技术的过程一般来说包含如下四个步骤:虹膜图像获取——图像预处理——特征提取——特征匹配。

虹膜识别系统自进入21世纪之后开始大量应用于安防、监控、特种行业身份识别等领域,但由于其硬件的笨重和算法的低灵敏度,并没有突破消费级电子市场。直到2015年5月,日本手机厂商富士通发布了全球首款限量产虹膜识别智能手机Arrows NXF-04G,才被人们认知。但相比目前的指纹识别,并没有得到广泛的应用,其原因在于以下三大挑战:虹膜算法,基于互联网的安全解决方案以及虹膜支付的生态建设。

同时,虹膜识别技术本身也存在着以下几点主要难题:图像难采集、睫毛和眼皮的遮掩、瞳孔弹性形变、头或眼球的转动带来虹膜旋转误差、戴眼镜的反光影响、不同摄像头设备带来图像质量的差异等。

3.融合智能传感器的ADAS解决方案(以Mobile eye为例)

ADAS即是汽车驾驶辅助系统,Mobileye ADAS在功能方面覆盖了安全增强、便利提高两个方面功能,详情如下表所示:

Mobile eye 的ADAS系统主要有三大核心技术,分别是:传感器识别(Sensing)、高精地图定位(Mapping)和驾驶策略系统(Driving Policy) 

(1)传感器识别包括车辆搭载的所有传感器设备:摄像头、雷达、激光雷达、超声波传感器等, 所有这些传感器所收集到的信息,都将作为原始数据被传输到高性能电脑当中并加以分析,为车辆建立环境模型(environmental model)。

Mobileye的图像识别技术主要是基于EyeQ芯片技术的基础,研发单眼摄像头。 EyeQ 芯片是Mobileye的核心技术,具备异构可编程性,用来支持包括机器视觉、信号处理、机器学习任何以及深度神经网络的部署。从 EyeQ5 开始, Mobileye 将会正式支持全自动驾驶标准的操作系统以及全套开源 SDK 用于开发者进行算法开发。Mobileye 下一步布局三目摄像头识别以及传感器融合,完成360°全车周图像传感识别的覆盖。

(2)高精地图定位:用于帮助车辆在整个路径规划中精确定位,提供无人驾驶系统安全冗余, 高精度地图的车辆定位精确度达到了10cm,远高于GPS的定位精确度。Mobileye推出道路体验管理系统(Road Experience Management, REM)——一个端到端地图和定位引擎。这个引擎包含三个主体:数据采集主体、地图整合服务器(云端服务器整合众包数据)、地图使用主体(无人驾驶车辆)。

数据采集主体采集包括车辆路径几何数据、静止路标等数据,然后 Mobileye 进行实时几何及语义分析,之后这些数据被封装为道路段数据(Road Segment Data)并传送到云端服务器。云端服务器进行数据整合以及源源不断的 RSD 数据流量协调,最终打造为一张高精度、低反应时间的全球路书 Roadbook。最后就是路书的本地化:让无人驾驶车辆能够使用这张路书, REM 会让车辆在路书地图中自动定位并根据实时更新来确保定位准确。

(3)驾驶策略系统是针对各种路况做出反应的决策系统。无人驾驶系统技术的难度在于路况的随机性。Mobileye使用了一种深度学习方法——强化学习(reinforcement learning)算法。主要基于一个模拟复杂驾驶环境的仿真平台,给定一个目标,让驾驶决策系统在模拟过程中自行试错调试,对正确的决策进行奖励,对错误的决策进行惩罚,从而实现自我学习和积累。

近期,Mobile eye与德尔福合作预计到2019年推出中央感应定位和规划(CSLP)自动驾驶系统,该项系统融合了相机、雷达、激光雷达等最佳的感知传感器,汽车经验和计算机处理速度,是首个交钥匙全集成自动驾驶解决方案,具有行业领先的感知系统和计算平台。2019年CLSP系统将采用几项先进技术,包括:本地化能力、自由空间检测、360°的行人感知、3D车辆检测、路径和运动规划。

(未完待续)

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存