自动驾驶传感系统(自动驾驶传感器原理)
本篇文章给大家谈谈自动驾驶传感系统,以及自动驾驶传感器原理对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。
本文目录一览:
传感器融合才是自动驾驶的正道之光
10月21日,特斯拉CEO埃隆 · 马斯克(Elon Musk)发推特表示,特斯拉的全自动驾驶(Full Self-Driving,以下简称 FSD)beta 版软件已向小部分客户推送。而在早些时候的10月11日,百度也宣布旗下的无人驾驶出租车服务百度Apollo在北京正式开放运营。
10月以来,连续两波关于自动驾驶技术的落地将人们对自动驾驶的热情推向了一个高潮。而且今年对自动驾驶来说其实是一个比较重要的年份,因为如果从2010年谷歌自动驾驶项目上线开始算,今年刚好就是自动驾驶技术商业化的第十年。
十年走来,作为人工智能最接近生活的应用场景,自动驾驶一直被人们寄予厚望。而到今天,随着大数据、AI、5G等技术的突破和应用,百度、Uber、滴滴、文远知行,越来越多的自动驾驶技术从实验室走向了道路。
对于辅助驾驶系统(ADAS)和自动驾驶汽车(AV),可能永远不会有一种单一、最有效的方法来实现传感技术。这个神奇的数字可能是六个,因为每个汽车制造商都会以六个基本考虑因素来决定如何以自己的方式实现,这将导致每个人创建自己的独特方法来将传感器集成到未来的车辆中。
国内外部分综合实力较强的汽车零部件公司在自动驾驶汽车传感器上进行多产品布局,可以为下游客户提供综合性的自动驾驶解决方案,形成较强的竞争力。这些公司包括国外的博世、大陆集团、法雷奥、海拉、德尔福、富士通天、奥托立夫等公司和国内的德赛西威、华域汽车和保隆科技等公司。
越来越多的传感器被部署在整车中,以主动解决安全问题。今天,我们的汽车中到底有多少个传感器?要进一步提高自主性,还需要多少个传感器?这个问题的答案是如果考虑到ADAS的传感器-超声波、雷达、用于感应的摄像头、用于观察的摄像头和LiDAR,估计车辆具有10至20个传感器,具体取决于车辆的类型 。
传感器将是解决高度自动化水平的关键,并且传感器的数量和类型预计将增加。
自动驾驶的环境监测传感器主要包括摄像头和雷达两类:首先,摄像头通过图像识别技 术实现距离测量、目标识别等功能;其次,雷达利用发射波和反射波之间的时间差、相位差 获得目标物体的位置和速度等数据,按所使用的不同类型的波,雷达可以分为毫米波雷达、激光雷达、超声波雷达三类。
摄像头:自动驾驶的眼睛
摄像头方面,按视野覆盖位置可分为前视、环视(侧视+后视)及内视摄像头,其 中前视摄像头最为关键,可以实现车道偏离警示系统(LDW)、前向碰撞预警系统(FCW)、 行人识别警示(PCW)等功能。前视摄像头又有单目摄像头、双目摄像头,乃至多目摄像 头等不同的解决方案。虽然双目或多目摄像头具有更高的测距精度和更广的视角,但由于 其成本较高以及对精度和计算芯片的高要求,使得其仍未能大规模量产,目前以 Mobileye的单目摄像头解决方案是市场的主流。
车载摄像头产业链主要涉及上游材料、中游元件和下游产品三个主要环节。上游材料中光学镜片、滤光片和保护膜等用于制造镜头组,晶圆用于制造 CMOS 芯片和 DSP 信号处理器;在中游镜头组、CMOS 芯片和胶合材料等组装成模组,并和 DSP 信号处理器封装成摄像头产品。在产业链的这一层,上游供应商已经可以向下游整车或一级供应商客户供应完整的摄像头产品。
在车载摄像头产业链中,摄像头和软件算法一起,构成车载摄像头解决方案,应用于自动驾驶汽车中。车载摄像头产业链较长,上下游拥有众多环节,每个环节都涉及国内外众多厂商和公司。
相较于消费电子等所用的摄像头,车规级的摄像头对防震、稳定性、持续聚焦特性、热补偿性、杂光强光抗干扰性等都有较高的要求,因此其模组组装工艺复杂,技术堡垒较高。从全球摄像头供应市场来看,目前国外公司松下、法雷奥、富士通天、大陆、麦格纳等厂商占据较大份额,前五大产商市场份额合计在 59%左右,集中度相对较高。
雷达:自动驾驶的大脑
在雷达方面,主要分为三类:1、毫米波雷达:介于微波和红外线之间,频率范围 10GHz —200GHz,波长为毫米级;2、激光雷达:介于红外线和可见光之间,频率大致为 100000GHz,波长为纳米级;3、超声波雷达:频率高于 20000Hz。根据公式:光速=波 长*频率,频率越高,波长越短。波长越短,意味着分辨率越高;而分辨率越高,意味着在 距离、速度、角度上的测量精度更高。
我们平时用的倒车雷达是超声波雷达,发出的是声波,只能达到声速。超声波雷达体积小、价格低,但探测精度差、范围小,并且在高速运动时影响很大,在自动驾驶中的应用并不多。
应用多的是毫米波雷达,发出的是电磁波,以光速传播。主要的毫米波雷达有24GHz和77GHz两种。24GHz频率低、带宽窄,精度相对较低,主要用于盲点监测、自动泊车等。而77GHz精度高很多,可以更准确的探测距离,并且天气等对他的影响很小。和摄像头融合就能够很好的完成对环境的感知。
但毫米波雷达可以感知距离,可无精准法感知物体的具体形状,或者前方两个人的间距等,探测的噪点也很多。比如空无一物的道路上,因为一些起伏或者路面的颗粒等,也会形成反射干扰毫米波雷达的判断。
激光雷达可以很好的解决这些问题,他的精度可以达到厘米级。激光雷达上每一个激光发生器代表一线,常用机械旋转式激光雷达有10线、64线、128线等。激光雷达实际上是一种工作在光学波段(特殊波段)的雷达,它的优点非常明显。
第一,是具有极高的分辨率:激光雷达工作于光学波段,频率比微波高2~3个数量级以上,因此,与微波雷达相比,激光雷达具有极高的距离分辨率、角分辨率和速度分辨率。
第二,抗干扰能力强:激光波长短,可发射发散角非常小(μrad量级)的激光束,多路径效应小(不会形成定向发射,与微波或者毫米波产生多路径效应),可探测低空/超低空目标。
第三,获取的信息量丰富:可直接获取目标的距离、角度、反射强度、速度等信息,生成目标多维度图像。第四,可全天时工作:激光主动探测,不依赖于外界光照条件或目标本身的辐射特性。它只需发射自己的激光束,通过探测发射激光束的回波信号来获取目标信息。
但是,因受价格跟体积的限制,目前来看激光雷达还非常少地装配在量产车上,马斯克在多个场合中抨击激光雷达“笨重”,“丑陋”,“完全没有必要”。这个也是激光雷达的一大缺点,现阶段大家很难把其体积缩小,在车顶上的位置比较突兀,这直接影响了量产化的进行,所以现在我们还没有看到激光雷达系统安装在量产车上。
最后一种超声波雷达目前已经成为稀松平常的汽车部件,支撑起自动泊车等驾驶辅助功能,未来还将为完全自动驾驶“出力”。它的工作原理主要是以1-3厘米精度测算0.2-5m范围内障碍物,充当“汽车之眼”。超声波雷达可以分为模拟式、四线式数位、二线式数位、三线式主动数位,它们的信号抗干扰能力依次提升,技术难度与价格总体递进。
特斯拉的Autopilot推出以来,对超声波雷达的依赖性一直非常高,始终坚持使用4+4+4的超声波雷达布局。早期版本中,特斯拉在泊车辅助中使用前后8颗雷达,在辅助驾驶中使用全部12颗雷达。特斯拉表示,与摄像头监控车道标记不同,超声波雷达可以监控周围区域,并扫清车辆或其他物体等盲点。
特斯拉“偏爱”超声波雷达其实是有原因的,上文讲到激光雷达虽好,但是成本太高,暂时无法大规模在走量的车型上装配,这也导致了高级别自动驾驶技术的推广受到限制。
而超声波雷达价格低廉。目前,单个超声波雷达售价大约为数十元,一套倒车雷达系统的雷达硬件成本不到200元,一套自动泊车系统的雷达硬件成本在500元左右。相比之下,毫米波雷达的售价仍然在千元级别,激光雷达的售价高达数十万元。较为低廉的价格,将车企与超声波雷达紧紧捆绑,并促进了车载超声波雷达市场的繁荣。
据PS Intelligence数据,2019年,全球车载超声波雷达市场规模为34.6亿美元(约合243.9亿元);该机构预测,2020年至2030年,全球车载超声波雷达市场规模将保持5.1%复合年增长率,并于2030年达到61亿美元(约合429.8亿元)。
不过,超声波雷达并非自动驾驶技术的突破口,其受到物理特性限制,车载超声波雷达的探测范围局限在数米内,也无法精准描述障碍物位置;此外,处于相同频段的多个雷达,为避免回波“打架”大多采取时分复用,信息采集速度被拖慢;其探测精度易受到车速、振动、温湿度等影响,在抗干扰、标定等方面充满挑战。总之,超声波雷达是“辅料”而非“主食”,其与毫米波雷达、摄像头乃至激光雷达相配合,方能支撑起更高级别辅助驾驶功能。
集成才是传感器未来之路
显然,传感器将是解决高度自动化水平的关键,并且传感器的数量和类型预计将增加。越来越多的传感器只是冰山一角。传感器会生成大量数据,而系统则受到处理能力的严重限制。
那么传感器是不是越多越好呢?有些人可能会这样想,但是出于成本或集成方面的原因,汽车中的传感器数量不会无限增加。预计自动化传感器的数量将在某个时候达到平稳,主要区别在于软件级别和企业有效处理大量数据的能力。特斯拉等一些OEM仍未使用LiDAR,而是押注传感器和AI计算的结合以实现高自动化水平。
就像人类的感觉一样,传感器必须在战略上定位,以连续反馈汽车周围的信息。但是传感器的放置位置存在技术限制。例如,前照灯中的冷凝水可能会阻止激光雷达工作。在下雪或寒冷的天气中,霜冻可能导致传感器故障。红外传感器无法穿透玻璃,也不能放在挡风玻璃后面。
目前来看,自动驾驶有三种主流解决方案,一是基于视觉主导,采用GPS地图和AI人工智能进行自动驾驶。基于视觉主导的当前主要是特斯拉模式,特斯拉通过所有特斯拉汽车的摄像头采集环境数据,将图像处理和机器学习结合起来通过从而不依靠预先记录的地图。特斯拉汽车在行驶中采集数据学习并与所有特斯拉汽车分享学习到的东西,从而实现类似于人眼睛的方式查看地形然后通过人工智能进行分析指导自动驾驶汽车做出决策。
二是基于激光雷达主导,视觉辅导,采用高精地图和人工智能进行自动驾驶。这是当前主流传统主机厂通用,奔驰,福特以及众多自动驾驶公司包括Waymo,谷歌等采用的自动驾驶方式。这些车辆取决于预先记录的周围环境的3D高分辨率地图,该地图是使用配备激光雷达的车辆预先捕获绘制的。然后,车辆可以使用地图,使用自己的激光雷达设备定位确定环境是否已发生变化,然后在地图区域中巡航时进行控制。
三是基于车联网主导,多种传感器融合的人工智能自动驾驶。车联网,需要庞大的基础设施投资以及需要所有运行的自动驾驶都处于同一平台内。与前两种策略相比,这是一个更为广阔的生态系统,通过投资建设更智能的道路,可以降低车辆自主性的复杂性和不确定性。这就要求汽车制造商,V2X供应商和市政当局共同协作,并创建车辆的基础设施和标准,以使车辆能够顺利导航并降低错误门槛。
显然前两种解决方案是基于目前传统道路情况、汽车情况、法律法规情况之下的现实方案。虽然说特斯拉的方案只要它一家采用,但是特斯拉在电动车市场的体量也是非常大的,很难说基于视觉主导的自动驾驶方案就一定比基于激光雷达的方案更差。
不过有一点肯定的是,第三种基于车联网的方案是未来自动驾驶发展的必经之路。在车联网主导之下,必然会需要大量的传感器,这些传感器将互相配合,与汽车本体组成一个完整的自动驾驶系统。因此,传感器的发展前景几乎可以用一片坦途来形容。
百姓评车
2019年全球自动驾驶车产量约为几千辆,预计在2032年以前将增加到40万辆的年产量,累计总产量达到10亿辆。与自动驾驶车生产相关的总收益届时也将达到600亿美元,其中的40%将来自于车辆本身,28%来自于感测硬件,28%来自于运算硬件,剩余的4%则来自于整合。这意味着在接下来的15年内将围绕着自动驾驶车辆技术建构起完整的产业生态。
对此,Yole Développement的分析师预期2024年传感器营收分别是:光达将达到4亿美元,雷达为6千万美元,摄影机为1.6亿美元,IMU为2.3亿美元,GNSS装置为2千亿美元,但不同类型传感器之间的分配情况在未来15年内或许会再发生变化。感测硬件的总营收将在2032年达到170亿美元,相较之下,运算硬件营收应该会落在相同数量级范围内。无论如何这都是一个体量巨大的市场,没有人愿意自动放弃这块蛋糕。
本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。
短波红外传感技术对自动驾驶有什么用?
随着汽车科技的不断进步,自动驾驶系统也逐渐的被很多消费者所熟知,像目前很多车型都已经配备了自动驾驶系统,虽然还不能实现无人驾驶但是目前的自动驾驶系统已经可以有效降低事故的发生,减少驾驶疲劳。而一套完善的自动驾驶系统除了有一套复杂的计算逻辑,还需要一套非常灵敏的感知系统。而目前的感知系统大多还是以雷达和摄像头为主,像这种短波红外传感器目前还是首次被应用在汽车的自动驾驶系统当中,那这种短波红外传感器有什么样的作用呢?
虽然目前很多车企宣称旗下的自动驾驶系统已经可以达到L3级别的自动驾驶级别,但是目前的自动驾驶汽车还面临着一个非常严峻的问题。那就是在恶劣天气和夜间条件下能见度受限,在这种情况下自动驾驶系统很难准确判断路面情况。而为了安全起见在这种情况下大多的自动驾驶系统会主动关闭,请求驾驶员的介入,这也限制了自动驾驶系统的工作环境同时也很难保证自动驾驶的绝对安全性。
此前,以色列科技公司TirEye与保时捷公司合作推出了一款短波红外传感器SWIR,这款传感器主要应用于恶劣天气和夜间条件下提升能见度,为自动驾驶汽车提供指导。不同于激光雷达和雷达传感器容易受到环境的干扰,它可以在浓雾沙尘以及弱光等恶劣环境下捕获清晰的图像。这也使得自动驾驶在恶劣天气下也能够从容应对,可以说是一项里程碑式的设计。不过此项技术目前正处于研发阶段,除了价格高昂以外运算程序也非常复杂,而且也面临兼容性的问题,所以想要实现大范围的应用还需要时间。
张老师总结
一套成熟的自动驾驶系统必须能够适应各种环境,这就要求自动驾驶系统必须拥有各种监测传感器,而这些传感器肯定是不限于目前的摄像头雷达或者红外传感器。而短波红外传感器也仅仅是自动驾驶之路的一项突破,但不管如何自动驾驶的未来一定是更安全更便捷的。
"
本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。
自动驾驶系统有哪些
汽车自动驾驶系统(Motor Vehicle Auto Driving System),又称自动驾驶汽车(Autonomous vehicles;Self-piloting automobile )也称无人驾驶汽车、电脑驾驶汽车、或轮式移动机器人,是一种通过车载电脑系统实现无人驾驶的智能汽车系统。自动驾驶汽车技术的研发,在20世纪也已经有数十年的历史,于21世纪初呈现出接近实用化的趋势,比如,谷歌自动驾驶汽车于2012年5月获得了美国首个自动驾驶车辆许可证,将于2015年至2017年进入市场销售。
自动驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动的操作下,自动安全地操作机动车辆。
自动驾驶辅助系统(ADAS)?
以下纯手工回答,说白了,就是辅助驾驶系统,利用各种传感器(毫米波雷达、激光雷达、单\双目摄像头以及卫星导航)收集周围环境信息,信息传输到系统内,系统根据这些信息做出相对应分析并得出结论,将结论代码下发到底盘由底盘做出实际操作,例如油门/刹车开合度、方向盘转向角度等
自动驾驶功能是否需要高精度实时更新的地图导航系统?
在说高精地图本身之前,我们先来回顾一下自动驾驶的基本逻辑。简单来说,实现自动驾驶主要有三个步骤:感知、决策规划和驾驶控制。这类似于走路上班/上学的逻辑:你的眼睛看到画面,告诉你的大脑,然后你就知道你在哪里,你要往哪个方向走,指挥你的腿大步前进。在自动驾驶系统中,感知主要解决两个问题:汽车周围是什么,汽车在哪里。如果一辆车没有眼睛,我们应该给它“眼睛”。
这是它的环境感知系统,一般由视觉传感器(摄像头)、雷达(毫米波、超声波、激光)等传感器组成。比如激光传感器,探测效果稳定,但是面对大范围的灰尘却无能为力。我们公司在测试过程中发现,如果一辆渣土车在我们面前飞驰而去,导致尘土飞扬,那么无人车就发现了它面前的所有障碍物。例如,高分辨率相机可以检测图像中的对象,窄视场相机可以检测长距离。
但是面对暴雨/雪等恶劣天气,很难检测出正确的车道线/障碍物/路缘等信息。在这些传感器的配合下,感知系统可以知道车辆周围有什么东西,比如车、人、路、树、墙、路标等等。这些数据提供给决策系统后,决策系统根据算法知道车辆是否能行驶,最大行驶速度是多少,前轮是否需要控制转向,并传输给行驶控制系统。在一定条件下,传感系统还会直接将数据传输到主要应用于AEB的驾驶控制系统,即紧急主动安全系统,以保证在最短的时间内做出紧急响应。
特斯拉的传感器配置和传感器感应范围。扇形角代表传感器的视场角,扇形半径代表传感器的最大探测距离。可以看到最远的探测传感器是前视传感器,视角窄。但是有一个问题。你知道怎么走是因为你熟悉这条路线,脑子里有地图,知道下一步怎么走。但是,车辆仅仅靠感知系统是无法知道接下来如何操作的,就像你在一个陌生的城市。
关于自动驾驶传感系统和自动驾驶传感器原理的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。
与本文内容相关的文章: