融合定位自动驾驶(自动驾驶定位技术之争融合定位才是出路)
本篇文章给大家谈谈融合定位自动驾驶,以及自动驾驶定位技术之争融合定位才是出路对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。
本文目录一览:
为什么说只有推动5G+AI深度融合,才能加速自动驾驶落地?
5G+AI是实现无人驾驶的必经之路。在自动驾驶状态下,无论是低至零点几秒的延迟还是几厘米的定位失误,都有可能造成无可挽回的严重后果。因此,在驾驶环境中汽车或驾驶员必须有能力实时处理数据。 5G在实现无人驾驶上作用具体体现在高精度地图的实时传导,高速状态下反馈信息的及时送达等。4G网络下,时速100公里的汽车,从发现障碍到启动制动系统仍需要移动1.4米;而在5G时代,该距离缩短到2.8厘米。
同时,AI也能促进车辆做出拟人化决策:除计算机视觉之外,多传感器的信息融合、决策规划也需要深度学习等算法的深度参与,AI与5G的成熟将会加速无人驾驶落地。
放眼全球,目前中国在5G领域排第一、AI领域排第二,借助产业共融,即通过“5G第一+AI第二+中国速度”应可更快、更安全的让区别于单车智能的“新一代5G+AI中国式无人驾驶”在中国大范围落地。而中国无人驾驶的落地将构建庞大的无人驾驶产业链和无人驾驶共享出行的生态圈,进而推动中国各城市、区域经济的飞速发展。
5G+AI新一代无人驾驶通过更安全的交通出行,降低交通事故的发生,让民众更有安全感;更加惠民、便民的无人驾驶共享出行方式将可增加人民的幸福感;由无人驾驶赋能的更加智慧、智能的生活方式也将提升大众的获得感。
地平线与觉非科技达成生态战略合作 布局自动驾驶量产方案
易车讯 5月11日,地平线与觉非科技正式成为生态战略合作伙伴,双方将基于地平线征程系列车规级AI芯片,结合觉非科技多传感器融合算法能力,面向全场景智能驾驶应用落地进行深度合作,并以“芯片+解决方案”集成的形式面向市场,携手推进中国自动驾驶的量产落地。
双方签约代表:觉非科技联合创始人刘斌(左),地平线副总裁、智能驾驶产品线业务拓展部负责人张宏志(右)
地平线自主研发的征程系列芯片累计出货量突破100万片。2021年发布的征程5芯片,兼具高性能与大算力,单颗芯片AI算力最高可达128TOPS,真实AI性能可达1283FPS,支持16路摄像头感知计算,能够支持自动驾驶所需要的多传感器融合、预测和规划控制等需求。此外,征程5芯片已获得全球公认的汽车功能安全标准——TüV ISO 26262 ASIL-B功能安全认证,成为国内首颗基于ISO 26262功能安全流程开发的车规级AI芯片。
地平线三代征程系列车规级芯片
觉非科技是国内全场景智能驾驶解决方案服务商,以多传感器融合为技术路径,覆盖车、路融合系统,在乘用车出行、干线物流和城市末端三大应用场景,提供跨场景、跨平台、跨终端的一体化智能驾驶解决方案。方案可提供定制化的前装与后装定位算法、多传感器融合感知算法及动态交通信息服务,同时可整合高性能算力平台,并按照不同算力需求实现精细化部署。
觉非科技高精融合定位整体架构
目前,双方已携手完成了觉非科技融合定位算法在地平线征程3芯片上的适配与部署,并在多场景进行了精度验证,通过芯片与融合定位算法结合的高适配性与扩展性,为更高阶的芯片产品应用与自动驾驶解决方案提供了必要的基础与技术储备。
觉非科技视觉融合定位量产解决方案——基于地平线征程3车规级AI芯
此次,双方进一步达成基于地平线征程5芯片的深度合作,联合布局高级别智能驾驶的量产解决方案,觉非科技也将成为首个将融合定位算法适配部署于征程5的软件供应商。未来双方将持续拓展与深化合作,探讨自动驾驶、自主泊车、车路协同等市场领域与应用机会,携手推动智能驾驶技术面向全业务场景的量产落地。
汽车是如何实现自动驾驶的?
智能车辆的控制实质上是一个多输入、多输出、复杂多变的过程。感知系统既要获取环境如车道线、交通信号灯、行人等的信息,还要采集车辆如车速、加速度等信息,然后经过判断、分析和决策,确定控制策略,使车辆处于一种相对稳定状态继续运行。
车辆感知系统应用两台摄像机进行前方信息检测,一个摄像机对车道线和斑马线进行逻辑检测,另一台进行前方车辆和交通信号灯进行智能识别,通过这两台摄像机感知车辆前方环境。
辅助驾驶系统利用多种传感器对驾驶员、车辆及其周围环境进行感知,在必要情况下根据控制逻辑关系发出警告、提醒驾驶员危险状况,甚至对车辆进行横向和纵向控制。
车辆运行过程中,根据驾驶员介入程度将智能车辆控制分为五个层次。
无智能化:车辆的横纵向控制都由驾驶员来完成。
具有特殊功能的智能化:采用单一传感器检测单一特征,当出现危险情况时,提醒驾驶员避免交通事故发生,还是需要驾驶员车辆低层进行控制。
具有多项功能的智能化:利用多个传感器对周围环境进行感知,将多个功能集成到一个单元形成一个融合系统,不需要驾驶员对这些功能进行控制。这个阶段汽车控制系统会介入对车辆的控制,出现危险状况会做出响应,必要时介入控制车辆,例如紧急自动刹车系(AEB)。
具有限制条件的无人驾驶:利用传感器融合、GPS 定位、地图等系统,在特定区域,特定路段实现无需人为操作,智能车辆自动行驶。
全工况无人驾驶:驾驶员只需要输入目的地,车辆就会控制车辆,感知周围交通环境,安全精确地到达预定的地点。
传感器融合才是自动驾驶的正道之光
10月21日,特斯拉CEO埃隆 · 马斯克(Elon Musk)发推特表示,特斯拉的全自动驾驶(Full Self-Driving,以下简称 FSD)beta 版软件已向小部分客户推送。而在早些时候的10月11日,百度也宣布旗下的无人驾驶出租车服务百度Apollo在北京正式开放运营。
10月以来,连续两波关于自动驾驶技术的落地将人们对自动驾驶的热情推向了一个高潮。而且今年对自动驾驶来说其实是一个比较重要的年份,因为如果从2010年谷歌自动驾驶项目上线开始算,今年刚好就是自动驾驶技术商业化的第十年。
十年走来,作为人工智能最接近生活的应用场景,自动驾驶一直被人们寄予厚望。而到今天,随着大数据、AI、5G等技术的突破和应用,百度、Uber、滴滴、文远知行,越来越多的自动驾驶技术从实验室走向了道路。
对于辅助驾驶系统(ADAS)和自动驾驶汽车(AV),可能永远不会有一种单一、最有效的方法来实现传感技术。这个神奇的数字可能是六个,因为每个汽车制造商都会以六个基本考虑因素来决定如何以自己的方式实现,这将导致每个人创建自己的独特方法来将传感器集成到未来的车辆中。
国内外部分综合实力较强的汽车零部件公司在自动驾驶汽车传感器上进行多产品布局,可以为下游客户提供综合性的自动驾驶解决方案,形成较强的竞争力。这些公司包括国外的博世、大陆集团、法雷奥、海拉、德尔福、富士通天、奥托立夫等公司和国内的德赛西威、华域汽车和保隆科技等公司。
越来越多的传感器被部署在整车中,以主动解决安全问题。今天,我们的汽车中到底有多少个传感器?要进一步提高自主性,还需要多少个传感器?这个问题的答案是如果考虑到ADAS的传感器-超声波、雷达、用于感应的摄像头、用于观察的摄像头和LiDAR,估计车辆具有10至20个传感器,具体取决于车辆的类型 。
传感器将是解决高度自动化水平的关键,并且传感器的数量和类型预计将增加。
自动驾驶的环境监测传感器主要包括摄像头和雷达两类:首先,摄像头通过图像识别技 术实现距离测量、目标识别等功能;其次,雷达利用发射波和反射波之间的时间差、相位差 获得目标物体的位置和速度等数据,按所使用的不同类型的波,雷达可以分为毫米波雷达、激光雷达、超声波雷达三类。
摄像头:自动驾驶的眼睛
摄像头方面,按视野覆盖位置可分为前视、环视(侧视+后视)及内视摄像头,其 中前视摄像头最为关键,可以实现车道偏离警示系统(LDW)、前向碰撞预警系统(FCW)、 行人识别警示(PCW)等功能。前视摄像头又有单目摄像头、双目摄像头,乃至多目摄像 头等不同的解决方案。虽然双目或多目摄像头具有更高的测距精度和更广的视角,但由于 其成本较高以及对精度和计算芯片的高要求,使得其仍未能大规模量产,目前以 Mobileye的单目摄像头解决方案是市场的主流。
车载摄像头产业链主要涉及上游材料、中游元件和下游产品三个主要环节。上游材料中光学镜片、滤光片和保护膜等用于制造镜头组,晶圆用于制造 CMOS 芯片和 DSP 信号处理器;在中游镜头组、CMOS 芯片和胶合材料等组装成模组,并和 DSP 信号处理器封装成摄像头产品。在产业链的这一层,上游供应商已经可以向下游整车或一级供应商客户供应完整的摄像头产品。
在车载摄像头产业链中,摄像头和软件算法一起,构成车载摄像头解决方案,应用于自动驾驶汽车中。车载摄像头产业链较长,上下游拥有众多环节,每个环节都涉及国内外众多厂商和公司。
相较于消费电子等所用的摄像头,车规级的摄像头对防震、稳定性、持续聚焦特性、热补偿性、杂光强光抗干扰性等都有较高的要求,因此其模组组装工艺复杂,技术堡垒较高。从全球摄像头供应市场来看,目前国外公司松下、法雷奥、富士通天、大陆、麦格纳等厂商占据较大份额,前五大产商市场份额合计在 59%左右,集中度相对较高。
雷达:自动驾驶的大脑
在雷达方面,主要分为三类:1、毫米波雷达:介于微波和红外线之间,频率范围 10GHz —200GHz,波长为毫米级;2、激光雷达:介于红外线和可见光之间,频率大致为 100000GHz,波长为纳米级;3、超声波雷达:频率高于 20000Hz。根据公式:光速=波 长*频率,频率越高,波长越短。波长越短,意味着分辨率越高;而分辨率越高,意味着在 距离、速度、角度上的测量精度更高。
我们平时用的倒车雷达是超声波雷达,发出的是声波,只能达到声速。超声波雷达体积小、价格低,但探测精度差、范围小,并且在高速运动时影响很大,在自动驾驶中的应用并不多。
应用多的是毫米波雷达,发出的是电磁波,以光速传播。主要的毫米波雷达有24GHz和77GHz两种。24GHz频率低、带宽窄,精度相对较低,主要用于盲点监测、自动泊车等。而77GHz精度高很多,可以更准确的探测距离,并且天气等对他的影响很小。和摄像头融合就能够很好的完成对环境的感知。
但毫米波雷达可以感知距离,可无精准法感知物体的具体形状,或者前方两个人的间距等,探测的噪点也很多。比如空无一物的道路上,因为一些起伏或者路面的颗粒等,也会形成反射干扰毫米波雷达的判断。
激光雷达可以很好的解决这些问题,他的精度可以达到厘米级。激光雷达上每一个激光发生器代表一线,常用机械旋转式激光雷达有10线、64线、128线等。激光雷达实际上是一种工作在光学波段(特殊波段)的雷达,它的优点非常明显。
第一,是具有极高的分辨率:激光雷达工作于光学波段,频率比微波高2~3个数量级以上,因此,与微波雷达相比,激光雷达具有极高的距离分辨率、角分辨率和速度分辨率。
第二,抗干扰能力强:激光波长短,可发射发散角非常小(μrad量级)的激光束,多路径效应小(不会形成定向发射,与微波或者毫米波产生多路径效应),可探测低空/超低空目标。
第三,获取的信息量丰富:可直接获取目标的距离、角度、反射强度、速度等信息,生成目标多维度图像。第四,可全天时工作:激光主动探测,不依赖于外界光照条件或目标本身的辐射特性。它只需发射自己的激光束,通过探测发射激光束的回波信号来获取目标信息。
但是,因受价格跟体积的限制,目前来看激光雷达还非常少地装配在量产车上,马斯克在多个场合中抨击激光雷达“笨重”,“丑陋”,“完全没有必要”。这个也是激光雷达的一大缺点,现阶段大家很难把其体积缩小,在车顶上的位置比较突兀,这直接影响了量产化的进行,所以现在我们还没有看到激光雷达系统安装在量产车上。
最后一种超声波雷达目前已经成为稀松平常的汽车部件,支撑起自动泊车等驾驶辅助功能,未来还将为完全自动驾驶“出力”。它的工作原理主要是以1-3厘米精度测算0.2-5m范围内障碍物,充当“汽车之眼”。超声波雷达可以分为模拟式、四线式数位、二线式数位、三线式主动数位,它们的信号抗干扰能力依次提升,技术难度与价格总体递进。
特斯拉的Autopilot推出以来,对超声波雷达的依赖性一直非常高,始终坚持使用4+4+4的超声波雷达布局。早期版本中,特斯拉在泊车辅助中使用前后8颗雷达,在辅助驾驶中使用全部12颗雷达。特斯拉表示,与摄像头监控车道标记不同,超声波雷达可以监控周围区域,并扫清车辆或其他物体等盲点。
特斯拉“偏爱”超声波雷达其实是有原因的,上文讲到激光雷达虽好,但是成本太高,暂时无法大规模在走量的车型上装配,这也导致了高级别自动驾驶技术的推广受到限制。
而超声波雷达价格低廉。目前,单个超声波雷达售价大约为数十元,一套倒车雷达系统的雷达硬件成本不到200元,一套自动泊车系统的雷达硬件成本在500元左右。相比之下,毫米波雷达的售价仍然在千元级别,激光雷达的售价高达数十万元。较为低廉的价格,将车企与超声波雷达紧紧捆绑,并促进了车载超声波雷达市场的繁荣。
据PS Intelligence数据,2019年,全球车载超声波雷达市场规模为34.6亿美元(约合243.9亿元);该机构预测,2020年至2030年,全球车载超声波雷达市场规模将保持5.1%复合年增长率,并于2030年达到61亿美元(约合429.8亿元)。
不过,超声波雷达并非自动驾驶技术的突破口,其受到物理特性限制,车载超声波雷达的探测范围局限在数米内,也无法精准描述障碍物位置;此外,处于相同频段的多个雷达,为避免回波“打架”大多采取时分复用,信息采集速度被拖慢;其探测精度易受到车速、振动、温湿度等影响,在抗干扰、标定等方面充满挑战。总之,超声波雷达是“辅料”而非“主食”,其与毫米波雷达、摄像头乃至激光雷达相配合,方能支撑起更高级别辅助驾驶功能。
集成才是传感器未来之路
显然,传感器将是解决高度自动化水平的关键,并且传感器的数量和类型预计将增加。越来越多的传感器只是冰山一角。传感器会生成大量数据,而系统则受到处理能力的严重限制。
那么传感器是不是越多越好呢?有些人可能会这样想,但是出于成本或集成方面的原因,汽车中的传感器数量不会无限增加。预计自动化传感器的数量将在某个时候达到平稳,主要区别在于软件级别和企业有效处理大量数据的能力。特斯拉等一些OEM仍未使用LiDAR,而是押注传感器和AI计算的结合以实现高自动化水平。
就像人类的感觉一样,传感器必须在战略上定位,以连续反馈汽车周围的信息。但是传感器的放置位置存在技术限制。例如,前照灯中的冷凝水可能会阻止激光雷达工作。在下雪或寒冷的天气中,霜冻可能导致传感器故障。红外传感器无法穿透玻璃,也不能放在挡风玻璃后面。
目前来看,自动驾驶有三种主流解决方案,一是基于视觉主导,采用GPS地图和AI人工智能进行自动驾驶。基于视觉主导的当前主要是特斯拉模式,特斯拉通过所有特斯拉汽车的摄像头采集环境数据,将图像处理和机器学习结合起来通过从而不依靠预先记录的地图。特斯拉汽车在行驶中采集数据学习并与所有特斯拉汽车分享学习到的东西,从而实现类似于人眼睛的方式查看地形然后通过人工智能进行分析指导自动驾驶汽车做出决策。
二是基于激光雷达主导,视觉辅导,采用高精地图和人工智能进行自动驾驶。这是当前主流传统主机厂通用,奔驰,福特以及众多自动驾驶公司包括Waymo,谷歌等采用的自动驾驶方式。这些车辆取决于预先记录的周围环境的3D高分辨率地图,该地图是使用配备激光雷达的车辆预先捕获绘制的。然后,车辆可以使用地图,使用自己的激光雷达设备定位确定环境是否已发生变化,然后在地图区域中巡航时进行控制。
三是基于车联网主导,多种传感器融合的人工智能自动驾驶。车联网,需要庞大的基础设施投资以及需要所有运行的自动驾驶都处于同一平台内。与前两种策略相比,这是一个更为广阔的生态系统,通过投资建设更智能的道路,可以降低车辆自主性的复杂性和不确定性。这就要求汽车制造商,V2X供应商和市政当局共同协作,并创建车辆的基础设施和标准,以使车辆能够顺利导航并降低错误门槛。
显然前两种解决方案是基于目前传统道路情况、汽车情况、法律法规情况之下的现实方案。虽然说特斯拉的方案只要它一家采用,但是特斯拉在电动车市场的体量也是非常大的,很难说基于视觉主导的自动驾驶方案就一定比基于激光雷达的方案更差。
不过有一点肯定的是,第三种基于车联网的方案是未来自动驾驶发展的必经之路。在车联网主导之下,必然会需要大量的传感器,这些传感器将互相配合,与汽车本体组成一个完整的自动驾驶系统。因此,传感器的发展前景几乎可以用一片坦途来形容。
百姓评车
2019年全球自动驾驶车产量约为几千辆,预计在2032年以前将增加到40万辆的年产量,累计总产量达到10亿辆。与自动驾驶车生产相关的总收益届时也将达到600亿美元,其中的40%将来自于车辆本身,28%来自于感测硬件,28%来自于运算硬件,剩余的4%则来自于整合。这意味着在接下来的15年内将围绕着自动驾驶车辆技术建构起完整的产业生态。
对此,Yole Développement的分析师预期2024年传感器营收分别是:光达将达到4亿美元,雷达为6千万美元,摄影机为1.6亿美元,IMU为2.3亿美元,GNSS装置为2千亿美元,但不同类型传感器之间的分配情况在未来15年内或许会再发生变化。感测硬件的总营收将在2032年达到170亿美元,相较之下,运算硬件营收应该会落在相同数量级范围内。无论如何这都是一个体量巨大的市场,没有人愿意自动放弃这块蛋糕。
本文来源于汽车之家车家号作者,不代表汽车之家的观点立场。
关于融合定位自动驾驶和自动驾驶定位技术之争融合定位才是出路的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。
与本文内容相关的文章:
蔚来ET7涨价1万元,此前ES8、ES6、EC6已上调1万元