长虹发布“机会清单”,AI、物联网、智能硬件企业纷纷前来“抢单”
06-17
编者按,在昨天的2019年自动驾驶汽车开发与测试技术研讨会上,驭势科技CEO吴甘沙发表演讲,介绍了从驾驶辅助到无人驾驶的发展需要做的事情,如下整理了他的演讲实录。
吴甘沙讲话一开始,吴甘沙首先定义了一个术语,就是现在大家都在做的“自动驾驶”和“无人驾驶”。
更准确的定义是什么?从2016年开始,Mobileye开始提供驾驶辅助,随后特斯拉量产搭载辅助驾驶系统Autopilot的汽车,再后来以谷歌为代表的互联网公司直接进入无人驾驶行业(但未来几年,他们将不会自动驾驶,所谓有限场景就是城市区域,其次是中低速,按照目前的技术发展,全区域的自动驾驶都会实现。
X 年)。
从以上来看。
整个级别可以分为:初级辅助驾驶、辅助驾驶和高度自动化驾驶都可以归为自动驾驶,再往上一个级别就是无人驾驶。
这是目前当局所青睐的术语定义。

▎从辅助驾驶到辅助驾驶从今天的辅助驾驶到辅助驾驶,需要什么?首先,需要更好的识别算法。
驾驶辅助有一个非常重要的指标一定要低,那就是“误报率”,否则大家都会关掉这样的系统。
辅助驾驶也需要低,不然会很麻烦,而且不安全。
比如辅助驾驶中有AEB(自动紧急制动)。
如果总是意外刹车,就会对车辆的安全造成威胁。
另外,与误报率相比,误报率或许不是驾驶辅助中最重要的指标,但当系统从“辅助驾驶”转变为“辅助驾驶”时,误报率必须降为零。
因为一次漏报,一辆汽车可能会被毁,人员可能会被杀死。
所以这些需要更好的算法和多传感器融合。
其次,规划和控制。
在辅助驾驶中,它的辅助不能只是警告,还需要包括规划和控制。
这就是从辅助驾驶到辅助驾驶需要做的事情。
第三,视觉与雷达融合有待进一步提高。
不久前,特斯拉的辅助驾驶遭遇了一起车祸——撞上了侧向的拖车。
这种情况说明了视觉和雷达的重要性。
首先,特斯拉Autopilot使用的车辆识别技术还比较原始。
它基本上是查看本车道或相邻车道上的汽车的臀部。
车尾有非常明显的特征。
车底下有阴影、有灯光。
该车是一个对称的几何车身。
这些功能使其在夜间更清晰可辨。
但在这次事故中,特斯拉撞上了一辆侧向的汽车。
这辆车的颜色很难从背景中区分出来。
所以视觉方面其实还需要进一步提升。
这次车祸,雷达为何没有检测到拖车?特斯拉回应称,雷达确实检测到了该车辆,但将其归类为过马路的路标。
从普通雷达算法的角度来看,它希望在接近时能够做出更准确的判断。
但遗憾的是,这辆拖车的底盘很高,雷达安装得比较低,所以靠近的时候并没有被检测到。
事实上,此前曾出现过特斯拉雷达未能检测到前方底盘较高的汽车的情况。
因此,雷达和视觉也需要改进,以更好地辅助驾驶。
既然你意识到了这一点,你应该做什么?首先,可以更好识别的算法。
例如,基于深度学习的识别算法可以从汽车的各个角度识别汽车的类型,可以大大提高识别率。
但深度学习还不够,因为在目前的深度学习识别中,前面的车需要暴露1/3才能被识别。
其次,使用基于立体视觉的视觉雷达。
由于深度学习还不够,视觉雷达可以弥补其不足。
目前,高端无人驾驶汽车都在使用激光雷达进行测试,但激光雷达非常昂贵。
因此,立体视觉雷达可以在一定程度上发挥作用。
例如,常用的双目摄像头实际上可以充当激光雷达的廉价版本。
视觉雷达的优点是不需要识别1/3。
只要旁边有几个标志,视觉雷达就能捕捉到重要信息。
吴甘沙在演讲中展示了他们系统中内置的三目摄像头,形成的图像可以很好地过滤道路信息。
驭势科技的第三款摄像头是深度学习与视觉雷达的融合。
深度学习与视觉雷达的结合可以取得更好的效果。
深度学习是一个多任务网络,可以识别行人、自行车、汽车等。
对于识别行人来说,基于立体视觉的视觉雷达会更好。
第四,相机仍然需要发展。
因为传统摄像头拍到的东西是给人看的,但在辅助驾驶中,摄像头需要通过算法才能看到。
如何调整相机让算法更好地发挥作用非常重要。
因此,想要做好辅助驾驶,在各种环境下调整摄像头是一项必不可少的工作。
▎从辅助驾驶到高度自动化驾驶再到无人驾驶。
刚才我们讲了辅助驾驶到辅助驾驶,那么从辅助驾驶到高度自动化驾驶再到无人驾驶我们应该怎么做呢? 1、做好地图定位工作。
传统上,每个人都知道地图是导航地图。
地图上有一些道路信息和一些交通规则信息就足够了。
但要实现高度自动驾驶,可能还需要更多信息。
比如交通信号、车道线数量、坡度和曲率等。
要实现无人驾驶,我们还需要更进一步,需要高精度地图。
这需要对环境进行更详细的建模,以反映各种路标和道路语义。
同时,它还可以给出一些驾驶建议。
比如这里需要减速,那里需要变道等等。
现在所有这些解决方案无非就是这五个参数:用什么设备采集,用什么设备定位,地图有多大,存储在哪里(云端还是本地),是否可以实时更新。
以Google的解决方案为例。
他们的地图采集设备是昂贵的激光雷达,他们的定位设备也是激光雷达。
地图很大(每公里几GB),只能本地存储,更新有延迟。
普通地图商制作的地图虽然没有谷歌那么密集,但信息也非常丰富。
需要更昂贵的激光雷达采集,但定位设备会相对便宜,地图大小中等,可以选择是否在本地存储地图。
毕竟扫街车的数量有限,所以它的更新会有所延迟。
无论是谷歌还是地图经销商,制作的地图都有相应的缺陷,因此改进地图需要不同的方法,比如实时同步的地图构建和定位系统。
该系统使用一种称为“Video Slam”的技术来拍摄真实的道路照片并查找特征点。
一张图片中可能有5000个特征点,然后匹配这些特征点就可以知道你在哪里。
该方法的缺点是计算量极大,在某些情况下无法找到明显的特征点。
为了解决这个问题,我们需要在系统中加入“基于交通标志的识别”和“道路线识别”,并通过摄像设备进行采集和定位。
可以通过众包的方式收集。
地图很小,每公里只有几十KB。
它存在于云端并实时更新。
这种基于交通标志的匹配和基于地面标记等特征的匹配使我们能够实现良好的定位。
2、做好认知算法。
除了定位,我们还需要更多。
良好的认知算法。
我们知道,自动驾驶分为三个阶段:感知、规划、控制。
在感知和规划的高级阶段,我们不妨看一下高级感知,首先是我们传统的辅助。
驾驶只需要识别特定目标。
比如在高速公路上,我只需要识别汽车即可。
在某些十字路口,我需要识别行人。
高度自动化的驾驶可能会驶入许多非常复杂的路况,因此没有办法使用有限的数量。
感知外部环境需要数据库。
简单来说,传统的视觉解决方案需要数据库,而高度自动驾驶则需要对世界进行更复杂的建模。
高度自动驾驶需要深度学习来感知周围环境,例如识别模糊的标志。
这些认知算法的开发方法包括对道路和交通的复杂操作(变道、并道车辆)、在行人较多的地方平滑障碍物(预测行人运动轨迹,无需走走停停)等。
谷歌目前正在做一个非常好的工作,但也很复杂。
谷歌使用激光雷达扫描地面上的各种物体,以预测其轨迹和下一步动机。
这需要在规划层面有更好的算法。
一般来说,深度学习使用卷积神经网络、循环神经网络和强化学习。
众所周知,递归神经网络和强化学习在AlphaGo中也被用于识别、语义分割以及行为分析和预测。
现在我们使用各种深度学习网络,但是规模其实并不是很大。
大家都知道深度学习网络最深达到一千层,但是对于我们使用的十几层网络来说,定点计算就足够了。
,不需要浮点。
并且可以很好地适应GPU、FPGA和嵌入式视觉芯片。
而且深度学习必须解决数据源的问题。
现在对我们来说,数据来源有很多。
例如,出租车可以配备行车记录仪。
通过众包,成千上万的人可以为您标记它们。
你可以从Google Street View的数据库中获取一些数据。
拉出道路图片。
此外,赛车游戏也是收集数据的好方法,因为它们既有场景,也有玩游戏的反馈。
尤其是端到端的深度学习,这种方法非常有用。
还有游戏加半自动众包作为标准。
玩游戏时,它使用现成的算法来设定一定的标准。
比如我先给你标记一部分车道。
作为玩家,你可以判断标记是否准确,最后进行修改。
V2X(车辆与外界的信息交换)和激光雷达可能会在未来3-5年内出现,特别是激光雷达和多摄像头,未来可能会集成。
激光雷达主要有Velodyne、Ibeo、Quanergy。
基本上,从他们的路线图来看,他们将在三到五年内达到 500 以下。
对于整个系统来说,除了感知、规划和控制之外,还需要驾驶员的行为学习。
你会希望自动驾驶更加舒适,需要考虑人机界面通过声、光、电振动与驾驶员进行交互。
尤其是特斯拉事件传出后,大家都觉得有必要在车内安装摄像头,来检测驾驶员的注意力,看看驾驶员是否在注意路面。
状态监控和数据记录非常重要。
尤其是当需要建立责任时。
第三,软件架构的安全保障对于强调实时性、高可靠性、高安全性的软件架构来说至关重要。
安全必须从功能安全转向信息系统安全。
就在前段时间,两名黑客通过中控娱乐的互联网系统侵入了该车,并关闭了其引擎。
所以安全非常重要。
要保证整个系统的安全,需要一套完整的安全可靠性设计方法,大致可以分为四个步骤。
第一步是确保规格准确。
第二部分,需要验证实现和规范是否一致。
第三步是保证软件在具体运行过程中处于实时、最新状态,信息安全系统标准必须非常高。
第三步一定要有足够的冗余。
第四步是控制。
一旦系统出现故障,驾驶员必须有办法随时重新获得控制权。
这里要求最高的是信息安全,比如提供可靠的基础设施、如何隔离多个域、如何加密关键数据路径等。
软件的安全性和可靠性很难定义。
特斯拉说,我行驶了1.3亿英里才导致一人死亡,而美国平均是每10,000英里就有1人死亡,世界平均是每10,000英里不到1人死亡。
因此,软件比人类驱动的软件更安全。
其实懂数学的人都知道这不是真的,样本空间太小了。
如果明天再死一个人,死在千里之外的就是同一个人。
因此,高度自动化驾驶和无人驾驶的安全性仍需要更多的模拟测试和数学推演。
▎总结:从辅助驾驶到辅助驾驶,我们面临第一次转型。
从辅助驾驶到高度自动化驾驶再到无人驾驶,这是第二次飞跃。
吴甘沙讲话的主要内容是这个转型需要在人工智能等方面做哪些工作。
自动驾驶不仅仅是一个算法,它是一套超级复杂的系统工程。
考虑可靠性和安全性。
然而,自动驾驶在很长一段时间内仍将在统计上可靠,但它仍然是一项可能犯低级错误的技术。
它需要产业界和学术界的合作,以及政府和媒体的支持和包容,才能使其技术在未来脱颖而出。
3-5年后将真正实用。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-17
06-18
06-18
06-18
06-18
06-06
最新文章
三只松鼠:门店扩张已全面暂停
Nvidia 已准备好“统治”AI
【创业24小时】2023年11月16日
【创业24小时】2022年10月20日
倒计时一天,浙江这座小镇要火了!
沃图网络获数千万A轮投资,加大投入海外网红营销SaaS平台建设
泰山天使基金部分退出拉手半年回报180倍
西格数据完成1000万元A+轮融资,国发创投领投