智币软件获十亿级B+轮战略融资,明略科技投资
06-18
CSDNEWS 如果你相信各大公司的CEO的话,感觉完全自动驾驶汽车可能再过几个月就能实现。
2019年,埃隆·马斯克预测特斯拉将在2018年推出全自动驾驶汽车,谷歌也是如此。
德尔福和MobileEye计划在2020年推出4级系统,Nutonomy计划同年在新加坡街道上部署数千辆无人驾驶出租车。
通用汽车将在 2020 年开始生产完全自动驾驶汽车,这种汽车没有方向盘,也不能涉及驾驶员——而这些预测与资金投入有关,而这些公司押注软件的开发可以实现这些雄心勃勃的项目。
宣传。
从表面上看,全自动驾驶汽车似乎指日可待。
Waymo 已开始在亚利桑那州的部分公共道路上测试其汽车。
特斯拉和其他模仿者也在销售功能有限的自动驾驶汽车,但如果发生意外情况,他们仍然依赖驾驶员进行干预。
最近发生了几起事故,其中一些是致命的,但只要系统不断改进,从逻辑上讲,我们离无人干预的自动驾驶汽车不会太远。
但完全自动驾驶汽车的梦想可能比我们想象的还要遥远。
人工智能专家越来越担心,自动驾驶系统可能需要数年甚至数十年才能确保避免事故。
尽管自我训练系统可以应对现实世界的混乱,但纽约大学的加里·马库斯等专家认为,重新审视这个问题是不可避免的。
有人称之为“人工智能的冬天”。
这种延迟可能会导致完全自动驾驶汽车无法在整整一代人中普及,这将对依赖自动驾驶技术的公司造成灾难性后果。
深度学习的泛化应用尚未成熟 车企看好自动驾驶的原因不难理解。
在过去的十年中,深度学习(一种使用分层机器学习算法从海量数据集中提取结构化信息的方法)在人工智能和科技行业取得了惊人的进展:它增强了 Google 搜索、Facebook News Feed、转换算法将会话语音转换为文本,并且还支持围棋系统。
在互联网之外,我们使用机器学习来检测地震、预测心脏病、通过摄像头检测行为以及无数其他创新。
但深度学习需要大量的训练数据才能正常工作,几乎涵盖了算法可能遇到的所有情况。
例如,像谷歌图像这样的系统非常擅长识别动物,只要它们有训练数据来显示每种动物的样子。
马库斯将这项任务称为“插值”,其中涉及扫描所有标记为“豹猫”的图像并确定新图像是否属于同一组。
工程师可以根据数据的来源和结构发挥创意,但现有算法的范围受到严重限制。
即使是相同的算法也无法识别豹猫,除非它看到了数千张豹猫的照片——即使它看到了家猫和美洲虎的照片并且知道豹猫介于两者之间。
。
这个过程称为“泛化”,需要一套不同的技术。
研究人员长期以来认为他们已经通过正确的算法改进了泛化技术,但最近的研究表明,传统深度学习在实现泛化方面比我们想象的要差。
一项研究发现,传统的深度学习系统甚至难以在视频的不同帧中进行泛化,当背景略有变化时,会将同一只北极熊误认为是狒狒、猫鼬或黄鼠狼。
由于每个分类都会聚合数百个因素,因此即使图像中的微小变化也会极大地影响系统的判断,其他研究人员已将这种现象用作对抗数据集。
自动驾驶汽车陷入困境 马库斯指出,聊天机器人热潮是最近围绕泛化问题进行炒作的一个例子。
“我们承诺在 2020 年推出聊天机器人,”他说,“但它们没有多大帮助,因为它只是收集数据。
”当您在网上与人交谈时,您不想重复之前的对话。
您希望他们对您所说的话做出回应,使用更广泛的对话技巧来提出独特的回应。
深度学习无法构建那种聊天机器人。
在最初的炒作消退后,公司对聊天机器人项目失去了信心,很少有人仍在积极开发它们。
这给特斯拉和其他自动驾驶公司提出了一个可怕的问题:自动驾驶汽车会像图像搜索、语音识别和其他人工智能成功那样继续改进吗?他们会陷入诸如聊天机器人之类的普遍问题吗?自动驾驶技术是插值问题还是泛化问题?开车真的那么不可预测吗?可能还为时过早。

“自动驾驶汽车就像一个我们不知道答案的科学实验,”马库斯说。
“我们从未达到过这种程度的自主权,所以我们不知道它是什么类型的任务。
”如果需要识别熟悉的物体并遵循规则,现有技术应该足够了。
但马库斯担心,在容易发生事故的情况下驾驶可能比业界承认的更复杂。
“新情况的出现对于深度学习来说并不是一件好事。
”我们实验的数据来自公共事件报告,每个报告都提供了一些不寻常的困难。
2018年特斯拉车祸中,Model S汽车受到拖车高度和阳光反射的影响。
它全速撞上了一辆白色半挂车的后部。
今年3月,一辆Uber自动驾驶汽车撞上了一名推着自行车过马路(违反交通规则)的女子身亡。
根据美国国家运输安全委员会的报告,Uber的软件首先将这名女子误认为是不明物体,然后误认为是自行车,最后确认这是一辆自行车。
在加州发生的一起特斯拉车祸中,Model X 突然转向撞上障碍物,并在撞击前加速。
原因尚不清楚。
每一次事故似乎都是一个极端的例子,工程师无法提前预测此类事情。
但几乎每一次车祸都涉及某种不可预测的情况,如果没有概括能力,自动驾驶车辆将不得不像第一次一样处理这些情况。
其结果将是一系列事故的发生,而且随着时间的推移,这些事故的数量不会减少,危险因素也不会减少。
对于怀疑论者来说,《无手动操作报告》 的转变表明这种情况将持续下去,并将保持一定程度的稳定。
Drive.AI创始人吴恩达(Andrew Ng)是百度前高管,也是该行业最著名的推动者之一,他认为问题不在于建立完美的驾驶系统,而在于训练旁观者预测自动驾驶汽车的行为。
换句话说,我们可以为汽车提供安全的道路。
作为一个不可预测的例子,我问他是否认为现代系统可以处理玩弹跳杆的行人,即使他们以前从未见过。
吴告诉我:“我认为很多自动驾驶车队都可以应对在人行横道上玩弹力杆的行人。
话虽如此,在高速公路上弹跳电线杆是非常危险的。
”他说:“我们应该与政府合作,要求它合法、为人们着想,而不是用人工智能来解决弹跳棒的问题。
安全驾驶不仅仅是人工智能技术的好坏。
“人们应该降低对自动驾驶汽车的期望。
深度学习并不是唯一的人工智能。
”技术方面,许多公司已经在探索替代方案。
虽然这些技术在行业中受到严密保护(最近 Waymo 仅针对 Uber 提起的诉讼就证明了这一点),但许多公司已经转向基于规则的人工智能,这是一种较旧的技术,允许工程师将特定的行为或逻辑硬编码到其他导航系统中。
它没有能力研究数据来编程自己的行为(深度学习正是因为这种能力而引起了人们的关注),但它可以让这些公司避免深度学习的一些局限性。
由于深度学习对基本感知任务的影响仍然如此深远,因此很难说工程师如何成功地检测潜在的错误。
Lyft 董事会成员、风险投资家 Ann Miura-Ko 表示,她认为部分问题在于,人们对自动驾驶汽车本身的期望太高,以至于不能实现完全自动驾驶就会被视为失败。
Miura-Ko 表示:“希望它们从零级跃升至五级并不是技术的失败,而更像是一种不适当的期望。
我认为所有这些微小的进步将对全自动驾驶产生巨大的影响。
“然而,我们不知道自动驾驶汽车将持续处于当前困境多久。
像特斯拉自动驾驶汽车这样的半自动产品足够智能,可以处理大多数情况,但如果发生不可预测的事情,人类干预就很困难了。
”兰德表示,当出现问题时,很难判断是汽车还是驾驶员的问题,而且对于一些批评者来说,这种混合动力驾驶的安全性不如人类驾驶员,即使错误并不完全是罪魁祸首。
一项公司研究估计,自动驾驶汽车必须行驶 2.75 亿英里才能证明它们与人类驾驶员一样安全,这一里程远低于使用深度学习的标准。
杜克大学教授玛丽·卡明斯 (Mary Cummings) 表示,“控制车辆如何检测物体并决定做出反应以提高事故发生率比看上去要困难,这是一个简单的孤立问题。
”他指的是今年早些时候导致一名乘客死亡的 Uber 事故。
行人。
“这起行人死亡事件中的感知决策周期是相互关联的。
感知的模糊性导致了错误的决策(没有处理),而且由于传感器收到了太多的误报,导致没有刹车。
这起事故导致了事故的发生。
”优步在夏季暂停其自动驾驶汽车工作,这对其他公司计划的推出来说是一个不祥之兆。
在整个行业中,各公司都在竞相获取更多数据来解决问题,假设他们拥有最高的里程数。
但这些公司看到了数据问题,这对马库斯来说是一个更难解决的问题:“他们只是使用他们希望成功的技术。
他们依赖大数据,这对他们的生存至关重要,但没有证据表明可以达到我们需要的准确性。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-18
06-18
06-18
06-21
06-21
06-18
06-17
最新文章
英特尔收购芯片制造商eASIC,进一步减少对CPU的依赖
西门子携手现代汽车、起亚公司,共同推动交通运输行业数字化转型
行业领导者制定 Open Eye MSA 来帮助实现高速光连接应用
三星电子和 NAVER 合作
意法半导体和 Leti 合作开发 GaN-on-Si 功率转换技术
青岛将大力发展高世代TFT-LCD和Micro LED项目
长电科技参加IMAPS器件封装大会
三星正式发布Exynos 990旗舰处理器