拿下围棋之后 机器学习还想发力无人驾驶?

分享到:
308
下一篇 >
网易科技讯10月8日消息,据国外媒体报道,在研究人员看来,汽车制造商们将难以证明其无人驾驶汽车的**性,原因是其智能系统的核心组成部分:机器学习。

卡耐基梅隆大学研究汽车行业的计算机科学家菲利普·库普曼(Phillip Koopman)表示,“你无法假定这样东西会是奏效的。”

2014年,有市场研究公司预计,到2030年无人驾驶汽车市场规模将达到870亿美元。包括谷歌、特斯拉和Uber在内的数家公司正在试验展开计算机辅助驾驶项目或者全自动驾驶项目——由于涉及诸多必须要克服的技术障碍,它们的成功程度不尽相同。

库普曼等研究人人员认为,机器学习的本质让验证无人驾驶汽车能否**运作变得**挑战性。

他指出,以往,工程师是通过编写计算机代码来迎合需求,然后执行测试来检验代码是否真能迎合需求。

然而,对于机器学习,这一个过程则没那么直截了当。机器学习技术是让计算机自己掌握错综复杂的东西,如处理**不同时候拍摄的照片,识别人行横道、停车标志等场景中的重要物体。库普曼说,“机器学习难就难在你不知道该如何编码来迎合需求。”

数年前,工程师们认识到分析来自摄像机的图像是一个无法由传统软件解决的问题。因此,他们转向了机器学习算法,这种算法能够通过处理案例来针对特定任务的解决创建数学模型。

工程师们会提供很多带有人工注释的案例,如什么是停车标志,什么不是。算**对那些图像进行分解,挑出特性,进而建立模型。接着,计算机在看到新图像时,会拿它们跟受训模型进行比照,得出哪些图像含有停止标志,哪些没含有方面的预测。

模型的内在风险

“这是归纳性学习的内在风险和失效模式。”库普曼指出。看看模型的内部,看它做些什么,你会发现你只能得到一些统计数据。它是个黑盒子。他说,你根本不知道它在学习什么。

具体来说,想象一下你在试验驾驶无人驾驶汽车,希望它能够学习如何避免撞到行人。当路上出现穿着橙色**服的人的时候,该汽车可能是在训练自己识别手掌、手臂和脚部的能力,但也有可能是在训练自己识别橙色衣服的能力。

又或者更精细地说,想象一下你在夏天进行试验时,路上没有人戴着帽子。而**次看到帽子时,无人驾驶汽车会出现反常反应。

库普曼说,算法可能在训练的东西“多不胜数”。

谷歌研究人员曾尝试通过人工神经网络(模拟大脑神经元及其连接的常见机器学习模型)来识别哑铃。令人意外的是,该受训模型只有在有手拿着时才能识别哑铃。

库普曼说,其它**验证方面的问题包括:在过多类似的数据上训练和测试算法;它就像是记忆闪示卡的内容,然后在测试中回忆卡上的信息的过程。

他还说,如果Uber在任意一个它还没绘制精细的计算机地图的城市让它的无人驾驶汽车上路行驶,那该汽车的行驶表现可能会没有预期那么好。这一问题有一简单的解决方案:如果你只在匹兹堡市区(Uber有绘制该地区的精细地图)训练和运行你的无人驾驶系统,那应该是没问题的,但这是需要注意的局限性。

在确保系统所感知的东西中的小变化——或许因为雾天或者灰尘——不影响算法的识别能力上,同样存在着挑战。2013年的一项研究发现,更改图像中肉眼看不到的单个像素点,能够诱导机器学习算法认为图中的校车并非校车。

美国国家科学研究中心同时研究汽车和航空电子行业的软件可靠性工程师马蒂厄·罗伊(Matthieu Roy)表示,“你可不能将这种机器学习算法用在飞机上,因为那样的话你就无法证明系统是否能够正确运行。”他说,如果飞机不能通过独立的**测试,它就不能起飞和降落。

罗伊指出,测试无人驾驶汽车应对它们可能会遇到的所有场景(比如前方出现爆炸事故,又或者有飞机坠毁在车前)的能力实在太困难了,还无法实现。“不过,你必须要处理好可能会发生的所有风险。”他说。

瑞典查尔姆斯理工大学软件工程博士后学生阿莱西亚·克诺斯(Alessia Knauss)正在研究*适用于无人驾驶汽车的测试方法。

她正在采访各家汽车公司来听取它们的看法。她说,即便车上有多个传感器作为备用(如谷歌的汽车),每一个部件都得基于它能够做的事情进行测试,所有使用传感器的系统也都如此。

“看看我们能够做出多少贡献吧。”克诺斯说。

独立**检查

库普曼希望汽车厂商能够向独立机构证明其无人驾驶系统的**性。“我不那么相信厂商们的话。”

他尤其希望汽车公司解释其算法的特性,训练的代表性,不同场景的测试数据,以及他们的模拟在汽车出现在环境中为什么是**的。如果工程团队模拟驾驶无人驾驶汽车的里程达到100亿英里,期间没有出现任何的问题,但汽车没有遇到所有可能会出现的场景,那公司可以就对那些发生频率不高的场景的处理进行解释。

“任何其它涉及关键任务软件的行业都有独立机构去制衡。”库普曼说道。

上个月,美国国家公路交通**管理局公布无人驾驶汽车方面的指引,但他们并没有强制要求进行独立**测试。

库普曼说,考虑到公司的开发期限和成本目标,**方面的工作有时可能做得不够足,例如,在1986年的美国宇航局(NASA)“挑战者号”(Challenger)事故中,正是对风险的忽视导致宇宙飞船在发射73秒后发生爆炸,致使7名宇航员身亡。

他说,汽车公司是可以避免因为独立**检查而公开披露其算法的运行方式的。航空工业有进驻航空公司的工程代表,这些代表签订保密协议是标准惯例。“我并不是想告诉他们要怎么做,我想说的是他们应当提供某种透明性。”库普曼表示。(皓慧)

你可能感兴趣: 业界新闻 无人驾驶 传感器 工程师 谷歌
无觅相关文章插件,快速提升流量