行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 智能驾驶 正文

被高估的自动驾驶与被低估的算法

    过去的事实证明,人类向来不善于预测。要么总是高估短期发展,低估中长期进程,要么压根猜错了方向。

  基于自身需求和社会发展,人们确信,AI是解决交通问题的终极工具。资本同样确信这一点,到2020年以前,全球AI产业投资将达到4000亿美元,60%的投资和新创公司诞生在中美两国。

  停滞不前的自动驾驶

  但投资人已经发现,找新项目越来越难,而项目变得昂贵,这是资本泡沫出现的信号。

  就短期而言,AI的效能和回报都被高估了。

  作为自动驾驶研发的领先者,谷歌旗下的Waymo正在凤凰城郊区部署自动驾驶车队,并已经开始收费服务。对于本地智能决策的实用项目而言,是巨大的阶段性成功,尽管服务区域和服务人群都做了精心的限制和挑选。显然,这是限定场景下的L4级别自动驾驶应用。

  然而,当地居民热衷于取笑Waymo的自动驾驶车辆。这些白色的克莱斯勒Pacifica在高速路上试图并线却总不成功,最后被迫驶下公路;或者在经过十字路口时把车道占住,不敢拐弯,导致追尾。人类司机不耐烦过于守规矩的交通参与者,他们粗鲁地按喇叭,根本不管AI是否听得懂。

  Waymo的CEO克拉夫西克则暗示AI的笨拙状态还要持续多年,他认为L5级自动驾驶的实用部署可能需要“数十年”,这和他3年前的乐观态度形成鲜明对比。

  算力的瓶颈在哪里?

  这多半源于工程师们对AI训练时的心力交瘁。真实世界的工况复杂程度,很难通过固定模型调参,达到完全覆盖的目的。和公众认识的相反,获取数据是容易的。只要法律允许且车主们同意,地球上每天运行的十几亿辆汽车,都可以装上廉价传感器,获取行驶数据,上传云端。

  如此海量的元数据,必然存在大量重复的冗余数据。工程师们花了很长时间,编写算法,提炼并构建对AI训练有最大价值的数据库(即训练模型)。

  不过,数据后期的分类标定、数据质量以及算法,存着在很多的不确定因素。而公众和监管机构都坚持,自动驾驶汽车需要测试数亿至数千亿公里,才能验证它们在减少交通事故方面的可靠性。这无疑加大了AI应用在自动驾驶的难度。

  由于算力的局限,致使AI训练过程变得很长。数据量超出硬件承载的上限,AI就无法表现得老练得体。也因为同样的原因,人们必须事先筛选数据,避免硬件崩盘。

  众所周知,随着硅基芯片加工极限迫近,单个芯片的算力提升乏力。摩尔定律不是法律,它只不过是从业者观察到芯片业蓬勃发展时期的规律而已,而这一规律正在走向终结。

  因为硅原子的直径是0.3nm,这是不可逾越的物理限制。而且,门控电路很难控制单个原子。此时的量子效应不可忽略,电路逻辑从确定状态变成概率,芯片逻辑将一塌糊涂。目前人类在水中雕刻硅片的“刀具”是深紫外光——接近X射线的波长,硅加工当下的极限是7nm,而提升的终点可能是2-3nm。

  既然电路密度提升愈来愈困难,扩大面积、增加立体维度,不就仍可以扩张电路复杂度吗?考虑到能耗带来的尺寸翘曲和散热问题,无论二维还是三维扩张,都受到严格限制。即便全球顶尖加工能力,硅片面积扩张后,成品率也不可避免地急剧下降。

  当前人类仍在不断提升算力,靠的是大规模并联,多芯片算力协同的代价,则是数据内部传输的效率低下和功耗急剧上升。

  新架构可能不是最终答案

  2016年战胜李世石的AlphaGo仍是传统的冯诺依曼结构,配置了1202个CPU和176个GPU,功率17万瓦,下一盘棋电费3000美元。而李世石的大脑就算满负荷运行最多也只20瓦,只够点亮一盏昏暗的白炽灯。这不是一场公平的决斗。在人脑面前,AI笨拙得惊人,也低效得惊人。

  而第二年战胜柯洁的AlphaGo则采用了4片基于云的TPU,构成180TFlops算力(1T哈希率=1万亿次运算)。而2018年谷歌推出的TPU3.0,具备100P(1P哈希率=1000万亿次运算)算力。作为代价,TPU3.0必须采用水冷机制。超算的冷却更需要庞大设备,微软的内蒂克项目干脆建在苏格兰奥克尼群岛冰冷的海底。

  TPU本质上是专用场景的ASIC芯片,对冯诺依曼结构的瓶颈进行优化,不能处理文本,专门用于深度学习的神经网络计算。计算密度无法提升的时候,我们依靠改善架构,继续榨取算力。

  但是TPU的体积、功耗和麻烦的冷却设备,都注定它不可能充当车载本地AI。基于高速网络的云端算力,减轻了本地AI的负担。不过,这些提升终有尽头,而且尽头近在眼前。

  在硅基芯片的潜力挖掘殆尽之前,我们必须找到更强大的算力。量子计算和化合物半导体、生物计算都具备替代潜质。而大多数国家资本,正在大规模地押注量子。但是截至目前,世界上还没有真正意义上的量子计算机,也很难估量什么样的方案能更有效地束缚微观态的量子。量子计算机的实用化预测,从5年到50年不等。

  在人们担心强AI失控之前,AI本身还未能对算法进化做出什么贡献。算法的巧妙依赖于人脑。对于人类来说,个体知识体系并不重要,算法的优化源自人类经验积累。这和芯片电路规模扩张,有异曲同工之妙。在合理功耗下算力足够强,是AI胜任高级别自动驾驶的唯一现实路径。

  在硅基芯片潜力挖掘殆尽之前,探索出新路径来,决定了AI的未来。这就是我们无法看清未来的原因。

微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2028 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注

扫码入群
扫码关注

微信公众号

返回顶部