行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 大数据 正文

实现通用人工智能还要多久?Hinton 与 AlphaGo 之父

有人称之为“强”人工智能,也有人称之为“真实”人工智能,或“通用”人工智能(AGI),不管怎样称谓,有关通用人工智能的讨论随着技术的进步愈发剧烈,有人以为通用人工智能能够像人一样考虑——以至可能具有超人的智力程度,或许会产生不可预知的、无法控制的结果;另有一些人以为:目前的人工智能离 AGI 的智力程度还相差甚远。

人工智能研讨者、反向传播算法创造人 Geoffrey Hinton 与 DeepMind CEO、AlphaGo 之父 Demis Hassabis 在近期的一场采访中,就通用人工智能的开展现状停止了一番热烈的讨论。

预测音乐爱好、检测转移性肿瘤、生成脑癌的合成扫描图、基于真实的视频创立虚拟环境、辨认人口贩卖的受害者、打败国际象棋巨匠和 Dota 2 专家电子竞技队、自动驾驶。

以上这些只是 2018 年人工智能开展成就的一些例子,也是该范畴疾速开展的佐证。麦肯锡全球研讨所的剖析师预测,依照目前的开展速度,仅在美国,人工智能将在将来 12 年内取得 20-25%的净经济效益(全球为 13 万亿美圆)。

一些最令人印象深入的工作成果来自深度神经网络(DNN)方面的研讨,DNN 是一种基于数据表示的机器学习架构。三十年前,David Rumelhart、Geoffrey Hinton 和 Ronald Williams 在论文“反向传播错误的学习表征”中细致引见了一种根底的权重计算技术——反向传播。在本钱日益降落、性能日益强大的计算机硬件的协助下,反向传播曾经在计算机视觉、自然言语处置、机器翻译、药物设计和资料检测等方面的获得了宏大飞跃,在其中一些范畴,DNN 生成的结果以至超越了人类专家。

AGI 所面临的应战

那么,DNN 会是超级智能机器人成为理想的一个预兆吗?Demis Hassabis 并不这么以为。Hassabis 是 DeepMind 的结合开创人,DeepMind 是一家总部位于伦敦的机器学习创业公司,公司的任务是将神经科学和计算机科学的见解应用在通用人工智能(AGI)中——换句话说,AGI 系统能够胜利执行任何人类能够完成的智能任务。

Hassabis 在 12 月初于蒙特利尔举行的 NeurIPS 2018 大会上说:“我们还有很长的路要走。从某种水平上说,游戏或棋盘游戏其实十分简单,由于各种状态之间的过渡形式十分易于学习,但理想世界中的 3D 环境和理想世界自身要复杂得多……”

Hassabis 是国际象棋神童、剑桥大学毕业生,在职业生活早期,他担任电子游戏 Theme Park 和 Black & White 的首席程序员。他还在伦敦大学学院、麻省理工学院和哈佛大学学习神经科学,在那里,他与其别人一同研讨自传记忆和情形记忆系统。他于 2010 年共同创建了 DeepMind,并三年后推出了一个创始性的人工智能系统,这个系统运用原始像素作为输入在 Atari 游戏中崭露头角。

后来谷歌以 4 亿英镑收买了 DeepMind,在完成收买之后,推出的 AlphaGo 一度占领了头条位置。AlphaGo 是一个人工智能系统,在围棋竞赛中击败了世界冠军李世石,并与伦敦大学医院协作,开发出“接近人类程度”的 CT 扫描分割模型。最近,DeepMind 的研讨人员推出了蛋白质折叠算法—— AlphaFold——从 43 种蛋白质中精确辨认出 25 种蛋白质构造,在第 13 次蛋白质构造预测技术评价(CASP)中取得一等奖。本月,DeepMind 在科学杂志上发表了一篇论文,引见了 AlphaZero 系统,它是 AlphaGo 的继任者,能够玩三种不同的游戏——国际象棋、一种叫做 shogi 的日本象棋,以及围棋,并足以击败顶尖的人类玩家。

虽然 DeepMind 获得了令人注目的成就,但 Hassabis 正告说,他们并不以为 AGI 行将降临。他说,与今天的人工智能系统不同,人们应用理想世界的内在学问来停止预测和规划。与围棋、国际象棋和日本象棋新手相比,AlphaGo 和 AlphaZero 在信息方面处于优势。

Hassabis 说,“这些 AI 系统首先要学会看,然后才干学会玩。相比算法,人类玩家能够更快地学会玩相似于 Atari 游戏的东西,由于他们能够很快地将图案转成像素,然后肯定是要往行进还是往后退”。

要让 AlphaZero 这样的模型击败人类,它需求在一个具有数千个谷歌特地为机器学习设计的专用芯片的系统上停止 700,000 个锻炼步骤——每个步骤代表 4,096 个棋盘位置。国际象棋需求锻炼约 9 个小时,日本象棋需求锻炼 12 个小时,围棋需求 13 天。

DeepMind 并不是独一家尝试打破当前 AI 设计局限性的公司。

在今年早些时分发表的一片博文中,OpenAI——一家位于旧金山由 Elon Musk、Reid Hoffman、Peter Thiel 以及其他技术名人支持的非营利性人工智能研讨公司——推出了 OpenAI Five,在今年夏天击败了 Dota 2 五人团队(其中有四名职业 Dota 2 玩家)。OpenAI 表示,它每天都要在谷歌云平台上(装备 256 块 Nvidia Tesla P100 显卡和 128,000 个处置器中心)玩游戏。但即便在完成一切锻炼之后,它依然难以将取得能够应用于游戏之外的任务的技艺。

Hassabis 说,“我们的系统无法以有效的方式将学问从一个范畴转移到另一个范畴。构建游戏模型相比照较容易,由于从一步挪动到另一步是十分简单的,但我们希望可以将生成模型才能灌输给系统……这样在这些环境中停止规划就变得更容易”。

现今的大多数人工智能系统的可扩展性也较差。AlphaZero、AlphaGo 和 OpenAI Five 应用了一种叫作强化学习的编程范式,其中有一个 AI 控制的软件代理将学会在环境中采取行动——例如,棋盘游戏或 MOBA——以最大化奖励。

Hinton 在承受采访时说,能够想象一下 Skinner 盒子系统——它的名字源于哈佛大学先驱心理学家 B. F. Skinner——它应用操作性条件来锻炼动物,让它们做出动作,例如按下控制杆、对光或声音做出响应。当受试动物做出正确的动作,就会取得某种方式的奖励,通常是食物或水。

Hinton 说,人工智能强化学习办法的问题在于奖励信号常常是“微小的”。在某些环境中,代理无法从随机数据中找到形式——即所谓的“喧闹的电视问题”。

“每隔一段时间,你就会得到一个标量信号,但频率并不高,信息量也不大,而且你需求基于这些微小的信号运用数百万个参数或数万亿个参数来锻炼系统。你能做的是运用大量的计算——很多令人印象深入的演示都依赖于大量的计算。这是一个方向,但它并不能真正吸收到我。我以为研讨人员需求的是更好的见解。”

Hinton 过去 30 年来不断在处理 AI 面临的一些严重应战,如今主要专注于谷歌的 Brain 深度学习研讨团队和多伦多大学。他被一些人称为“深度学习教父”。除了在 DNN 方面的创始性工作之外,Hinton 还在机器学习、感知、记忆和符号处置等方面撰写或合著了 200 多篇出版物,他最近将留意力转向胶囊神经网络——包含有助于构建更稳定表示的构造的机器学习系统。

他说,数十年的研讨让他确信处理强化学习可扩展性问题的办法是应用构造化架构来放大信号。

Hinton 解释说,“假定你有一个很大的组织,强化信号排在最前面,首席执行官被告知公司今年取得了大额利润——这就是他的强化信号。我们假定这种信号每个季度会呈现一次。假如要锻炼一大堆人员来完成几项任务,这些信号太弱了,但假如首席执行官有一些副总裁,并给每位副总裁一个目的,以便最大化他的奖励……那么这将带来更多利润,他最终会得到奖励。”

Hinton 说,即便奖励没有呈现——或许是由于首席执行官给副总裁设定了错误的目的——这个过程依然会继续。副总裁总是能够学到一些东西,这些东西在将来总会派上用场。

他补充说,“经过设定子目的,并让人们完成这些子目的,你能够经过发明更多微软的信号来放大这些它们”。

这是一个看似复杂的思想实验。这些副总裁实践上需求一个渠道——即中层和低层管理人员——来传达目的、子目的和相关的奖励条件。系统中的每个“员工”都需求可以决议他们能否做了正确的事情,这样他们才干晓得为什么会取得奖励。所以他们需求一个言语系统。

Hinton 说,“这是一个让系统的某些模块为其他模块创立子目的的问题。你能够想象一下牧羊人。他们发明了一种非英语言语,锻炼有素的牧羊犬和牧羊人能够经过这种言语停止很好的交流。但假如牧羊犬有本人的牧羊犬,那么它必需将从牧羊人那里取得的东西(比方手势等)构成一种能够与子牧羊犬交流的方式。”

侥幸的是,最近的一项叫作“Transformer”的 AI 打破可能正朝着正确方向迈出一步。

谷歌研讨人员在去年的一篇博文和附带论文“Attention Is All You Need”中引见了一种新型神经构造——Transformer——可以在言语翻译任务中超越最先进的模型,并且需求的锻炼计算量也较少。

谷歌于 11 月份开源了 Bidirectional Encoder Representations from Transformers(BERT)。BERT 经过预先锻炼能够从恣意语料库生成的任务来学习树立句子之间的关系,并让开发人员能够在 30 分钟内基于一个云 TPU(张量处置单元,谷歌的云托管加速器硬件)或者在几个小时内基于单个图形处置单元锻炼出“最先进”的 NLP 模型。

Hinton 解释说,“Transformer 其实是神经网络。在神经网络中,活动变化很快,而权重变化迟缓。生物学通知你,你需求做的是具有快速变化的活动,然后基于很多不同的时间尺度修正突触,这样你就能够记住最近发作的事情…… 或者很容易恢复记忆。运用 Transformer,一群神经元会找到一些东西,而且不只仅是将它们发送给它所衔接的人——它还把它们发送给那些晓得如何处置它们的人。”

这并不是一个新想法。Hinton 指出,在 20 世纪 70 年代,大多数关于神经网络的工作都集中在记忆上,目的是经过修正权重来存储信息,这样就能够重新创立信息,而不是简单地从某种方式的存储中拉取。

他说,“你实践上并没有像将文件保管在文件柜中那样存储信息——你修正参数,假如我给你一点东西,你就能够填充其他局部,就像依据一些碎片复原出一只恐龙一样。我们应该将这个想法用于短期记忆,而不只仅是长期记忆,它将处理各种各样的问题”。

AI 和成见

Hinton 以为,从生物学的角度来看,将来的人工智能系统将主要是无监视多样性。无监视学习——机器学习的一个分支,从未标志和未分类的测试数据中搜集学问——在学习共性和对它们的存在或不存在作出反响的才能方面简直是与人类是一样的。

他说,“普通来说,人们没有标志数据。我以为这是一种更具生物学意义的学习方式……这也是大脑主要要做的事情”。

Hassabis 表示同意。

他说,“我们在 DeepMind 正在努力于开发一种具有认知才能的神经科学道路图,我们以为这些认知才能是为了具有一个功用齐全的人类 AI 系统所必需的。它可以转移学习、概念学问(在某种意义上可能也是一种发明力)、想象将来的场景、反事实和将来规划、言语运用和意味性推理。这些都是人类毫不费力就能够完成的事情。”

但是,随着人工智能越来越复杂,一些技术专家和伦理学家担忧它会吸收和反映现有锻炼数据中存在的成见。事实上,有证据标明这类事情曾经发作过。

谷歌的 AI 研讨科学家最近在一个免费提供的开源数据集上设置了一个预锻炼的 AI 模型。一张照片——衣着西式长裙和全裙式婚纱的白种人新娘——被标志为“礼服”、“女性”、“婚礼”和“新娘”。但是,另一张照片——也是新娘的照片,但是是亚洲血缘,穿的是民族服饰——被标志为“服装”、“事情”和“扮演艺术”。更糟糕的是,模型完整遗漏了图片中的人物。

与此同时,在 7 月份由华盛顿邮报拜托停止的一项研讨中,亚马逊和谷歌推出的智能音箱在辨认语音时,对英语母语的人的口音辨认胜利率比非英语母语的人的口音辨认胜利率高 30%。IBM 和微软等公司运用 Switchboard 语料库来权衡语音模型错误率,而这个数据集已被证明倾向了该国特定地域的用户。

计算机视觉算法在成见方面并没有表现得更好。

2012 年发布的一项研讨标明,Cognitec 的面部辨认算法对白种人的辨认胜利率比非洲裔美国人高 5%至 10%。据透露,伦敦警察厅最近部署的系统每次都会产生多达 49 个错误的匹配。在今年夏天的亚马逊 Rekognition 效劳测试中,美国公民自在联盟证明,运用来自“公共资源”的 25,000 张照片,并将它们与国会成员的官方照片停止比拟,有 28 人被误以为是罪犯。

但 Hinton 并没有由于这些负面新闻而泄气。他以为,人工智能的优势在于它所提供的灵敏性——以及数据中的成见是可建模的。

他说,“任何从数据中学到的东西也将学习到数据中的成见。好在假如你能够对数据中的成见停止建模,你能够十分有效地抵消它们。有各种各样的办法。”

他指出,但这并不总是适用于人类。

“假如有人在做这些工作,你能够尝试对他们的成见停止建模,通知他们,表现得没有成见并不能减少成见。所以我以为在机器学习系统中处置成见要容易得多。”

在 Hinton 看来,一类新兴的成见消弭工具有望引领愈加公正的 AI 系统。

5 月份,Facebook 发布了 Fairness Flow,它会自动正告一个算法能否依据一个人的种族、性别或年龄对其做出不公平的判别。埃森哲发布了一个工具包,可自动检测 AI 算法中的成见,并协助数据科学家减轻这种成见。微软于 5 月份推出了本人的处理计划,谷歌并于 9 月份推出了 What-If 工具——为 TensorFlow 机器学习框架提供的 TensorBoard Web 仪表盘成见检测功用。

IBM 在秋季发布了 AI Fairness 360,这是一款基于云的全自动套件,不时为 AI 系统如何做出决策并停止引荐调整“提供见解”——例如算法调整或均衡数据——这可能会减轻受成见的影响。最近,Watson 和 Cloud Platform 小组的研讨重点是减轻 AI 模型中的成见,特别是与面部辨认相关的局部。

Hinton 说,“关于速度十分快的计算机来说,你如今能够开发效率不是很高的软件,这很容易了解,由于计算机的速度能够抵消掉效率问题。人们不喜欢这样做,但你喜欢这样——你想让你的代码不是那么高效,这样你就能够省心些……关于十分准确的事物,你能够让它们变得不那么准确,以此来完成你想要的其他东西。在我看来这是一个公平的权衡。”

AI 和工作

关于人工智能对就业市场的影响,Hinton 也持悲观态度。

“通用人工智能”这句话自身带有这样一种暗示,即这种机器人忽然变得比你还聪明。但我以为不会呈现那种状况。我以为越来越多的常规事情将被人工智能系统取代——比方谷歌智能助理。”

Forrester 剖析师最近预测,机器人过程自动化(RPA)和人工智能(AI)将会发明出数字工作者——软件能够自动执行传统上由人类执行的任务——明年将有超越 40%的公司,而在 2019 年,美国大约有 10%的就业时机将被自动化替代。此外,世界经济论坛、普华永道和 Gartner 预测,到 2025 年,人工智能能够替代多达 7500 万个工作岗位。

但 Hinton 以为AGI 不会让人类变得多余。相反,他说,至少在不久的未来,它在大多数状况下对世界的了解都是很短视的。而且他置信,它会以小而有意义的方式继续改善我们的生活。

他说,“将来的人工智能将会对你可能想要做的事情以及如何做到理解更多,而且它对你来说十分有用,但它不会取代你。但假如你运用一个为驾驶而开发的系统,并在它的处女驾中运用它,那可能会是一场灾难”。

Hinton 说,取代目前由人类完成的那些风险的任务倒是朝着正确方向迈出的一步。

他说:“人们真正应该惧怕的是坐在一辆由宏大的神经网络控制的汽车上,这种神经网络不会通知你它在做什么。它应该被叫做出租车司机”。

英文原文:

https://venturebeat.com/2018/12/17/geoffrey-hinton-and-demis-hassabis-agi-is-nowhere-close-to-being-a-reality/

微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2028 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注

扫码入群
扫码关注

微信公众号

返回顶部