人工智能对人类真正的威胁不是敌意而是能力
技术是中性的,只有那些能被人类控制的技术才能被人类利用。
人工智能机器人的表现给人类以深刻的印象,流水线上的机器人以其熟练准确和不知疲倦没有情绪的优势取代了大量的工人,波士顿人形机器人的后空翻引得人类一片惊叹,在惊讶之余,一些敏感的科学家已经感受到来自未来的威胁。
人工智能机器人面世以后,就以某方面的专家出现,将人类个体拉开不小的差距。随着人工智能的突破性发展,一些科学家开始担忧起来,害怕有有一天无法控制人工智能技术,使得人工智能技术成为人类的终结。史蒂芬霍金也有相似的想法,2015年,他在回答网友的问题时说过:如果人类开发出完美的人工智能,便意味着人类的终结。他解释道:人工智能技术未来必将对人类构成威胁,最大的危险不是机器人有计划地摧毁人类,而是它们完全抛弃了人类。具有了自主决策的能力的机器人不可能产生与人类敌对的意识,但它们在追求自身设定的目标时,会对人类的利益造成伤害。 真正的风险不在于敌意,而在于能力。 超级人工智能机器人将极善于达成自己设定的目标,如果它们设定的目标与我们人类的目标并不相互吻合,那我们就有麻烦了。举例来说,人有时候踩死蚂蚁,并非对蚂蚁的主观恶意,如果恰好准备在某个地区修建一个水电站,而那片地区正好有一个蚁穴,那么对于这些蚂蚁来说就是坏消息。也就是说, 机器人带给人类的伤害很大程度上是无意伤害,这就意味着人类从地球上万物灵长的地位上跌落下来,沦落为自己一手制造出来的机器人占据主导地位之下的二等公民。霍金警告,不要把我们人类放到蚂蚁的位置。比如踩死蚂蚁,机器人带给人的伤害,很多情况下是无意伤害。霍金认为,人工智能因具备了情感,最终会进化出对生存的渴望,未来一台高度发达的智能设备将逐渐发展出求生的本能,努力获取实现自身所设定的目标所需要的资源,因为生存下来,并获取更多的资源,会增加实现其他目标的机会。对于人类而言,这将导致生存危机的发生,因为我们的资源将会被掠夺。随着人工智能的发展,智能机器人就会具备生存能力,不再依赖人类,它们自我完善,自我升级,机器人世界就会出现技术大爆炸,将人类越甩越远,就像人类和蜗牛在技术上的差距。幸运的是,目前以人工智能发展来说,离发展出与人脑相当或者远超人脑的人工智能技术还存在遥远的差距。
2015年,霍金与几位顶级科学家和企业家马斯克签署了公开信,表达了对人工智能发展威胁人类发展的担忧,科学家必须确保人工智能的发展方向和人类的发展方向一致。下世纪人类的能力将被超越,机器人在掌握了人类的心理以及应对模式后,就可以轻易控制并塑造人类情感,这是对人类的另一个巨大威胁。
从上述大段的论述,我们能感受到科学家对人工智能技术的那种既兴奋又担忧的感受,这种情形并不少见。1785年发明蒸汽机的时候,有人就曾经说过:“当心不要成为机器的机器”,当科学家发现了原子能,更多的人开始担忧,害怕有一天原子弹终结了人类。这些担忧实际上还停留在对人类自控能力的担忧,并不对技术本身担忧,因为这些技术是完全掌握在人类的意志里的。
然而,对人工智能的担忧有些不同,人工智能从开始就是对人类思维和意识的模仿,起始阶段就建立在远超人类的每秒钟几十亿次的计算的基础上,和在庞大的网络中的丰富的场景生产出来的海量数据,考虑到在即将到来的万物互联的前景下,在看到量子计算机的曙光时,在新能源和新材料受益于人工智能的发展而得到突破的愿景,这些物理基础远远超越了人类的总体综合能力。可以想象,在此基础上打造出来的人工智能,总有一天将脱离人类的掌控。这种担心就是对技术本身的担忧,是对脱离开人类意志的另一种意志的担忧,人类从来没有处理过这类问题。
人工智能源自于人类的思维,也就脱离不开人类思维的局限,参照人类的社会结构,对解决霍金提出的问题也许会有一些启发。比如,资本的流动需要监管机构的监督管理。想要实现有效监管,首先需要监管机构在技术上此资本更聪明,能获取真实信息,并能对这些信息处理,发现违规的事实,比如审计会计对会计的审计,就是从不同的侧面实施这种监督,总体上要求对审计会计的能力比会计更高明;其次,在发现问题后,有能力纠正问题,纠正问题需要动用审计会计以外的其他措施,被审计的资本不具备这些措施,并且在资本设立之初就不允许资本具有这样的能力。只有在某些条件不对等的情况下,才能实现对资本的监管。这种不对等的设计,就是保障监管的有效性的基础。
回到人类对人工智能担忧的问题,由于人工智能最基本的单元是信息,那么真实的信息就是人类掌控人工智能的基础。在设计人工智能的时候,首先人类要掌握真实信息,建立完全人工的事实调查机制,或者建立脱离于人工智能网络的另一个专门用于调查事实的人工智能网络,以防止被人工智能欺骗。也可以参照人类社会的分类原则,设计不同领域的人工智能协作和相互制约,如果发展出超级人工智能大脑,对人类的监管来说是相当不利的,霍金等科学家担心的也正是这一问题;其次是对人工智能的不对等设计,禁止发展人工智能的一部分能力,只有这样设计,才能保证人类在发现人工智能的问题时,有能力实现对人工智能的监管。
然而,这些设想还只是对人工智能现阶段的推测后给出的办法,实际上,在人工智能发展的进程中,人类很难人为地阻止人工智能发展某项技能,人工智能之间有着天然的联系,那么发展出人工智能超脑,似乎也成为一种必然。
“当超级机器人研究出来时,将成为人类历史上发生过的最好或最坏的事情,把这个问题(掌控人工智能技术的发展方向)弄清楚将具有极大的价值,我们或许将花费几十年才能找出问题的答案,那么就让我们从今天开始启动这项研究,而不是拖到在超级机器人被启动的前一天晚上。”相信霍金的这段话,将伴随人工智能发展的全过程。
时间:2018-11-29 23:09 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
相关推荐:
网友评论:
最新文章
热门文章