人工智能仍然存在信任问题
IBM Research副总裁Jeff Welser表示,过去一年来,业界曾经在AI方面到达几项开展里程碑了,估计在2019年将持续关注于三大关键范畴。他说,关于企业而言,将以AI驱动的认知处理计划带入可使其轻松导入的平台,不只是一项战略性业务需求,同时也增加了AI的了解,以及处理成见和信任等问题。
在推进AI的停顿方面,Welser表示业界已在几个方面获得停顿,包括了解语音和剖析影像。例如,IBM的Project Debater方案已能将目前的AI语音了解才能扩展到答复简单问题的任务之外,让机器更能了解人们可能何时提出争论,并使其超越仅限于“搜索类固醇”(search on steroids)这一类的简单任务。例如,提出一个没有固定答案的问题——政府能否应该进步关于远距医疗的投资。
Welser说,好像让AI更能了解所说的内容一样至关重要的是,它在更快、更精确地辨识所看到的内容方面也获得了长足停顿。IBM的作法并非请求提供数千或以至数百万幅标志影像来锻炼视觉辨识模型,而是证明AI如今以至能够只用一个例子作为辨识新对象的指导准绳,这让AI得以扩展。
Welser说,让AI学习变得可扩展的另一种方式是让AI代理之间互相学习。IBM研讨人员开发了一种架构和算法,让AI代理之间得以交流学问,从而比以前的办法学得更快。此外,他说,他们还能够学会调整现有办法失败之处。
“假如你面对更复杂的任务,其实并不用一定要锻炼一个大型系统,”Welser说,“但你能够采用个别系统并将它们分离起来共同完成任务。”
降低深度学习模型的复杂度
在降低深度学习模型所需的运算资源方面也正获得停顿。2015年,IBM引见如何运用16位精度锻炼深度学习模型,而今,该公司强调 8位精度也不至于折衷各种主要AI数据集类别(包括影像、语音和文本)的模型精确度。AI的调整也能够透过新的神经网络架构搜索技术来完成,从而减少设计网络所需的繁重工作。
这些停顿都树立在AI必需值得信任的事实根底上,Welser表示,明年将会有很多工作都关注在这一点。就像其他技术一样,AI可能会遭到歹意控制,因而它必需可以预测对立性攻击。
如今,AI可能很容易遭到所谓“对立示例”(adversarial examples)的影响,黑客可能会在你不知不觉时改动影像,诈骗深度学习模型,而将其分类为攻击者所需的各品种别。IBM Research的处理方法是采用一种不依赖于特定攻击(attack-agnostic)的措施,以评价神经网络的稳健性,并指导系统如何检测和防御攻击。
另一个难题是神经网络常常是黑盒子——关于他们如何做出决议并非显而易见的,Welser说。缺乏透明度是关于AI信任的一项障碍。同时,消弭成见也很重要,由于AI越来越依赖于决策,他说,但这相当具有应战性。
Wesler说:“截至目前为止,我们曾经看到大多数人都十分兴奋地展开AI系统设计,使其可以完成某些任务。然后他们会试着搞分明所设计的AI系统能否存有成见或者能否平安稳健,或者他们所做的决议能否有问题。”
时间:2019-01-01 23:01 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
相关推荐:
网友评论:
最新文章
热门文章