计算所山世光:AI方法论需升级,疫后 AI 将如何
曾被誉为的三驾马车——、算力、数据,到了需要反思的时刻。特别是在学术前沿的后续发展乏力,恐难支撑AI能力继续升级。
步入新的十年后,如今 AI 可能已经到了一个拐点时刻。
那么接下来,AI 技术将如何发展、应用?随着国内疫情的结束,这逐渐成为领域内众多研究者和从业者亟需回答的一个关键问题。
4 月 9 日,中国科协学会学术部、中国科学报联合腾讯科协、腾讯发展研究办公室举办了一场非常及时的线上论坛活动,主题为“人工智能:科技与经济融合新引擎”。众多学者专家纷纷回答了疫后人工智能科技与经济融合发展的诸多问题。
AI 科技评论本着对人工智能技术重点关注,选取中科院计算所研究员、中科视拓创始人山世光的报告内容做以整理,分享给大家。
山世光研究员的报告分为两大部分,先是从研究的角度,他认为AI方法论将从「数据驱动」转向「知识+数据联合驱动」;在后一部分,他从行业发展的层面提出了五大观点和建议。这些内容具有深刻的洞见性。
1、从学术前沿视角来看,深度学习已成强弩之末
在过去十年里,人工智能的研究从过去依靠规则、知识来设计人工智能算法这样一套方法论,逐渐过渡到了以数据为主要驱动力的方法论。
在这个方法论的指导下,靠着“三驾马车”——算法、大数据、强算力,支撑起了现在的AI能力。算法上主要以深度学习为主,数据则强调要足够大(且是有监督的标注数据),由于深度学习动辄需要通过训练设定上亿的参数也导致了非常依赖强大算力的支撑。
于是,只要满足下面两个条件的AI任务,都能够得到好的解决:
1)专用AI任务(而非通用AI)。例如医疗影像中,看肺炎的AI就只能看肺炎,不能看肝炎;看CT的AI就只能看CT,不能看核磁。
2)“好”数据肥沃(通过商业模式大量获取数据)。所谓好数据,一方面要有较大的规模,另一方面则是要有好的标注。
但这样的AI,离我们所期望的相距甚远。
微软亚洲研究院院长洪小文博士曾提出如下的AI能力金字塔(黄色字体是山世光增加内容):
按照这种金字塔层次,目前的AI技术仍还停留在第二层的「感知和简单推理」上面,也即相当于非人类灵长类动物的层次。
如何更进一步,向上做到认知、情感、创造,甚至智慧呢?
山世光认为我们至少需要做以下几种能力的提升——
然而,现有的AI方法论并不足以支撑AI能力继续升级。
首先,算法、算力、数据这三架马车已略显疲软。算力提升和大数据收集都需要投入资源,但算法却大多是一个模型对一个任务,现在是问题很多,方法却有限。
其次,深度学习在工业界还在靠大数据和大算力进行应用研究,由于没有强大的理论支撑,有些算力和数据会浪费在试错上,这一点现在已经变得越来越明显。
而另一方面,在学术前沿上,深度学习显示出的潜力有限。为什么呢?因为它本身无法克服高度数据依赖问题,无法像人一样基于“弱”、“小”数据进行较精确而且鲁棒的学习!现有研究还都寄希望于基于深度学习来解决数据依赖的问题,希望能够赋予从弱监督、小数据来学习的能力,但从原理上来说,如果没有别的数据或知识做支撑,这几乎是不可能的。我们必须找到全新的方法。
2、未来10年的AI方法论:知识+数据联合驱动
AI 能力的升级,必须依赖AI 方法论的升级,而这归结到本质,还是算法的革新。
山世光研究员提出如下几种亟需发展的AI算法——
举例来说,算法能否在数据量减小到原来10%甚至1%,同时还保持和原来相当的能力呢?在现有的算法(纯数据驱动)中,是否可以加入知识,或者已有的其他数据或模型,做到知识和数据联合驱动?……事实上,已经有许多研究单位在做,也是当下AI算法上最值得探索的几个研究方向之一。
针对以上内容,山世光从「数据依赖」的角度做了详细说明。前面提到,当前人工智能的方法是强大 (强监督、大规模) 数据依赖。但我们知道人类智能并不是如此,简单举几例人类的能力:
归纳和演绎推理:从个别到一般,再从一般到个别;
举一反三&触类旁通:类似推演&迁移学习;
吃一堑长一智:从少量错误中学习(修改模型);
预测检验:时刻预测并修正误差;自纠错学习;
元方法:道生一,一生二,二生三,三生万物;
融会贯通:多模态、多学科知识校验和融合;
想象力和创造力:无中生有,外插而非内插。
从这些能力中,我们可以看出,人类的智能本质上是一种知识+弱小(弱监督、小样本)数据驱动的方法。这种特性值得我们参考。
山世光研究员认为,人类能够做到小数据的学习,原因在于有知识的积累。因此如何把知识融合到机器当中,对于AI算法非常重要。这里的知识既可能是人类总结出的知识,也可以是已有AI学到的知识,他把后面这种知识称之为“机器知识”。
所谓“机器知识”,不同于“人类知识”,很可能不是人类可阅读的,甚至不是人类可理解的。如山世光研究员所说,当我们已经用算法解决了N个任务(例如识别人脸、猴脸、马脸、狗脸、牛脸等)后,机器就有可能从这些任务中总结出一些通用任务的规则,作为“元”模型。
有了“机器知识”,即使是小数据/无数据的任务,也能够获得好的性能。例如可以借助上述从人 / 猴、马、狗、牛等学习到的脸部识别模型,得出一个关于脸的“元”模型,用来识别考拉脸、鱼脸、熊猫脸等。
(现在的方法则往往是,识别一个动物,就要收集大量这个动物的脸部照片,换种动物就得重新收集和学习,既不高效,也不优雅,甚至笨拙的有点可笑。)
事实上,这种研究本质上是多任务协同的问题,在2018年已经有人在做,CVPR 2018的较佳论文正是其中的代表,这个工作研究了26个不同任务之间的关系,以及如何可以互相支撑,从而减少对标注数据的需求。
基于以上的分析,山世光研究员认为,AI的方法论,在过去十年逐渐变为以强、大数据驱动为主,但接下来的十年或更长时间里,知识和数据联合驱动将成为主流。当然这里的知识,并不仅仅指人类可以理解的知识,也可能是许多人类无法理解的“机器知识”。
3、五大观点&建议
在报告的后半部分,山世光研究员针对目前我国的人工智能发展,提出了五大观点和建议,如下:
1、AI应用研究方面差距不大
中美(欧)之间在应用研究上差距不大,但我们在各行业纵深应用(即在其他研究领域)上仍需努力。例如,AI在生物信息领域的应用,西方的积淀很多,深度学习也渗透了很多,而我国在这方面就需要努力赶超。
2、AI基础研究方面差距不容小觑
中美(欧)差距在缩小,但中国加速度不够。过去十年最具代表性的方法主要还是来自欧美大学或企业,平起平坐恐怕至少还需要5-10年或更久。我们存在的问题在于,对基础研究长期性的认知不足,缺乏起码的耐心!重大基础研究项目评估周期过短,甚至要求技术路线清晰,2年出成果。但基础研究往往是“无心插柳柳成荫,有心栽花花不开”。以深度卷积(DCNN)为例,它是1980年代的产物,过了近20年才开始发挥出威力。
3、AI基础设施方面差距不小
这包括三个方面,分别是硬件、软件和智件。
国内在基础硬件平台上的投入很大,但存在重复建设,尚未形成合力,不能充分发挥效力;另外由于深度学习的理论基础较为薄弱,无效试错导致算力浪费的现象也存在。
而另一方面,在基础软件平台上中国投入需要提升(相较北美至少落后4-8年),深度学习的主流底层框架(TensorFlow,Pytorch,MxNet)主要还是由北美国家建设,10年后,这方面可能会恰如今日之“芯片产业”,成为我们的“隐患”;最近中国有不少企业单位(百度,华为,旷视,清华,鹏城实验室...)相继发布或拟发布开源框架,希望能形成合力。山世光建议,针对低门槛的AI研发平台和工具,我们需要尽快抢占先机。
此外,山世光建议,我们在基础智件体系投入上要加大(包括基础算法研究),建议加强基础智件体系研究:从过去已有的计算中心和数据中心开始,如何建设算法中心,知识中心等,建议尽快建设国家级的“知识中心”,包括人类知识中心(通用知识+领域知识)和机器知识(成熟AI算法和模型)中心,做到已实现的AI算法可以像水、电、煤一样取用,从而避免大量重复劳动。
4、AI人才培养的倾斜力度还不够
尽管最近大家都说AI人才缺口很大,但实际上AI相关专业的研究生数量仍然不足,这种不足现在主要靠其他非AI专业的学生主动或被动AI化来缓解,这不是长久之计。国家如果真的认为人工智能是一个战略方向,应该在AI人才的培养上多一些倾斜,例如分配更多的研究生名额给AI专业。
5、产学研各自定位仍需优化
近些年,我们会注意到一个现象,就是企业大学化,大学和机构企业化。典型的表现就是,企业在发文章,而大学科研机构则在做短期的技术。背后的原因很多,包括对Long-term基础研究究竟如何评估值得探讨,帽子文化也催生了很多快餐式科研成果等。最近国家也不断的提出要破“四唯”,但更建议不要采取“一刀切”的科研评价模式,应该根据不同的领域、不同的人才类型采取不同的评价方式。此外,对企业科技创新的支持导向性也值得商榷,企业该做什么样子的创新,大学和科研机构应该做什么样的创新,可能要有一个更加正确的分类。
声明:文章收集于网络,版权归原作者所有,为传播信息而发,如有侵权,请联系小编删除,谢谢!
时间:2020-04-26 23:13 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
相关推荐:
网友评论:
最新文章
热门文章