Hinton新作!越大的自监督模型,半监督学习需要
本文介绍了Hinton团队发表在NeurIPS 2020上的一项研究工作,一作是Ting Chen,研究人员首次在ImageNet上尝试了半监督学习的典型范式,并取得了优越的结果。此外,他们还发现,网络的规模越大,需要的标签数据越少。
论文地址:https://arxiv.org/abs/2006.10029
仅使用1%的标签(每类≤13个标签图像),本文提出的方法即可达到73.9%ImageNet top-1准确率,与以前的SOTA相比,标签效率提高了10倍。
使用10%的标签,本文的方法可以达到77.5%的top-1准确率,优于使用100%标签的标准监督训练。
“无监督预训练、监督微调”范式
充分利用少量标记示例和大量未标记示例进行学习是的一个长期存在的问题。
人们曾经提出一种半监督学习来试图解决这个问题,其中涉及无监督或自监督的预训练,然后进行有监督的微调。
这种方法在预训练期间以与任务无关的方式利用未标记的数据,仅在有监督微调时使用带标签的数据。
这种方法在计算机视觉上很少受关注,但是在自然语言处理中已成为主流。例如,人们首先在未标记的文本(例如Wikipedia)上训练大型语言模型,然后在一些带标记的示例中对该模型进行微调。
基于视觉表示的自监督学习的进展,Ting Chen等人对ImageNet上的半监督学习进行了深入研究,并首次探索了“无监督预训练、监督微调”范式。
通过与任务无关的方式使用未标记数据,作者发现,网络规模非常重要。
也就是说,使用大型(在深度和广度上)进行自监督的预训练和微调,可以大大提高准确率。
除了网络规模之外,作者表示,这项研究还为对比表示学习提供了一些重要的设计选择,这些选择有益于监督微调和半监督学习。
一旦卷积网络完成了预训练和微调,其在特定任务上的预测就可以得到进一步改善,并可以提炼成更小的网络。
为此,作者接下来再次使用了未标记的数据,以让学生网络模仿教师网络的标签预测。
这种使用未标记数据的蒸馏阶段类似于自训练中伪标签的使用,但没有增加太多额外的复杂性。
作者提出的半监督学习框架包括三个步骤,如图3所示。
(1)无监督或自我监督的预训练;
(2)有监督的微调;
(3)使用未标记的数据进行蒸馏。
图3:本文提出的半监督学习框架。该框架通过两种方式利用未标记的数据:(1)在无监督的预训练中与任务无关的用法,(2)在自训练/蒸馏中的任务特定的用法。
此外,作者还开发了对比学习框架SimCLR的改进版本,用于ResNet架构的无监督预训练,此框架被称为SimCLRv2。
在ImageNet ILSVRC-2012上评估该方法的有效性,作者发现,仅需要1%和10%的标签,就可以实现与过去SOTA方法相当的性能。
作者表示,对于这种范式的半监督学习,标记越少,就越有可能受益于更大的模型,如图1所示。
图1:使用较少标记的示例进行微调时,较大的模型会产生较大的收益。
较大的自监督模型具有更高的标签效率,即使仅对少数几个带有示例的示例进行微调,它们的性能也明显更好。
因此,通过未标记数据的特定任务使用,可以进一步提高模型的预测性能,并将其迁移到较小的网络中。
作者进一步证明了,在SimCLR中用于半监督学习的卷积层之后,进行非线性变换(又称投影头)很重要。
更深的投影头不仅可以改善通过线性评估测得的表示质量,而且还可以改善从投影头中间层进行微调时的半监督性能。
结合这些发现,该框架在ImageNet上实现了半监督学习的SOTA,如图2所示。
图2:仅使用1%/10%的标签,在ImageNet上,以前的SOTA方法和本文方法(SimCLRv2)的top-1准确率。虚线表示完全监督下的ResNet-50进行100%标签训练。完整比较见表3。
在线性评估协议下,SimCLRv2实现了79.8%的top-1准确率,相对于之前的SOTA的改进为4.3%。
如果仅对1%/ 10%的标记示例进行微调,并使用未标记的示例将其蒸馏至相同的架构,则可以达到76.6%/ 80.9%的top-1准确率,相对于以前的SOTA,准确率提高了21.6%/ 8.7%。
通过蒸馏,这些改进也可以迁移到较小的ResNet-50网络中,使用1%/ 10%的标签达到73.9%/ 77.5%的top-1准确率。
相比之下,对所有标签图像进行训练的标准监督ResNet-50可以达到76.6%的top-1准确率。
表3:在半监督设置下训练的模型的ImageNet准确率。对于本文的方法,上表展示了在微调后进行蒸馏的结果。对于较小的模型,使用自蒸馏的ResNet-152(3×+ SK)作为教师网络。
关于一作
Ting Chen于2019年加入谷歌大脑,担任研究科学家。他在2019年3月获得了加州大学洛杉矶分校计算机科学系的博士学位,导师是UCLA计算机科学系的副教授孙怡舟。他也是论文SimCLR的一作。
声明:文章收集于网络,版权归原作者所有,为传播信息而发,如有侵权,请联系小编删除,谢谢!
欢迎加入本站公开兴趣群
商业智能与数据分析群
兴趣范围包括:各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识
QQ群:81035754
时间:2020-12-12 22:21 来源: 转发量:次
声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。
相关文章:
- [机器学习]2021年进入AI和ML领域之前需要了解的10件事
- [机器学习]Facebook新AI模型SEER实现自监督学习,LeCun大赞最有
- [机器学习]来自Facebook AI的多任务多模态的统一Transformer:向
- [机器学习]一文详解深度学习最常用的 10 个激活函数
- [机器学习]增量学习(Incremental Learning)小综述
- [机器学习]更深、更轻量级的Transformer!Facebook提出:DeLigh
- [机器学习]盘点近期大热对比学习模型:MoCo/SimCLR/BYOL/SimSi
- [机器学习]AAAI21最佳论文Informer:效果远超Transformer的长序列
- [机器学习]深度学习中的3个秘密:集成、知识蒸馏和蒸馏
- [机器学习]让研究人员绞尽脑汁的Transformer位置编码
相关推荐:
网友评论:
最新文章
热门文章