行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 机器学习 正文

NLP-BERT 谷歌自然语言处理模型:BERT- 基于 pytorc

一、前言
最近谷歌搞了个大新闻,公司 AI 团队新发布的 BERT 模型,在机器阅读理解顶级水平测试 SQuAD1.1 中表现出惊人的成绩:全部两个衡量指标上全面超越人类,并且还在 11 种不同 NLP 测试中创出最佳成绩,包括将 GLUE 基准推至 80.4%(绝对改进 7.6%),MultiNLI 准确度达到 86.7% (绝对改进率 5.6%)等。可以预见的是,BERT 将为 NLP 带来里程碑式的改变,也是 NLP 领域近期最重要的进展。

谷歌团队的 Thang Luong 直接定义:BERT 模型开启了 NLP 的新时代!

从现在的大趋势来看,使用某种模型预训练一个语言模型看起来是一种比较靠谱的方法。从之前 AI2 的 ELMo,到 OpenAI 的 fine-tune transformer,再到 Google 的这个 BERT,全都是对预训练的语言模型的应用。

BERT 这个模型与其它两个不同的是

    它在训练双向语言模型时以减小的概率把少量的词替成了 Mask 或者另一个随机的词。我个人感觉这个目的在于使模型被迫增加对上下文的记忆。至于这个概率,我猜是 Jacob 拍脑袋随便设的。
    增加了一个预测下一句的 loss。这个看起来就比较新奇了。

BERT 模型具有以下两个特点:

第一,是这个模型非常的深,12 层,并不宽 (wide),中间层只有 1024,而之前的 Transformer 模型中间层有 2048。这似乎又印证了计算机图像处理的一个观点——深而窄 比 浅而宽 的模型更好。

第二,MLM(Masked Language Model),同时利用左侧和右侧的词语,这个在 ELMo 上已经出现了,绝对不是原创。其次,对于 Mask(遮挡)在语言模型上的应用,已经被 Ziang Xie 提出了(我很有幸的也参与到了这篇论文中):[1703.02573] Data Noising as Smoothing in Neural Network Language Models。

https://arxiv.org/abs/1703.02573

这也是篇巨星云集的论文:Sida Wang,Jiwei Li(香侬科技的创始人兼 CEO 兼史上发文最多的 NLP 学者),Andrew Ng,Dan Jurafsky 都是 Coauthor。但很可惜的是他们没有关注到这篇论文。用这篇论文的方法去做 Masking,相信 BRET 的能力说不定还会有提升。

BERT 2018 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding Paper URL : https://arxiv.org/abs/1810.04805

二、如何理解 BERT 模型

[1] BERT 要解决什么问题?

通常情况 transformer 模型有很多参数需要训练。譬如 BERT BASE 模型: L=12, H=768, A=12, 需要训练的模型参数总数是 12 * 768 * 12 = 110M。这么多参数需要训练,自然需要海量的训练语料。如果全部用人力标注的办法,来制作训练数据,人力成本太大。

受《A Neural Probabilistic Language Model》论文的启发,BERT 也用 unsupervised 的办法,来训练 transformer 模型。神经概率语言模型这篇论文,主要讲了两件事儿,1. 能否用数值向量(word vector)来表达自然语言词汇的语义?2. 如何给每个词汇,找到恰当的数值向量?

这篇论文写得非常精彩,深入浅出,要言不烦,而且面面俱到。经典论文,值得反复咀嚼。很多同行朋友都熟悉这篇论文,内容不重复说了。常用的中文汉字有 3500 个,这些字组合成词汇,中文词汇数量高达 50 万个。假如词向量的维度是 512,那么语言模型的参数数量,至少是 512 * 50 万 = 256M

模型参数数量这么大,必然需要海量的训练语料。从哪里收集这些海量的训练语料?《A Neural Probabilistic Language Model》这篇论文说,每一篇文章,天生是训练语料。难道不需要人工标注吗?回答,不需要。

我们经常说,“说话不要颠三倒四,要通顺,要连贯”,意思是上下文的词汇,应该具有语义的连贯性。基于自然语言的连贯性,语言模型根据前文的词,预测下一个将出现的词。如果语言模型的参数正确,如果每个词的词向量设置正确,那么语言模型的预测,就应该比较准确。天下文章,数不胜数,所以训练数据,取之不尽用之不竭。

深度学习四大要素,1. 训练数据、2. 模型、3. 算力、4. 应用。训练数据有了,接下去的问题是模型。

[2] BERT 的五个关键词 Pre-training、Deep、Bidirectional、Transformer、Language Understanding 分别是什么意思?

《A Neural Probabilistic Language Model》这篇论文讲的 Language Model,严格讲是语言生成模型(Language Generative Model),预测语句中下一个将会出现的词汇。语言生成模型能不能直接移用到其它 NLP 问题上去?

譬如,淘宝上有很多用户评论,能否把每一条用户转换成评分?-2、-1、0、1、2,其中 -2 是极差,+2 是极好。假如有这样一条用户评语,“买了一件鹿晗同款衬衫,没想到,穿在自己身上,不像小鲜肉,倒像是厨师”,请问这条评语,等同于 -2,还是其它?

语言生成模型,能不能很好地解决上述问题?进一步问,有没有 “通用的” 语言模型,能够理解语言的语义,适用于各种 NLP 问题?BERT 这篇论文的题目很直白,《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》,一眼看去,就能猜得到这篇文章会讲哪些内容。

这个题目有五个关键词,分别是 Pre-training、Deep、Bidirectional、Transformers、和 Language Understanding。其中 pre-training 的意思是,作者认为,确实存在通用的语言模型,先用文章预训练通用模型,然后再根据具体应用,用 supervised 训练数据,精加工(fine tuning)模型,使之适用于具体应用。为了区别于针对语言生成的 Language Model,作者给通用的语言模型,取了一个名字,叫语言表征模型 Language Representation Model。

能实现语言表征目标的模型,可能会有很多种,具体用哪一种呢?作者提议,用 Deep Bidirectional Transformers 模型。假如给一个句子 “能实现语言表征 [mask] 的模型”,遮盖住其中“目标”一词。从前往后预测[mask],也就是用“能 / 实现 / 语言 / 表征”,来预测[mask];或者,从后往前预测[mask],也就是用“模型 / 的”,来预测[mask],称之为单向预测 unidirectional。单向预测,不能完整地理解整个语句的语义。于是研究者们尝试双向预测。把从前往后,与从后往前的两个预测,拼接在一起 [mask1/mask2],这就是双向预测 bi-directional。细节参阅《Neural Machine Translation by Jointly Learning to Align and Translate》。

BERT 的作者认为,bi-directional 仍然不能完整地理解整个语句的语义,更好的办法是用上下文全向来预测 [mask],也就是用 “能 / 实现 / 语言 / 表征 /../ 的 / 模型”,来预测 [mask]。BERT 作者把上下文全向的预测方法,称之为 deep bi-directional。如何来实现上下文全向预测呢?BERT 的作者建议使用 Transformer 模型。这个模型由《Attention Is All You Need》一文发明。

这个模型的核心是聚焦机制,对于一个语句,可以同时启用多个聚焦点,而不必局限于从前往后的,或者从后往前的,序列串行处理。不仅要正确地选择模型的结构,而且还要正确地训练模型的参数,这样才能保障模型能够准确地理解语句的语义。BERT 用了两个步骤,试图去正确地训练模型的参数。第一个步骤是把一篇文章中,15% 的词汇遮盖,让模型根据上下文全向地预测被遮盖的词。假如有 1 万篇文章,每篇文章平均有 100 个词汇,随机遮盖 15% 的词汇,模型的任务是正确地预测这 15 万个被遮盖的词汇。通过全向预测被遮盖住的词汇,来初步训练 Transformer 模型的参数。然后,用第二个步骤继续训练模型的参数。譬如从上述 1 万篇文章中,挑选 20 万对语句,总共 40 万条语句。挑选语句对的时候,其中 210 万对语句,是连续的两条上下文语句,另外 210 万对语句,不是连续的语句。然后让 Transformer 模型来识别这 20 万对语句,哪些是连续的,哪些不连续。

这两步训练合在一起,称为预训练 pre-training。训练结束后的 Transformer 模型,包括它的参数,是作者期待的通用的语言表征模型。

三、BERT 模型解析

首先来看下谷歌 AI 团队做的这篇论文。

BERT 的新语言表示模型,它代表 Transformer 的双向编码器表示。与最近的其他语言表示模型不同,BERT 旨在通过联合调节所有层中的上下文来预先训练深度双向表示。因此,预训练的 BERT 表示可以通过一个额外的输出层进行微调,适用于广泛任务的最先进模型的构建,比如问答任务和语言推理,无需针对具体任务做大幅架构修改。

论文作者认为现有的技术严重制约了预训练表示的能力。其主要局限在于标准语言模型是单向的,这使得在模型的预训练中可以使用的架构类型很有限。

在论文中,作者通过提出 BERT:即 Transformer 的双向编码表示来改进基于架构微调的方法。

BERT 提出一种新的预训练目标:遮蔽语言模型(masked language model,MLM),来克服上文提到的单向性局限。MLM 的灵感来自 Cloze 任务(Taylor, 1953)。MLM 随机遮蔽模型输入中的一些 token,目标在于仅基于遮蔽词的语境来预测其原始词汇 id。

与从左到右的语言模型预训练不同,MLM 目标允许表征融合左右两侧的语境,从而预训练一个深度双向 Transformer。除了遮蔽语言模型之外,本文作者还引入了一个“下一句预测”(next sentence prediction)任务,可以和 MLM 共同预训练文本对的表示。

论文的主要贡献在于:

    证明了双向预训练对语言表示的重要性。与之前使用的单向语言模型进行预训练不同,BERT 使用遮蔽语言模型来实现预训练的深度双向表示。
    论文表明,预先训练的表示免去了许多工程任务需要针对特定任务修改体系架构的需求。 BERT 是第一个基于微调的表示模型,它在大量的句子级和 token 级任务上实现了最先进的性能,强于许多面向特定任务体系架构的系统。
    BERT 刷新了 11 项 NLP 任务的性能记录。本文还报告了 BERT 的模型简化研究(ablation study),表明模型的双向性是一项重要的新成果。相关代码和预先训练的模型将会公布在 goo.gl/language/bert 上。

BERT 目前已经刷新的 11 项自然语言处理任务的最新记录包括:将 GLUE 基准推至 80.4%(绝对改进 7.6%),MultiNLI 准确度达到 86.7% (绝对改进率 5.6%),将 SQuAD v1.1 问答测试 F1 得分纪录刷新为 93.2 分(绝对提升 1.5 分),超过人类表现 2.0 分。
论文的核心:详解 BERT 模型架构

本节介绍 BERT 模型架构和具体实现,并介绍预训练任务,这是这篇论文的核心创新。

模型架构

BERT 的模型架构是基于 Vaswani et al. (2017) 中描述的原始实现 multi-layer bidirectional Transformer 编码器,并在 tensor2tensor 库中发布。由于 Transformer 的使用最近变得无处不在,论文中的实现与原始实现完全相同,因此这里将省略对模型结构的详细描述。

在这项工作中,论文将层数(即 Transformer blocks)表示为 L,将隐藏大小表示为 H,将 self-attention heads 的数量表示为 A。在所有情况下,将 feed-forward/filter 的大小设置为 4H,即 H = 768 时为 3072,H = 1024 时为 4096。论文主要报告了两种模型大小的结果:

    BERT_{BASE} : L=12, H=768, A=12, Total Parameters=110M
    BERT_{LARGE} : L=24, H=1024, A=16, Total Parameters=340M

为了进行比较,论文选择了 BERT_{LARGE} ,它与 OpenAI GPT 具有相同的模型大小。然而,重要的是,BERT Transformer 使用双向 self-attention,而 GPT Transformer 使用受限制的 self-attention,其中每个 token 只能处理其左侧的上下文。研究团队注意到,在文献中,双向 Transformer 通常被称为“Transformer encoder”,而左侧上下文被称为“Transformer decoder”,因为它可以用于文本生成。BERT,OpenAI GPT 和 ELMo 之间的比较如图 1 所示。

图 1:预训练模型架构的差异。BERT 使用双向 Transformer。OpenAI GPT 使用从左到右的 Transformer。ELMo 使用经过独立训练的从左到右和从右到左 LSTM 的串联来生成下游任务的特征。三个模型中,只有 BERT 表示在所有层中共同依赖于左右上下文。

输入表示(input representation)

论文的输入表示(input representation)能够在一个 token 序列中明确地表示单个文本句子或一对文本句子(例如, [Question, Answer])。对于给定 token,其输入表示通过对相应的 token、segment 和 position embeddings 进行求和来构造。图 2 是输入表示的直观表示:

图 2:BERT 输入表示。输入嵌入是 token embeddings, segmentation embeddings 和 position embeddings 的总和。

具体如下:

    使用 WordPiece 嵌入(Wu et al., 2016)和 30,000 个 token 的词汇表。用 ## 表示分词。
    使用学习的 positional embeddings,支持的序列长度最多为 512 个 token。
    每个序列的第一个 token 始终是特殊分类嵌入([CLS])。对应于该 token 的最终隐藏状态(即,Transformer 的输出)被用作分类任务的聚合序列表示。对于非分类任务,将忽略此向量。
    句子对被打包成一个序列。以两种方式区分句子。首先,用特殊标记([SEP])将它们分开。其次,添加一个 learned sentence A 嵌入到第一个句子的每个 token 中,一个 sentence B 嵌入到第二个句子的每个 token 中。
    对于单个句子输入,只使用 sentence A 嵌入。

关键创新:预训练任务

与 Peters et al. (2018) 和 Radford et al. (2018) 不同,论文不使用传统的从左到右或从右到左的语言模型来预训练 BERT。相反,使用两个新的无监督预测任务对 BERT 进行预训练。

任务 1: Masked LM

从直觉上看,研究团队有理由相信,深度双向模型比 left-to-right 模型或 left-to-right and right-to-left 模型的浅层连接更强大。遗憾的是,标准条件语言模型只能从左到右或从右到左进行训练,因为双向条件作用将允许每个单词在多层上下文中间接地“see itself”。

为了训练一个深度双向表示(deep bidirectional representation),研究团队采用了一种简单的方法,即随机屏蔽(masking)部分输入 token,然后只预测那些被屏蔽的 token。论文将这个过程称为“masked LM”(MLM),尽管在文献中它经常被称为 Cloze 任务 (Taylor, 1953)。

在这个例子中,与 masked token 对应的最终隐藏向量被输入到词汇表上的输出 softmax 中,就像在标准 LM 中一样。在团队所有实验中,随机地屏蔽了每个序列中 15% 的 WordPiece token。与去噪的自动编码器(Vincent et al., 2008)相反,只预测 masked words 而不是重建整个输入。

虽然这确实能让团队获得双向预训练模型,但这种方法有两个缺点。首先,预训练和 finetuning 之间不匹配,因为在 finetuning 期间从未看到 [MASK]token。为了解决这个问题,团队并不总是用实际的 [MASK]token 替换被“masked”的词汇。相反,训练数据生成器随机选择 15%的 token。例如在这个句子“my dog is hairy”中,它选择的 token 是“hairy”。然后,执行以下过程:

数据生成器将执行以下操作,而不是始终用 [MASK] 替换所选单词:

    80%的时间:用 [MASK] 标记替换单词,例如,my dog is hairy → my dog is [MASK]
    10%的时间:用一个随机的单词替换该单词,例如,my dog is hairy → my dog is apple
    10%的时间:保持单词不变,例如,my dog is hairy → my dog is hairy. 这样做的目的是将表示偏向于实际观察到的单词。

Transformer encoder 不知道它将被要求预测哪些单词或哪些单词已被随机单词替换,因此它被迫保持每个输入 token 的分布式上下文表示。此外,因为随机替换只发生在所有 token 的 1.5%(即 15%的 10%),这似乎不会损害模型的语言理解能力。

使用 MLM 的第二个缺点是每个 batch 只预测了 15%的 token,这表明模型可能需要更多的预训练步骤才能收敛。团队证明 MLM 的收敛速度略慢于 left-to-right 的模型(预测每个 token),但 MLM 模型在实验上获得的提升远远超过增加的训练成本。

任务 2:下一句预测

许多重要的下游任务,如问答(QA)和自然语言推理(NLI)都是基于理解两个句子之间的关系,这并没有通过语言建模直接获得。

在为了训练一个理解句子的模型关系,预先训练一个二进制化的下一句测任务,这一任务可以从任何单语语料库中生成。具体地说,当选择句子 A 和 B 作为预训练样本时,B 有 50%的可能是 A 的下一个句子,也有 50%的可能是来自语料库的随机句子。例如:

Input = [CLS] the man went to [MASK] store [SEP]

he bought a gallon [MASK] milk [SEP]

Label = IsNext

Input = [CLS] the man [MASK] to the store [SEP]

penguin [MASK] are flight ##less birds [SEP]

Label = NotNext

团队完全随机地选择了 NotNext 语句,最终的预训练模型在此任务上实现了 97%-98%的准确率。

实验结果

如前文所述,BERT 在 11 项 NLP 任务中刷新了性能表现记录!在这一节中,团队直观呈现 BERT 在这些任务的实验结果,具体的实验设置和比较请阅读原论文.

图 3:我们的面向特定任务的模型是将 BERT 与一个额外的输出层结合而形成的,因此需要从头开始学习最小数量的参数。在这些任务中,(a)和(b)是序列级任务,而(c)和(d)是 token 级任务。在图中,E 表示输入嵌入,Ti 表示 tokeni 的上下文表示,[CLS] 是用于分类输出的特殊符号,[SEP] 是用于分隔非连续 token 序列的特殊符号。

图 4:GLUE 测试结果,由 GLUE 评估服务器给出。每个任务下方的数字表示训练样例的数量。“平均”一栏中的数据与 GLUE 官方评分稍有不同,因为我们排除了有问题的 WNLI 集。BERT 和 OpenAI GPT 的结果是单模型、单任务下的数据。所有结果来自https://gluebenchmark.com/leaderboard 和 https://blog.openai.com/language-unsupervised/

图 5:SQuAD 结果。BERT 集成是使用不同预训练检查点和 fine-tuning seed 的 7x 系统。

图 6:CoNLL-2003 命名实体识别结果。超参数由开发集选择,得出的开发和测试分数是使用这些超参数进行五次随机重启的平均值。

四、BERT 模型的影响

BERT 是一个语言表征模型(language representation model),通过超大数据、巨大模型、和极大的计算开销训练而成,在 11 个自然语言处理的任务中取得了最优(state-of-the-art, SOTA)结果。或许你已经猜到了此模型出自何方,没错,它产自谷歌。估计不少人会调侃这种规模的实验已经基本让一般的实验室和研究员望尘莫及了,但它确实给我们提供了很多宝贵的经验:

    深度学习就是表征学习 (Deep learning is representation learning):“We show that pre-trained representations eliminate the needs of many heavily engineered task-specific architectures”. 在 11 项 BERT 刷出新境界的任务中,大多只在预训练表征(pre-trained representation)微调(fine-tuning)的基础上加一个线性层作为输出(linear output layer)。在序列标注的任务里(e.g. NER),甚至连序列输出的依赖关系都先不管(i.e. non-autoregressive and no CRF),照样秒杀之前的 SOTA,可见其表征学习能力之强大。
    规模很重要(Scale matters):“One of our core claims is that the deep bidirectionality of BERT, which is enabled by masked LM pre-training, is the single most important improvement of BERT compared to previous work”. 这种遮挡(mask)在语言模型上的应用对很多人来说已经不新鲜了,但确是 BERT 的作者在如此超大规模的数据 + 模型 + 算力的基础上验证了其强大的表征学习能力。这样的模型,甚至可以延伸到很多其他的模型,可能之前都被不同的实验室提出和试验过,只是由于规模的局限没能充分挖掘这些模型的潜力,而遗憾地让它们被淹没在了滚滚的 paper 洪流之中。
    预训练价值很大(Pre-training is important):“We believe that this is the first work to demonstrate that scaling to extreme model sizes also leads to large improvements on very small-scale tasks, provided that the model has been sufficiently pre-trained”. 预训练已经被广泛应用在各个领域了(e.g. ImageNet for CV, Word2Vec in NLP),多是通过大模型大数据,这样的大模型给小规模任务能带来的提升有几何,作者也给出了自己的答案。BERT 模型的预训练是用 Transformer 做的,但我想换做 LSTM 或者 GRU 的话应该不会有太大性能上的差别,当然训练计算时的并行能力就另当别论了。

对 BERT 模型的观点

0. high-performance 的原因其实还是归结于两点,除了模型的改进,更重要的是用了超大的数据集(BooksCorpus 800M + English Wikipedia 2.5G 单词)和超大的算力(对应于超大模型)在相关的任务上做预训练,实现了在目标任务上表现的单调增长

1. 这个模型的双向和 Elmo 不一样,大部分人对他这个双向在 novelty 上的 contribution 的大小有误解,我觉得这个细节可能是他比 Elmo 显著提升的原因。Elmo 是拼一个左到右和一个右到左,他这个是训练中直接开一个窗口,用了个有顺序的 cbow。

2. 可复现性差:有钱才能为所欲为(Reddit 对跑一次 BERT 的价格讨论)

  最后他问到:For GPU:"BERT-Large is 24-layer, 1024-hidden and was trained for 40 epochs over a 3.3 billion word corpus. So maybe 1 year to train on 8 P100s?" ,然后这个就很 interesting 了。 

完整源码下载地址:

关注微信公众号 datayx  然后回复 bert 即可获取。

BERT-Pytorch 使用

https://blog.csdn.net/qq_39521554/article/details/83062188

微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2028 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注

扫码入群
扫码关注

微信公众号

返回顶部