【pytorch】BERT



2022年10月23日    Author:Guofei

文章归类: 0x26_torch    文章编号: 274

版权声明:本文作者是郭飞。转载随意,标明原文链接即可。本人邮箱
原文链接:https://www.guofei.site/2022/10/23/bert.html


为什么

RNN的问题:

  • 不能并行计算
  • 引入 Self-Attention 机制

word2vec 的问题

  • 一个词在不同的句子中的语义不一样
  • 预训练好的向量永久不变

可用于什么任务?

  • 文本语义关系。2段文本,预测3种关系:蕴含entailment(M可以推导N)、矛盾 contradiction、中立neutral
  • 文本匹配。2段文本,预测是否等价
  • 推理。二分类任务,正样本包含正确的answer,负样本包含不正确的answer
  • 文本分类(本文重点)
  • 文本相似度。2个文本之间的相似度,分数1到5
  • 抽取式阅读理解。下面有例子
  • NER
  • 带选择题的阅读理解。1个陈述句子和4个备选句子,判断哪个最有连续性

架构

bert1

编码

编码

bert2

关于token:

  • 先用tokenization 工具分词,例如playing 变成 play+ing
  • 如果是中文,不用分词,每个汉字隔开(而不是按词分割)
  • [SEP]:用来分割两句话,
  • [CLS]:用来分类两句话是否有上下文关系
  • 如果长度不足,用 [PAD] 补充。

关于 segment:用来分割 关于Position:如果没有position,就缺失了序列(或者位置)信息,所以需要position,把位置编码学出来。(细节:用正弦函数编码,而不是one-hot)

位置编码

bert3

如果不做位置编码,模型实际上就不涉及到位置信息,也就会导致单词任意互换位置不影响结果,这不符合现实。

所以加上位置编码。 bert 一般用 正弦/余弦做位置编码

bert_inp

维度说明

batch_size = 8
seq_len = 128 # 每个输入,最多 128 个词。
embedding_size = 768 # 每个向量有 768 个维度

# 词对应的 embedding 向量维度:
(batch_size, seq_len, embedding_size)

# 位置编码:
# token_type_table
# [CLS] hello world ! [SEP] good morning . [SEP]
#  0    0     0    0   0     1     1     1   1
# 0 代表前一句话,1代表后一句话
# 如果输入值是一句话,那么全0
# [CLS] hello world ! [SEP]
#   0     0     0   0   0


(2, 768)




# 补 0 机制:mask
# 如果长度不满 128 ,那么补 0: 1)词 embedding 补 0,用 0 号单词补。 2)token 直接补 0
# 然后建立一个 mask 向量,例如:
# 假设某次输入的句子长度为 80,那么
mask = [1] * 80 + [0] * (128 - 80)




# position_embedding
(128, 768)


# 最终:
# TPU计算二维矩阵效率高,因此 resize 成 1024*768 的矩阵

Self-attention

Self-attention 是做什么的?

  • The animal did not cross the street because it was too tired.
  • The animal did not cross the street because it was too narrow.

根据语境,“判断”哪个词对 it 更重要。
如果计算机能够学到每个词对其它词的影响权重,也就是把上下文语境融入到单个词,那么计算机可以更好的理解语言。

bert4_1

bert4_2

  • X:一个词对应的embeding。展示两个单词,所以两行,每行对应一个单词。图中4列表示每个单词对应一个长度为4的特征向量。
  • Q(query):要去查询的。第i行表示,第i单词对别的单词的关系。
    • 某个单词的“影响力”也是一种知识,它可以用向量表达,Q有3列就是指用了3维向量表达这种知识
  • K(key):等着被查的。第i行表示,第i个单词被别的单词的影响。
  • V:实际的特征信息。第i行表示,单词i的特征向量。

bert4_3

  • $q_1*k_1$ 乘法是内积。
    • 为什么是内积?内积代表了相关程度:正交时为0,平行时最大。
    • 内积大的就更重要,内积小的就不重要。(和相关系数类似)
  • softmax,把数字变成比例
    • 图里面两个单词,softmax的输入是2x2矩阵,计算时其实对每一行做softmax,做了2次
  • $d_k$,

总结下来,就是这样

$\mathrm{Attention}(Q,K,V) = \mathrm{softmax}(\dfrac{QK^T}{\sqrt{d_k}})V$

架构

Multi-head 机制

bert5

  • 多组Q/K/V,生成多成的下一层。目的是生成多组不同的特征表达,类似 CNN 的一次卷积操作。
  • 一般8组够了
  • 然后把所有特征拼接在一起(concat)
  • 然后通过一层全连接层降低维度。

堆叠

self-attention 不是只做一次,而是多次串起来

Layer normalization

为什么不用BN(batch normalization)呢?

BN是针对R个样本,每个样本同一个特征做的处理。如图。
bert7

BN的优点如下:

bert8

BN的缺点:BN在NLP任务中,效果往往不好,因为:

  • Batch_size较小的时候,效果很差。
  • NLP的输入句子往往长度不一样,稍长的句子长出来的部分就没办法很好的计算均值方差。

bert9

所以使用 Layer normalization,让每个特征向量变成 $N(0,1)$

残差机制

类似 RES,防止梯度消失。
特别的是,bert 的残差机制是加起来,而不是拼接。

bert_res

Decode 部分

Attention 计算不同(待补充)

Mask机制

在预测的时候,可以使用前面的词,但不能使用后面的词(不然就是作弊了),所以把后面的单词Mask掉

损失函数

cross-entropy

预训练

Mask Language Model 策略(MLM)

  • 15% mask,其中:
    • 10% 随机替换
    • 10%不替换
    • 80%替换为 [mask]

训练任务

训练时,两个任务同时进行:

  • 预测被MLM掩盖的字
  • 预测两句话是否有顺序关系(Next Sentence Prediction, NSP)

bert_train1

(上图是训练任务1:预测被掩盖的字,注意:beart 汉字是以字为单位而不是词,图里面是为了看着好)

bert_train2
(训练任务2)

使用

End-to-end形式:
不是先训练embedding,然后训练分类任务,而是放一起训练。

案例1:阅读理解

bert_usage_1_1

模型的输出是:答案在文章中的起止位置 (start_idx,end_idx)

bert_usage_1_2

  • 分别单独训练两个辅助向量,分别用来辅助预测 start_idx, end_idx
  • 辅助向量与bert输出做内积
  • 然后做 softmax,看最大值对应哪一个位置。图中案例分别是 start_idx=2, end_idx=3,所以模型输出是 (2, 3)

实战

https://github.com/guofei9987/pybert

相关项目

https://github.com/649453932/Bert-Chinese-Text-Classification-Pytorch

https://github.com/huggingface/transformers

https://www.jekyll.com.cn/docs/datafiles/


您的支持将鼓励我继续创作!