Training and Fine-tuning BERT Using NVIDIA NGC
想象一下一个比人类更能理解语言的人工智能程序. 想象一下为定制的域或应用程序构建自己的 Siri 或 Google 搜索.
Google BERT(来自 Transformers 的双向编码器表示)为自然语言处理 (NLP) 领域提供了一个改变游戏规则的转折点.
BERT 运行在 NVIDIA GPUs 驱动的超级计算机上, 训练其庞大的神经网络, 达到前所未有的 NLP 精度, 冲击了已知人类语言理解的空间. 像这样的人工智能已经被期待了几十年. 有了 BERT, 它终于来了.
Figure 1. Block diagram for BERT pretraining and fine-tuning.
本文将详细讨论如何使用 BERT, 这需要预训练和微调阶段. 本文重点放在预训练.
What can BERT do?
随着全球研究机构将对话人工智能作为首要目标, BERT 在自然语言处理领域取得了重大突破. 在过去, 基本的语音接口, 如电话树算法, 当你打电话给你的移动电话公司, 银行, 或互联网供应商是交易性的, 并有有限的语言理解.
对于事务性接口, 计算机的理解范围一次仅限于一个问题. 这给计算机提供了有限的所需智能: 只有与当前动作相关的智能, 一两个字, 或者更进一步说, 可能是一个句子. 有关更多信息, 请参阅什么是会话人工智能?.
但当人们在日常对话中交谈时, 他们指的是段落前面介绍的单词和上下文. 超越单句是对话人工智能的切入点.
下面是一个使用 BERT 理解文章并回答问题的例子. 这个例子更多的是对话而不是交易. 这个例子展示了 BERT 在语言理解方面的表现. 从美式足球运动版上选一段, 然后问 BERT 一个关键问题. 这个例子取自《钢铁侠》中没有本. 罗伊特利斯伯格的镜头. 现在会发生什么?.
消息
匹兹堡钢人队是一支总部位于宾夕法尼亚州匹兹堡的职业美式足球队. 钢人队作为美国足球协会 (AFC) 东区的会员俱乐部参加国家足球联盟 (NFL) 的比赛. 该队在海因茨球场进行主场比赛. 钢铁工人去年赚了 43900000 美元. 他们的四分卫叫本. 罗特利斯伯格.
罗斯伯格已经在处理肘部问题了. 本被后援梅森. 鲁道夫接替. 他的第一个传球被接球手蒙克里夫的手反弹拦截, 但鲁道夫在下半场反弹, 以 16 分领先三个得分球. 这还不足以阻止钢人队以 0-2 落后, 在过去的 12 年里, 大约 90% 以 0-2 领先的球队错过了季后赛. 这些可能性可能已经让钢人队的球迷们开始考虑明年的比赛, 很难不去想罗思伯格的未来.
问: 谁取代了本?
正在运行推理...
------------------------
以 312.076 句 / 秒的速度进行推理
------------------------
回答:"梅森. 鲁道夫"
概率: 86.918
太棒了, 对吧? 句子被解析成知识表示. 在挑战问题上, BERT 必须确定谁是匹兹堡钢人队的四分卫(本罗斯利斯伯格). 此外, BERT 可以看出梅森. 鲁道夫取代了罗斯利斯伯格担任四分卫, 这是本文的一个重点.
使用 NVIDIA TensorRT 的推理速度早些时候报告为每秒 312.076 句. 如果取其倒数, 则获得 3.2 毫秒的延迟时间. 这种 GPU 加速可以很快地预测出答案, 在人工智能领域被称为推理. 在 2018 年, BERT 成为一个流行的深度学习模式, 因为它的 GLUE(General Language Understanding Evaluation, 通用语言理解评估)得分达到 80.5%(7.7% 的绝对改善). 有关更多信息, 请参见多任务基准测试和分析平台以获得自然理解.
回答问题是粘合基准度量之一. 最近的一个突破是开发斯坦福问答数据集或小组, 因为它是一个强大和一致的训练和标准化学习绩效观察的关键. 有关更多信息, 请参阅 SQuAD:100000 + 文本机器理解问题.
拥有足够的计算能力同样重要. 在 Google 开发了 BERT 之后, 不久 NVIDIA 就通过在许多 gpu 上训练 BERT, 使用大规模并行处理实现了世界记录时间. 他们使用了大约 83 亿个参数, 并在 53 分钟内训练, 而不是几天. 根据 ZDNet 在 2019 年的报告,"GPU 制造商说, 他们的人工智能平台现在拥有最快的训练记录, 最快的推理和迄今为止同类最大的训练模型."
BERT background
BERT 的名字里有三个概念.
首先, 变形金刚是一个神经网络层, 它利用自我注意来学习人类语言, 其中的一段文字会与自身进行比较. 该模型学习如何从段中的每个其他单词派生给定单词的含义.
igure 2. BERT high-level architecture. Words are encoded with transformers, then used as inputs to classifiers.
第二, 双向意味着递归神经网络 (RNNs) 将单词视为时间序列, 从两个方向看句子. 旧的算法将单词向前看, 试图预测下一个单词, 而忽略了后面出现的单词所提供的上下文和信息. BERT 用自我注意一次看整个输入句子. 这个词之前或之后的任何关系都会被考虑在内.
Figure 3. BERT works with various types of embeddings as it parses two basic sentences.
最后, 编码器是编码器 - 解码器结构的一个组件. 将输入语言编码到潜在空间中, 然后使用经过训练的解码器反向创建另一种语言. 这对翻译很有帮助, 因为自我关注有助于解决语言在表达相同观点方面的许多差异, 例如单词的数量或句子结构.
在 BERT 中, 您只需采用编码的思想来创建输入的潜在表示, 然后将其用作几个完全连接的层的特征输入, 以学习特定的语言任务.
How to use BERT
图 4 暗示了让 BERT 学会为您解决问题的两个步骤. 您首先需要对 transformer 层进行预处理, 以便能够将给定类型的文本编码为包含完整底层含义的表示. 然后, 需要训练全连接的分类器结构来解决特定的问题, 也称为微调.
Figure 4. BERT workflow with pretraining and fine-tuning phases.
预训练是一项巨大的努力, 可能需要超级计算机级的计算时间和等量的数据. 最常用的开放源代码数据集是维基百科上的文章, 它们构成了 25 亿个单词, 而 BooksCorpus 则提供了 11000 个免费使用的文本. 这最终形成了一个约 33 亿字的数据集.
所有这些数据都可以输入到网络中, 供模型扫描和提取语言结构. 在这个过程的最后, 你应该有一个模型, 在某种意义上, 知道如何阅读. 这个模型对语言, 单词的意义, 上下文和语法有一个大致的理解.
要为特定领域 (如金融领域) 定制此模型, 需要在预训练模型上添加更多特定领域的数据. 这使得模型能够理解特定领域的行话和术语, 并对其更加敏感.
根据上下文的不同, 一个词有多种含义. 例如, 熊对动物学家来说就是动物. 对华尔街的某些人来说, 这意味着一个糟糕的市场. 添加专门的文本使 BERT 定制到该域. 使用 NGC 上提供的预训练 BERT 并通过添加特定于域的数据对其进行自定义是一个好主意.
微调更容易实现, 需要的数据集要小得多, 大约有上万个标记示例. BERT 可以被训练去做一系列的语言任务.
尽管有许多不同的微调运行, 您可以创建专门版本的 BERT, 但它们都可以分支到相同的基础预训练模型. 这使得 BERT 方法通常被称为转移学习的一个例子, 当为一个问题训练的模型权重被用作另一个问题的起点时. 经过微调, 这个 BERT 模型获得了阅读的能力, 并学会了用它来解决问题.
What makes BERT special?
从教育的角度来看, 早期的信息可能很有趣, 但这种方法真的比以前的思路有那么大的改进吗? 答案是响亮的是! BERT 模型在 NLP 任务中比以往任何时候都能获得更高的精度. 一个潜在的来源是胶水基准.
GLUE 表示 11 个示例 NLP 任务. 一个常见的例子是命名实体识别(named entity recognition), 或者能够将输入中的每个单词识别为人, 位置等. 另一种是句子情感相似度, 即判断两个句子是否都意味着同一件事. GLUE 提供了用于评估性能的通用数据集, 模型研究人员将其结果提交到在线排行榜, 作为模型准确性的一般展示.
2018 年 9 月, 最先进的 NLP 模型徘徊在 GLUE 分数 70 左右, 平均完成各种任务. 虽然令人印象深刻, 但在同样的任务中, 人类基线的测量值为 87.1, 因此很难对人类水平的表现提出任何要求.
BERT 是由谷歌研究员雅各布. 德夫林 (Jacob Devlin) 在 2018 年 10 月开放的(特别是 BERT 的参数变化最大). 虽然发布的最大的 BERT 模型仍然只有 80.5 分, 但它显著地表明, 在至少几个关键任务中, 它可以首次超过人类的基线. 有关更多信息, 请参阅 BERT:Pre-training of Deep Bidirectional Transformers For Language Understanding.
BERT 用这些结果获得了整个领域的兴趣, 并引发了一波新的提交, 每一个都采用了基于 BERT 变换器的方法并对其进行了修改. 从 2019 年底的 GLUE 排行榜上看, 最初的 BERT 投稿一路下滑至第 17 位.
最令人印象深刻的是, 人类的基线分数最近被加入了排行榜, 因为模特的表现明显提高到了被超越的程度. 果不其然, 在几个月的时间里, 人类的基准线下降到了 8 点, 完全超过了平均分和几乎所有的个人任务表现. 当你读到这篇文章的时候, 人类的基线可能会更低.
与 2012 年用于图像处理的卷积神经网络的出现类似, 这种在可实现的模型性能方面令人印象深刻的快速增长为新的 NLP 应用打开了闸门.
Try out BERT
现在, 很多人想试试 BERT. 对于用户来说, 问答过程是相当先进和有趣的. 从我们的步骤开始.
之前的一篇文章, 实时自然语言理解与 BERT 使用 TensorRT, 检查如何建立和运行 BERT 使用 aNVIDIA NGC 网站容器为 TensorRT. 我们建议使用它. 我们可以访问运行 Ubuntu 16.04.6lts 的 NVIDIA V100 GPU. 如果驱动器空间对您来说有问题, 请使用 / tmp 区域, 方法是在 post 中的步骤之前使用以下命令:
cd/tmp
此外, 我们还找到了另一个可能有帮助的选择. 确保 python/create_docker_container.sh 路径访问的脚本从底部开始的第三行如下:
-v ${PWD}/models:/models \
另外, 在后面直接添加一行, 内容如下:
-v ${HOME}:${HOME} \
在成功进入文章的第五步之后, 您可以运行它, 然后替换 - p "..." -q "What is TensorRT?" 段落和问题 shell 命令部分, 如下命令所示. 这与本文前面描述的美式足球问题重复.
python/bert_inference.py -e bert_base_384.engine -p
匹兹堡钢人队是一支总部位于宾夕法尼亚州匹兹堡的职业美式足球队. 钢人队作为美国足球协会 (AFC) 东区的会员俱乐部参加国家足球联盟 (NFL) 的比赛. 该队在海因茨球场进行主场比赛. 钢铁工人去年赚了 43900000 美元. 他们的四分卫叫本. 罗特利斯伯格. 罗斯伯格已经在处理肘部问题了. 本被后援梅森. 鲁道夫接替. 他的第一个传球被接球手蒙克里夫的手反弹拦截, 但鲁道夫在下半场反弹, 以 16 分领先三个得分球. 这还不足以阻止钢人队以 0-2 落后, 在过去的 12 年里, 大约 90% 以 0-2 领先的球队错过了季后赛. 这些可能性可能已经让钢人队的球迷们开始考虑明年的比赛了, 很难不去想罗斯伯格的未来.
"-q"Who replaced Ben?" -v /workspace/models/fine-tuned/bert_tf_v2_base_fp16_384_v2/vocab.txt -b 1
要用其他问题来尝试这个足球段落, 请更改 - q "Who replaced Ben?" 选择和价值与另一个类似的问题.
对于预训练和微调的两阶段方法, 对于 NVIDIA 金融服务客户, 有一个 BERT-GPU 训练营可用.
来源: http://www.bubuko.com/infodetail-3602546.html