写点什么

如何基于 TensorFlow 2.0 用十行代码实现性能最佳的 NLP 模型?

  • 2019-11-09
  • 本文字数:6010 字

    阅读完需:约 20 分钟

如何基于 TensorFlow 2.0 用十行代码实现性能最佳的 NLP 模型?

TensorFlow 在自然语言处理中占有重要的一席之地。Transformer 是由 Google 在 Attention Is All You Need 这篇论文中提出,其后可谓红遍大江南北,到目前为止仿佛有种“此生不识 Transformer,就称英雄也枉然”的感觉。本文讲述了如何基于 TensorFlow 2.0 实现最佳性能的自然语言处理模型,而且仅仅只需十行代码即可实现。


Hugging Face 是领先的自然语言处理初创公司,包括 Bing、Apple、Monzo 在内,有一千多家公司在生产环境中使用他们的库。本文中使用的所有示例,都可以在 Colab 上找到。这些链接可以在相应部分中找到。

介绍

Hugging Face 是一家专注于自然语言处理的初创公司,它拥有一个大型开源社区,尤其是 Transformers 库相关。🤗 Transformer 是一个基于 Python 的库,它公开了 API 来使用许多知名的 Transformer 架构,例如 BERTRoBERTaGPT-2DistilBERT 等,这些架构在各种自然语言处理任务(如文本分类、信息提取、问题回答和文本生成等)上获得最先进的结果。这些架构都已经经过几组权重的预训练。要开始使用 Transformer,只需安装 Pip 包:


pip install transformers
复制代码


该库在 PyTorch 中实现了超高速的增长,最近被移植到 TensorFlow 2.0 上,提供了一个 API,这个 API 现在可以与 Keras 的 fit API、TensorFlow Extended 和 TPU 一起使用 👏。本文专门介绍如何使用 TensorFlow 来使用 Transformer 库:使用 Keras API 和 TensorFlow TPUStrategy 来对最先进的 Transformer 模型进行微调。

库及其哲学

Transformer 是基于预训练的 Transformer 模型的概念。这些 Transformer 模型具有不同的形状、大小和架构,并且有自己接收输入数据的方式:通过标记化(tokenization)。


这个库基于三个主要类:配置类、词法分析类和模型类。


  • 配置类: 配置类包含于我们将要使用的模型相关的信息,例如层的数量和注意力头(attention head)的数量。下面是 BERT 配置文件的一个示例代码,用于预训练的权重 pre-base-cased。配置类通过各种 I/O 方法和标准化名称属性来托管这些属性。


{  "attention_probs_dropout_prob": 0.1,  "hidden_act": "gelu",  "hidden_dropout_prob": 0.1,  "hidden_size": 768,  "initializer_range": 0.02,  "intermediate_size": 3072,  "max_position_embeddings": 512,  "num_attention_heads": 12,  "num_hidden_layers": 12,  "type_vocab_size": 2,  "vocab_size": 28996}
复制代码


bert-base-cased 配置文件作为 JSON。


  • 词法分析类: 词法分析(Tokenzer)类负责将 Python 字符串或整数张量,这些是模型词汇表中的索引。它有许多方便的特性,可以将字符串标记化为标记。这种标记化因模型而异,因此每个模型都有自己的词法分析器。


AI 前线注: 词法分析(英语:tokenizer,lexical analysis)是计算机科学中将字符串行转换为标记(token)串行的过程。进行词法分析的进程或者函数叫作词法分析器(lexical analyzer,简称 lexer),也叫扫描器(scanner)。词法分析器一般以函数的形式存在,供语法分析器调用。


  • 模型类: 模型类拥有神经网络建模逻辑本身。当使用 TensorFlow 模型时,它继承了 tf.keras.layers.Layer,这意味着它可以非常简单地使用 Keras 的 fit API,或者使用自定义的训练循环和 GradientTape 对其进行训练。

快乐而简单

使用 Transformer 的优势在于,模型无关的 API 的直接使用。加载预训练的模型及其词法分析器可以在几行代码中完成。以下是加载 BERT 和 GPT-2 TensorFlow 模型及其词法分析器的示例代码:


from transformers import (TFBertModel, BertTokenizer,                         TFGPT2Model, GPT2Tokenizer)
bert_model = TFBertModel.from_pretrained("bert-base-cased") # Automatically loads the configbert_tokenizer = BertTokenizer.from_pretrained("bert-base-cased")
gpt2_model = TFGPT2Model.from_pretrained("gpt2") # Automatically loads the configgpt2_tokenizer = GPT2Tokenizer.from_pretrained("gpt2")
复制代码


加载架构与模型无关。


权重是从 Hugging Faces 的 S3 桶中下载的,并缓存在你的机器上。这些模型可用于推理,或者根据需要时进行调整。让我们来看看实际效果。

微调 Transformer 模型

由于 Transformer 库中提供了一些方法,模型的微调因此变得很轻松。接下来的部分就是这样构建的:


  • 加载文本数据并对其进行预处理。

  • 定义超参数。

  • 训练(使用 CPU/GPU 上的 Keras 和 TPUStrategy)

构建输入管道

为了让你能够快速跟踪所有的代码,我们已经做了一个随附的 Colab 笔记本。我们将利用 tensorflow_datasets 包进行数据加载。Tensorflow-dataset 为我们提供了一个 tf.data.Dataset,可以将其提供给 glue_convert_examples_to_features 方法


这个方法将使用词法分析器对输入进行标记化,如果模型需要这样的附加标记的话,就在序列开头和结尾添加特殊标记(例如,[SEP]、[CLS]、</s> 或 <s>)。这个方法返回一个 tf.data.Dataset ,其中包含了特征化输入。


import tensorflow_datasetsfrom transformers import glue_convert_examples_to_features
data = tensorflow_datasets.load("glue/mrpc")
train_dataset = data["train"]validation_dataset = data["validation"]
train_dataset = glue_convert_examples_to_features(train_dataset, bert_tokenizer, 128, 'mrpc')validation_dataset = glue_convert_examples_to_features(validation_dataset, bert_tokenizer, 128, 'mrpc')train_dataset = train_dataset.shuffle(100).batch(32).repeat(2)validation_dataset = validation_dataset.batch(64)
复制代码


为模型构建输入管道。

使用 Keras 的 fit 方法进行训练

使用 Keras 的 fit 方法来训练模型从未如此简单。现在已经设置了输入管道,可以定义超参数,并使用数据集调用 Keras 的 fit 方法。


optimizer = tf.keras.optimizers.Adam(learning_rate=3e-5, epsilon=1e-08, clipnorm=1.0)loss = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)metric = tf.keras.metrics.SparseCategoricalAccuracy('accuracy')bert_model.compile(optimizer=optimizer, loss=loss, metrics=[metric])
bert_history = bert_model.fit( bert_train_dataset, epochs=2, steps_per_epoch=115, validation_data=bert_validation_dataset, validation_steps=7)
复制代码


使用 Keras 的 fit 方法进行训练

使用 Strategy 进行训练

使用 Stragegy 进行训练,可以让你更好地控制训练过程中发生的事情。通过 Strategy 之间的切换,用户可以选择模型的分布式训练方式:从多 GPU 到 TPU。


截止撰写本文时,TPUStrategy 是使用 TensorFlow 2 在 TPU 上训练模型唯一可靠的方法。在这方面,使用 Strategy 构建自定义循环更有意义,因为 Strategy 可以很容易地转换,并且在多 GPU 上进行训练实际上几乎不需要更改代码。


构建自定义循环需要进行一些设置工作,因此建议读者打开下面的 Colab 笔记本,以便更好地掌握手头中的主题。这个笔记本没有像上面第一个 Colab 笔记本那样详细介绍词法分的细节,但是它展示了如何构建 TPUStrategy 使用的输入管道


由于使用本地文件系统时,TPU 的处理非常复杂,因此使用了 Google Cloud Platform 的桶来托管数据。Colab 笔记本在这里

Transformer 现在可以访问 TensorFlow API 了,那又如何?

Transformer 库的主要卖点是它的模型无关性及其简单的 API。作为在自然语言处理中获得最先进结果的模型的前端,根据当前任务在模型之间进行切换是非常容易的。


作为一个例子,以下是用于在语言分类任务微调 BERT 的完整脚本代码:


model = TFBertForSequenceClassification.from_pretrained("bert-base-cased")tokenizer = BertTokenizer.from_pretrained("bert-base-cased")
data = tensorflow_datasets.load("glue/mrpc")train_dataset = data["train"]train_dataset = glue_convert_examples_to_features(train_dataset, tokenizer, 128, 'mrpc')
optimizer = tf.keras.optimizers.Adam(learning_rate=3e-5, epsilon=1e-08, clipnorm=1.0)loss = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)metric = tf.keras.metrics.SparseCategoricalAccuracy('accuracy')
model.compile(optimizer=optimizer, loss=loss, metrics=[metric])model.fit(train_dataset, epochs=3)
复制代码


在 MNLI 微调 BERT。


但是,在生产环境中,由于内存是稀缺的资源。你可能会因此希望使用较小的模型,如,切换到 DistilBERT。只需将前两行改为这两行即可,如下代码所示:


model = TFDistilBertForSequenceClassification.from_pretrained("distilbert-base-uncased")tokenizer = DistilbertTokenizer.from_pretrained("distilbert-base-uncased")
复制代码


作为托管十多个 Transformer 架构的平台,🤗Transformer 使得它非常容易使用、微调和比较模型,这些模型已改变了自然语言处理领域的深度学习的格局。它作为许多利用 Transformer 模型的下游应用程序的后端,被许多不同的公司用于生产中。


作者介绍:


Lysandre Debut,机器学习工程师,供职于 Hugging Face,对自然语言处理领域充满热情。


原文链接:


https://medium.com/tensorflow/using-tensorflow-2-for-state-of-the-art-natural-language-processing-102445cda54a


2019-11-09 08:005044

评论

发布
暂无评论
发现更多内容

面部表情识别的伦理问题

来自四九城儿

技术分享 | web前端的HTML浅析

霍格沃兹测试开发学社

使用 RediSearch 在 Redis 中进行全文检索

AlwaysBeta

redis redisearch

详解 HashMap 的底层实现原理

树上有只程序猿

Java 数据结构 hashmap 哈希

appuploader不是开发者账号

雪奈椰子

扎根x86市场稳步前进-海光投研报告解读

三掌柜

研究报告

2023最新版Java八股文汇总(附1100道面试题及答案详解)

采菊东篱下

Java 面试

【腾讯云Cloud Studio实战训练营】如何成为一名合格的Python爬虫“念咒师”(基于ChatGpt)

孤寒者

Python Cloud Studio Python爬虫 念咒师 念咒编程

技术分享 | Selenium多浏览器处理

霍格沃兹测试开发学社

技术分享 | 网页 frame 与多窗口处理

霍格沃兹测试开发学社

app测试中常用的Android模拟器

霍格沃兹测试开发学社

技术分享 | 白盒测试方法论

霍格沃兹测试开发学社

Rust中的高吞吐量流处理

高端章鱼哥

rust 流处理

准确率提升近4%,自研ASR模型助力公安机关筑牢反诈安全网

中关村科金

开源社区寻找八月创作之星!你准备好了吗~

Openlab_cosmoplat

人工智能 开源

盘点国产CPU“六君子”之中科海光发展史

石云升

cpu 微处理器 中科海光

局域网部署,用WorkPlus视频会议保密又安全

WorkPlus

“新一代企业数字化联盟”走进嘉定,数划云与众多企业一起探讨数字化转型

数划云

面部表情识别在安全领域的应用

来自四九城儿

appuploader不是开发者账号

面部表情识别在教育领域的应用

来自四九城儿

组织门户支持成员自主公开,快速搭建内容|ModelWhale 版本更新

ModelWhale

云计算 数据分析 API 算力 数据门户

探索大模型应用,解决企业数字化转型“最后一公里”

中关村科金

私有化部署企业IM即时通讯:提升效率、防止泄密、高效协同办公

WorkPlus

海光财报解读:深耕研发,打造技术护城河

程序员海军

研究报告 海光

【7.28-8.4】写作社区优秀技术博文一览

InfoQ写作社区官方

技术分享 | 黑盒测试方法论-判定表

霍格沃兹测试开发学社

AI +悦数图数据库:图技术与大语言模型 LLM 结合,打造下一代知识图谱应用

最新动态

如何基于 TensorFlow 2.0 用十行代码实现性能最佳的 NLP 模型?_开源_Lysandre Debut_InfoQ精选文章