![]() |
![]() |
![]() |
![]() |
TensorFlow Lite Model Maker 库简化了在设备端 ML 应用中部署 TensorFlow 模型时修改此模型并将其转换为特定输入数据的过程。
此笔记本展示了一个端到端的示例,该示例利用 Model Maker 库来说明如何改编和转换常用的文本分类模型来对移动设备上的电影评论进行分类。文本分类模型会将文本分类为预定义的类别。输入应为经过预处理的文本,而输出为类别的概率。本教程中使用的数据集是正面和负面的电影评论。
前提条件
安装所需的软件包
要运行此示例,请安装所需的软件包,包括 GitHub 仓库中的 Model Maker 软件包。
sudo apt -y install libportaudio2
pip install -q tflite-model-maker-nightly
导入所需的软件包。
import numpy as np
import os
from tflite_model_maker import model_spec
from tflite_model_maker import text_classifier
from tflite_model_maker.config import ExportFormat
from tflite_model_maker.text_classifier import AverageWordVecSpec
from tflite_model_maker.text_classifier import DataLoader
import tensorflow as tf
assert tf.__version__.startswith('2')
tf.get_logger().setLevel('ERROR')
下载样本训练数据。
在本教程中,我们将使用 SST-2 (Stanford Sentiment Treebank),它是 GLUE 基准测试中的一项任务。其中包含 67,349 条用于训练的电影评论和 872 条用于测试的电影评论。数据集有两个类:正面电影评论和负面电影评论。
data_dir = tf.keras.utils.get_file(
fname='SST-2.zip',
origin='https://dl.fbaipublicfiles.com/glue/data/SST-2.zip',
extract=True)
data_dir = os.path.join(os.path.dirname(data_dir), 'SST-2')
Downloading data from https://dl.fbaipublicfiles.com/glue/data/SST-2.zip 7446528/7439277 [==============================] - 0s 0us/step 7454720/7439277 [==============================] - 0s 0us/step
SST-2 数据集以 TSV 格式存储。TSV 和 CSV 之间的唯一区别是,TSV 使用制表符 \t
字符作为分隔符,而不是 CSV 格式中的逗号 ,
。
以下是训练数据集的前 5 行。label=0 表示负面,label=1 表示正面。
句子 | 标签 | ||
---|---|---|---|
hide new secretions from the parental units | 0 | ||
contains no wit , only labored gags | 0 | ||
that loves its characters and communicates something rather beautiful about human nature | 1 | ||
remains utterly satisfied to remain the same throughout | 0 | ||
on the worst revenge-of-the-nerds clichés the filmmakers could dredge up | 0 |
接下来,我们将数据集加载到 Pandas 数据帧中,并将当前的标签名称(0
和 1
)更改为更便于人类阅读的名称(negative
和 positive
),并将它们用于模型训练。
import pandas as pd
def replace_label(original_file, new_file):
# Load the original file to pandas. We need to specify the separator as
# '\t' as the training data is stored in TSV format
df = pd.read_csv(original_file, sep='\t')
# Define how we want to change the label name
label_map = {0: 'negative', 1: 'positive'}
# Excute the label change
df.replace({'label': label_map}, inplace=True)
# Write the updated dataset to a new file
df.to_csv(new_file)
# Replace the label name for both the training and test dataset. Then write the
# updated CSV dataset to the current folder.
replace_label(os.path.join(os.path.join(data_dir, 'train.tsv')), 'train.csv')
replace_label(os.path.join(os.path.join(data_dir, 'dev.tsv')), 'dev.csv')
快速入门
训练文本分类模型有五个步骤:
第 1 步:选择文本分类模型架构。
这里我们使用平均单词嵌入向量模型架构,它将生成一个小而快的模型,并具有不错的准确率。
spec = model_spec.get('average_word_vec')
Model Maker 还支持其他模型架构,如 BERT。如果您有兴趣了解其他架构,请参阅下面的为文本分类器选择模型架构部分。
第 2 步:加载训练数据和测试数据,然后根据特定的 model_spec
对其进行预处理。
Model Maker 可以接受 CSV 格式的输入数据。我们将使用先前创建的人类可读的标签名称加载训练数据集和测试数据集。
每个模型架构都要求以特定的方式处理输入数据。DataLoader
会从 model_spec
读取要求,并自动执行必要的预处理。
train_data = DataLoader.from_csv(
filename='train.csv',
text_column='sentence',
label_column='label',
model_spec=spec,
is_training=True)
test_data = DataLoader.from_csv(
filename='dev.csv',
text_column='sentence',
label_column='label',
model_spec=spec,
is_training=False)
第 3 步:用训练数据训练 TensorFlow 模型。
默认情况下,平均单词嵌入向量模型使用 batch_size = 32
。因此,您将看到需要 2104 个步骤来遍历训练数据集中的 67,349 个句子。我们将对模型进行 10 个周期的训练,这意味着要对训练数据集遍历 10 次。
model = text_classifier.create(train_data, model_spec=spec, epochs=10)
2104/2104 [==============================] - 9s 3ms/step - loss: 0.6733 - accuracy: 0.5779 Epoch 2/2 2104/2104 [==============================] - 7s 3ms/step - loss: 0.5309 - accuracy: 0.7400 Epoch 3/3 2104/2104 [==============================] - 7s 3ms/step - loss: 0.4230 - accuracy: 0.8093 Epoch 4/4 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3829 - accuracy: 0.8334 Epoch 5/5 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3624 - accuracy: 0.8457 Epoch 6/6 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3495 - accuracy: 0.8534 Epoch 7/7 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3393 - accuracy: 0.8582 Epoch 8/8 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3343 - accuracy: 0.8615 Epoch 9/9 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3277 - accuracy: 0.8648 Epoch 10/10 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3221 - accuracy: 0.8674
第 4 步:在测试数据上评估模型。
在使用训练数据集中的句子训练文本分类模型后,我们将使用测试数据集中的剩余 872 个句子来评估模型在以前从未见过的新数据上的性能。
由于默认批次大小为 32,因此需要 28 个步骤来遍历测试数据集中的 872 个句子。
loss, acc = model.evaluate(test_data)
28/28 [==============================] - 1s 17ms/step - loss: 0.5232 - accuracy: 0.8314
第 5 步:导出为 TensorFlow Lite 模型。
我们以 TensorFlow Lite 格式导出我们训练过的文本分类。我们将指定要导出模型的文件夹。默认情况下,对于平均单词嵌入向量模型架构,会导出浮点 TFLite 模型。
model.export(export_dir='average_word_vec')
2022-08-11 16:40:32.832140: W tensorflow/python/util/util.cc:368] Sets are not currently considered sequences, but this may change in the future, so consider avoiding using them. 2022-08-11 16:40:33.415564: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:357] Ignored output_format. 2022-08-11 16:40:33.415602: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:360] Ignored drop_control_dependency. WARNING:absl:Buffer deduplication procedure will be skipped when flatbuffer library is not properly loaded
您可以使用 Colab 的左侧边栏下载 TensorFlow Lite 模型文件。按照我们在上面的 export_dir
参数中指定的那样,进入 average_word_vec
文件夹,右键点击 model.tflite
文件,然后选择 Download
以将其下载到本地计算机。
可以使用 TensorFlow Lite Task Library 的 NLClassifier API 将此模型集成到 Android 或 iOS 应用中。
有关如何在工作应用中使用模型的更多详细信息,请参阅 TFLite 文本分类示例应用。
注 1:Android Studio Model Binding 目前还不支持文本分类,请使用 TensorFlow Lite Task Library。
注 2:在与 TFLite 模型相同的文件夹中有一个 model.json
文件。它包含绑定在 TensorFlow Lite 模型中的元数据的 JSON 表示。模型元数据能够帮助 TFLite Task Library 了解模型的作用以及如何对模型的数据进行预处理/后处理。您无需下载 model.json
文件,因为它仅用于信息目的,其内容已经包含在 TFLite 文件中。
注 3:如果您使用 MobileBERT 或 BERT-Base 架构对文本分类模型进行训练,则需要使用 BertNLClassifier API 将训练后的模型集成到移动应用中。
以下各部分将逐步介绍该示例,以展示更多细节。
选择文本分类器的模型架构
每个 model_spec
对象代表一个文本分类器的具体模型。TensorFlow Lite Model Maker 目前支持 MobileBERT,平均单词嵌入向量和 BERT-Base 模型。
支持的模型 | model_spec 名称 | 模型描述 | 模型规模 |
---|---|---|---|
平均单词嵌入向量 | 'average_word_vec' | 带有 RELU 激活的平均单词嵌入向量。 | <1MB |
MobileBERT | 'mobilebert_classifier' | 比 BERT-Base 小 4.3 倍、快 5.5 倍,同时可获得具有竞争力的结果,适合设备端应用。 | 25MB w/ 量化 100MB w/o 量化 |
BERT-Base | 'bert_classifier' | NLP 任务中广泛使用的标准 BERT 模型。 | 300MB |
在快速入门中,我们使用了平均词嵌入向量模型。我们切换到 MobileBERT 来训练准确率更高的模型。
mb_spec = model_spec.get('mobilebert_classifier')
加载训练模型
您可以上传您自己的数据集以完成本教程。请使用 Colab 的左侧边栏上传您的数据集。
如果您不想将数据集上传到云,也可以按照指南在本地运行该库。
为简单起见,我们将重用先前下载的 SST-2 数据集。我们使用 DataLoader.from_csv
方法来加载数据。
请注意,由于我们已经更改了模型架构,我们将需要重新加载训练数据集和测试数据集以应用新的预处理逻辑。
train_data = DataLoader.from_csv(
filename='train.csv',
text_column='sentence',
label_column='label',
model_spec=mb_spec,
is_training=True)
test_data = DataLoader.from_csv(
filename='dev.csv',
text_column='sentence',
label_column='label',
model_spec=mb_spec,
is_training=False)
Model Maker 库还支持 from_folder()
方法来加载数据。它假定同一类的文本数据位于相同的子目录中,且子文件夹名称为类名称。每个文本文件包含一个电影评论样本。参数 class_labels
用于指定具体的子文件夹。
训练 TensorFlow 模型
使用训练数据训练文本分类模型。
注:由于 MobileBERT 是一个复杂模型,在 Colab GPU 上进行每个训练周期大约需要 10 分钟。请确保您使用的是 GPU 运行时。
model = text_classifier.create(train_data, model_spec=mb_spec, epochs=3)
1403/1403 [==============================] - 535s 336ms/step - loss: 0.3870 - test_accuracy: 0.8595 Epoch 2/2 1403/1403 [==============================] - 475s 337ms/step - loss: 0.1266 - test_accuracy: 0.9547 Epoch 3/3 1403/1403 [==============================] - 474s 336ms/step - loss: 0.0752 - test_accuracy: 0.9764
检查详细的模型结构。
model.summary()
Model: "model" __________________________________________________________________________________________________ Layer (type) Output Shape Param # Connected to ================================================================================================== input_word_ids (InputLayer) [(None, 128)] 0 [] input_mask (InputLayer) [(None, 128)] 0 [] input_type_ids (InputLayer) [(None, 128)] 0 [] hub_keras_layer_v1v2 (HubKeras (None, 512) 24581888 ['input_word_ids[0][0]', LayerV1V2) 'input_mask[0][0]', 'input_type_ids[0][0]'] dropout_1 (Dropout) (None, 512) 0 ['hub_keras_layer_v1v2[0][0]'] output (Dense) (None, 2) 1026 ['dropout_1[0][0]'] ================================================================================================== Total params: 24,582,914 Trainable params: 24,582,914 Non-trainable params: 0 __________________________________________________________________________________________________
评估模型
使用测试数据对我们刚刚训练的模型进行评估,并测量损失和准确率值。
loss, acc = model.evaluate(test_data)
28/28 [==============================] - 8s 86ms/step - loss: 0.3687 - test_accuracy: 0.9037
导出为 TensorFlow Lite 模型
使用元数据将训练好的模型转换为 TensorFlow Lite 模型格式,以便以后在设备端机器学习应用中使用。标签文件和词汇文件嵌入在元数据中。默认的 TFLite 文件名为 model.tflite
。
在许多设备端 ML 应用中,模型大小是一个重要因素。因此,建议您应用量化模型以使其更小并可能加快运行速度。对于 BERT 和 MobileBERT 模型,默认的训练后量化技术是动态范围量化。
model.export(export_dir='mobilebert/')
2022-08-11 17:06:59.605353: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:357] Ignored output_format. 2022-08-11 17:06:59.605404: W tensorflow/compiler/mlir/lite/python/tf_tfl_flatbuffer_helpers.cc:360] Ignored drop_control_dependency. WARNING:absl:Buffer deduplication procedure will be skipped when flatbuffer library is not properly loaded
TensorFlow Lite 模型文件可以使用 TensorFlow Lite Task Library 中的 BertNLClassifier API 集成到移动应用中。请注意,这与用于将训练的文本分类与平均单词向量模型架构集成在一起的 NLClassifier
API 不同。
导出格式可以是以下列表中的一个或多个:
默认情况下,它仅导出包含模型元数据的 TensorFlow Lite 模型文件。您也可以选择导出与模型相关的其他文件,以便更好地进行检查。例如,只导出标签文件和词汇文件,如下所示:
model.export(export_dir='mobilebert/', export_format=[ExportFormat.LABEL, ExportFormat.VOCAB])
您可以使用 evaluate_tflite
方法对 TFLite 模型进行评估,以衡量其准确率。将训练好的 TensorFlow 模型转换为 TFLite 格式并应用量化可能会影响其准确率,因此建议在部署之前评估 TFLite 模型的准确率。
accuracy = model.evaluate_tflite('mobilebert/model.tflite', test_data)
print('TFLite model accuracy: ', accuracy)
INFO: Created TensorFlow Lite XNNPACK delegate for CPU. TFLite model accuracy: {'accuracy': 0.9048165137614679}
高级用法
create
函数是 Model Maker 库用于创建模型的驱动函数。model_spec
参数定义模型规范。目前支持 AverageWordVecSpec
和 BertClassifierSpec
类。create
函数包括以下步骤:
- 根据
model_spec
为文本分类器创建模型。 - 训练分类器模型。默认周期和默认批次大小通过
model_spec
对象中的default_training_epochs
和default_batch_size
变量进行设置。
本部分介绍了调整模型和训练超参数等高级用法主题。
自定义 MobileBERT 模型超参数
可以调整的模型参数包括:
seq_len
:馈送到模型的序列长度。initializer_range
:用于初始化所有权重矩阵的 truncated_normal_initializer 的标准差。trainable
:指定预训练层是否可训练的布尔值。
可以调整的训练流水线参数包括:
model_dir
:模型检查点文件的位置。如果未设置,则会使用临时目录。dropout_rate
:随机失活率。learning_rate
:Adam 优化器的初始学习率。tpu
:要连接的 TPU 地址。
例如,您可以设置 seq_len=256
(默认为 128)。这允许模型对较长的文本进行分类。
new_model_spec = model_spec.get('mobilebert_classifier')
new_model_spec.seq_len = 256
自定义平均单词嵌入向量模型超参数
您可以调整模型基础架构,如 AverageWordVecSpec
类中的 wordvec_dim
和 seq_len
变量。
例如,您可以使用较大的 wordvec_dim
值来训练模型。请注意,如果您修改模型,必须构造新的 model_spec
。
new_model_spec = AverageWordVecSpec(wordvec_dim=32)
获取预处理的数据。
new_train_data = DataLoader.from_csv(
filename='train.csv',
text_column='sentence',
label_column='label',
model_spec=new_model_spec,
is_training=True)
训练新模型。
model = text_classifier.create(new_train_data, model_spec=new_model_spec)
2104/2104 [==============================] - 8s 4ms/step - loss: 0.6522 - accuracy: 0.6083 Epoch 2/2 2104/2104 [==============================] - 7s 3ms/step - loss: 0.4720 - accuracy: 0.7767 Epoch 3/3 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3929 - accuracy: 0.8240
调节训练超参数
您还可以调节影响模型准确率的训练超参数(如 epochs
和 batch_size
)。例如,
epochs
:更多的周期可能会获得更高的准确率,但也可能导致过拟合。batch_size
:一个训练步骤中要使用的样本数。
例如,您可以使用更多周期进行训练。
model = text_classifier.create(new_train_data, model_spec=new_model_spec, epochs=20)
2104/2104 [==============================] - 8s 3ms/step - loss: 0.6584 - accuracy: 0.5983 Epoch 2/2 2104/2104 [==============================] - 7s 3ms/step - loss: 0.4791 - accuracy: 0.7731 Epoch 3/3 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3974 - accuracy: 0.8221 Epoch 4/4 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3649 - accuracy: 0.8411 Epoch 5/5 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3474 - accuracy: 0.8507 Epoch 6/6 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3364 - accuracy: 0.8573 Epoch 7/7 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3274 - accuracy: 0.8617 Epoch 8/8 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3212 - accuracy: 0.8659 Epoch 9/9 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3160 - accuracy: 0.8676 Epoch 10/10 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3113 - accuracy: 0.8693 Epoch 11/11 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3080 - accuracy: 0.8724 Epoch 12/12 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3035 - accuracy: 0.8738 Epoch 13/13 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3024 - accuracy: 0.8750 Epoch 14/14 2104/2104 [==============================] - 7s 3ms/step - loss: 0.3004 - accuracy: 0.8759 Epoch 15/15 2104/2104 [==============================] - 7s 3ms/step - loss: 0.2985 - accuracy: 0.8773 Epoch 16/16 2104/2104 [==============================] - 7s 3ms/step - loss: 0.2959 - accuracy: 0.8781 Epoch 17/17 2104/2104 [==============================] - 7s 3ms/step - loss: 0.2947 - accuracy: 0.8791 Epoch 18/18 2104/2104 [==============================] - 7s 3ms/step - loss: 0.2930 - accuracy: 0.8793 Epoch 19/19 2104/2104 [==============================] - 7s 3ms/step - loss: 0.2918 - accuracy: 0.8806 Epoch 20/20 2104/2104 [==============================] - 7s 3ms/step - loss: 0.2911 - accuracy: 0.8811
使用 20 个训练周期评估新近重新训练的模型。
new_test_data = DataLoader.from_csv(
filename='dev.csv',
text_column='sentence',
label_column='label',
model_spec=new_model_spec,
is_training=False)
loss, accuracy = model.evaluate(new_test_data)
28/28 [==============================] - 0s 3ms/step - loss: 0.5183 - accuracy: 0.8326
更改模型架构
您可以通过更改 model_spec
来更改模型。下文展示了如何更改为 BERT-Base 模型。
将文本分类器的 model_spec
更改为 BERT-Base 模型。
spec = model_spec.get('bert_classifier')
其余步骤相同。
在 TensorFlow Lite 模型上自定义训练后量化
训练后量化是一种转换技术,可以缩减模型大小并缩短推断延迟,同时改善 CPU 和硬件加速器推断速度,且几乎不会降低模型准确率。因此,它被广泛用于优化模型。
Model Maker 库在导出模型时会应用默认的训练后量化技术。如果您想自定义训练后量化,Model Maker 也支持使用 QuantizationConfig 的多个训练后量化选项。我们以 float16 量化为例。首先,定义量化配置。
config = QuantizationConfig.for_float16()
然后,我们使用此配置导出 TensorFlow Lite 模型。
model.export(export_dir='.', tflite_filename='model_fp16.tflite', quantization_config=config)
阅读更多
您可以阅读我们的文本分类示例以了解技术细节。如需了解更多信息,请参阅:
- TensorFlow Lite Model Maker 指南和 API 参考。
- Task Library:用于开发的 NLClassifier 和 BertNLClassifier。
- 端到端参考应用:Android 和 iOS。