【Transformer-Hugging Face手册 07/10】 微调预训练模型_预训练模型的tokenizer的返回类型是batchencoding吗-程序员宅基地

技术标签: NLP高级和ChatGPT  深度学习  人工智能  transformer  

一、说明

   使用预训练模型有显着的好处。它可以降低计算成本和碳足迹,并允许您使用最先进的模型,而无需从头开始训练。 Transformers 提供了针对各种任务的数千个预训练模型的访问权限。当您使用预训练模型时,您可以在特定于您的任务的数据集上对其进行训练。这被称为微调,是一种非常强大的训练技术。在本教程中,您将使用您选择的深度学习框架微调预训练模型:

  •    使用 Transformers Trainer微调预训练模型。
  •    使用 Keras 微调 TensorFlow 中的预训练模型。

二、在本机 PyTorch 中微调预训练模型。

   在微调预训练模型之前,请下载数据集并准备进行训练。之前的教程向您展示了如何处理训练数据,现在您有机会测试这些技能!

2.1 加载数据

   首先加载Yelp 评论数据集:

 from datasets import load_dataset
dataset = load_dataset("yelp_review_full")
dataset["train"][100] 

{‘label’: 0,
‘text’: ‘My expectations for McDonalds are t rarely high. But for one to still fail so spectacularly…that takes something special!\nThe cashier took my friends’s order, then promptly ignored me. I had to force myself in front of a cashier who opened his register to wait on the person BEHIND me. I waited over five minutes for a gigantic order that included precisely one kid’s meal. After watching two people who ordered after me be handed their food, I asked where mine was. The manager started yelling at the cashiers for \“serving off their orders\” when they didn’t have their food. But neither cashier was anywhere near those controls, and the manager was the one serving food to customers and clearing the boards.\nThe manager was rude when giving me my order. She didn’t make sure that I had everything ON MY RECEIPT, and never even had the decency to apologize that I felt I was getting poor service.\nI’ve eaten at various McDonalds restaurants for over 30 years. I’ve worked at more than one location. I expect bad days, bad moods, and the occasional mistake. But I have yet to have a decent experience at this store. It will remain a place I avoid unless someone in my party needs to avoid illness from low blood sugar. Perhaps I should go back to the racially biased service of Steak n Shake instead!’}

   正如您现在所知,您需要一个分词器来处理文本,并包含填充和截断策略来处理任何可变序列长度。要一步处理数据集,请使用 Datasetsmap方法对整个数据集应用预处理函数:

 from transformers import AutoTokenizer
tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
def tokenize_function(examples):
    return tokenizer(examples["text"], padding="max_length", truncation=True)
tokenized_datasets = dataset.map(tokenize_function, batched=True)

如果您愿意,您可以创建完整数据集的较小子集进行微调以减少所需的时间:

small_train_dataset = tokenized_datasets["train"].shuffle(seed=42).select(range(1000))
small_eval_dataset = tokenized_datasets["test"].shuffle(seed=42).select(range(1000))

2.2 训练

   此时,您应该按照与您要使用的框架相对应的部分进行操作。您可以使用右侧边栏中的链接跳转到您想要的链接 - 如果您想隐藏给定框架的所有内容,只需使用该框架块右上角的按钮即可!

2.2.1 使用 PyTorch Trainer 进行训练

   Transformers 提供了针对训练Transformers 模型进行优化的Trainer类,让您可以更轻松地开始训练,而无需手动编写自己的训练循环。 Trainer API 支持多种训练选项和功能,例如日志记录、梯度累积和混合精度。

   首先加载模型并指定预期标签的数量。从 Yelp Review数据集卡中,您知道有五个标签:

from transformers import AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained("bert-base-cased", num_labels=5)

   您将看到有关未使用某些预训练权重以及某些权重被随机初始化的警告。别担心,这是完全正常的! BERT 模型的预训练头被丢弃,并替换为随机初始化的分类头。您将在序列分类任务中微调这个新模型头,将预训练模型的知识传递给它。

2.3 训练超参数

   接下来,创建一个TrainingArguments类,其中包含您可以调整的所有超参数以及用于激活不同训练选项的标志。对于本教程,您可以从默认的训练超参数开始,但请随意尝试这些参数以找到最佳设置。

   指定保存训练检查点的位置:

from transformers import TrainingArguments
training_args = TrainingArguments(output_dir="test_trainer")

2.4 评价

   Trainer在训练期间不会自动评估模型性能。您需要向Trainer传递一个函数来计算和报告指标。 Evaluate库提供了一个简单的accuracy函数,您可以使用evaluate.load(有关更多信息,请参阅此快速教程)函数加载:

import numpy as np
import evaluate
metric = evaluate.load("accuracy")

   呼吁compute计算metric您的预测的准确性。在将预测传递给 之前compute,您需要将 logits 转换为预测(记住所有 Transformers 模型都返回 logits):

def compute_metrics(eval_pred):
    logits, labels = eval_pred
    predictions = np.argmax(logits, axis=-1)
    return metric.compute(predictions=predictions, references=labels)

   如果您想在微调期间监控评估指标,请evaluation_strategy在训练参数中指定参数以在每个周期结束时报告评估指标:

from transformers import TrainingArguments, Trainer
training_args = TrainingArguments(output_dir="test_trainer", evaluation_strategy="epoch")

2.5 训练类

   使用您的模型、训练参数、训练和测试数据集以及评估函数创建一个Trainer对象:

trainer = Trainer(
      model=model,
      args=training_args,
      train_dataset=small_train_dataset,
      eval_dataset=small_eval_dataset,
      compute_metrics=compute_metrics,
  )

   然后通过调用train()微调您的模型:

trainer.train()

三、使用 Keras 训练 TensorFlow 模型

   您还可以使用 Keras API 在 TensorFlow 中训练 Transformers 模型!

3.1 为 Keras 加载数据

   当您想要使用 Keras API 训练 Transformers 模型时,您需要将数据集转换为 Keras 理解的格式。如果您的数据集很小,您可以将整个数据转换为 NumPy 数组并将其传递给 Keras。在做任何更复杂的事情之前,让我们先尝试一下。

   首先,加载数据集。我们将使用GLUE 基准测试中的 CoLA 数据集,因为它是一个简单的二进制文本分类任务,并且现在只进行训练分割。

from datasets import load_dataset

dataset = load_dataset("glue", "cola")
dataset = dataset["train"]  # Just take the training split for now

   接下来,加载分词器并将数据分词为 NumPy 数组。请注意,标签已经是 0 和 1 的列表,因此我们可以直接将其转换为 NumPy 数组,而无需标记化!

from transformers import AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("bert-base-cased")
tokenized_data = tokenizer(dataset["sentence"], return_tensors="np", padding=True)
# Tokenizer returns a BatchEncoding, but we convert that to a dict for Keras
tokenized_data = dict(tokenized_data)

labels = np.array(dataset["label"])  # Label is already an array of 0 and 1

   最后,加载 、compile和fit模型。请注意,Transformers 模型都有一个默认的与任务相关的损失函数,因此您不需要指定一个,除非您想要:

from transformers import TFAutoModelForSequenceClassification
from tensorflow.keras.optimizers import Adam

# Load and compile our model
model = TFAutoModelForSequenceClassification.from_pretrained("bert-base-cased")
# Lower learning rates are often better for fine-tuning transformers
model.compile(optimizer=Adam(3e-5))  # No loss argument!

model.fit(tokenized_data, labels)

   当您使用模型时,您不必向模型传递损失参数compile()!如果此参数留空,Huging Face 模型会自动选择适合其任务和模型架构的损失。如果您愿意,您始终可以通过自己指定损失来覆盖此设置!

   这种方法对于较小的数据集非常有效,但对于较大的数据集,您可能会发现它开始成为问题。为什么?因为标记化数组和标签必须完全加载到内存中,并且因为 NumPy 不处理“锯齿状”数组,所以每个标记化样本都必须填充到整个数据集中最长样本的长度。这将使您的数组变得更大,并且所有这些填充令牌也会减慢训练速度!

3.2 将数据加载为 tf.data.Dataset

   如果您想避免减慢训练速度,可以改为加载数据tf.data.Dataset。尽管您可以tf.data根据需要编写自己的 管道,但我们有两种方便的方法来执行此操作:

   prepare_tf_dataset():这是我们在大多数情况下推荐的方法。因为它是模型上的一种方法,所以它可以检查模型以自动找出哪些列可用作模型输入,并丢弃其他列以创建更简单、性能更高的数据集。
to_tf_dataset:此方法更加底层,当您想要通过准确指定要包含哪些columns和label_cols来精确控制数据集的创建方式时非常有用。
   在使用prepare_tf_dataset()之前,您需要将分词器输出作为列添加到数据集,如以下代码示例所示:

def tokenize_dataset(data):
    # Keys of the returned dictionary will be added to the dataset as columns
    return tokenizer(data["text"])
dataset = dataset.map(tokenize_dataset)

   请记住,拥抱脸部数据集默认存储在磁盘上,因此这不会增加您的内存使用量!添加列后,您可以从数据集中流式传输批次并向每个批次添加填充,与填充整个数据集相比,这大大减少了填充标记的数量。

tf_dataset = model.prepare_tf_dataset(dataset["train"], batch_size=16, shuffle=True, tokenizer=tokenizer)

   请注意,在上面的代码示例中,您需要传递标记生成器,prepare_tf_dataset以便它可以在加载批次时正确填充批次。如果数据集中的所有样本长度相同并且不需要填充,则可以跳过此参数。如果您需要做一些比填充样本更复杂的事情(例如,破坏掩码语言建模的标记),您可以使用参数collate_fn来传递一个函数,该函数将被调用以将样本列表转换为批处理并应用您需要的任何预处理想。请参阅我们的 示例或 笔记本来了解这种方法的实际效果。

   创建 后tf.data.Dataset,您可以像以前一样编译并拟合模型:

model.compile(optimizer=Adam(3e-5))  # No loss argument!
model.fit(tf_dataset)

   Trainer负责训练循环,并允许您在一行代码中微调模型。对于喜欢编写自己的训练循环的用户,您还可以在本机 PyTorch 中微调 Transformers 模型。

   此时,您可能需要重新启动笔记本或执行以下代码来释放一些内存:

del model
del trainer
torch.cuda.empty_cache()

   接下来,手动进行后处理tokenized_dataset以准备训练。

   删除该text列,因为模型不接受原始文本作为输入:

 tokenized_datasets = tokenized_datasets.remove_columns([ "text" ])

   将列重命名label为 ,labels因为模型期望将参数命名为labels:

 tokenized_datasets = tokenized_datasets.rename_column( "标签" , "标签" )

   设置数据集的格式以返回 PyTorch 张量而不是列表:

 tokenized_datasets.set_format( "pytorch" )

   然后创建数据集的较小子集(如前所示)以加快微调速度:

small_train_dataset = tokenized_datasets["train"].shuffle(seed=42).select(range(1000))
small_eval_dataset = tokenized_datasets["test"].shuffle(seed=42).select(range(1000))

3.3 数据加载器

   为您的训练和测试数据集创建一个DataLoader,以便您可以迭代批量数据:

from torch.utils.data import DataLoader
train_dataloader = DataLoader(small_train_dataset, shuffle=True, batch_size=8)
eval_dataloader = DataLoader(small_eval_dataset, batch_size=8)

   使用预期标签数量加载模型:

from transformers import AutoModelForSequenceClassification
model = AutoModelForSequenceClassification.from_pretrained("bert-base-cased", num_labels=5)

3.4 优化器和学习率调度器

   创建优化器和学习率调度器来微调模型。让我们使用AdamWPyTorch 的优化器:

from torch.optim import AdamW
optimizer = AdamW(model.parameters(), lr=5e-5)

   从 Trainer 创建默认学习率调度程序:

from transformers import get_scheduler

num_epochs = 3
num_training_steps = num_epochs * len(train_dataloader)
lr_scheduler = get_scheduler(
    name="linear", optimizer=optimizer, num_warmup_steps=0, num_training_steps=num_training_steps
)

   最后,如果您有权使用 GPU,请指定使用 GPU 的设备。否则,CPU 上的训练可能需要几个小时而不是几分钟。

import torch

device = torch.device("cuda") if torch.cuda.is_available() else torch.device("cpu")
model.to(device)

   如果您没有像Colaboratory或SageMaker StudioLab这样的托管笔记本,可以免费访问云 GPU 。

3.5 训练循环

   要跟踪您的训练进度,请使用tqdm库在训练步骤数上添加进度条:

from tqdm.auto import tqdm

progress_bar = tqdm(range(num_training_steps))

model.train()
for epoch in range(num_epochs):
    for batch in train_dataloader:
        batch = {
    k: v.to(device) for k, v in batch.items()}
        outputs = model(**batch)
        loss = outputs.loss
        loss.backward()

        optimizer.step()
        lr_scheduler.step()
        optimizer.zero_grad()
        progress_bar.update(1)

3.6 评价

   就像您向Trainer添加评估函数一样,您在编写自己的训练循环时也需要执行相同的操作。但这次您将累积所有批次并在最后计算指标,而不是在每个时期add_batch结束时计算和报告指标。

import evaluate

metric = evaluate.load("accuracy")
model.eval()
for batch in eval_dataloader:
    batch = {
    k: v.to(device) for k, v in batch.items()}
    with torch.no_grad():
        outputs = model(**batch)

    logits = outputs.logits
    predictions = torch.argmax(logits, dim=-1)
    metric.add_batch(predictions=predictions, references=batch["labels"])

metric.compute()

四、结论

   本篇基本上描绘了如何实现微调,更多微调示例请参考:

Transformers Examples包括在 PyTorch 和 TensorFlow 中训练常见 NLP 任务的脚本。

Transformers Notebooks包含有关如何针对 PyTorch 和 TensorFlow 中的特定任务微调模型的各种笔记本。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/gongdiwudu/article/details/136071906

智能推荐

什么是内部类?成员内部类、静态内部类、局部内部类和匿名内部类的区别及作用?_成员内部类和局部内部类的区别-程序员宅基地

文章浏览阅读3.4k次,点赞8次,收藏42次。一、什么是内部类?or 内部类的概念内部类是定义在另一个类中的类;下面类TestB是类TestA的内部类。即内部类对象引用了实例化该内部对象的外围类对象。public class TestA{ class TestB {}}二、 为什么需要内部类?or 内部类有什么作用?1、 内部类方法可以访问该类定义所在的作用域中的数据,包括私有数据。2、内部类可以对同一个包中的其他类隐藏起来。3、 当想要定义一个回调函数且不想编写大量代码时,使用匿名内部类比较便捷。三、 内部类的分类成员内部_成员内部类和局部内部类的区别

分布式系统_分布式系统运维工具-程序员宅基地

文章浏览阅读118次。分布式系统要求拆分分布式思想的实质搭配要求分布式系统要求按照某些特定的规则将项目进行拆分。如果将一个项目的所有模板功能都写到一起,当某个模块出现问题时将直接导致整个服务器出现问题。拆分按照业务拆分为不同的服务器,有效的降低系统架构的耦合性在业务拆分的基础上可按照代码层级进行拆分(view、controller、service、pojo)分布式思想的实质分布式思想的实质是为了系统的..._分布式系统运维工具

用Exce分析l数据极简入门_exce l趋势分析数据量-程序员宅基地

文章浏览阅读174次。1.数据源准备2.数据处理step1:数据表处理应用函数:①VLOOKUP函数; ② CONCATENATE函数终表:step2:数据透视表统计分析(1) 透视表汇总不同渠道用户数, 金额(2)透视表汇总不同日期购买用户数,金额(3)透视表汇总不同用户购买订单数,金额step3:讲第二步结果可视化, 比如, 柱形图(1)不同渠道用户数, 金额(2)不同日期..._exce l趋势分析数据量

宁盾堡垒机双因素认证方案_horizon宁盾双因素配置-程序员宅基地

文章浏览阅读3.3k次。堡垒机可以为企业实现服务器、网络设备、数据库、安全设备等的集中管控和安全可靠运行,帮助IT运维人员提高工作效率。通俗来说,就是用来控制哪些人可以登录哪些资产(事先防范和事中控制),以及录像记录登录资产后做了什么事情(事后溯源)。由于堡垒机内部保存着企业所有的设备资产和权限关系,是企业内部信息安全的重要一环。但目前出现的以下问题产生了很大安全隐患:密码设置过于简单,容易被暴力破解;为方便记忆,设置统一的密码,一旦单点被破,极易引发全面危机。在单一的静态密码验证机制下,登录密码是堡垒机安全的唯一_horizon宁盾双因素配置

谷歌浏览器安装(Win、Linux、离线安装)_chrome linux debian离线安装依赖-程序员宅基地

文章浏览阅读7.7k次,点赞4次,收藏16次。Chrome作为一款挺不错的浏览器,其有着诸多的优良特性,并且支持跨平台。其支持(Windows、Linux、Mac OS X、BSD、Android),在绝大多数情况下,其的安装都很简单,但有时会由于网络原因,无法安装,所以在这里总结下Chrome的安装。Windows下的安装:在线安装:离线安装:Linux下的安装:在线安装:离线安装:..._chrome linux debian离线安装依赖

烤仔TVの尚书房 | 逃离北上广?不如押宝越南“北上广”-程序员宅基地

文章浏览阅读153次。中国发达城市榜单每天都在刷新,但无非是北上广轮流坐庄。北京拥有最顶尖的文化资源,上海是“摩登”的国际化大都市,广州是活力四射的千年商都。GDP和发展潜力是衡量城市的数字指...

随便推点

java spark的使用和配置_使用java调用spark注册进去的程序-程序员宅基地

文章浏览阅读3.3k次。前言spark在java使用比较少,多是scala的用法,我这里介绍一下我在项目中使用的代码配置详细算法的使用请点击我主页列表查看版本jar版本说明spark3.0.1scala2.12这个版本注意和spark版本对应,只是为了引jar包springboot版本2.3.2.RELEASEmaven<!-- spark --> <dependency> <gro_使用java调用spark注册进去的程序

汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用_uds协议栈 源代码-程序员宅基地

文章浏览阅读4.8k次。汽车零部件开发工具巨头V公司全套bootloader中UDS协议栈源代码,自己完成底层外设驱动开发后,集成即可使用,代码精简高效,大厂出品有量产保证。:139800617636213023darcy169_uds协议栈 源代码

AUTOSAR基础篇之OS(下)_autosar 定义了 5 种多核支持类型-程序员宅基地

文章浏览阅读4.6k次,点赞20次,收藏148次。AUTOSAR基础篇之OS(下)前言首先,请问大家几个小小的问题,你清楚:你知道多核OS在什么场景下使用吗?多核系统OS又是如何协同启动或者关闭的呢?AUTOSAR OS存在哪些功能安全等方面的要求呢?多核OS之间的启动关闭与单核相比又存在哪些异同呢?。。。。。。今天,我们来一起探索并回答这些问题。为了便于大家理解,以下是本文的主题大纲:[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JCXrdI0k-1636287756923)(https://gite_autosar 定义了 5 种多核支持类型

VS报错无法打开自己写的头文件_vs2013打不开自己定义的头文件-程序员宅基地

文章浏览阅读2.2k次,点赞6次,收藏14次。原因:自己写的头文件没有被加入到方案的包含目录中去,无法被检索到,也就无法打开。将自己写的头文件都放入header files。然后在VS界面上,右键方案名,点击属性。将自己头文件夹的目录添加进去。_vs2013打不开自己定义的头文件

【Redis】Redis基础命令集详解_redis命令-程序员宅基地

文章浏览阅读3.3w次,点赞80次,收藏342次。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。此时,可以将系统中所有用户的 Session 数据全部保存到 Redis 中,用户在提交新的请求后,系统先从Redis 中查找相应的Session 数据,如果存在,则再进行相关操作,否则跳转到登录页面。当数据量很大时,count 的数量的指定可能会不起作用,Redis 会自动调整每次的遍历数目。_redis命令

URP渲染管线简介-程序员宅基地

文章浏览阅读449次,点赞3次,收藏3次。URP的设计目标是在保持高性能的同时,提供更多的渲染功能和自定义选项。与普通项目相比,会多出Presets文件夹,里面包含着一些设置,包括本色,声音,法线,贴图等设置。全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,主光源和附加光源在一次Pass中可以一起着色。URP:全局只有主光源和附加光源,主光源只支持平行光,附加光源数量有限制,一次Pass可以计算多个光源。可编程渲染管线:渲染策略是可以供程序员定制的,可以定制的有:光照计算和光源,深度测试,摄像机光照烘焙,后期处理策略等等。_urp渲染管线

推荐文章

热门文章

相关标签