deep-learning - 序列到序列损失
问题描述
我试图弄清楚如何计算序列到序列的损失。在这种情况下,我使用的是 huggingface 转换器库,但这实际上可能与其他 DL 库相关。
因此,要获得所需的数据,我们可以这样做:
from transformers import EncoderDecoderModel, BertTokenizer
import torch
import torch.nn.functional as F
torch.manual_seed(42)
tokenizer = BertTokenizer.from_pretrained('bert-base-uncased')
MAX_LEN = 128
tokenize = lambda x: tokenizer(x, max_length=MAX_LEN, truncation=True, padding=True, return_tensors="pt")
model = EncoderDecoderModel.from_encoder_decoder_pretrained('bert-base-uncased', 'bert-base-uncased') # initialize Bert2Bert from pre-trained checkpoints
input_seq = ["Hello, my dog is cute", "my cat cute"]
output_seq = ["Yes it is", "ok"]
input_tokens = tokenize(input_seq)
output_tokens = tokenize(output_seq)
outputs = model(
input_ids=input_tokens["input_ids"],
attention_mask=input_tokens["attention_mask"],
decoder_input_ids=output_tokens["input_ids"],
decoder_attention_mask=output_tokens["attention_mask"],
labels=output_tokens["input_ids"],
return_dict=True)
idx = output_tokens["input_ids"]
logits = F.log_softmax(outputs["logits"], dim=-1)
mask = output_tokens["attention_mask"]
编辑 1
感谢@cronoik,我能够将通过拥抱脸计算的损失复制为:
output_logits = logits[:,:-1,:]
output_mask = mask[:,:-1]
label_tokens = output_tokens["input_ids"][:, 1:].unsqueeze(-1)
select_logits = torch.gather(output_logits, -1, label_tokens).squeeze()
huggingface_loss = -select_logits.mean()
但是,由于第二个输入的最后两个标记只是填充,我们不应该将损失计算为:
seq_loss = (select_logits * output_mask).sum(dim=-1, keepdims=True) / output_mask.sum(dim=-1, keepdims=True)
seq_loss = -seq_loss.mean()
^这考虑了每行输出的序列长度,以及通过屏蔽它的填充。当我们有批量不同长度的输出时,认为这特别有用。
解决方案
好的,我发现我在哪里犯了错误。这一切都归功于HuggingFace 论坛中的这个帖子。
- 屏蔽版本需要输出标签
-100
。变压器库不适合您。 - 我犯的一个愚蠢的错误是面具。它应该是
output_mask = mask[:, 1:]
而不是:-1
.
1. 使用模型
我们需要将输出的掩码设置为 -100。使用克隆很重要,如下所示:
labels = output_tokens["input_ids"].clone()
labels[output_tokens["attention_mask"]==0] = -100
outputs = model(
input_ids=input_tokens["input_ids"],
attention_mask=input_tokens["attention_mask"],
decoder_input_ids=output_tokens["input_ids"],
decoder_attention_mask=output_tokens["attention_mask"],
labels=labels,
return_dict=True)
2. 计算损失
所以最终复制它的方法如下:
idx = output_tokens["input_ids"]
logits = F.log_softmax(outputs["logits"], dim=-1)
mask = output_tokens["attention_mask"]
# shift things
output_logits = logits[:,:-1,:]
label_tokens = idx[:, 1:].unsqueeze(-1)
output_mask = mask[:,1:]
# gather the logits and mask
select_logits = torch.gather(output_logits, -1, label_tokens).squeeze()
-select_logits[output_mask==1].mean(), outputs["loss"]
然而,上面忽略了这来自两个不同的行的事实。因此,另一种计算损失的方法可能是:
seq_loss = (select_logits * output_mask).sum(dim=-1, keepdims=True) / output_mask.sum(dim=-1, keepdims=True)
seq_loss.mean()
推荐阅读
- vb.net - 使用 vb.net 将非常大的文档保存到 Filenet
- python - .take 和 .compute 之间的差异
- html - css没有动画定时功能
- javascript - JS 函数中的 JQuery 在第一次单击时不起作用,但在对该元素执行其他操作后起作用。
- reactjs - 如何在 React Native 中通过 this.props.navigation.openDrawer() 发送参数
- java - 使用jackson提取内部JSON数组列表
- node.js - 连接到在 Docker 容器中运行的数据库时,sails-postgresql“poolSize”太高错误
- operating-system - 多级分页 - 操作系统
- spring - @WebFluxTest 升级到 Spring Boot 2.1.0.RELEASE 时不会创建 ObjectMapper
- java - 如何通过 Qt JNI 将 null 从 C++ 传递到 Java?