作者热门文章
- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
当我尝试运行此 page 中的代码时,我收到以下警告.
/usr/local/lib/python3.7/dist-packages/transformers/optimization.py:309: FutureWarning: This implementation of AdamW is deprecated and will be removed in a future version. Use thePyTorch implementation torch.optim.AdamW instead, or set `no_deprecation_warning=True` to disable this warning
FutureWarning,
我非常困惑,因为代码似乎根本没有设置优化器。最有可能设置优化器的地方可能在下面,但我不知道如何更改优化器
# define the training arguments
training_args = TrainingArguments(
output_dir = '/media/data_files/github/website_tutorials/results',
num_train_epochs = 5,
per_device_train_batch_size = 8,
gradient_accumulation_steps = 8,
per_device_eval_batch_size= 16,
evaluation_strategy = "epoch",
disable_tqdm = False,
load_best_model_at_end=True,
warmup_steps=200,
weight_decay=0.01,
logging_steps = 4,
fp16 = True,
logging_dir='/media/data_files/github/website_tutorials/logs',
dataloader_num_workers = 0,
run_name = 'longformer-classification-updated-rtx3090_paper_replication_2_warm'
)
# instantiate the trainer class and check for available devices
trainer = Trainer(
model=model,
args=training_args,
compute_metrics=compute_metrics,
train_dataset=train_data,
eval_dataset=test_data
)
device = 'cuda' if torch.cuda.is_available() else 'cpu'
device
我使用相同的代码尝试了另一个转换器,例如 distilbert-base-uncased
,但它似乎在没有任何警告的情况下运行。
longformer
?最佳答案
import torch_optimizer as optim
optim.AdamW(params, opt.learning_rate, (opt.optim_alpha, opt.optim_beta), opt.optim_epsilon, weight_decay=opt.weight_decay)
可以这样使用。
关于python - huggingface 变形金刚 longformer 优化器警告 AdamW,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/71113363/
使用 longformer API 返回有限数量层的正确方法是什么? 与基本情况不同BERT ,我不清楚返回类型如何只获取最后 N 层。 所以,我运行这个: from transformers imp
我正在尝试使更长的标签显示与文本框内联。我希望标签位于一行并与文本框内联显示。我正在使用 Bootstrap 3,但我似乎无法弄清楚如何实现这一点。下面是一些示例代码: Two line lab
当我尝试运行此 page 中的代码时,我收到以下警告. /usr/local/lib/python3.7/dist-packages/transformers/optimization.py:309:
想做类似的事情 tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') model = BertModel.from_pretra
我是一名优秀的程序员,十分优秀!