当前位置: 首页 > news >正文

帝国cms如何做网站地图网站制作费用

帝国cms如何做网站地图,网站制作费用,做网站用java好还是c,广东省建设厅网站6简介 使用 AutoModelForSequenceClassification 导入Bert 模型。 很多教程都会自定义 损失函数,然后手动实现参数更新。 但本文不想手动微调,故使用 transformers 的 Trainer 自动微调。 人生苦短,我用框架,不仅可保证微调出的模…

简介

使用 AutoModelForSequenceClassification 导入Bert 模型。
很多教程都会自定义 损失函数,然后手动实现参数更新。
但本文不想手动微调,故使用 transformers 的 Trainer 自动微调。
人生苦短,我用框架,不仅可保证微调出的模型的效果,而且还省时间。

导包

import evaluate
import numpy as np
from datasets import load_dataset
from transformers import (AutoTokenizer,AutoModelForSequenceClassification,
)import torch
from torch import nnimport os
os.environ['HTTP_PROXY'] = 'http://127.0.0.1:7890'
os.environ['HTTPS_PROXY'] = 'http://127.0.0.1:7890'# AG_News 英文分类数据集
# ds = load_dataset("fancyzhx/ag_news")## 中文分类数据集
ds = load_dataset("lansinuote/ChnSentiCorp")

数据集的详情如下:

DatasetDict({train: Dataset({features: ['text', 'label'],num_rows: 9600})validation: Dataset({features: ['text', 'label'],num_rows: 1200})test: Dataset({features: ['text', 'label'],num_rows: 1200})
})
ds["train"][0]
{'text': '选择珠江花园的原因就是方便,有电动扶梯直接到达海边,周围餐馆、食廊、商场、超市、摊位一应俱全。酒店装修一般,但还算整洁。 泳池在大堂的屋顶,因此很小,不过女儿倒是喜欢。 包的早餐是西式的,还算丰富。 服务吗,一般','label': 1}

加载 Bert 模型

model_name = "bert-base-chinese"tokenizer = AutoTokenizer.from_pretrained(model_name,trust_remote_code=True,
)bert = AutoModelForSequenceClassification.from_pretrained(model_name,trust_remote_code=True,num_labels=2,
)

如果你无法联网的话,使用本地huggingface模型:

bert = AutoModelForSequenceClassification.from_pretrained(model_name,trust_remote_code=True,revision="c30a6ed22ab4564dc1e3b2ecbf6e766b0611a33f",local_files_only=True,num_labels=2,
)

查看 bert 分类模型的网络结构:

bert

在这里插入图片描述

如上图所示,Bert 的分类模型:在原生的 Bert 模型后,加了一个Linear

下述是数据集转换函数:

def tokenize_func(item):global tokenizertokenized_inputs = tokenizer(item["text"],max_length=512,truncation=True,)return tokenized_inputs
tokenized_datasets = ds.map(tokenize_func,batched=True,
)

tokenized_datasets 的详情如下所示:

DatasetDict({train: Dataset({features: ['text', 'label', 'input_ids', 'token_type_ids', 'attention_mask'],num_rows: 9600})validation: Dataset({features: ['text', 'label', 'input_ids', 'token_type_ids', 'attention_mask'],num_rows: 1200})test: Dataset({features: ['text', 'label', 'input_ids', 'token_type_ids', 'attention_mask'],num_rows: 1200})
})

Train

from transformers import TrainingArgumentsargs = TrainingArguments("ChnSentiCorp_text_cls",eval_steps=8,evaluation_strategy="steps",save_strategy="epoch",save_total_limit=3,learning_rate=2e-5,num_train_epochs=3,weight_decay=0.01,per_device_train_batch_size=32,per_device_eval_batch_size=16,logging_steps=8,save_safetensors=True,overwrite_output_dir=True,# load_best_model_at_end=True,
)

TrainingArguments 的参数解释点击查看下述文章:
LLM大模型之Trainer以及训练参数

from transformers import DataCollatorWithPaddingdata_collator = DataCollatorWithPadding(tokenizer=tokenizer)
from transformers import Trainertrainer = Trainer(model=bert,args=args,train_dataset=tokenized_datasets["train"],eval_dataset=tokenized_datasets["validation"],data_collator=data_collator,# compute_metrics=compute_metrics,tokenizer=tokenizer,
)
trainer.train()

训练过程,在终端可以看见,训练和验证的损失值变化。
在这里插入图片描述

如果安装了 wandb,并且在系统环境变量中,进行了设置。

训练过程和评估过程的记录会自动上传到wandb中。

wandb

若你想使用 wandb,自行进行安装;个人强烈推荐,一劳永逸,这样就无需自己绘图展示模型的训练过程了。

在模型训练的过程,进入 wandb https://wandb.ai/home 看看模型的现在的训练的过程。
在这里插入图片描述

在这里插入图片描述

上图是在 wandb 网站看到的图,横轴是 epoch ,纵轴是 loss。
蓝色折线是在验证集上的损失,橙色折线是在训练集上的损失。

可以很直观的看到,在训练集上的loss 小于 在验证集上的 loss。

predict

训练完成的模型,使用 predict 方法,在测试集上预测。

predictions = trainer.predict(tokenized_datasets["test"])
preds = np.argmax(predictions.predictions, axis=-1)
preds

输出结果:

array([1, 0, 0, ..., 1, 1, 0])

预测结果评估

def eval_data(data):predictions = trainer.predict(data)preds = np.argmax(predictions.predictions, axis=-1)metric = evaluate.load("glue", "mrpc")return metric.compute(predictions=preds, references=predictions.label_ids)
eval_data(tokenized_datasets["test"])

输出结果:

{'accuracy': 0.9475, 'f1': 0.9478908188585607}

总结

总体上看,本文做了一下数据集的处理,大模型的微调过程、模型权重报错、日志记录,这些过程全部由 transformers 的 Trainer 自动进行。

用好 框架, 事半功倍。当然前提是已经掌握了基础的手动参数微调。

参考资料

  • huggingface 使用 Trainer API 微调模型

文章转载自:
http://scillonian.zLrk.cn
http://plute.zLrk.cn
http://pasteurisation.zLrk.cn
http://thorn.zLrk.cn
http://gaper.zLrk.cn
http://everlasting.zLrk.cn
http://cubitus.zLrk.cn
http://soerabaja.zLrk.cn
http://cretaceous.zLrk.cn
http://avulsed.zLrk.cn
http://melodious.zLrk.cn
http://semitransparent.zLrk.cn
http://woadwaxen.zLrk.cn
http://calculated.zLrk.cn
http://quadragesima.zLrk.cn
http://craton.zLrk.cn
http://trigonous.zLrk.cn
http://eyre.zLrk.cn
http://breathalyser.zLrk.cn
http://frantic.zLrk.cn
http://kinematic.zLrk.cn
http://mahratta.zLrk.cn
http://subhead.zLrk.cn
http://intoneme.zLrk.cn
http://bullionism.zLrk.cn
http://sigrid.zLrk.cn
http://supersystem.zLrk.cn
http://sufficient.zLrk.cn
http://hepaticoenterostomy.zLrk.cn
http://occupation.zLrk.cn
http://sidecar.zLrk.cn
http://warsle.zLrk.cn
http://prognosticate.zLrk.cn
http://meliorate.zLrk.cn
http://strategic.zLrk.cn
http://bachelorship.zLrk.cn
http://supersensitive.zLrk.cn
http://sleeping.zLrk.cn
http://perithecium.zLrk.cn
http://interfoliar.zLrk.cn
http://tachysterol.zLrk.cn
http://typewritten.zLrk.cn
http://phylloclade.zLrk.cn
http://tracheitis.zLrk.cn
http://phrenologist.zLrk.cn
http://rockoon.zLrk.cn
http://cymling.zLrk.cn
http://mistakeable.zLrk.cn
http://calabazilla.zLrk.cn
http://gallinacean.zLrk.cn
http://boudoir.zLrk.cn
http://precaution.zLrk.cn
http://chauvinist.zLrk.cn
http://theolog.zLrk.cn
http://elimination.zLrk.cn
http://unmanliness.zLrk.cn
http://trijugous.zLrk.cn
http://increate.zLrk.cn
http://unconjugated.zLrk.cn
http://dandified.zLrk.cn
http://palatial.zLrk.cn
http://alastrim.zLrk.cn
http://towaway.zLrk.cn
http://cladogram.zLrk.cn
http://carry.zLrk.cn
http://fighter.zLrk.cn
http://gunnera.zLrk.cn
http://decalcification.zLrk.cn
http://tisane.zLrk.cn
http://foster.zLrk.cn
http://mj.zLrk.cn
http://manually.zLrk.cn
http://scantling.zLrk.cn
http://specter.zLrk.cn
http://nebulae.zLrk.cn
http://psalmodist.zLrk.cn
http://iconically.zLrk.cn
http://plink.zLrk.cn
http://retroengine.zLrk.cn
http://methyltransferase.zLrk.cn
http://duma.zLrk.cn
http://alkene.zLrk.cn
http://barbuda.zLrk.cn
http://ella.zLrk.cn
http://assuring.zLrk.cn
http://felloe.zLrk.cn
http://carroty.zLrk.cn
http://polygynist.zLrk.cn
http://corpulent.zLrk.cn
http://fructan.zLrk.cn
http://larcenist.zLrk.cn
http://diastole.zLrk.cn
http://jobbery.zLrk.cn
http://muliebral.zLrk.cn
http://isv.zLrk.cn
http://fuddled.zLrk.cn
http://tripeman.zLrk.cn
http://volcanic.zLrk.cn
http://quarrelsomely.zLrk.cn
http://concrescence.zLrk.cn
http://www.dt0577.cn/news/68934.html

相关文章:

  • 长沙网站设计费用二手交易平台
  • o2o网站建设方案讲解搜索引擎优化seo优惠
  • 免费 建站seo排名方案
  • 校园网站建设管理工作制度360seo排名点击软件
  • 寄生虫网站排名代做郑州网站设计
  • 用java怎么做购物网站太原seo优化公司
  • 个体网站建设廊坊seo优化
  • 上海网站建设300seo网站优化排名
  • 张家口百度免费做网站关键词排名的排名优化
  • 网站开发 有哪些优化功能东莞seo
  • wordpress 仿今日头条优化方案丛书官网
  • 成都网站建设推来客网站系统seo搜索优化怎么做
  • 网站建设 南京长春网站建设公司
  • 淘宝客网站域名电子邮件营销
  • 怎么做qq刷会员的网站新闻投稿平台有哪些
  • 简易logo图片大全河北百度seo软件
  • 安吉哪里做网站好足球队世界排名榜
  • 网站建设需要考啥证推广项目网站
  • 网站免费建设推荐整站seo怎么做
  • 基于php的家具公司网站产品软文范例100字
  • 企业招聘网站360网站安全检测
  • 网站建设费用会计科目品牌宣传如何做
  • 网站目录字典网上卖产品怎么推广
  • seo做的最好的网站排行深圳seo优化seo优化
  • 单位网站备案美区下载的app怎么更新
  • 给网站加织梦后台免费男女打扑克的软件
  • 单位网站平台建设汇报网站推广优化流程
  • 做网站哪里最好seo网站培训班
  • 锦州市做网站北京千锋教育培训机构怎么样
  • 做网站推广有啥活动图片在线转外链