IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 基于BERT的新闻文本分类学习 -> 正文阅读

[人工智能]基于BERT的新闻文本分类学习

项目学习来源:

零基础入门NLP - 新闻文本分类赛题与数据-天池大赛-阿里云天池

使用预训练BERT做新闻文本分类,轻松达到分数0.88以上

目录

一、实验数据分析

二、实验原理—BERT文本分类

1、BERT的结构

2、BERT的输入

3、BERT的两大预训练任务

4、BERT的输出

三、实验设计

1、实验框架

2、数据处理——将数据处理为能够训练BERT的样式

?3、模型搭建

4、训练模型

?四、实验结果


一、实验数据分析

见大赛数据说明文档

二、实验原理—BERT文本分类

1、BERT的结构

????? BERT模型在2018年Google AI 发表的论文中首次被提出,并在11NLP任务表现上刷新了记录。

BERT简单输入输入结构

??????? BERT基于Transformer encoder该结构可实现一次性读取整个文本,以进行双向的语言表征,实现预测任务。输入的Embedding通过一层层的Encoder进行编码转换,再连接到不同的下游任务。

2、BERT的输入

粉色--输入的字符块token,其特点:

1在每个序列开头插入[CLS]分类token,用于分类相关任务;

2在每句结束后插入[sep]分割token,用以分开不同句子

token对应向量,其特点:

? (1) Token Embedding--标定对应的token

? (2) Segment Embedding--对句子的分割,用以表征token属于句子A还是句子B

? (3) Position Embedding--表征token在序列中的位置

3、BERT的两大预训练任务

1.Masked Language ModelMLM

115%的概率用mask token [MASK]随机地对每一个训练序 列中的token进行替换

2预测[MASK]位置原有的单词

3用该位置对应的输出预测出原来的token输入到全连接,然后用softmax输出每个token的概率,最后用交叉熵计算loss)。

2.Next Sentence PredictionNSP

?????? 当选择句子AB作为预训练样本时,B50%的可能是A的下一个句子(IsNext),也有50%的可能是随机句子(NotNext),将训练样例输入到BERT模型中,用[CLS]对应的C信息,就是分类信息,进行分类预测

4、BERT的输出

?因为BERT是只有encoder的transformer构成的,transformer能实现有多少输入就有多少输出

图中C为分类token[CLS]对应的输出,Ti表示对应输入token的输出

三、实验设计

1、实验框架

2、数据处理——将数据处理为能够训练BERT的样式

样本长度不一,处理方式:

1. 填充特殊词元: [CLS] [SEP]
2. 将每个句子填充或截断为 固定长度
3. 使用 mask attention 显示区分 真实词元 特殊词元

填充词元:?

对于每条输入样本:

[CLS]作为一种特殊标记添加在每一条输入样本之前

[SEP]则作为一种特殊的分隔符用来分割句子对,例如<question, answer>

transformer层输出和输入长度相同的词嵌入向量,在分类时,只需要得到第一个词向量并进行分类即可。?

代码层面实现:

加载分词器tokenizer,使用类方法from_pretrained加载预训练模型:

tokenizer =??transformers.AutoTokenizer.from_pretrained('bert-base-uncased')

bert-base-uncased是bert最基础的模型,也是基于transformer的神经网络,其网络细节:

参数

大小

layer

12

hidden_size

768

num_attention_heads

12

parameters

110M

?3、模型搭建

首先,初始化模型,用bert-base-uncased作为预训练模型,选用bertforsequencecalssificationz作为函数调用接口。

接着定义:前向传播forward()函数,将处理好的数据使用Pytorch的DataLoader模块导入模型中

然后,配置优化器,主要优化两方面:

模型参数的优化:调用Adam优化器,Adam优化器对于学习率没有那么敏感,简便易用

学习率的动态衰减:采用指数衰减策略,参数gamma为衰减的底数,可以通过改变gamma来改变学习率衰减的幅度

训练过程:给定批量数据(小批量梯度下降),利用前向传播函数计算loss值并返回

4、训练模型

分类器classifier参数:

batch_size = 8? ? ? ? ? ? ? learning_rate=3e-5(因为数据量很大,需要把学习率设置小一点)

衰减底数gamma=0.8? ??

训练器trainer超参数:

gpu数量=8? ? ? ? ? ? ? ? ? ? ?max_epoch=3

log_every_n_step=0.8

训练过程(历经四个多小时):

?四、实验结果

F1指数为0.85,只能说预测的还行,不算很好,但也不差

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-07-04 22:54:12  更:2022-07-04 22:57:28 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 1:43:06-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码