IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Prompt-Learning -> 正文阅读

[人工智能]Prompt-Learning

Prompt-Learning

? ? Prompt Learning(提示学习)是指对输入文本信息按照特定模板进行处理,把任务重构成一个更能充分利用预训练语言模型处理的形式。Prompting使得预训练模型和下游任务之间更加接近,这一点儿与fine-tuning不同,fine-tuning是使用预训练模型做下游任务,prompt learning是各种下游任务适应预训练模型,根据不同的预训练模型重构下游任务。

不同的prompt learning学习任务

这里重点介绍基于清华大学公开的openprompt框架进行文本分类学习以及重点介绍几个api的学习理解。
prompt learning包括Template,Verbalizer,PromptModel等。prompt learning将不同的nlp任务转化为文本分类问题,但是和之前的bert finetuning的文本分类不一致。例如:
文本分类:
输入:看这个娱乐节目不停的笑
输出:正面或者负面

prompt learning下的文本分类,预测mask位置处的词,向完形填空
输入:看这个娱乐节目不停的笑,这个节目是一个mask的节目
输出:有趣的或者无聊的
ManualTemplate
template_text = ‘{“placeholder”:“text_a”},该句子的意图是:{“mask”}。’
prompt 的template 经过ManualTemplate后会生成一个text,类型为list,
[{‘add_prefix_space’: ‘’, ‘placeholder’: ‘text_a’}, {‘add_prefix_space’: ‘’, ‘text’: ‘,该句子的意图是:’}, {‘add_prefix_space’: ‘’, ‘mask’: None},
{‘add_prefix_space’: ‘’, ‘text’: ‘。’}]
输入的句子‘股票想变成标的证券要达到的条件很高吧’在模板下的text表示如下
‘text’的value为 [‘股票想变成标的证券要达到的条件很高吧’, ‘,该句子的意图是:’, ‘’, ‘。’]
loss_ids:是标记mask的位置,[0,0,1,0]
shortenable: 1是input token,0是squence token,1是标记的placeholder或者shortenable的位置
在tokenizer中的对Template下的text的值进行tokenizer encoder,并在模版的开始和结束位置这两个特殊符号,例如bert预训练模型的特殊符号为cls和sep
loss_ids中的值根据tokenizer encoder的length进行扩充,1是表示mask的位置,加入的特殊编码对应的值为–100,这里默认是-100
备注:
1.在tokenizer的过程中把shortenable_ids这个内容项删掉了;loss_ids在后面的ManualVerbalize中计算label的概率会使用到,即预测mask的词的概率
2.常用的template有:
sentence1 It was [MASK].
sentence1 ? [MASK], sentence2
sentence1 . [MASK], sentence2
sentence1 sentence2 [MASK]
sentence2 ? [MASK], sentence1
ManualVerbalizer
这个是对label的扩展相近的词或者字进行编码,tokenizer分别对这些扩展字词进行tokenizer,统计tokenizer后的每个字词的最大个数,以及每一个标准问扩展词的tokenizer的最大长度,从而确定了扩展字词的矩阵大小,这里是对label进行扩充,在模型分类中会使用这个矩阵,这里是与之前的fine tuning分类有区别的。
例如标准问的扩展字词为[’ 支持’, ’ T’, ’ 类’, ’ 基’, ’ T0’, ’ 种类’, ’ 0’, ’ 申’, ’ 种’, ’ 持’, ’ 赎’, ’ 基金’, ’ 金’, ’ 支’],其中确定的每个词的最大长度为4,扩展词的最大长度为32,得到的padding结果为[[3118, 2898, 0, 0], [100, 0, 0, 0], [5102, 0, 0, 0], [1825, 0, 0, 0], [100, 0, 0, 0], [4905, 5102, 0, 0], [121, 0, 0, 0], [4509, 0, 0, 0], [4905, 0, 0, 0], [2898, 0, 0, 0], [6604, 0, 0, 0], [1825, 7032, 0, 0], [7032, 0, 0, 0], [3118, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0]],
mask 矩阵为[[1, 1, 0, 0], [1, 0, 0, 0], [1, 0, 0, 0], [1, 0, 0, 0], [1, 0, 0, 0], [1, 1, 0, 0], [1, 0, 0, 0], [1, 0, 0, 0], [1, 0, 0, 0], [1, 0, 0, 0], [1, 0, 0, 0], [1, 1, 0, 0], [1, 0, 0, 0], [1, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0], [0, 0, 0, 0]]
label扩展矩阵的mask矩阵[1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
这里边把字词的编码,mask,整个label的mask都作为了参数,tensor shape为[batch_size, 扩展词的最大长度, 每个词的最大长度],

  • 对BertForMaskedLM中的logtis进行计算[batch_size, max_seq_len, vocab_size],
  • 根据句子中mask的个数,得到mask位置处word的logits,如果只有一个mask,得到的shape为[batch_size,vocab_szie],如果是多个mask,得到的mask位置的logits为[batch_size,mask个数,vocab_size],这里maks的个数为1
  • 将mask的vocab 概率转化为label扩展词的logits[batch_size, label_num,扩展词的最大长度, 每个词的最大长度],然后根据label的扩展词的mask矩阵在每个词的最大长度这一个维度上进行计算,得到[batch_size, label_num, 扩展词的最大长度],
    进行softmax得到概率[batch_size, label_num, 扩展词的最大长度],再取log得到logtis(这个logits可以理解为对label的扩展词的logits)
  • 聚合得到label的logits,根据label扩展词的mask矩阵得到每一个label的logits[batch_size, label_num]

这里预测mask词是label中扩展词,从而得到label,从预训练模型预测mask位置是vocab,转化为预测label扩展词,从而得倒label,这个是与直接分类的区别,这里使用的是mlm的方式

备注:

  1. 这里面使用的是transformers中的BertForMaskedLM,不是BertModel,增加了wrapper,使用的是MLMTokenizerWrapper,BertForMaskedLM是预测mask掉的词是单词表中的哪一个词,logits的shape为[batch_size, seq_len, vocab_size]
  2. 这里的mask位置是从模板得到的,并不是每一个样本进行随机mask
  3. 不同的template和不用的label扩展词方式,对模型效果有影响

笔者最近在学习prompt learning,如有理解错误的地方,请指正,谢谢

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-02-16 13:05:31  更:2022-02-16 13:06:45 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/26 20:19:21-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码