| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 【个人记录】seq2seq,transformer,BERT -> 正文阅读 |
|
[人工智能]【个人记录】seq2seq,transformer,BERT |
<基本省略所有的细节计算,提取概括和特点>(一)seq2seq图形摘要引用:seq2seq (文章讲解很细腻,根据文章总结一份图形摘要,便于理解) 【简介——Wiki】Seq2seq是用于自然语言处理的一系列机器学习方法。[1]应用领域包括机器翻译,图像描述,对话模型和文本摘要。最初由Google开发,并用于机器翻译.。 seq2seq with attention的版本:
(二)Transformer引用: transformer主体结构
相比于seq2seq的几个特点:整体结构还是编码——解码,但是内部细节变化很大 self-attention相比于attention的优点:
(三)BERTBERT:全称Bidirectional Encoder Representations from Transformers 引用: BERT属于预训练语言表征模型,无监督学习,并且只需要Encoder机制。常被用于和GPT模型对比 BERT解决的一个问题就是,很多语言模型的预测只是限制在一句话当中,寻找关系,而忽略了上下文句子之间的潜在联系。 BERT针对此提出的两种结构:
附 1 :
|
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/27 21:03:26- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |