| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> CV算法之transform中self-attention理解 -> 正文阅读 |
|
[人工智能]CV算法之transform中self-attention理解 |
目前基于transform的很多算法在目前CV领域分类、检测、分割等经典任务中都取得了sota效果,自己其实也尝试了各种基于transform的分类分割算法,但是做算法就是这样,用很容易,真正说理解透彻,就很困难了。 这篇文章就不去具体分析某个算法,而是侧重于transform的核心: 相信所有尝试了解self-attention的同学们都看到过这个公式: 那么,首先一步一步来: 这个看图做: 第一个: 第二步: 由于随着QK的维度DK的增加,值也会越来越大,所以下一步需要除以QK的维度DK 第三步: softmax本质,其实就是归一化,这样计算出来,就是所谓的权重矩阵, 第四步: 与V矩阵相乘,其实就是加权求和得到最终结果,这里V也是学出来的一组参数,QKV输入都是一个输入x。
位置编码: 以上是multi-head self-attention的原理,但是还有一个问题是:现在的self-attention中没有位置的信息,对于NLP来说每个单词的位置影响很大,例如A打了B就和B打了A语义完全不一样 解决的办法: |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/26 22:42:24- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |