IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 创新实训-生物大分子分析平台02 -> 正文阅读

[人工智能]创新实训-生物大分子分析平台02

2021SC@SDUSC

一、论文解读

论文题目:PepFormer: End-to-End Transformer-Based Siamese Network to Predict and Enhance Peptide Detectability Based on Sequence Only

1.背景

多肽的可检测性在鸟枪蛋白质组学实验中至关重要。在这篇论文中引入了PepFormer,一种新型的端到端孪生网络架构,它将Transformer和GRU组合在一起,能够仅基于肽序列预测肽的可检测性。论文首次采用对比学习的方法,构造了一个新的模型训练损失函数,大大提高了预测模型的泛化能力。

2.模型优点

(1)模型基于Transformer和GRU结构自动学习肽的上下文敏感的嵌入表示,充分捕获全局和局部信息来表示肽的可检测性。
(2)孪生网络结构可以有效地增强从Transformer学习到的嵌入特征的表示能力,从而提高预测性能。
(3)提出了一种新的模型训练损失函数,提高了模型的泛化能力。
模型的总损失为对比损失和交叉熵损失之和。对比损失使得具有相同标签的表示向量更加接近。

二、代码分析

代码地址:https://github.com/WLYLab/PepFormer.

模型代码解读

class newModel(nn.Module):
    def __init__(self, vocab_size=24):
        super().__init__()
        self.hidden_dim = 25
        self.batch_size = 256
        self.emb_dim = 512
        
        self.embedding = nn.Embedding(vocab_size, self.emb_dim, padding_idx=0)
        self.encoder_layer = nn.TransformerEncoderLayer(d_model=512, nhead=8)
        self.transformer_encoder = nn.TransformerEncoder(self.encoder_layer, num_layers=1)
        
        self.gru = nn.GRU(self.emb_dim, self.hidden_dim, num_layers=2, 
                               bidirectional=True, dropout=0.2)
        
        
        self.block1=nn.Sequential(nn.Linear(4050,1024),
                                            nn.BatchNorm1d(1024),
                                            nn.LeakyReLU(),
                                            nn.Linear(1024,256),
                                 )

        self.block2=nn.Sequential(
                                               nn.BatchNorm1d(256),
                                               nn.LeakyReLU(),
                                               nn.Linear(256,128),
                                               nn.BatchNorm1d(128),
                                               nn.LeakyReLU(),
                                               nn.Linear(128,64),
                                               nn.BatchNorm1d(64),
                                               nn.LeakyReLU(),
                                               nn.Linear(64,2)
                                            )
        

1.self.embedding = nn.Embedding(vocab_size, self.emb_dim, padding_idx=0)
首先,在序列预处理模块中,使用嵌入向量来表示输入肽序列的氨基酸。因此,肽序列可以用特征矩阵来表示。作者将肽序列编码为24×512维的特征矩阵。
下图表示论文中序列预处理模块的构造:
在这里插入图片描述

2.self.encoder_layer = nn.TransformerEncoderLayer(d_model=512, nhead=8)
self.transformer_encoder = nn.TransformerEncoder(self.encoder_layer, num_layers=1)
作者利用一个 Transformer encoder layer进行特征提取。TransformerEncoderLayer 由self-attention和feedforward组成。Transformer 使用了多头注意机制,它不仅可以捕获序列中某个大小窗口中的局部信息,还可以捕获序列的全局信息。在肽序列中,这种机制可以极大地丰富标记的表示能力和学习上下文敏感的嵌入表示。
3.self.gru = nn.GRU(self.emb_dim, self.hidden_dim, num_layers=2,
bidirectional=True, dropout=0.2)
作者使用Bi-GRU来捕获嵌入向量表示的长距离依赖关系。然后使用前馈神经网络(FNN)映射嵌入特征,生成统一的向量表示。这样就可以计算两个肽序列之间的距离。
GRU 有两个有两个门,即一个重置门和一个更新门。从直观上来说,重置门决定了如何将新的输入信息与前面的记忆相结合,更新门定义了前面记忆保存到当前时间步的量。
下图为孪生网络模块的模型架构:
在这里插入图片描述

论文中提到,为避免灾难性遗忘,会冻结前面网络层的参数,只更新判别器的参数。

三、总结

本周阅读了一篇和蛋白质序列相关的论文,学习了论文中的Transformer和GRU模型,并对其模型架构部分代码进行分析。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-10-08 11:48:21  更:2021-10-08 11:50:42 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 10:32:10-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码