IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> TL-BERT: A Novel Biomedical Relation Extraction Approach -> 正文阅读

[人工智能]TL-BERT: A Novel Biomedical Relation Extraction Approach

论文地址:TL-BERT: A Novel Biomedical Relation Extraction Approach

1. Introduction

在句子级别提取生物医学关系时,那些同源但不同类(SODC)的实例很容易被错误地划分为同一类。
在这里插入图片描述
示例句子包含三个蛋白质实体 TPO、Grb2 和 JAK2,它们可以形成三种候选关系。其中,实例 <TPO,False,Grbs> 和实例<Grb2,True,JAK2> 是 SODC 实例。由于 SODC 实例是从同一个句子生成的,它们具有几乎相同的词汇信息和句法信息,这会误导分类器将它们划分为同一类。

受 FaceNet 中三重损失策略的启发,我们提出了基于三重损失的 BERT(TL-BERT)模型来从文本中提取 DDI 和 PPI。我们试图最大化这些由相同句子生成但属于不同类的实例之间的距离,以增加 SODC 实例之间的区别。首先,使用指定的三重生成规则生成三重数据。其次,将生成的三重数据输入到基于 BERT 的特征抽取器中以获取句子级特征和实体级特征。最后,基于句子级和实体级特征,分别计算三重损失和二元交叉熵损失来训练模型。TL-BERT 分别在 PPI 数据集和 DDI 数据集上进行了评估,并取得了显著的结果。此外,引入三重损失训练策略可以提高 PPI 提取任务和 DDI 检测任务的性能,这证明了三重损失训练策略在关系提取领域的有效性。

2. Method

在本研究中,我们着重于巧妙地使用三重损失训练策略来训练基于 BERT 的生物医学关系提取模型。我们的方法框架如图所示:
在这里插入图片描述

2.1 Triple Data Generation

为了配合 Triplet Loss 的训练策略,将使用以下三条规则生成合法的三重数据:
(1)对于每个正实例,从同一个句子中获取一个负实例,从随机选择的句子中获取一个正实例,以形成三重数据。
(2)对于每个负实例,从同一个句子中获取一个正实例,从随机选择的句子中获取一个负实例,以形成三重数据。
(3)对于每个无法从同一个句子中找到一个负/正实例的正/负实例,若该句子中只有两个实体,那么它将从其它句子中随机选择一个正实例和一个负实例,以形成三重数据。
对于使用规则(1)和规则(2)生成的三重数据,三重数据中的两个实例共享相同的上下文信息,这将误导分类器将它们分到同一类中,引入 Triplet Loss 策略的主要目的是提高区分这些 SODC 实例的能力。

2.2 Bert based feature extraction

R-BERT 将实体级信息合并到预训练的BERT模型中用于关系分类,并达到了最先进的水平。因此,我们使用R-BERT作为特征抽取器,从输入实例中提取句子级特征和实体级特征。在输入到特征提取器之前需要处理每个实例。给定具有两个实体 e 1 e1 e1 e 2 e2 e2 的句子,我们需要在实体 e 1 e1 e1 的开头和结尾插入 $,在实体 e 2 e2 e2 的开头和结尾插入 #

经过预处理后,实例被送入基于 BERT 的特征提取器。首先,BERT 模型将处理后的实例(标记序列)映射到隐藏状态序列 H = { H 0 , H 1 , ? ? , H N } H=\{H_0,H_1,\cdots,H_N\} H={H0?,H1?,?,HN?} H 0 H_0 H0? 是第一个 token [CLS](被视为句子级别的嵌入)的嵌入, H i ~ H j H_i\sim H_j Hi?Hj? 是实体 e 1 e1 e1 的嵌入, H m ~ H n H_m\sim H_n Hm?Hn? 是实体 e 2 e2 e2 的嵌入。由于每个实体的长度不一致,因此我们用平均操作来获得具有指定长度的实体级嵌入。此外,为了提取更多的抽象特征,在句子级嵌入和实体级嵌入中都添加了一个全连接层,以获得最终的句子级特征向量 H S H_S HS? 和实体级特征向量 H e 1 H_{e1} He1? H e 2 H_{e2} He2?,分别表示为: H S = W 0 [ tanh ( H 0 ) ] + b 0 (1) H_S=W_0[\text{tanh}(H_0)]+b_0\tag{1} HS?=W0?[tanh(H0?)]+b0?(1) H e 1 = W [ tanh ( 1 j ? i + 1 ∑ t = i j H t ) ] + b (2) H_{e1}=W[\text{tanh}(\frac{1}{j-i+1}\sum_{t=i}^jH_t)]+b\tag{2} He1?=W[tanh(j?i+11?t=ij?Ht?)]+b(2) H e 2 = W [ tanh ( 1 m ? n + 1 ∑ t = m n H t ) ] + b (3) H_{e2}=W[\text{tanh}(\frac{1}{m-n+1}\sum_{t=m}^nH_t)]+b\tag{3} He2?=W[tanh(m?n+11?t=mn?Ht?)]+b(3)

2.3 Training process

Triplet Loss培训策略的设计动机如图所示。在特征空间中,我们希望最大化 SODC 实例(Instance1 和 Instance3)之间的距离,并最小化这些相同类实例(Instance1 和 Instance2)之间的间距。通过对每个实例嵌入新的特征,分类器可以更准确地区分 SODC 实例。
在这里插入图片描述
TL-BERT 的总体训练过程如图所示:
在这里插入图片描述


(1)交叉熵损失
对于三重数据中的每个实例,将句子级特征向量 H 0 ’ H_0^’ H0? 和两个实体级特征向量 H e 1 , H e 2 H_{e1},H_{e2} He1?,He2? 拼接起来,然后添加一个全连接层和一个 softmax \text{softmax} softmax 层以获得最终分类结果 p p p。最终使用公式(6)计算交叉熵损失,其中 i = 1 , 2 , 3 i=1,2,3 i=1,2,3 分别代表三重数据实体1、实体2和实体3的索引。 e = W 3 [ c o n c a t ( H S ; H e 1 ; H e 2 ) ] + b 3 (4) e=W_3[concat(H_S;H_{e1};H_{e2})]+b_3\tag{4} e=W3?[concat(HS?;He1?;He2?)]+b3?(4) p = softmax ( e ) (5) p=\text{softmax}(e)\tag{5} p=softmax(e)(5) l o s s C E = ∑ i = 1 3 ? [ y i ? log ? ( p i ) + ( 1 ? y i ) ? log ? ( 1 ? p i ) ] (6) loss_{CE}=\sum_{i=1}^3-[y^i·\log(p^i)+(1-y^i)·\log(1-p^i)]\tag{6} lossCE?=i=13??[yi?log(pi)+(1?yi)?log(1?pi)](6)

(2)三重损失
对于 SODC 实例,它们共享相同的上下文信息,唯一的区别是实体级别的信息。因此,我们推断实体级别的信息对将这些 SODC 实例正确分类起着关键作用。因此,我们基于实体级特征向量计算三重损失。
首先,对于每个实例,将两个实体级特征向量 H e 1 ∈ R d , H e 2 ∈ R d H_{e1}\in R^d,H_{e2}\in R^d He1?RdHe2?Rd 堆叠获得向量 H e ∈ R 2 × d H_{e}\in R^{2\times d} He?R2×d。然后,为捕获实体对的相关信息,在 H e H_e He? 上执行一维卷积,使用公式(8)获得实体对卷积特征向量 H e p ∈ R d H_{ep}\in R^d Hep?Rd。最后,使用三个实体级卷积特征向量来计算三重损失。 H e = s t a c k [ H e 1 , H e 2 ] (7) H_e=stack[H_{e1},H_{e2}]\tag{7} He?=stack[He1?,He2?](7) H e p = f c o n v ( H e ) (8) H_{ep}=f_{conv}(H_{e})\tag{8} Hep?=fconv?(He?)(8) l o s s T L = [ ∣ ∣ H e p 1 ? H e p 2 ∣ ∣ 2 2 ? ∣ ∣ H e p 1 ? H e p 3 ∣ ∣ 2 2 + α ] + (9) loss_{TL}=[||H_{ep}^1-H_{ep}^2||_2^2-||H_{ep}^1-H_{ep}^3||_2^2+\alpha]_+\tag{9} lossTL?=[∣∣Hep1??Hep2?22??∣∣Hep1??Hep3?22?+α]+?(9)其中, H e p 1 , H e p 2 , H e p 3 H_{ep}^1,H_{ep}^2,H_{ep}^3 Hep1?Hep2?Hep3?分别代表实体1、实体2、实体3的实体对卷积特征向量。实体1和实体2属于同一个类,而实体1与实体3属于不同的类。 α \alpha α不同类之间强加的边距。


综上,TL-BERT 的损失函数定义如下, β \beta β 是超参数: l o s s = l o s s C E + β l o s s T L (10) loss = loss_{CE}+\beta loss_{TL}\tag{10} loss=lossCE?+βlossTL?(10)

3. Experiments

在本章中,我们将验证 TL-BERT 在 PPI 提取任务和 DDI 检测任务中的有效性。

3.1 Datasets

我们的方法是根据两个流行的 PPI 基准(AIMed、BioInfer)和一个著名的 DDI 基准(DDI Extraction-2013语料库)进行评估的。基于 DDI Extraction-2013 有两个子任务:DDI 检测(二进制分类)和 DDI 分类(多分类)。由于三重损失不适用于多类分类任务,因此我们只进行 DDI 检测任务来验证我们的训练策略的有效性。

3.2 Experimental Results and Analysis

为了验证 TL-BERT 的有效性,进行了以下实验。由于 AIMed 和 BioInfer 中没有测试数据集,因此对这两个语料库进行了十次交叉验证实验。PPIs 语料库和 DDIs 语料的比较结果分别如表I和表II所示。
在这里插入图片描述

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-10-22 21:15:35  更:2022-10-22 21:17:22 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/25 20:49:51-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码