信息检索17-医疗检索

上传人:宝路 文档编号:48326903 上传时间:2018-07-13 格式:PPTX 页数:22 大小:2.24MB
返回 下载 相关 举报
信息检索17-医疗检索_第1页
第1页 / 共22页
信息检索17-医疗检索_第2页
第2页 / 共22页
信息检索17-医疗检索_第3页
第3页 / 共22页
信息检索17-医疗检索_第4页
第4页 / 共22页
信息检索17-医疗检索_第5页
第5页 / 共22页
点击查看更多>>
资源描述

《信息检索17-医疗检索》由会员分享,可在线阅读,更多相关《信息检索17-医疗检索(22页珍藏版)》请在金锄头文库上搜索。

1、Introduction to Information Retrieval 现代信息检索中国科学院大学2017年秋季课程现代信息检索 更新时间: Modern Information Retrieval第17讲 Medical IR 医疗信息检索12017/10/09提纲2 Medical IR简介 TREC CDS 任务简介 常用CDS方法介绍 DNRM for CDS提纲3 Medical IR简介 TREC CDS 任务简介 常用CDS方法介绍 DNRM for CDS现代信息检索Medical IR简介有很多时候,为了更加准确地做出医疗决策,医生可能需要查阅一 些相关的医疗文献。考虑到

2、现有医疗文献的数量以及其增长的速度,快速而准确地定位 所需要的医疗文献变得非常重要。Medical IR的目标就是根据医生的信息需求(如电子病历),从海量 医疗文献中找到尽可能多的相关文献。与一般的IR任务(如Web检索)相比,Medical IR任务的查询和文档 长度都相对长很多;Medical IR任务的查询和文档都较多地包含医疗 领域特定的词汇和概念。4提纲5 Medical IR简介 TREC CDS 任务简介 常用CDS方法介绍 DNRM for CDS现代信息检索TREC CDS 任务目的:使医疗信息更加容易获取,以及让电子病历 (EHR) 的使用变 得更加有意义。 TREC Cl

3、inical Decision Support (CDS) 2014 & 2015A 给定电子病历 (EHR) 作为查询,参赛者需要返回相关的医疗文献以满足查询所包含 的信息需求。查询分为如下三类,每类表示不同的需求类型:Diagnosis::What is the patients diagnosis? Test:What tests should the patients receive? Treatment:How should the patient be treated? 6现代信息检索TREC CDS 任务文档集:从免费的在线医疗文献仓库PubMed Central (PMC) 获

4、取,共 733138篇文档,是PMC在2014.1.21的快照。查询:根据不同的需求类型分为三类 (Diagnosis, Test, Treatment),每 个查询有如下两个:Description:比较完整的描述Summary:简化的描述,去掉了一些不相关的信息7提纲8 Medical IR简介 TREC CDS 任务简介 常用CDS方法介绍 DNRM for CDS现代信息检索常用CDS方法查询扩展:基于伪相关反馈基于外部资源:如MeSH、DBpedia以及UMLS,一般直接将扩展词/概念加入到查询中,或者给予扩展词/概念更高的权重基于Google检索结果:从排名靠前的 (如前10篇)的

5、标题、摘要或者文档提取扩展词/概念将查询类型 (Diagnosis,Test, Treatment) 作为扩展词加入查询Fusion:对多个检索模型的结果进行合并基于检索模型评分进行fusion基于排序进行fusion使用专门针对长文档的检索模型:如SPUD 9现代信息检索常用CDS方法考虑查询类型信息:首先训练分类器 (如对Diagnosis和非Diagnosis分类),然后对初始检索结果进行分类,根据分类得分有一个排序,该排序可以与初始检索结果排序 进行fusion。Re-ranking:基于learning-to-rank:用BM25、PL2和BB2等模型评分作为feature,用ran

6、dom forest学习pointwise排序模型,或者用RankSVM学习pairwise排序模型,再用学习到的模型对初始检索结果重排基于position:根据位置信息为文档计算一个权重,并与初始评分求和,再对初始检索结果进行重排序引入语义信息:通过计算查询与文档之间的语义相似度评分,然后将该评分与初始检索评分进行插值,最后对初始检索结果进行重排10提纲11 Medical IR简介 TREC CDS 任务简介 常用CDS方法介绍 DNRM for CDS现代信息检索基于DNN的方法-DNRM考虑到查询包含的信息较少,直接计算查询与文档之间的相似度不 能达到很好的效果;现有的基于DNN的比较

7、有效的检索模型都需要计算查询与文档的单 词-单词相似度矩阵,计算复杂度较高;并且不考虑反馈信息,检索 效果也会受到一定影响;DNRM引入了两种相似度特征,一是查询词与文档的相似度,二是 伪相关反馈文档之间的相似度,然后通过多层感知机 (MLP) 学习一 个评分,一定程度上克服了上述的两个问题。12现代信息检索 IR:一个对比排序的问题哪个卡通形象更可爱? (哪个文档更相关?)现代信息检索 转化为一个相似度计算的问题哪个与“标准答案”更近似?现代信息检索DNRM基本思想将文档评分转化为一个与“标准答案”计算相似度问题D2Q(文档-查询)相似度是一种弱匹配信号相对于文档,查询太短,覆盖的信息太少文

8、档间相似度是一种“软匹配( soft matching)”,考虑了文档的所有内容事实上一篇文档是否相关是由其内容决定的,而不是是否包含查询关键字“标准答案”由K个初始排名靠前的文档组成将待评分文档与这K个文档的相似度作为K维特征输入一个前馈网络前馈网络输出最终文档评分Yanhua Ran et al. A Document-based Neural Relevance Model for Effective Clinical Decision Support. BIBM 2017. To appear.现代信息检索 模型结构给定查询q和待排序文档d,Dq是q的伪相关反馈文档集;通过计算待排序文

9、档d与各查询词qt的相似度得到D2Q特征,通过计算d与伪相关反馈文档文档di的相似度得到D2D特征;之后将D2Q特征和D2D特征分别输入到各自的MLP结构得到一个标量评分,然后将这两个评分合并得到最终语义评分,再将语义评分与初始检索模型评分线性插值得到最终评分。DNRM模型结构现代信息检索 现代信息检索DNRM for CDS 实验设置与baselines的比较:BM25,SEM-QD,DRMMDNRM模型多个变种的比较:只使用D2Q评分 (DNRMQ);只使用D2D评分 (DNRMD);D2D评分且与BM25插值 (DNRMD-);使用D2Q与D2D评分且与BM25插值 (DNRMDQ-)现

10、代信息检索DNRM for CDS 现代信息检索DNRM for CDS 实验结果实验结论:在大部分情况下, DNRMD-以及DNRMDQ - 比baselines效果要好;对于长查询 (Description) 而言,总体上DNRMDQ-要比DNRMD-效果要好。DNRM模型能够取得优于Best TREC Run的结果现代信息检索参考文献Simpson M S, Voorhees E M, Hersh W. Overview of the trec 2014 clinical decision support trackR. LISTER HILL NATIONAL CENTER FOR B

11、IOMEDICAL COMMUNICATIONS BETHESDA MD, 2014.Roberts K, Simpson M S, Voorhees E M, et al. Overview of the TREC 2015 Clinical Decision Support TrackC/TREC. 2015.Yang C, He B. A novel semantics-based approach to medical literature searchC/Bioinformatics and Biomedicine (BIBM), 2016 IEEE International Co

12、nference on. IEEE, 2016: 1616-1623.Balaneshin-Kordan S, Kotov A, Xisto R. WSU-IR at TREC 2015 clinical decision support track: Joint weighting of explicit and latent medical query concepts from diverse sourcesR. Wayne State University Detroit United States, 2015.Song Y, He Y, Hu Q, et al. Ecnu at 20

13、15 cds track: Two re-ranking methods in medical information retrievalC/Proceedings of the 2015 Text Retrieval Conference. 2015.现代信息检索参考文献Choi S, Choi J. SNUMedinfo at TREC CDS track 2014: Medical case-based retrieval taskR. SEOUL NATIONAL UNIV (REPUBLIC OF KOREA), 2014.Cummins R. Clinical Decision S

14、upport with the SPUD Language ModelC/TREC. 2015.Abacha A B, Khelifi S. LIST at TREC 2015 Clinical Decision Support Track: Question Analysis and Unsupervised Result FusionC/TREC. 2015.Palotti J, Hanbury A. Tuw trec clinical decision support track 2015R. Vienna University of Technology Vienna Austria, 2015.

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 中学教育 > 教学课件 > 高中课件

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号