- PaperWeekly 2016.08.05 第一期
- PaperWeekly 第二期
- PaperWeekly 第三期
- PaperWeekly 第四期 - 基于强化学习的文本生成技术
- PaperWeekly 第五期 - 从 Word2Vec 到 FastText
- PaperWeekly 第六期 - 机器阅读理解
- PaperWeekly 第七期 -- 基于 Char-level 的 NMT OOV 解决方案
- PaperWeekly 第八期 - Sigdial2016 文章精选(对话系统最新研究成果)
- PaperWeekly 第九期 -- 浅谈 GAN
- PaperWeekly 第十期
- PaperWeekly 第十一期
- PaperWeekly 第十二期 - 文本摘要
- PaperWeekly 第十三期--最新文章解读
- PaperWeekly 第十四期 - TTIC 在 QA 任务上的研究进展
- PaperWeekly 第十六期 - ICLR 2017 精选
- PaperWeekly 第十七期 - 无监督/半监督 NER
- PaperWeekly 第十八期 - 提高 seq2seq 方法所生成对话的流畅度和多样性
- PaperWeekly 第十九期 - 新文解读(情感分析、机器阅读理解、知识图谱、文本分类)
- PaperWeekly 第二十期 - GAN(Generative Adversarial Nets)研究进展
- PaperWeekly 第二十一期 - 多模态机器翻译
- PaperWeekly 第二十二期 - Image Caption 任务综述
- PaperWeekly 第二十三期 - 机器写诗
- PaperWeekly 第二十四期 - GAN for NLP
- PaperWeekly 第二十五期 - 增强学习在 image caption 任务上的应用
- PaperWeekly 第二十六期 - 2016 年最值得读的 NLP paper 解读(3 篇)+在线 Chat 实录
- PaperWeekly 第二十七期 | VAE for NLP
- PaperWeekly 第 28 期 | 图像语义分割之特征整合和结构预测
- PaperWeekly 第 29 期 | 你的 Emoji 不一定是我的 Emoji
- PaperWeekly 第 30 期 | 解读 2016 年最值得读的三篇 NLP 论文 + 在线 Chat 实录
- PaperWeekly 第 31 期 | 远程监督在关系抽取中的应用
- PaperWeekly 第 32 期 | 基于知识图谱的问答系统关键技术研究 #01
- PaperWeekly 第 33 期 | 基于知识图谱的问答系统关键技术研究 #03
- PaperWeekly 第 34 期 | VAE 在 chatbot 中的应用
- PaperWeekly 第 35 期 | 如何让聊天机器人懂情感 PaperWeekly 第 35 期 | 如何让聊天机器人懂情感
- PaperWeekly 第 36 期 | Seq2Seq 有哪些不为人知的有趣应用?
- PaperWeekly 第 37 期 | 论文盘点:检索式问答系统的语义匹配模型(神经网络篇)
- PaperWeekly 第 38 期 | SQuAD 综述
- PaperWeekly 第 39 期 | 从 PM 到 GAN - LSTM 之父 Schmidhuber 横跨 22 年的怨念
- PaperWeekly 第 40 期 | 对话系统任务综述与基于 POMDP 的对话系统
- PaperWeekly 第 41 期 | 互怼的艺术:从零直达 WGAN-GP
- PaperWeekly 第 42 期 | 基于知识图谱的问答系统关键技术研究 #04
- PaperWeekly 第 43 期 | 教机器学习编程
- PaperWeekly 第 44 期 | Kaggle 求生
- PaperWeekly 第 45 期 | 词义的动态变迁
- PaperWeekly 第 46 期 | 关于远程监督,我们来推荐几篇值得读的论文
- PaperWeekly 第 47 期 | 开学啦!咱们来做完形填空:“讯飞杯”参赛历程
- 深度强化学习实战:Tensorflow 实现 DDPG - PaperWeekly 第 48 期
- 评测任务实战:中文文本分类技术实践与分享 - PaperWeekly 第 49 期
- 从 2017 年顶会论文看 Attention Model - PaperWeekly 第 50 期
- 深入浅出看懂 AlphaGo Zero - PaperWeekly 第 51 期
- PaperWeekly 第 52 期 | 更别致的词向量模型:Simpler GloVe - Part 1
- PaperWeekly 第 53 期 | 更别致的词向量模型:Simpler GloVe - Part 2
- 基于神经网络的实体识别和关系抽取联合学习 | PaperWeekly #54
PaperWeekly 第十九期 - 新文解读(情感分析、机器阅读理解、知识图谱、文本分类)
引
本期的 PaperWeekly 一共分享四篇最近 arXiv 上发布的高质量 paper,包括:情感分析、机器阅读理解、知识图谱、文本分类。人工智能及其相关研究日新月异,本文将带着大家了解一下以上四个研究方向都有哪些最新进展。四篇 paper 分别是:
1、Linguistically Regularized LSTMs for Sentiment Classification, 2016.11
2、End-to-End Answer Chunk Extraction and Ranking for Reading Comprehension, 2016.10
3、Knowledge will Propel Machine Understanding of Content: Extrapolating from Current Examples, 2016.10
4、AC-BLSTM: Asymmetric Convolutional Bidirectional LSTM Networks for Text Classification, 2016.11
Linguistically Regularized LSTMs for Sentiment Classification作者
Qiao Qian, Minlie Huang, Xiaoyan Zhu
单位
State Key Lab. of Intelligent Technology and Systems, National Lab. for Information Science and Technology, Dept. of Computer Science and Technology, Tsinghua University
关键词
sentiment classification, neural network models, linguistically coherent representations,
文章来源
arXiv, 2016.11
问题
利用语言资源和神经网络相结合来提升情感分类问题的精度
模型
在 LSTM 和 Bi-LSTM 模型的基础上加入四种规则约束,这四种规则分别是: Non-Sentiment Regularizer,Sentiment Regularizer, Negation Regularizer, Intensity Regularizer.因此,新的 loss function 变为:
不同的规则约束对应不同的 L 函数
资源
1、Movie Review (MR)
2、Stanford Sentiment Tree- bank (SST)
相关工作
1、Neural Networks for Sentiment Classification
2、Applying Linguistic Knowledge for Sentiment Classification
简评
本文提出了一种新的基于语言资源约束和 LSTM/Bi-LSTM 的模型用于情感分类,并通过在 MR 和 SST 数据集上的实验和对 RNN/RNTN,LSTM,Tree-LSTM,CNN 的效果对比证明了这一模型的有效性。除此之外,本文还基于不同的约束进行了实验,证明的不同的约束在提高分类精度上的作用。本文实验丰富,效果的提升虽不显著,但新的模型确实在不同程度上克服了旧模型的一些不足。
End-to-End Answer Chunk Extraction and Ranking for Reading Comprehension作者
Yang Yu, Wei Zhang, Kazi Hasan, Mo Yu, Bing Xiang, Bowen Zhou
单位
IBM Watson
关键词
Reading Comprehension, Chunk extraction, Ranking
文章来源
arXiv, 2016.10
问题
针对答案非定长的阅读理解任务,本文提出了 DCR(dynamic chunk reader)模型,来从给定的文档中抽取可能的候选答案并进行排序。
模型
本文提出的模型结构共分为四部分,
1、Encoder Layer
如图所示,这部分是用双向 GRU 分别对文档(Passage)和问题(Question)进行编码。
2、Attention Layer
该层采用的方法与相关工作中的 mLSTM 类似,文档每个时刻的状态 hjp 都与问题中的每个状态 hkq 进行匹配得到一个权重向量αk,然后再根据该权重向量对问题的 GRU 隐层输出 hp 进行加权求和,得到文档中该时刻状态 hjp 对应的上下文向量βj,两个向量 hjp 和βj 拼接在一起作为该时刻新的表示 vj。最后再将上述与问题相关的新文档表示 v 通过双向 GRU,得到文档最终的表示γ。
3、Chunk-Representation Layer
上一部分获得了与问题相关的文档表示γ,那么这部分则是考虑如何抽取候选答案,并获得候选答案的表示向量。本文提出了两种候选答案抽取方法,第一种方法是抽取所有满足训练数据中答案对应词性标注模式的候选项,第二种方法则是简单粗暴地确定一个候选项最大长度,然后遍历所有可能的候选项。至于候选答案的表示方式,本文将候选答案前向 GRU 的最后一个时刻状态和反向 GRU 第一个时刻状态拼接在一起作为最终候选项的表示。
4、Ranker Layer
已经获得了所有候选项的表示,那么接着就是对所有候选项进行打分排序。本文中打分是采用问题的表示和候选项的表示计算内积的方式得到的,本文训练过程中没有采用常见于排序任务的 Margin ranking loss,而是先用 softmax 对所有候选项计算一个概率值,然后采用交叉熵损失函数进行训练。
本文在 SQuAD 数据集上进行实验,提出的方法效果比之前两篇 SQuAD 相关 paper 的方法有较大的提升。
资源
1、SQuAD
相关工作
1、数据集相关论文
SQuAD: 100,000+ Questions for Machine Comprehension of Text
2、模型相关论文
MACHINE COMPREHENSION USING MATCH-LSTM
简评
在对文档和问题编码阶段,本篇论文提出的模型与之前 mLSTM 那篇 paper 有些相似。两篇论文中模型的主要区别在于:mLSTM 那篇论文采用预测起始、终止位置的方法来确定答案,而本文则是先采用一些规则或 Pattern 的方法来抽取一些候选答案,然后再对候选答案进行排序。
联系方式
有 DL 或者 NLP 相关话题,欢迎讨论。destin.bxwang@gmail.com
Knowledge will Propel Machine Understanding of Content: Extrapolating from Current Examples作者
Amit Sheth, Sujan Perera, and Sanjaya Wijeratne
单位
Kno.e.sis Center, Wright State University Dayton, Ohio, USA
关键词
Semantic analysis of multimodal data,Machine intelligence,Understanding complex text,EmojiNet
文章来源
arXiv, 2016.10
问题
利用知识和多模态数据来解决特定情况下的复杂文本的深层理解问题
模型
1、现知识库在处理特定领域问题中的局限性及解决方法
(1)知识库的杂乱
解决方法:采用自动判别技术,领域知识库索引技术,利用实体和关系的语义去判别所给定知识库领域中的相关部分。
(2)知识库数据的不完备和不充足
解决方法:使用 human-in-the-loop 模型在真实的临床数据和已有的知识库中去发现更多的实体与实体之间的关系。
(3)知识表示技术和推理技术的局限性
解决方法:在单个属性的表示中加入了三元组和软逻辑的解释能力及其相关概率值和理由。
2、新的研究应用
(1)隐实体链接
(2)表情符号语义消歧
(3)理解和分析 web 论坛中关于药物滥用的相关讨论
利用相关背景知识加强不同种类信息的信息抽取模型
3、在健康领域中的文本理解模型
4、使用感知器和文本资料了解城市交通情况
(1) 交通领域的概念关系网模型
(2) 概率图模型
使用领域知识关联不同模态下的上下文相关数据
简评
本文主要举例说明了知识将推动机器对内容的理解。总体来看本文像一篇综述性的文章,给出了在知识库创建过程中所遇到的问题的解决方案,同时以实际案例来阐述知识在我们实际问题中应用。
AC-BLSTM: Asymmetric Convolutional Bidirectional LSTM Networks for Text Classification作者
Depeng Liang and Yongdong Zhang
单位
Guangdong Province Key Laboratory of Computational Science, School of Data and
Computer Science, Sun Yat-sen University, Guang Zhou, China
关键词
ACNN; BLSTM; Text Classification
文章来源
arXiv, 2016.11
问题
本文提出了一个新的深度学习的模型–AC-BLSTM 的模型(即:将 ACNN 和 BLSTM 组合在一起),用于句子和文章层面的分类。
模型
AC-BLSTM 模型可以分成四个部分,如 Figure 1 所示:
1、输入: 输入是一个 sentence,使用 ( L d ) 的矩阵表示,其中 L 表示句子中的 L 个词,d 表示每个词的词向量的维度
2、ACNN(Asymmetric CNN): 传统的 CNN 采用的是 ( k d ) 大小的 filter,ACNN 则把 filter 的过程分成 ( 1 d ) 和 ( k 1 ) 的两个过程,相当于是把 ( k d ) 的 filter 做因式分解。
这一层的输入是一个 ( L d ) 的矩阵,对于 n 个尺度为( 1 d ) 和( ki 1 ) 的卷积层的输出是一个 [ (L - ki + 1) n ]的矩阵,如下图所示,本文采用了 3 种不同的卷积核,所以输出是 3 种不同的[ (L - ki + 1) n ]的矩阵(图中一个彩色的小方块表示 (1 * n) 的向量)
3、连接层: 为了给 BLSTM 构造输入,连接层将 3 种不同卷积层的输出,以 Ct^i 表示第 1 种卷积层为 LSTM 第 t 个 time step 贡献的输入,则 LSTM 网络的第 t 步输入 Ct = [Ct^1, Ct^2, Ct^3],其中 t 属于{1,2,…,L-K+1}, K = max{ki}
4、BLSTM: LSTM 能够很好的解决 long time delay 和 long range context 的问题,但其处理是单向的,而 BLSTM 能够解决 given point 的双边的依赖关系,因此,本文选择了 BLSTM 网络层来学习 ACNN 输入的特征的 dependencies
5、Softmax 层: 为了应用于分类问题,本文在最后使用全连接层和 softmax 函数来实现分类。
资源
文章中使用的数据集
1、SST-1
2、SST-2
3、Movie Review(MR)
4、SUBJ
5、TREC
6、YELP13
相关工作
1、Yoon Kim 于 2014 年在一文中提出将词向量和 CNN 结合,用于句子分类的模型。在该文中,Kim 将不同长度的 filter 的组合在一起,且提出了 static 或者可以 fine-tuning 的 word embedding 模型
2、Zhou et al.则于 2015 年在一文中提出将 CNN 和 LSTM 叠加的模型,且使用固定的 word embedding
3、Szegedy et al.于 2015 年在中提出了 ACNN 模型,这减少了参数的个数且提高了模型的表征
简评
这篇文章主要贡献就是提出了一个 AC-BSLTM 的模型用于文本分类,亮点就在于:ACNN 可以在减少参数的个数的同时通过增加更多的非线性性来提高表达能力,而 BLSTM 能够捕捉输入的两端的信息。两者的结合就提高了分类的精度。但事实上,这两个网络模型都是现有的,本文的工作感觉只是两个网络的连接,在本质上没有太大的改进,且在分类精度上的提高也比较有限。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论