- PaperWeekly 2016.08.05 第一期
- PaperWeekly 第二期
- PaperWeekly 第三期
- PaperWeekly 第四期 - 基于强化学习的文本生成技术
- PaperWeekly 第五期 - 从 Word2Vec 到 FastText
- PaperWeekly 第六期 - 机器阅读理解
- PaperWeekly 第七期 -- 基于 Char-level 的 NMT OOV 解决方案
- PaperWeekly 第八期 - Sigdial2016 文章精选(对话系统最新研究成果)
- PaperWeekly 第九期 -- 浅谈 GAN
- PaperWeekly 第十期
- PaperWeekly 第十一期
- PaperWeekly 第十二期 - 文本摘要
- PaperWeekly 第十三期--最新文章解读
- PaperWeekly 第十四期 - TTIC 在 QA 任务上的研究进展
- PaperWeekly 第十六期 - ICLR 2017 精选
- PaperWeekly 第十七期 - 无监督/半监督 NER
- PaperWeekly 第十八期 - 提高 seq2seq 方法所生成对话的流畅度和多样性
- PaperWeekly 第十九期 - 新文解读(情感分析、机器阅读理解、知识图谱、文本分类)
- PaperWeekly 第二十期 - GAN(Generative Adversarial Nets)研究进展
- PaperWeekly 第二十一期 - 多模态机器翻译
- PaperWeekly 第二十二期 - Image Caption 任务综述
- PaperWeekly 第二十三期 - 机器写诗
- PaperWeekly 第二十四期 - GAN for NLP
- PaperWeekly 第二十五期 - 增强学习在 image caption 任务上的应用
- PaperWeekly 第二十六期 - 2016 年最值得读的 NLP paper 解读(3 篇)+在线 Chat 实录
- PaperWeekly 第二十七期 | VAE for NLP
- PaperWeekly 第 28 期 | 图像语义分割之特征整合和结构预测
- PaperWeekly 第 29 期 | 你的 Emoji 不一定是我的 Emoji
- PaperWeekly 第 30 期 | 解读 2016 年最值得读的三篇 NLP 论文 + 在线 Chat 实录
- PaperWeekly 第 31 期 | 远程监督在关系抽取中的应用
- PaperWeekly 第 32 期 | 基于知识图谱的问答系统关键技术研究 #01
- PaperWeekly 第 33 期 | 基于知识图谱的问答系统关键技术研究 #03
- PaperWeekly 第 34 期 | VAE 在 chatbot 中的应用
- PaperWeekly 第 35 期 | 如何让聊天机器人懂情感 PaperWeekly 第 35 期 | 如何让聊天机器人懂情感
- PaperWeekly 第 36 期 | Seq2Seq 有哪些不为人知的有趣应用?
- PaperWeekly 第 37 期 | 论文盘点:检索式问答系统的语义匹配模型(神经网络篇)
- PaperWeekly 第 38 期 | SQuAD 综述
- PaperWeekly 第 39 期 | 从 PM 到 GAN - LSTM 之父 Schmidhuber 横跨 22 年的怨念
- PaperWeekly 第 40 期 | 对话系统任务综述与基于 POMDP 的对话系统
- PaperWeekly 第 41 期 | 互怼的艺术:从零直达 WGAN-GP
- PaperWeekly 第 42 期 | 基于知识图谱的问答系统关键技术研究 #04
- PaperWeekly 第 43 期 | 教机器学习编程
- PaperWeekly 第 44 期 | Kaggle 求生
- PaperWeekly 第 45 期 | 词义的动态变迁
- PaperWeekly 第 46 期 | 关于远程监督,我们来推荐几篇值得读的论文
- PaperWeekly 第 47 期 | 开学啦!咱们来做完形填空:“讯飞杯”参赛历程
- 深度强化学习实战:Tensorflow 实现 DDPG - PaperWeekly 第 48 期
- 评测任务实战:中文文本分类技术实践与分享 - PaperWeekly 第 49 期
- 从 2017 年顶会论文看 Attention Model - PaperWeekly 第 50 期
- 深入浅出看懂 AlphaGo Zero - PaperWeekly 第 51 期
- PaperWeekly 第 52 期 | 更别致的词向量模型:Simpler GloVe - Part 1
- PaperWeekly 第 53 期 | 更别致的词向量模型:Simpler GloVe - Part 2
- 基于神经网络的实体识别和关系抽取联合学习 | PaperWeekly #54
PaperWeekly 第十四期 - TTIC 在 QA 任务上的研究进展
引言
PaperWeekly 已经介绍过不少 Question Answering 的相关工作。主要有 DeepMind Attentive Reader,FAIR Memory Networks,Danqi’s Stanford Reader, Attention Sum Reader, Gated Attention Sum Reader, Attention Over Attention Reader, etc. 这些模型关联性很大,或多或少存在相似之处。本文给大家介绍一下 Toyota Technological Institute at Chicago (TTIC) 在 Question Answering 方面的相关工作,共有 3 篇 paper:
1、Who did What: A Large-Scale Person-Centered Cloze Dataset, 2016
2、Broad Context Language Modeling as Reading Comprehension, 2016
3、Emergent Logical Structure in Vector Representations of Neural Readers, 2016
Who did What: A Large-Scale Person-Centered Cloze Dataset作者
Takeshi Onishi, Hai Wang, Mohit Bansal, Kevin Gimpel, David McAllester
文章来源
EMNLP 2016
问题
文章构建了一个新的 Question Answering dataset,”Who did What”。
sample instance 如下图所示。
问题的句子总是挖掉了一些 named entities,然后给出在文中出现过的别的 named entities 作为选项。这一个 dataset 的难度要高于之前的 CNN/DM dataset,可以作为创建新模型的参考数据集。
模型
构建此数据集的方法与 CNN/DM 不同,问题并不是 context passge 的一个 summary。问题与 context 均来自 Gigaword Corpus,他们是两篇非常相关的文章。
具体来说,我们先找到一篇文章,作为 question 文章。然后提取出文中第一句话的 named entities,删除其中的一个 named entity 作为将要被预测的答案。然后利用这一句 question sentence,我们可以利用一些 Information Retrieval 系统从 Gigaword Corpus 找到一篇相关的文章作为 passage。这篇文章与 question 文章不同,但是包含着与 question sentence 非常类似的信息。
有了 passage 之后,我们再从 passage 中找出 named entities 作为 candidate answers。
为了使任务难度更大,我们用一些简单的 baseline (First person in passage, etc) 将一些很容易做出的问题删掉,只留下比较困难的 instances。这样构建的数据比 CNN/DM 会困难不少。
简评
相信作者创建的新数据集会给 Machine comprehension 带来一些新的问题与挑战,是很有价值的资源。文章采用的 baseline suppresion 方法可以用比较小的代价加大问题的难度,值得参考。
Broad Context Language Modeling as Reading Comprehension作者
Zewei Chu, Hai Wang, Kevin Gimpel, David McAllester
文章来源
arXiv
问题
不久前发布的中,作者尝试的各种 baseline models 都给出了比较差的结果。
每一个 LAMBADA instance 如下图所示。
模型
在观察了 LAMBADA dataset 之后,我们认为可以利用 Reading comprehension models 来提升准确率,而不必使用传统的 language model。
由于 state of the art reading comprehension models 需要给出 candidate answers,然后从中选出一个作为预测的答案,我们就将所有在 context 中出现过的单词都作为一个 candidate answer。
LAMBADA 给出的训练集是一些小说的文本。为了使训练集与测试集的数据类型保持一致,我们构建了一个 biased training set。具体的做法是,我们将 training set 划分成 4-5 句话的 context,然后保证 target word 在 context passage 中出现,只保留这样的训练数据。我们在新构建的 training set 上训练各种 attention based models,得到了比原作者好得多的测试结果。
简评
这篇文章中,作者利用了简单的方法和模型将 LAMBADA dataset 的准确率从 7.3%提高到 45.4%,非常简单有效。
Emergent Logical Structure in Vector Representations of Neural Readers作者
Hai Wang, Takeshi Onishi, Kevin Gimpel, David McAllester
文章来源
ICLR 2017 Submission
问题
最近提出的各种各样的 attention based reader models,本文作者做了一个比较全面的总结和分析,并且通过数学分析和实验展示了模型之间的相关性。
模型
本文作者认为,当前的 attention based models 可以分为两类,aggregation readers(包括 attentive readers 和 stanford readers) 以及 explicit reference readers(包括 attention sum reader 和 gated attention sum reader)。
这两种 reader 可以用如下的公式联系在一起。
要满足上述等式,只需要满足下面的公式。
也就是说,只有正确答案所在的 hidden vector 和 question vector 得到的 inner product 才能给出不为零的常数。以下实验结论支持了这一假设。
由于 CNN/DM 在训练和测试中经过了 anonymization,作者认为此 inner product 其实可以分为两部分,一部分与 anonymized token ID 有关,另一部分与 ID 无关。与 ID 相关的那一部分在 inner product 应该直接给出 0 的答案。如下述公式所示。
本文的另一部分工作是在 attention readers 上加入一些 linguistic features 提升各个数据集的准确读,这里不仔细描述。
简评
本文是对于各个 attetion based neural reader models 很好的总结,它很好地连接了各个不同的 model,说明了为何看似不同的 model 能够给出非常类似的结果。
总结
问答系统是一类大的问题,也是目前 NLP 应用的研究热点之一。本文作者介绍了 TTIC 在 QA 研究中的一些成果,其中第二篇是本文作者近期的 paper。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论