[关闭]
@evilking 2019-04-25T09:48:02.000000Z 字数 1804 阅读 1092

NLP

Context-Dependent Conceptualization

关键词: 概念化,上下文依赖

翻译论文:https://www.microsoft.com/en-us/research/wp-content/uploads/2013/01/ijcai13_dongwoo_camera_ready.pdf

上下文依赖的概念化

我们提出利用单词的上下文来提升该单词的概念化效果。我们展示了我们的上下文依赖的概念化 (CDC) 方法在两个实验中优于之前的方法:预测一个没有见过的 frame 元素,测量带上下文的单词的相似度。

使用主题去提升概念化效果

CDC 方法中一个短文本的主题分布是为了作为每个实例单词概念化的指南服务的。

在我们下面说明的例子中,CDC 的工作流程如下:

这个工作的挑战和贡献是在利用 LDA 和 Probase 使上面的流程形式化. 下面我们来详细描述.

估算主题分布

CDC 的第一步,我们使用主题模型去推断给定的短语的主题分布. 我们首先利用一个外部的语料库,使用 Gibbs 采样来训练 LDA,我们从中获取采样 ,表示主题 中出现单词 的次数. 在“训练主题模型”部分我们将会详细介绍我们是如何训练主题模型的.

给定一个训练模型 ,我们能通过流采样方法推断出一个句子中的单词对应的主题. 表示目标句子的单词序列, 表示句子 对应的主题向量. 基于训练好的主题模型,我们利用 gibbs 采样推断出 的后验概率.

这里 表示单词 被指定为主题 出现的次数. |W| 是词典的大小, 是文档-主题和主题-文档分布的超参数. 我们用 表示对索引求和, 表示在句子中排除掉索引为 的单词后对应的主题. 最后我们通过采样来评估句子中的每个单词 的后验主题概率 .

估算概念分布

在 CDC 的第二步中,我们基于句子的主题分布,通过计算每一个概念的概率来估算句子的概念分布。Probase 有两个特殊的词典,实体词典命名为 ,概念词典命名为 ,但是 LDA 不区分词的类型,并且使用这两个词典的联合词典作为一个词典,i.e. . 通过囊括实体词和概念词在同一个词典中,LDA 可以发现单词对应的高概率主题,这个主题是语义相关但是概念却有距离,例如 iphone 和 computers. 形式上,我们计算在给定一个带有上下文主题的实体词 对应的概念 的概率计算公式如下:

这里 是概念在词典中的索引, 是推测出的主题分布, 被定义在 Probase 中, 是给定主题 下的概念 的概率. 通过考虑主题分布 ,求和项调整概念 的概率在给定实体词 的上下文的情况下。

训练一个主题模型

LDA 在一个单纯以语料驱动的方法中发现主题. 因此,为了训练一系列的主题能覆盖大多数 Probase 中重要的概念,我们用一个三百万的wiki百科文档作为语料来训练 LDA. 为了估算后验概率,我们使用 gibbs 采样,1000次迭代,500次采样. 我们设置文档主题分布的超参数为 ,设置单词-主题分布的超参数为 . 设置主题数 分别为 ,这三种主题分布去试验上下文依赖的概念化.

添加新批注
在作者公开此批注前,只有你和作者可见。
回复批注