本文介绍: 论文阅读笔记:Language Models as Knowledge Bases?

诸神缄默不语-个人CSDN博文目录
诸神缄默不语的论文阅读笔记和分类

论文名称:Language Models as Knowledge Bases?

ArXiv网址:https://arxiv.org/abs/1909.01066

官方GitHub项目https://github.com/facebookresearch/LAMA

本文是2019年EMNLP论文,作者来自脸书和伦敦大学学院。

本文关注LM中蕴含的知识,想要探索问题是,通过在大型的文本语料上进行预训练语言模型是否已经(或是有潜力)学习到并存储下了一些事实知识(主体-关系-客体形式的三元组 (subject, relation, object) 或是问题答案对)?
本文通过将事实三元组转换为自然语言形式,让LM(未经过微调的)用完形填空的形式来预测其中的object(把relation反过来也能预测subject),来进行这一探查:LAMA (LAnguage Model Analysis)
评估正确结果排序

在这里插入图片描述

实验结论:1. BERT表现很好,可以匹敌传统的有监督学习方法 2. LM对有些知识比其他知识学得更好(N-to-M 关系表现较差)
(什么1984经典句式)

实验用的LM:
单向LM & 双向LM
在这里插入图片描述

baseline包括纯统计学习的、预训练的关系抽取模型、DrQA(先检索相似文档,再做阅读理解)

实验用的事实数据集来自关系数据集Google-RE、T-REx、ConceptNet,将每一种关系手工转换为填空题。原数据集中就有三元组对应的文本
再加上QA数据集SQuAD
仅选择只有一个token的场景

↑注意这里模版的选择会影响结果。所以本文认为手工制作模版只能说是给出了一个LM知识的下限水平。

指标:P@k

P@1:
在这里插入图片描述

P@k:
在这里插入图片描述

出现频率越高、实体越相似、subject越长,指标越高
在这里插入图片描述

案例分析
在这里插入图片描述

在这里插入图片描述

原文地址:https://blog.csdn.net/PolarisRisingWar/article/details/134551083

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。

如若转载,请注明出处:http://www.7code.cn/show_4701.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注