赞
踩
propose:
LAMA: 由一组知识源组成,每个知识源都由一组事实组成。
我们定义,一个预训练的语言模型知道一个事实(主语、关系、宾语),如(但丁出生在佛罗伦萨),如果它能成功预测MASK的对象,如 "但丁出生在 "这样的句子来表达这一事实。我们测试了各种类型的知识:存储在Wikidata中的实体之间的关系、常识性的概念网中的概念之间的关系,以及回答自然语言问题所需的知识SQuAD中的问题。在后一种情况下,我们手动将SQuAD问题的一个子集映射到cloze句子。
结论:
1.BERT模型(BERT-large)捕获了(准确的)关系型的知识,与用现成的关系提取器和基于甲骨文的实体提取器提取的知识库相当。
2.事实知识可以从预训练的语言模型中恢复得很好,然而,对于某些关系(特别是
N-to-M关系)性能非常差。
3.BERT-large在恢复事实知识和语言模型方面一直优于其他语言模型在恢复事实和常识性知识方面一直优于其他语言模型,同时对查询的措辞更加稳健。
4.BERT-large在开放域QA方面取得了显著的结果,在@10时精度达到57.1%,而使用特定任务的监督关系提取系统构建的知识库为63.5%。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。