雷锋网按:本文为雷锋字幕组编译的技术博客,原标题 Holy NLP! Understanding Part of Speech Tags, Dependency Parsing, and Named Entity Recognition,作者为 Peter Baumgartner。
翻译 | 陈涛 程思婕 整理 | 凡江
简介
当我们提到数据科学时,我们经常想到的是针对数字的统计分析。但实际上,更为常见的是由机构所产生的大量非结构化文本数据,它们需要被量化和分析。其中的一些例子有社交网络评论,产品评价,电邮,采访稿。
为了分析文本,数据科学家经常会用到自然语言处理(NLP)。在本文中,我们将详细介绍 3 个常见的 NLP 任务,并研究如何运用它们来分析文本。我们将讨论的三个任务分别是:
-
词性标注:这个词语的词性是什么?
-
依存分析:这个词语与句中其他词语有什么关系?
-
命名实体识别:这个词语是否是专有名词?
我们将通过spaCy这个 python 库,来调用上述三种功能,从而对圣经中的主要角色进行挖掘,并分析他们的行为。接着,我们将尝试对得到的结构化数据做一些有趣的可视化。
当你有大量的文本文档时,你就可以采用这个方法,去了解文档中有哪些主要的实体,它们出现在文档何处,它们做了什么。比如,DocumentCloud 采用了与此类似的方法来实现「查看实体」的分析选项。
词条与词性标注
有一种从文本中提取意义的方法是逐一分析每一个词语。将文本切分成词语的过程称为词条化,得到的词语被称为词条。标点符号也是词条的一种。句中的每个词条都有若干属性,我们可以对此进行分析。其中一个例子就是词语的词性:名词表示人物,地点或事物;动词表示动作或事件的发生;形容词则用以描述名词。利用这些属性,可以很方便地统计一段文本内最常见的名词,动词和形容词,从而创建出一份摘要。
利用 spaCy,我们可以对一段文本进行词条化,从而得到每个词条的词性属性。以下面的代码作为示例应用程序,我们对之前的段落进行词条化,并统计其中最常见名词的数目。此外,我们对词条进行了词性还原,即得到每个词的词根,规范了词语的形式。
依存分析
词语之间存在着一定的关系,其中有几种常见的类型。比如,名词可以作为句子中的主语,从而执行一个动作(动词),如同「Jill laughed」。名词也可以作为句子中的宾语,其会受到主语的动作影响,就像此句中的 John:「Jill laughed at John」。
依存分析正是理解句子中词语间关系的一种方法。句子「Jill laughed at John」中有两个名词 Jill 和 John。Jill 是主语,表示发出笑这个动作的人,而 John 是宾语,表示被取笑的人。依存关系是一种更精细的属性,可以用来理解句子中词语间的关系。
词语间的关系可以随着句子的组织方式而变得很复杂。对一个句子进行依存分析,将得到以动词为根的树状数据结构。
让我们来看下这句话的依存分析结果:「The quick brown fox jumps over the lazy dog」。
依存关系也是词条属性的一种。spaCy提供了一系列API,可以帮助我们得到词条的各种属性。下面我们将打印出各个词条的文本,词条间的依存关系及其父词条(头词条)的文本。
为了进一步分析,我们需要留意那些带有nsubj关系的词条,这表示它们是句子中的主语。在这个例子中,意味着我们需要将词语「fox」记录下来。
命名实体识别
最后就是命名实体识别了。命名实体是指句子中的专有名词。计算机已经能很好地识别出句子中的命名实体,并区分其实体类型。
spaCy是在文档级层面进行命名实体识别的操作。这是因为一个实体的名称可能跨越多个词条。每一个词条会被标记为实体的一部分,具体实施是按照 IOB 规则 来标记,分为实体的开始,实体的内部以及实体的外部。
在下面的代码中,我们使用docs.ents函数打印出所有文档级的命名实体。接着,我们打印出每一个词条,它的 IOB 标注及所属的实体类型(如果该词条是某个实体一部分的话)。
我们使用的例句是:「Jill laughed at John Johnson」。
一个实际应用的例子:对圣经进行自然语言处理
分别使用上述提到的方法,效果都挺不错。然而,自然语言处理的真正威力在于我们可以将这些方法结合起来,从而提取出符合语言模式的信息。我们可以使用词性标注,依存分析和命名实体识别去理清大量文本中出现的所有角色及其行为。考虑到圣经的长度及其提到的大量角色,它正是一个应用这些方法的好例子。
在我们导入的数据中,每一个对象就是一段圣经中的经文。经文是用来索引圣经中的具体章节,一般包括一句或若干句文本。我们会遍历每段经文,提取其中的主语,判断其是否是人名,并抽取出该人物的行为。
首先,我们从 github 仓库中加载 json 格式的圣经。然后,对于抽取出的每段经文文本,利用spaCy对其进行依存分析和词性标注,并将分析后的结果储存起来。
我们将文本从 json 格式中解析出来,并存入verse_docs这个变量里,耗时大约三分多钟,平均一秒钟处理 160 段经文。作为参考,我们可以看一下bible_json的前三行。
使用词条属性
为了提取角色和相关的行为,我们需要对每段经文中的所有词条进行遍历,并考虑 3 个要素。
1)这个词条是否是句子的主语(即查看其依存关系是否是nsubj);
2)这个词条的父词条是否是动词(一般情况下应该是动词,但有时词性标注会和依存分析得出矛盾的结果,我们还是谨慎一点吧。当然我并非语言学家,因此可能此处存在着一些奇怪的极端例子);
3)这个词条是否是指代人的命名实体,我们并不想对非人物的名词进行提取(为了简单起见,我们只提取每个角色的名字部分)。
如果有词条符合上述的三个条件,我们将对其收集下列属性。
1)词条所表示的名词实体的文本;
2)包含名词和动词的文本范围(即短语);
3)其相关的动词;
4)该动词在标准英语文本中出现的对数概率(使用对数概率是因为往往这里的概率值会非常小);
5)该段经文的序号。
分析
我们已经提取出所有角色和他们的行为,并以列表的形式进行存储。我们先做一个快速分析,计算以下两项。
1)弄清楚每个人物最常见的行为(即动词)。
……
想要继续阅读,请移步至我们的AI研习社社区:https://club.leiphone.com/page/TextTranslation/848
更多精彩内容尽在 AI 研习社。
不同领域包括计算机视觉,语音语义,区块链,自动驾驶,数据挖掘,智能控制,编程语言等每日更新。
雷锋网(公众号:雷锋网)雷锋网(公众号:雷锋网)
。
原创文章,作者:ItWorker,如若转载,请注明出处:https://blog.ytso.com/134362.html