用Python进行自然语言处理——图文x详解(一)

上传人:平*** 文档编号:9386692 上传时间:2017-10-02 格式:DOCX 页数:9 大小:469.93KB
返回 下载 相关 举报
用Python进行自然语言处理——图文x详解(一)_第1页
第1页 / 共9页
用Python进行自然语言处理——图文x详解(一)_第2页
第2页 / 共9页
用Python进行自然语言处理——图文x详解(一)_第3页
第3页 / 共9页
用Python进行自然语言处理——图文x详解(一)_第4页
第4页 / 共9页
用Python进行自然语言处理——图文x详解(一)_第5页
第5页 / 共9页
点击查看更多>>
资源描述

《用Python进行自然语言处理——图文x详解(一)》由会员分享,可在线阅读,更多相关《用Python进行自然语言处理——图文x详解(一)(9页珍藏版)》请在金锄头文库上搜索。

1、用 Python 进行自然语言处理(一)2014.07.27语言计算:文本和单词,NLTK 入门首先应该安装 NLTK,可以从官网免费下载,按照说明下载适合你的操作系统的版本。安装完 NLTK 之后,启动 IDLE(Python GUI),输入下面两行命令,然后选择 book,如图所示:一旦数据 nltk_data 下载到你的计算机,输入命令加载所有数据,如图所示:搜索文本以下开始介绍研究文本内容的方法,词语索引视图显示一个指定单词的每一次出现,连同上下文一起显示,查一下 text1 中的 monstrous。如图所示:我们可以通过在被查询的文本名后添加函数 similar,然后在括号中插入相

2、关的词来查找相似的词。如图所示在这个过程中,你可能会重复输入相似的命令,可以使用快捷键 Alt+P,或者将鼠标光标放置在重复的命令行出,然后 press 键 Enter,就会实现重复输入。函数 common_contexts 允许我们研究两个或两个以上的次共同的上下文,如图所示:判断词在文本中的位置,从文本开头算起在它前面有多少次,这个位置信息可以用离散图表示,可以用来研究随时间推移语言使用上的变化,如图所示:产生一些随机文本,第一次运行此命令时,由于要搜集词序列的统计信息而执行的比较慢,每次运行它,输出的文本都会不同。而当前使用版本却不支持 generate()。计数词汇使用 len 来获取

3、文本从头到尾的长度,如图所示:使用 set 命令获得 text8 的词汇表,因为 text8 的文本长度最新,计算机运行速度较快,所以选择 text8 作为示例。如图所示:用 sorted 包裹起表达式 set(),我们得到一个词汇项的排序表,这个表以各种标点符号开始,大写单词排在消协单词的前面,如图所示:现在我们队文本词汇丰富度进行测量,下图展示每个字平均被使用了 4 次,显示浮点除法不可用。计数一个词在文本中出现的次数:计算一个特定的次在文本中占据的百分比:定义新的函数:频率分布使用 FreqDist 寻找 text8 中最常见的 40 个词,通过切片查看这个联邦的前 40 项,我们可以产

4、生一个这些词汇的累积频率图,使用以下命令产生:细粒度的选择词对于词汇表 V 中的每一个词 w,我们检查其长度是否大于 15,所以其他词汇将被忽略。使用以下命令查找所以长度超过 7 个字符出现次数超过 7 次的词:词语搭配和双连词要获取搭配,先从提取文本词汇中的词对,也就是双连词,使用函数 bigrams 实现,使用collocations()找到频繁出现的双连词:计数其他东西查看文本中词长的分布:可以看出该文本包含由 1 个字符, 2 个字符,14 个字符组成的词,没有超过 15 个字符以上的词,可以得到长度为 6 的词出现的频率:回到 Python:决策与控制下面是一些用来从文本中选择词汇的运算符的例子,以“ness”结尾的词,包含“ing”的词,完全由数字组成的词:对每个元素进行操作:回到计数词汇的问题,不重复计数像 This 和 this 这样仅仅大小写不同的词,就从词汇表中抹去了近 300 个词,还可以过滤掉所有非字母原始,从词汇表中消除数字和标点符号:机器翻译人机对话

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 行业资料 > 其它行业文档

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号