讨论搜索引擎的外文翻译.doc

上传人:pu****.1 文档编号:550951528 上传时间:2024-02-14 格式:DOC 页数:6 大小:47.50KB
返回 下载 相关 举报
讨论搜索引擎的外文翻译.doc_第1页
第1页 / 共6页
讨论搜索引擎的外文翻译.doc_第2页
第2页 / 共6页
讨论搜索引擎的外文翻译.doc_第3页
第3页 / 共6页
讨论搜索引擎的外文翻译.doc_第4页
第4页 / 共6页
讨论搜索引擎的外文翻译.doc_第5页
第5页 / 共6页
点击查看更多>>
资源描述

《讨论搜索引擎的外文翻译.doc》由会员分享,可在线阅读,更多相关《讨论搜索引擎的外文翻译.doc(6页珍藏版)》请在金锄头文库上搜索。

1、第二届信息技术全国学术“挑战和机会”研讨会论文集探讨搜索引擎爬虫M.P.S.Bhatia*, Divya Gupta*内塔吉萨布哈什技术研究所,印度德里大学*德里工程纪念中学,印度德里大学随着网络难以想象的急剧扩张,从knowledge from the Web is becoming gradually importantWeb中提取知识逐渐正在成为一个受欢迎的重要途径。这是由于网络的便利性和丰富性信息。通常需要使用基于网络爬行的搜索引擎来找到我们需要的网页。本文描述了搜索引擎的基本工作任务。概述了搜索引擎与网络爬虫之间的联系。关键词:爬行,集中爬行,网络爬虫1.导言在网络上WWW是一种服务

2、,驻留在连接到互联网的电脑上,并允许最终用户访问该是用标准的接口软件的计算机中存储的数据。万维网是获取访问网络信息的宇宙,是人类知识的体现。搜索引擎是一个计算机程序,它能够从网上搜索并扫描特定的关键字,尤其是商业服务,返回的它们发现的资料清单。抓取搜索引擎数据库的信息主要通过接收想要发表自己作品的作家的清单或者通过“网络爬虫”、“蜘蛛”或“机器人”漫游互联网捕捉他们访问过的页面的相关链接和信息。网络爬虫是一个能自动获取万维网的信息程序。网页检索32是一个重要的研究课题。爬虫是软件组件,它访问网络中的树结构,按照一定的策略,搜索并收集当地库中检索对象。本文的其余部分组织如下:第二节中,我们解释了

3、Web爬虫的背景细节。在第3节,我们讨论爬虫的类型,在第4节我们将介绍网络爬虫的工作原理。在第5节,我们搭建两个网络爬虫的先进技术。在第6节我们讨论如何挑选更有趣的网页的问题。2.调查网络爬虫网络爬虫几乎同网络本身一样古老。第一个爬虫,马修格雷流浪者,写于1993年,大约正好与首次发布的OCSA Mosaic网络同时发布。在最初的两次万维网会议上发表了许多关于网络爬虫的文章。然而,在当时,网络比起现在要小上三到四个数量级,所以这些系统没有处理好当今网络中一次爬网中固有的缩放问题。显然,所有常用的搜索引擎使用的爬网程序必须扩展到网络的实质性部分。但是,由于搜索引擎是一项竞争性质的业务,这些抓取的

4、设计并没有公开描述。有两个明显的例外: 谷歌履带式和网络档案履带式。不幸的是,说明这些文献中的爬虫程序是太简洁以至于能够进行重复。原谷歌爬虫(在斯坦福大学开发的)组件包括五个功能不同的运行流程。 服务器进程读取一个文件的URL出来然后通过履带式转发到多个进程。每个履带进程运行在不同的机器,是单线程的,使用异步I / O采用并行的模式从最多300个网站来抓取数据。爬虫传输下载下载的页面到一个能进行网页压缩和存储的存储服务器进程。然后这些网页由一个索引程序进行解读,从HTML页面中提取链接并将他们保存到不同的磁盘文件中。一个URL解析器进程读取链接文件,并将相对的网址进行存储,并保存了完整的URL

5、到磁盘文件然后就可以进行读取了。通常情况下,因为三至四个爬虫程序被使用,所以整个系统需要四到八个完整的系统。在谷歌将网络爬虫转变成为一个商业成果之后在斯坦福大学仍然在进行这方面的研究。斯坦福WebBase项目已实施一个高性能的分布式爬虫,具有每秒可以下载50至10021件文件的能力。赵等人又发展了文件更新频率的模型以报告爬行下载计划的增量。互联网档案馆还利用多台机器来检索网页。每个爬虫程序被分配到64个站点进行检索,并没有网站被分配到一个以上的爬虫。每个单线程爬虫程序读取其指定网站网址列表的种子从磁盘到每个站点的队列,然后用异步I / O来从这些队列同时抓取网页。一旦一个页面下载完毕,爬虫提取

6、包含在其中的链接。如果一个链接提到它被包含在网页中的网站,它被添加到适当的站点排队;否则被记录到磁盘中。每隔一段时间,合并成一个批处理程序的具体地点的种子设置这些记录“跨网站“的网址,过滤掉进程中的重复项。WebFountain爬虫程序分享了墨卡托结构的几个特点:它是分布式的,连续(作者使用术语“增量“),有礼貌,可配置的。不幸的是,写这篇文章,WebFountain是在其发展的早期阶段,并尚未公布其性能数据。 BASIC TYPES OF SEARCH ENGINE 3.搜索引擎基本类型A 基于爬虫的搜索引擎 基于爬虫的搜索引擎自动创建自己的清单。计算机程序“蜘蛛”建立他们没有通过人的选择3

7、1。他们不是通过学术分类进行组织,而是通过计算机算法把所有的网页排列出来。这种类型的搜索引擎往往是巨大的,常常能取得了大量的信息-它允许复杂的搜索范围内搜索以前的搜索的结果,使你能够改进搜索结果。这种类型的搜索引擎包含了网页中所有的链接。所以人们可以通过匹配的单词找到他们想要的网页。B 人力页面目录 这是通过人类选择建造的,即他们依赖人类创建列表。他们以主题类别和科目做网页的分类。人力驱动的目录,永远不会包含他们网页所有链接的。他们是小于大多数搜索引擎。C 混合搜索引擎一种混合搜索引擎以传统的文字为导向,如谷歌搜索引擎,如雅虎目录为基础的搜索引擎,其中每个方案比较操作的元数据集不同,当其元数据

8、的主要资料来自一个网络爬虫或分类分析所有互联网文字和用户的搜索查询。与此相反,混合搜索引擎可能有一个或多个元数据集,例如,包括来自客户端的网络元数据,将所得的情境模型中的客户端上下文元数据的来认识这两个机构。4.爬虫的工作原理网络爬虫是搜索引擎必不可少的组成部分;运行一个网络爬虫是一个极具挑战性的任务。有技术和可靠性问题,更重要的是有社会问题。爬虫是最脆弱的应用程序,因为它涉及到交互的几百几千个Web服务器和各种域名服务器,这些都大大超出了系统的控制。网页检索速度不仅由一个人的自己的互联网连接速度,同时也受到了要抓取的网站的速度。特别是如果一个是从多个服务器抓取的网站,总爬行时间可以大大减少,

9、如果许多下载是并行完成。虽然有众多的网络爬虫应用程序,他们在核心内容上基本上是相同的。以下是应用程序网络爬虫的工作过程:(1)、下载网页。(2)、通过下载的页面解析和检索所有的联系。(3)、对于每一个环节检索,重复这个过程。网络爬虫可用于通过对完整的网站的局域网进行抓取。 您可以指定一个启动程序爬虫跟随在HTML页中找到的所有链接。这通常导致更多的链接,这之后将再次跟随,等等。一个网站可以被视为一个树状结构看,根本是启动 程序,在这根的HTML页的所有链接是根子链接。随后循环获得更多的链接。一个网页服务器提供若干网址清单给爬虫。网络平爬虫开始通过解析一个指定的网页,标注该网页中指向其他网站页面

10、的超文本链接。然后他们分析这些网页之间新的联系,等等循环。网络爬虫软件不实际移动到各地不同的互联网上的电脑,而是像电脑病毒一样通过智能代理进行。每个爬虫每次大概打开大约300个链接。这是检索网页必须的足够快的速度。一个爬虫驻留在一台机器。爬虫只是简单的将的HTTP请求的文件发送到互联网上的其他机器,就像一个网上浏览器的链接,当用户点击。所有的爬虫事实上是自动化追寻链接的过程。网页检索可被视为一个队列处理的项目。当检索器访问一个网页,它提取到其他网页的链接。因此,爬虫置身于这些网址的一个队列的末尾,并继续爬行到下一个网页,然后它从队列的前面删除。A. 资源约束 爬行消耗资源:下载网页的带宽,支持

11、私人数据结构存储的内存,来评价和选折网址的CPU,以及存储文本和链接以及其他持久性数据的磁盘存储。B. 机器人协议 机器人文件给出排除一部分的网站被抓取的指令。类似地,一个简单的文本文件可以提供有关的新鲜和出版对象的流行信息。此信息允许抓取工具优化其收集的数据刷新策略以及更换对象的政策。C. 元搜索引擎 一个元搜索引擎是一种没有它自己的的网页数据库的搜索引擎。它发出的搜索字词其他搜索引擎所有的数据库,从所有的搜索引擎来查询并为用户提供的结果。较少的元搜索可以让您深入到最大,最有用的搜索引擎数据库。他们往往返回小或免费的搜索引擎和其他免费目录并且通常是小和高度商业化的结果。5.爬行技术A:主题爬

12、行一个通用的网络爬虫根据一个URL的特点设置来收集网页。凡为主题爬虫的设计只收集有一个特定的主题的文件,从而减少了网络流量和下载量。主题爬虫的目标是有选择地寻找相关的网页的主题进行预先定义的设置。指定的主题不使用关键字,但使用示范文件。不是所有的收集和索引访问的Web文件能够回答所有可能的特殊查询,一个主题爬虫爬虫分析其抓取边界,找到链接,很可能是最适合抓取相关,并避免不相关的区域的Web。这导致在硬件和网络资源极大地节省,并有助于保持抓取更多保持在最新状态的数据。主题爬虫有三个主要组成部分:一个分类器,这能够判断相关的网页,决定抓取链接的拓展,蒸馏器决定了蒸馏器抓取的网页,以确定优先访问中心

13、次序的措施,以及均受量词和蒸馏器动态重新配置的优先的控制的爬虫。最关键的评价是衡量主题爬行收获的比例,这是在抓取过程中有多少比例相关网页被采用和不相干的网页是有效地过滤掉。这收获率要高,否则主题爬虫会花很多时间在消除不相关的网页,而且使用一个普通的爬虫可能会更好。B:分布式检索索引网络是一个挑战,因为它的成长性和动态性。随着网络规模越来越大,已成为必须并行处理检索程序,以完成在合理的时间内下载网页。一个单一的检索程序,即使是使用多线程在大型引擎需要获取大量数据的快速上也存在不足。当一个爬虫通过一个单一的物理链接被所有被提取的数据所使用。通过分配多种抓取活动的进程可以帮助建立一个可扩展的,易于配

14、置的系统,它是具有容错性的系统。拆分负载降低硬件要求,并在同一时间增加整体下载速度和可靠性。每个任务都是在一个完全分布式的方式,也就是说,没有中央协调器的存在。6、挑选更多“有趣”对象的问题 搜索引擎被认为是一个热门话题,因为它收集用户查询记录。检索程序优先抓取网站根据一些重要的度量,例如相似性(对有导引的查询),返回链接数,网页排名或者其组合/变化最近Najork等。表明,首先考虑广泛优先搜索收集高品质页面,并提出了一种网页排名。然而,目前,搜索策略是无法准确选择“最佳“路径,因为他们的认识仅仅是局部的。由于在互联网上可得到的信息数量非常庞大目前不可能实现全部全面的进行检索,因此,必须采用剪裁策略。主题爬行和智能检索,是发现相关的特定主题或主题集网页技术。结论在本文中,我们得出这样的结论实现完整的网络爬行覆盖是不可能实现,因为受限于整个万维网的巨大规模和资源的可用性。通常是通过一种阈值的设置(网站访问人数,网站上树的水平,与主题等规定),以限制对选定的网站上进行抓取的过程。此信息是在搜索引擎可用于存储/刷新最相关和最新更新的网页,从而提高检索的内容质量,同时减少陈旧的内容和缺页。

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 生活休闲 > 社会民生

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号