您的位置:首 页 > 新闻中心 > 行业动态 > 做SEO必须熟知的搜索引擎工作原理

行业动态

做SEO必须熟知的搜索引擎工作原理

发布:2018-11-13 16:59:13 浏览:2965

搜索引擎的工作过程非常复杂,其工作过程大体可以分为三个阶段:

(1)网页收集:搜索引擎蜘蛛通过链接进行爬行和抓取,将抓取到的页面存储到原始数据库中。

(2)预处理:搜索引擎蜘蛛抓取到的页面不能直接进行用户查询排名,需要进行预处理。

(3)检索服务:用户输入查询词后,排名程序调用索引数据库中的数据,将与用户搜索词相关的页面展示给用户。

搜索引擎是通过蜘蛛程序对互联网中的网页进行抓取和收集的,网页收集是搜索引擎工作的第一步。了解搜索引擎的网页抓取机制,便于蜘蛛抓取更多的页面,使网站有更好的排名。

(1)什么是蜘蛛

网络爬虫,又被称为网页蜘蛛、网络机器人,是指按照一定的规则,自动抓取互联网中网页的程序或者脚本。

(2)蜘蛛的工作方式

对于互联网中的网站来说,如果没有对其中的链接进行屏蔽设置,蜘蛛就可以通过链接在网站内或者网站间进行爬行和抓取。

由于互联网中的网站及页面链接结构异常复杂,蜘蛛需要采取一定的爬行策略才能抓取更多的页面。

最简单的爬行策略有两种:一种是深度优先,另一种是广度优先。

广度优先:是指蜘蛛会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页。这是最常用的方式,因为这个方法可以让网络蜘蛛并行处理,提高其抓取速度。

深度优先:是指蜘蛛会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。

深度优先和广度优先通常是混合使用的。这样既可以照顾到尽量多的网站,也可以照顾到一部分网站的内页,同时也会考虑页面权重、网站规模、外链、更新等因素。而且搜索引擎为了提高爬行和抓取的速度。都是用多个蜘蛛并发分布爬行。

根据这一原理,在优化网站时,应该合理设置网站中的链接,便于蜘蛛更加顺利的爬行网站中的各个页面。

(3)认识种子站点

一些互联网中的网站被蜘蛛格外看重,蜘蛛的爬行也往往以这些网站作为起始站点。通常情况下,这类站点具有一定的权威性和导航性,如新浪、hao123等。这些具有权威性和导航性的网站称为种子站点。因此,在优化网站时,可以在种子站点中添加自己网站的链接,增加线蛛抓取的入口。

(4)搜索引擎的收集机制

如蛛对于网站的取频率受网站更新周期的影响,若网站定期定量更新,那么,蜘蛛会规律进入网站中进行爬行和抓取。

蜘蛛每次爬行都会把页面数据存储起来,如果第二次爬行发现页面与第一次收录的完全一样,说明页面没有更新,多次抓取后蜘蛛会对页面更新频率有所了解。不常更新的页面,蜘蛛也就没有必要经常抓取。如果页面内容经常更新,蜘蛛就会更加频繁地访问这种页面,页面上出现的新链接,也自然会被统蛛更快地抓取。

因此,在优化网站时,应该定期定量地更新内容,增加网站被抓取的频率。

(5)文件存储

视索引擎蜘蛛抓取的网站制作页面存入原始数据库中。搜索引擎会对原始数据库中的页面进行相应的处。

>>> 查看《做SEO必须熟知的搜索引擎工作原理》更多相关资讯 <<<

本文地址:http://www.phpweb.com.cn/news/html/4389.html

赶快点击我,让我来帮您!