-
09-19
-
06-28
-
06-26
-
06-30
-
06-26
网站优化robots.txt文件使用技巧
发布时间:2018-10-31 11:16:02
文章来源:www.ziyuanm.com
访问次数:
众所周知,使用机器人。TXT文件可以使搜索引擎“蜘蛛”根据文件的访问范围,不会对网站访问排名不利的内容。那么Roopts.txt文件是如何工作的呢?我们如何使用RooptsTxt文件?
一、robots.txt文件工作原理
1.robots.txt是一个纯文本文件,其中部分站点声明不希望被机器人访问,因此搜索引擎无法包含站点的部分或全部内容。或者指定的搜索引擎只包含指定的内容。
2.当搜索引擎Spider访问一个站点时,它首先检查站点的根目录中是否有robots.txt。如果找到,搜索引擎蜘蛛将根据文件的内容确定访问范围。如果文件不存在,则搜索引擎蜘蛛沿着链接爬行。
3.RoFTS.TXT必须放在一个站点的根目录中,文件名必须是小写的。
二、robots.txt文件的设置
1.User-agent的设置
在“机器人。TXT文件,如果有超过用户代理记录有多个机器人“机器人。txt”,的文件,应该有至少一个用户代理记录。如果该值设置为*,任何机器人是有效的,在“机器人。TXT文件,用户代理:“*”只能有这样的记录。
2.Disallow的设置
该值可以是路径的完整路径,也可以是路径的非空前缀,机器人将不会访问以不允许入口的值开头的URL。
3.Allow的设置
与不允许条目类似,该值可以是完整路径,也可以是路径前缀,以允许入口值开头的URL允许机器人访问。
三、robots.txt文件使用技巧
1。每当用户试图访问一个不存在的URL时,服务器就记录404个错误(文件找不到)。每次搜索引擎“蜘蛛”搜索一个不存在的机器人。TXT文件,服务器也会记录一个404错误,所以你应该添加一个机器人。TXT到站点。
2.网站管理员必须让蜘蛛程序远离某些服务器上的目录-确保服务器性能。
3.如果站点是动态页面,则动态页面将创建一个静态副本,以便搜索蜘蛛更容易抓取。然后,您需要在robots.txt文件中设置,以防止蜘蛛对动态页面进行索引,以确保这些页面不被认为包含重复的内容。
4。Roopts.txt文件也可以直接包含在站点地图文件链接中。
5。合理利用机器人。TXT文件可以避免错误在访问。例如,不能让搜索者直接进入购物车页面。因为没有理由让车上的收集,所以你可以在机器人。TXT文件,以防止搜索者直接进入购物车页面。