-
06-26
-
06-26
-
11-25
-
06-28
-
06-26
网站不收录成为SEO主要问题,解析搜索引擎不收录的原因
发布时间:2018-12-03 14:29:49
文章来源:www.ziyuanm.com
访问次数:
一般来说,阻挠搜索引擎录入也或许成为一个SEO问题,尽量让搜索引擎抓取和索引更多内容是SEO们经常头疼的一个问题,没有录入、索引就无从谈排名。特别对到达一定规模的网站来说,使上海搜索引擎优化的网站充沛录入是个颇令人费心的SEO技能,当页面到达比如说几十万,不管网站架构怎样规划、多么优化,100%录入都是不或许的,只能尽量进步录入率。
但有时候怎样阻挠搜索引擎录入也或许成为一个问题,网站不录入近几年越来越成为SEO问题。需求阻挠录入的情况如保密信息、复制内容、广告链接等。过去常用的阻挠录入办法包括密码保护、把内容放在表格后面、运用JS/Ajax、运用Flash等。
运用Flash
Google几年前就开端测验抓取Flash内容了,简单文字性内容现已能抓取。Flash里面的链接也能被跟踪。
表格
Google蜘蛛也能填表,也能抓取POST请求页面。这个早就能从日志中看到。
JS/Ajax
运用JS链接一直以来被当作不搜索引擎友好的办法,因此能够阻挠蜘蛛爬行,但两三年前我就看到JS链接不能阻挠Google蜘蛛抓取,不仅JS中出现的URL会被爬,简单的JS还能被执行找到更多URL。
上图为:阻挠搜索引擎录入的原因
前几天有人发现很多网站优化运用的Facebook谈论插件里的谈论被爬、被录入,插件自身是个AJAX。这是个好消息。我的一个实验电子商务网站产品谈论功用就因为这个费了不少心思,用Facebookcomments插件优点大大的,详细什么优点以后有时间再说,唯一的问题就是谈论是AJAX实现的,不能被抓取,而产品谈论被录入是意图之一(发生原创内容)。我当时想了半响也没有解决办法,只好先傻傻地既放上Facebookcomments插件又翻开购物车自身的谈论功用。现在好了,Facebookcomments里的谈论能被录入,就不必两套谈论功用了。
Robots文件
现在唯一保证内容不被录入的办法是robots文件制止。但也有个坏处,会丢失权重,尽管内容是不能录入了,但页面成了只接受链接权重、不流出权重的无底洞。
Nofollow
Nofollow并不能保证不被录入。就算自己网站所有指向页面的链接都加了NF,也不能保证别人高端网站建造不给这个页面弄个链接,搜索引擎还是能发现这个页面。
MetaNoindex+Follow
为防止录入又能传递权重,能够在页面上运用metanoindex和metafollow,这样页面不录入,但能流出权重。的确如此,也是个比较好的办法。也有一个问题,还是会糟蹋蜘蛛爬行时间。哪位读者有能防止录入、又没有权重丢失、又不糟蹋爬行时间的办法,请留言,对SEO界功德无量。