SEO百科

z blog网站robots怎么设置

^_^ 专业解答 ^_^

问题:z-blog网站robots怎么设置?

回答:这个是问题是笔者看到有朋友在搜外上提问,稳到zblog网站robots文件设置的问题。具体内容如下:

为什么z-blog很多模板商、或者seo插件商都推荐下面这种robots写法?? 除了安装文件就这两个文件为什么要全禁止了?

怪的是全部禁止后通过站长工具检测居然是正常的,原理是什么回事,百度蜘蛛也都能正常抓取吗?

User-agent: *

Disallow: /zb_users/

Disallow: /zb_system/

Sitemap:

首先解释下,前面robots代码里写到的,是禁止zb_users和zb_system文件目录下文件被搜索引擎抓取,这样写是没有错的。因为这两个目录下的文件没有被抓取的必要。

那么为什么禁止蜘蛛抓取了,站长工具测试还是正常能抓取呢?原因可能有三个:

1、robots文件没有上传成功;

2、robots文件在搜索引擎那里没有更新;

3、站长工具检测不准。

解释了问题出现的原因,我们再来看看z-blog网站robots怎么设置。本站的主程序就是zblog的,来看看本站的robots文件,如下图:

z blog网站robots怎么设置

可以看到对于主站的zblog程序,笔者并没有设置任何的限制抓取,只是对于目录下的bbs论坛做了限制。事实上这没有任何的问题,也就是说对于zblog我们无需纠结哪些目录文件需要禁止抓取,直接开放全部抓取也不会出现影响。

robots文件的作用的确是存在的,对于内容比较多的大站来说,通过robots的设置,可以有效的调节蜘蛛抓取的资源。比如说商城网站会出现很多的帮助文档,这些帮助文档就可以通过robots的设置来限制抓取,从而节省了蜘蛛抓取频次。但是大家要注意一个问题,那就是对于那些正常不需要被抓取的页面,设置robots还是有必要的,但是对于zblog这种系统文件,设置与否其实无关紧要。如果硬是要去设置的话,按照前面代码那样做,是可以的。

关于z-blog网站robots怎么设置的问题,笔者就简要的说这么多。总之来说就是,zblog的系统文件不需要被抓取,但正常情况下搜索引擎也不会去抓取,所以设置与否其实没有很大影响。不想麻烦的话,直接全部开放抓取即可;实在不放心的,也可以去做下限制。

如何优化:
北京集团网站建设 网站开发合同 企业网站多长时间改版合适 阳江网站开发 设计交易网站 重庆少儿编程网站开发 在线ui设计网站 建德网站改版 网站开发案例分享 网站开发综合实训作业4
热门问答
  • 网站获得理想的排名和权重,对于企业而言大量的获得来自搜索引擎的免费优质流量,对于自身价值的提升也是非常有意义的事情,我认为SEO的艺术特点和兴趣点就体现在这里。 ; ; ; ;在2010年我第一次接触到SEO这个概念就觉得非常的好奇,一个企业网站可以通过自己的努力实现想要达到的关键词排名,我认为这个非常不可思议,当时认为这肯定是件特有意思的事儿。我们做互联网的都知道...详情查看
  • 问题:频繁更新网站地图对网站有什么影响?回答:如果网站地图里面有新的内容加入,那么频繁更新有利于蜘蛛抓取,对于页面收录是有好处的。这种频繁更新网站地图且提交的方式,是有负面效果的,这点百度搜索官方有过说明。大家应该都知道,正常的网站优化,需要持续提供高质量的内容,这些内容会影响到搜索引擎对网站的评价。关于频繁更新网站地图对于网站影响的问题,笔者就简单的介绍这么多。具体的做法及要注意的问题,大家参考...详情查看
  • 至于txt文件的sitemap,大家也可以保留,正面作用大不大不好说,起码不会有负面影响。并且xml不管是百度搜索还是其他的搜索引擎,都能够很好的识别和认可。总之来说,笔者建议sitemap还是做成xml格式的文件比较好。不过百度搜索在7月18日的时候就sitemap问题发了通知,内容如下:尊敬的搜索合作伙伴:为了提升sitemap文件的处理效率,即日起搜索资源平台的普通收录和死链提交工具均不再支...详情查看
  • SEO见效需要一定的时间SEO不是竞价排名,不可能更改了价格排名马上就会发生变化,正规SEO的效果是比较缓慢的。SEO没有捷径可走SEO是一项没有捷径可走的工作,也能投机取巧,更不能利用一些其他手段去操作排名,这不是真正的SEO。但是这样做只会适得其反,让网站不仅没有好的排名,而且可能会受到搜索引擎的惩罚,让网站难以在搜索引擎中生存。SEO需要循序渐进网站seo是长期的工作,在工作中有很多不可预测...详情查看