SEOVIP学习社区

 找回密码
 注册
搜索
查看: 1910|回复: 0

Wordpress新手Robots.txt文件规范写法

[复制链接]
  • TA的每日心情
    开心
    2011-7-12 09:22
  • 签到天数: 6 天

    [LV.2]偶尔看看I

    bjwindy 发表于 2012-4-16 17:39:00 | 显示全部楼层 |阅读模式
          现如今有越来越多的站长开始玩WordPress了,很高兴有些志同道合的朋友加入WP的大家庭。可是,不管你的水平如何,只要你是站长,就有必要懂的Robots.txt的写法与作用。近日,小站的?p=XX页面老是出现在百度收录中,虽然有增加收录的作用,但是会对网站权重造成影响。所以我采取了一系列的措施来避免过多的重复页面抓取。

       虽然有些地方需要借助自己对Html等小知识的掌握,但这并不妨碍你把WordPress站点打造成优化典范!

    下面我分享一下自己博客的Robots文件,并简单的说一下作用。

    User-agent: *

    Disallow: /comments/feed/

    Disallow: /*/trackback

    Disallow: /wp-admin/

    Disallow: /wp-includes/

    Disallow: /wp-content/plugins/

    Disallow: /wp-content/themes/

    Disallow: /*?replytocom=

    Disallow: /*/comment-page-*

    Disallow: /?r=*

    Disallow: /?p=*

    Disallow: /page/

    Allow: /wp-content/uploads/

    Sitemap: http://***.me/sitemap.xml

    Sitemap: http://***.me/sitemap_baidu.xml

         上面的User-agent:*意思就是对所有的蜘蛛进行规则,Disallow想必大家英文稍微会一点的都懂。比如Disallow: /page/意思就是不要抓取/page下面的网页,以免造成降权。

       网上见有朋友将Disallow: /*?replytocom=和Disallow: /*/comment-page-*类似的写成Disallow: *?replytocom=以及Disallow:*/comment-page-*特意说明一下,在百度官方的说明中,Disallow的地址必须以/这个斜杠开头,不加这个虽然可以但是不符合标准。

       既然有官方标准在那里,咱们就看标准来吧!希望大家可以多多交流,共同学习!有错误请及时更正指出!

       在最后祝愿玩WordPress的同学技术步步高,WordPress建站值得你坚持下去
    您需要登录后才可以回帖 登录 | 注册

    本版积分规则

    小黑屋|手机版|Archiver|SEOVIP学习社区

    GMT+8, 2024-11-23 04:20 , Processed in 0.034540 second(s), 21 queries .

    Powered by Discuz! X3.4

    Copyright © 2001-2021, Tencent Cloud.

    快速回复 返回顶部 返回列表