SEOVIP学习社区

 找回密码
 注册
搜索
查看: 1369|回复: 0

新站如何更快收录内页

[复制链接]

该用户从未签到

andishui 发表于 2015-3-23 10:34:34 | 显示全部楼层 |阅读模式
       最近做新站的SEOer是否发现百度开始只收录首页不收录内页了,在1,2年之前百度是很快就开始收录,不管文章质量只管数量,但是现在站长是否发现收录内页已经开始增加了很大的难度,甚至一两个月只有一篇首页被收录,内页完全看不见踪影?笔者估计这应该是百度最近一年的算法调整导致的结果,先观察网站质量,再决定是否放出内页并且给予排名。
  1、百度信任期
  以前谷歌还在国内时,出现新网站都会出现一个沙盒期间,这个期间一般可以达到6个月以上,在6个月以内不给予新站任何权重,现在的百度也开始模仿谷歌算法,让网站先建立信任,观察网站质量,再决定是否给予放出内页并且排名。如果一个新站无法坚持到度过信任期很可能直接被百度放弃。最简单检查百度是否抓取页面得方法,就是查看网站日志返回代码,是200,还是其他代码,如果返回200表示百度搜索引擎已经抓取,并且放到搜索引擎的数据库。
  2、内容质量问题
  真正考验网站质量如何的就是内容质量,如果网站的内容无法达到百度要求,或者质量太低,百度直接放弃该网站的。从搜索引擎最近两三年的算法可以看出来,百度越来越在乎用户体验,凡是以用户为主的网站,只要坚持就会成功。相反完全依靠采集,伪原创工具等类网站,被K站已经成为了时间问题。内容质量就要注意文章的质量,可读性和相关性等等。高质量原创文章才是搜索引擎和用户喜爱的。http://kfrq0y.76850.org
  3、内部结构
  内部结构重要之重,如果一开始内部结构使用了大量的JS,FLASH,IFRAME框架结构等等不利于蜘蛛爬行,这些代码虽然可以让网站看着更加精美,但是完全无法让蜘蛛读取内容,如果是一个优秀的SEOer应该明白JS是百度不允许的,FLASH是无法读取的,框架结构有更好的DIV+CSS代替了。
  4、robots.txt协议
  robots.txt协议是所有搜索引擎通用的一种协议,主要意义就是禁止蜘蛛爬行,这种协议一般用于屏蔽掉一个没有用处的链接,比如:版权信息,联系方式,公司介绍等等。这样可以集中内页权重。但是robots.txt协议不能胡乱使用,比如不小心屏蔽掉首页,或者被黑客攻击之后修改了,都可能导致蜘蛛不再来临。经常检查robots.txt协议是站长必做的事。
您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|SEOVIP学习社区

GMT+8, 2024-11-23 04:23 , Processed in 0.035027 second(s), 21 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表