SEOVIP学习社区

 找回密码
 注册
搜索
查看: 2180|回复: 0

浅谈利用搜索引擎无法识别JS做hei帽SEO

[复制链接]
  • TA的每日心情
    慵懒
    2013-11-4 23:27
  • 签到天数: 16 天

    [LV.4]偶尔看看III

    lysunday 发表于 2012-6-23 17:13:10 | 显示全部楼层 |阅读模式
      最近看到很多网站使用hei帽技术,主要是利用蜘蛛不能很好识别JS文件而钻空子。

      JS全称Javascript,是一种计算机脚本语言,主要在浏览器客户端解释执行,Javascript语言可以被嵌入HTML文件之中,可以做到回应使用者的需求事件而不用任何网络来回传输资料。所以当一位使用者输入资料时,它可以直接被客户端应用程序所处理。有兴趣的朋友可以参考下百度百科解释。

      站长看到某公司利用JS文件加密,做了一个高级的隐藏技术,让蜘蛛和访客看到的页面是不同的,主要是做隐藏链接和挂黑链。笔者看到很多网站包括一些政府网站都被此方式挂上了hei链,希望网站主能够加强安全管理力度!

      百度谷歌搜索引擎现在可以识别在HTML内的JS跳转代码,相对来说谷歌的识别能力更强,但是对于文件调用JS方式谷歌和百度处理分析能力都是有待提高的。

      按理来说,凭借搜索引擎强大的运算机制可以进行JS识别的,但搜索引擎一般情况下是不愿意抓取分析JS的,因为JS大部分是脚本编程语言,很多JS 文件存在循环函数,蜘蛛进入后可能处于死循环状态而出不来,这样对于资源会造成巨大浪费!而对于加密的JS,我们人为分析起来都费时间,更何况蜘蛛呢?!

      最近还看到一种作弊手法是通过JS文件判断进入网站是访客还是蜘蛛。如果你通过搜索结果点击网站,那么就会被跳转进入对方设定的目标网站,如果你通过直接在地址栏输入网址,那么进入就是这个网站原本的面目。

      如果有兴趣进行正当研究的朋友可以在SEO博客上留言留下联系方式,笔者乐意与您共享加密的JS与判断访客与蜘蛛的JS文件。

      谷歌和百度搜索引擎官方文档都有提到不建议网站使用JS,JS会干扰搜索引擎正常抓取网页,而作弊者的手法就是反其道变相讨好搜索引擎,把JS封装到.JS文件里面,让搜索引擎觉得网站是正常处理或者说过滤一些无用的信息,故而不会引起搜索引擎的怀疑。

      但是从来都是提倡做白帽SEO的,对于hei帽、zuo弊是深恶痛绝的,并且笔者也相信在不久的将来,搜索引擎定能建立起打击hei帽SEO技术的机制,维护互联网公平,还互联网一片净土!本文由 3366小游戏 http://www.237k.com/ 整理发布
    您需要登录后才可以回帖 登录 | 注册

    本版积分规则

    小黑屋|手机版|Archiver|SEOVIP学习社区

    GMT+8, 2024-11-23 00:10 , Processed in 0.053518 second(s), 21 queries .

    Powered by Discuz! X3.4

    Copyright © 2001-2021, Tencent Cloud.

    快速回复 返回顶部 返回列表