设为首页|加入收藏|网站地图|RSS
请选择搜索分类 新闻 留学 专题

JS文件欺骗蜘蛛的黑帽技术

发布时间:2014-11-05 18:34 来源:SEO评测网字号:T|T

  SEO黑帽白帽JS文件欺骗蜘蛛的黑帽技术

      JS文件欺骗蜘蛛的黑帽技术

  看到上海某公司利用JS文件加密,做了一个高级的隐藏技术,让蜘蛛和访客看到的页面是不同的,主要是做隐藏链接和挂黑链。笔者看到很多网站包括一些政府网站都被此方式挂上了黑链,希望网站主能够加强安全管理力度!

  最近看到很多网站使用黑帽技术,主要是利用蜘蛛不能很好识别JS文件而钻空子。JS全称javascript,是一种计算机脚本语言,主要在浏览器客户端解释执行,javascript语言可以被嵌入HTML文件之中,可以做到回应使用者的需求事件而不用任何网络来回传输资料。所以当一位使用者输入资料时,它可以直接被客户端应用程序所处理。有兴趣的朋友可以参考下百度百科解释。

  百度谷歌搜索引擎现在可以识别在HTML内的JS跳转代码,相对来说谷歌的识别能力更强,但是对于文件调用JS方式谷歌和百度处理分析能力都是有待提高的。

  按理来说,凭借搜索引擎强大的运算机制可以进行JS识别的,但搜索引擎一般情况下是不愿意抓取分析JS的,因为JS大部分是脚本编程语言,很多JS文件存在循环函数,蜘蛛进入后可能处于死循环状态而出不来,这样对于资源会造成巨大浪费!而对于加密的JS,我们人为分析起来都费时间,更何况蜘蛛呢?!

  最近还看到一种作弊手法是通过JS文件判断进入网站是访客还是蜘蛛。如果你通过搜索结果点击网站,那么就会被跳转进入对方设定的目标网站,如果你通过直接在地址栏输入网址,那么进入就是这个网站原本的面目。

  如果有兴趣进行正当研究的朋友可以在SEO博客上留言留下联系方式,笔者乐意与您共享加密的JS与判断访客与蜘蛛的JS文件。

  谷歌和百度搜索引擎官方文档都有提到不建议网站使用JS,JS会干扰搜索引擎正常抓取网页,而作弊者的手法就是反其道变相讨好搜索引擎,把JS封装到.JS文件里面,让搜索引擎觉得网站是正常处理或者说过滤一些无用的信息,故而不会引起搜索引擎的怀疑。

  但是笔者从来都是提倡做白帽SEO的,对于黑帽、作弊是深恶痛绝的,并且笔者也相信在不久的将来,搜索引擎定能建立起打击黑帽SEO技术的机制,维护互联网公平,还互联网一片净土!

  最全的SEO自学平台,SEO评测网学习seo一步到位

图库

更多

网友评论