SEO病毒案例分析:利用伪静态生成大量重复收录页面

日期: 2017-09-20    阅读: 62322

    不严谨的伪静态规则存在很多重复页面地址,在搜索引擎的更新后链接爬行更具准确性,形成了很多类似存在的页面不被索引;不被索引的页面在以往收录制度下存在优化隐患,为恶意的竞争对手留下了可乘之机,站内链接训话可以良好的控制链接关系,不过还是可能被站外恶意攻击者利用,造成大量重复收录的相同链接入口,从而达到降低整个网站权重的目的。

 排除网站优化中的安全隐患是seo必须重视的因素之一
  1、编写严谨准确的rewrite重写规则
  解决这一个问题的最有效方法就是制定出合理的伪静态规则,从而使不必要呈现的链接地址出现404错误提示页面
  2、不必要情况下尽量不使用伪静态
  虽说HTML文档格式有利于搜索引擎读取,不过严格的定义伪静态毕竟属于一种欺瞒手段,在简化的网站参数传递链接中没有必要使用伪静态规则的网站最好不要多此一举使用重写技术
  3、参数复杂的长尾链接伪静态分类
  结构尽量清晰富有逻辑读取性,避免模块规则冲突实现互不影响;开源CMS个性化自定义重写格式,既有利于网站收录且不易被规模漏洞利用。
  防止第三方嗅探程序恶意扫面,做好网站防护工作;周期性监控网站外部链接状况,最小化避免大量未知外链渗入,合理使用特定搜索引擎提供的死链工具摒弃垃圾页面,从而提高网站整体权重而形成综合发展。

Copyright © 2009-2018  聚全网络科技 保留公司所有权利  粤ICP备15099231号-3   

关于我们  |  联系我们  |  网站地图  

聚全网络科技