您现在的位置是:芭奇站群管理系统 > 经验心得 > -> [攻战计]seo三十六计—擒贼擒王

[攻战计]seo三十六计—擒贼擒王

时间:2010-05-22 00:15

  三十六计之“擒贼擒王”按语:攻胜则利不胜取。取小遗大,卒之利、将之累、帅之害、攻之亏也。舍胜而不摧坚擒王。是纵虎归山也。擒王之法,不可图辨旌旗,而当察其阵中之首动。这一篇文章将以具体案例来阐述进行seo诊断的重点之所在,“擒贼擒王”这一三十六计的谋略用在seo诊断中,相信再合适不够了。

  seo诊断的高明与否,就像一个名医和庸医的区别:

  1、庸医也懂得诊断,偶尔也能将病治愈,但用药百味、良莠杂陈,造成的后遗症必然也多;且拖延日久,还有可能致使良机错失,造成迁延不治。

  2、名医或许看似随意、慵懒为之,可对病情的诊断丝丝入扣,随手一针一灸,没多大花样动作,却是根治顽疾之本。

  作为一个seo,我们在接手一个网站诊断的时候,尤其是当接手一个存在问题的网站的seo诊断时,必须进行认真细致的分析,以便能够确实解决该站存在的问题,提升整个站点的竞争实力。

  seo诊断,一个重要的原则就是能够对症下药,擒贼擒王。

  讲两个具体案例:

  一、搜索引擎收录数量减少案例。

  第一个seo案例涉及的网站在各个搜索引擎的的收录数越来越少,站长怀疑自己网站遭受搜索引擎的降权,做了许多工作用来弥补却无济于事,也请了据说专业的seoer做诊断,却仍然于事无补。

  一个偶然的机会,我接手了该案例,经过简单分析,该案例并没有spam痕迹,按常理应该不会在大部分搜索引擎都遭受降权,尤其是google在网站主没有作弊的情况下,一般不会轻易降低一个网站的权重。——降权一说应该不够证据成立,当然,真正的分析不会如此简单:)。

  因此我最终锁定到了robots.txt文件上面。经过分析,robots.txt果然有问题,里面有一行“disallow:/?”,问题找到,顺利得以解决。

  原因分析:该站原来都是生成html的静态页面,以前操作过的seo写了文件禁止搜索引擎对该站所有动态文件的收录(这个robots.txt的语法就是禁止搜索引擎收录该站动态文件之用)。而后期由于发展的需要——该站数据非常大,有上百万文章,当然大部分都是采集的,生成的html静态文件占用空间过大,于是站长删除了大部分html文件,通过asp调用数据库内容,采用动态路径来访问,但是不清楚也要相应修改obots.txt文件。因此造成了收录数量直线下降。

  解决方案:非常简单。将robots.txt文件的这句语法删除,保存。静态搜索引擎的再次索引。google、yahoo等在每次重访网站时,一般会读取更新的robots.txt文件,因此重新收录的速度会较快。百度根据对该站iis日志的分析,并没有很快读取robots.txt文件,一直过了一个礼拜左右,才更新了对robots.txt的读取。一个月左右,该站的搜索引擎收录陆续恢复。

  seo学院建议:

  对于收录问题,首先可以先分析下robots.txt文件,认真查看该文件每行的语法;然后在分析有没有其他作弊行为,参见seo三十六计:瞒天过海。

  改版的时候尽量不要大规模删除旧文件,这样会造成大规模的404错误页面,对搜索引擎不友好,链接路径最好是永久性的,不轻易改动。

  静态与动态文件路径之间的切换要慎重,将上百万个静态路径改成动态路径,这种大规模地更改链接地址,权重低的站会元气大伤,严重的话还可能会遭致搜索引擎的惩罚。

  尽量不要采集。采集造成的网站权重下降,已经有先例。这个站将近100个页面,无疑绝大部分都是采集而来的。我在“seo三十六计:走为上”这篇文章曾讲过1个页面1天攫取6万ip的案例,当然丘仕达的这个例子是seo的极致。但是1个页面每天截获1000ip却是平常的事情,我曾经操作过一个实验案例,每个礼拜我认真做一个原创优质的内容页面。每个页面我都费了整整一个星期调研、策划、制作,三个月才完成了12个页面。但是在三个月之后,这个实验站每天ip达到了将近2万ip。大家可以算算成本,尤其是服务器和后期管理的成本。当然,采集的人工成本就低了许多,认真写12个页面的时间也许比采集12万个页面来得慢,而且慢得多。

  二、被stopbadware标注为恶意站点的案例。

  第二个seo案例涉及的网站被google标注为:“该网站可能含有恶意软件,有可能会危害您的电脑。”站长找了许多人都没有排查出具体的原因。

  我接手该站的seo诊断时,也翻查了许多资料,直觉告诉我应该是链接出了问题。但检查了整站的导出链接并没有发现任何问题,甚至排查了模板也没有出现任何问题。

  联想到近段时间google严打付费链接。模板代码没有任何发现,会不会有其他地方的代码有问题?还有什么地方的代码可以挂链接?擒贼擒王,问题的关键出现了,我一下子锁定了网站的css。

  原因分析:打开该站的css文件,果然发现问题。这个网站的css遭遇黑客,已经被人改写了,在代码中被加入了一个隐藏层,挂上了一个木马网站的链接。

  这样的隐藏层一般都是类似如下:

  <divstyle="margin-top:-1px;"><ahref=有问题的网站链接地址></a></div>

  大家可以排查下自己网站的css,同时也可以看看自己的模板有没有被人用0像素iframe来调用页面,这是下马者的常用招数,肉眼不易发现。

  解决方案:也是相当简单,删除恶意代码之后,通过google的站长工具,重新提交申请,2个礼拜之后,该站的“该网站可能含有恶意软件,有可能会危害您的电脑。”标识解决,google重新开始来流量。

  技术总结:在这里,我并非想标榜自己是seo的诊断高手,事实上我也经历了一个较为漫长的过程才分析出来。通过这两个案例我只想说明“作战要先擒拿主要敌手”,做seo诊断同样也要抓关键,在seo诊断中,我们要善于擒贼先擒王,如兵法三十六计里所云“摧其坚,夺其魁,以解其体。”

  不过对seo本人,如果用于商业目的,擒贼擒王这一谋略似乎有些不大“完善”了。客户原来聘请的那些“专业seo”鼓捣了半天,做了许多工作,下了许多药,对网站也确实做了许多改进,因此虽然没有根本解决问题,客户却乐意支付相关技术支持费用。而我将分析出来的结果发给客户的时候,客户不到3分钟就通过ftp修改代码,将问题解决了。因此对原来谈定的收费价格却颇有异议,说如此简单的解决方案是否值得敲定的收费,感觉不大公平。这是seo的无奈。

  p.s.本人并不接受商业或免费的seo诊断,seo研究院目前仅是一个完全公益性质的、提供搜索引擎优化知识与seo案例以及seo策略的个人博客站,谢谢你阅读这篇文章。

  提供一个大家实践的seo案例:动易网校由于疏于管理,接近半年没有更新,被坏人恶意中马,google在搜索结果上已经将它标识为:“该网站可能含有恶意软件,有可能会危害您的电脑。”如果你有时间,不妨分析一下原因,给出解决的方案:)。

  文章转载地址:http://www.dugutianjiao.com。