您现在的位置是:芭奇站群管理系统 > 经验心得 > -> 2010年seo案例:seo是如何依赖技术分析的

2010年seo案例:seo是如何依赖技术分析的

时间:2010-04-28 23:41

  我前面的文章,都是从技术角度出发来做seo的。这篇文章就再举几个例子,来说明一下做seo为什么要依赖技术分析的。另外写这篇文章还出于我一直以来的一个想法,就是我一直都很想赞扬一下07年之前阿里巴巴某些做seo的同事,他们很早就在seo领域做出了非常多好的实践,也给网站做出了很大的贡献。

  07年以前的阿里巴巴,经过几年的努力,已经把seo做到了一个很高的境界。大家那时可能还只关注国内中文版的阿里巴巴,称“google是阿里巴巴的站内搜索引擎”。其实阿里巴巴国际站在国外同行当中的表现要更加优秀。当时很多产品类词语,排在首页的10个结果当中就可能会有6个是阿里巴巴国际站的。

  当时领导seo团队的人员是做技术出生,所以大家大量借助技术手段来分析和解决seo当中出现的很多问题,取得了很好的效果。

  因为涉及到现有的业务,只能说几个不那么敏感的例子。

  google网站管理员工具刚出来的时候,我们网站有很多频道都验证不了那个google需要你上传的文件。工程师那边帮助查了很多问题,以为是什么跳转之类的没有做好。查了很多资料,也没有找到特征吻合的相关解决办法。而meta验证的方法因为技术上有一点问题做不了。

  所以我们seo团队就帮工程师去找问题。我同事瞿波不一会就找出问题出在什么地方了,原来问题出在泛解析上。

  具体的过程是这样的:

  用了泛解析的url,无论你把url组合成一个什么样子,都会有一个正常的页面给你的。比如:如果你网站的根目录下用了泛解析,abcdxxxxxx.com/a.html这个url是你网站本来正常的url。那么你随意的输入一个本来不存在的url如abcdxxxxxx.com/adasdsadw.html甚至abcdxxxxxx.com/@####¥¥.html,网站cms返回的都是一个正常的页面。

  这在一个大型网站中,很多地方出于业务需要,都是这么处理的。但是这样做,在“网站管理员工具”的验证方面就一定不能通过。为什么呢?

  因为这样谁都可以把这个网站加到自己的网站管理员工具中。比如:abcdmade-in-china.com根目录如果用了泛解析,我把这个网站添加到我的“网站管理员工具”里,系统要我验证一下abcdmade-in-china.com/google15c03c9b508311f6.html这个文件是不是存在的时候,因为有泛解析,这个文件是一定存在的,那么我就成功把这个本不属于我的网站加到我的“网站管理员工具”里了。我可以随意更改里面的很多设置。

  而实际上这样的情况是不会发生的,因为google不光会验证你上传的文件存不存在,还会验证一个不应该存在的文件是不是不存在。google验证完你上传的文件后,接着会模拟一个叫做google404errorpage.html的页面是不是不存在。google觉得你网站根目录下恰好存在一个名叫google404errorpage.html的几率是零,所以如果检测下来发现你这个页面也存在的话,那就不能验证通过。google这个时候已经知道你这是因为泛解析导致的缘故。出于保护你的网站,google不会让这个验证通过。

  上面的这个分析过程,在公开的渠道里是找不到的。现在在《google网站质量指南》里也只是让你给不存在的页面返回4xx状态码而已。

  abcdgoogle.com/support/webmasters/bin/answer.py?hl=cn&answer=35638

  而且这个规则也是最近加进去的。以前,根本找不到相关的资料来参考。

  那我的同事为什么一下子就找到问题在哪里了呢?那是因为服务器的log日志里一定会记录google验证的这个过程的,把相关目录下、某个时间段的log日志调出来查看就可以看到了。

  如果没有log日志分析,谁能想得到还有这么一个过程在里面呢?至今,还有很多网站验证不了这个文件的,现在就可以看看有没有这个泛解析的问题,或者去分析log日志看看。

  还有一次,网站改版后,网站流量骤然下降了。我们知道影响seo流量的因素有很多,那到底是什么原因导致流量下降呢。我以前的主管ben通过自己的分析,觉得是url出了问题。

  当时的url是这样的:abcdalibaba.com/bin/buyoffer/mp3.html

  我想很多人都不会觉得这个url有什么异常。但是在当时,这个url有一个致命问题的。

  在02年google的爬虫还不是很成熟的时候,为了避免陷入死循环,爬虫不光会对那些有多余参数的url抓取量减少,还会对某些特定的目录不抓取的。这样的目录中,就有/cgi-bin/以及类似的/bin/这样的目录。学过cgi语言的人都知道,/cgi-bin/这个目录下是放置cgi程序的地方,这种目录下进行抓取是没什么意义的。/bin/这个目录也是其他很多系统或者语言默认的文件夹名称,这些目录下都不存在google应该抓取的页面,所以搜索引擎就屏蔽了这样的目录抓取。而偏偏我们定义的文件夹名称就是/bin/,google是不会抓取这个目录的。

  之后,把这个目录名称改为/trade/,流量马上就恢复了。如今,百度也在robots文件的用法中,就拿/cgi-bin/这个目录做了例举。abcdbaidu.com/search/robots.html

  我相信这样的问题即使放到现在,也没有人敢怀疑是google本身出了问题。有些人还会从上百个因素里找一个看似很合理的原因,导致真正的原因被掩盖了。但是ben通过技术分析并实践,却得出了让人信服的结论。类似的事情,我后来也碰到过好几回,因为有他们的经验在鼓舞我,使我也做了一些让别人不能理解,但是却给网站带来很大流量的事情。

  技术分析在和竞争对手抢流量的时候,也是竞争力之一。举一个不那么恰当的例子:

  sitemap.xml刚出来的时候。我们自己制作好了sitemap.xml文件,但是毕竟这么大型的sitemap文件谁也没有做过,特别是里面权重的设置在一个大型网站来说是很有讲究的。所以我们就想参考一个国外主要竞争对手的文件。一开始通过一个方法拿到了他们的文件地址,但是怎么也打不开那个链接,老是返回404错误。通过国外的代理服务器去访问也是这样。最后,通过模拟google爬虫才能正常的访问这个文件。原来同样非常重视seo的这个对手,为了让自己的sitemap.xml文件不被其他人看到,只有对那种user-agent是google爬虫的访问才显示这个文件,由于浏览器的user-agent是很容易判断出来的,就拦截掉了浏览器的访问。

  《怎么样去学seo》一文,讲述了学seo要从了解网站和搜索引擎相关的技术开始。而这篇文章就是让大家看看具体是如何应用的。阿里巴巴最早做seo的那批人,早在国内还不知道seo是什么的时候就已经涉及到了诸多技术问题,并马上取得压倒性的优势。虽然现在他们因为某些原因都没有在做seo了,但是他们给网站的贡献是非常大的。我个人的观点:从某方面来说,是seo成就了alibaba。

  转载于免费263赠品网(abcdfree263.com/qitamianfei/2534.html)