您现在的位置是:芭奇站群管理系统 > 优化技巧 > -> 搜索引擎优化——seo教程

搜索引擎优化——seo教程

时间:2010-08-03 14:08

  [八]pagerank值?

  1、什么是pagerank值?

  我想很多人都应该知道吧,pagerank值在网络中简称pr值,他是google给一个网站的评价结果所打出的分数,关于pagerank值的详细说明与pagerank值的数法,我的网站上有专门的pagerank值文章,[url]http://www.iiseo.cn[/url]你可以去我的网站查看关于pr值的文章

  2、提高pagerank值要点:

  (1)反向链接数(单纯的意义上的受欢迎度指标)

  (2)反向链接(是否来自推荐度高的页面,有根据的受欢迎指标)

  (3)反向链接源(页面的链接数,被选中的几率指标)

  (4)优秀的网站内容也可以快速提你的pagerank值

  反向链接最好是来自与pagerank值高的站点,最好不要低于pagerank3

  一般新站是不会有pagerank值高的站点愿意给你反向链接的,所以之前你可以先选择与一些网站结构、内容、质量比较是蜘蛛程序所喜欢的站点,等你有一定的基础后再考虑。

  [九]robots.txt和robotsmeta标

  一、robots.txt

  1、什么是robots.txt?

  robots.txt是一个纯文本文件,通过它来声明该网站或网站中部分内容不想被搜索引擎收录

  robots.txt是存放在一个站的根目录下,而且文件名必须全部小写

  2、robots.txt的语法

  (1)user-agent:

  (2)disallow:

  3、robots.txt基本的用法

  (1)禁止所有搜索引擎访问网站任何部分

  user-agent:

  disallow:/

  (2)允许所有的robot访问

  user-agent:

  disallow:

  (3)禁止所有搜索引擎访问网站的几个部分

  user-agent:

  disallow:目录

  disallow:目录

  disallow:目录

  (4)禁止某个搜索引擎的访问

  user-agent:搜索引擎机器人robots名字

  disallow:/

  (5)只允许某个搜索引擎的访问

  user-agent:搜索引擎机器人robots名字

  disallow:

  user-agent:

  disallow:/

  一般很多站点根目录下都没有robots.txt文本文档,我建议最好能放一个空白的robots.txt文件,一般在当蜘蛛访问访问没有robots.txt文件站点时,会被自动404重定向到另一个html页面。这时蜘蛛常常会以处理robots.txt文件的方式处理这个html页面文件。虽然一般情况不会出现问题,所以我建议还是放一个robot.txt文件在站点根目录下。

  常见的搜索引擎机器人robots名字

  名称搜索引擎

  baiduspider[url]www.baidu.com[/url]

  scooter[url]www.altavista.com[/url]

  ia_archiver[url]www.alexa.com[/url]

  googlebot[url]www.google.com[/url]

  fast-webcrawler[url]www.alltheweb.com[/url]

  slurp[url]www.inktomi.com[/url]

  msnbotsearch.msn.com

  为大家推荐一个小工具专门检查robots.txt文件的有效性

  [url]www.searchengineworld.com/cgi-bin/robotcheck.cgi[/url]

  二、robotsmeta标签

  robotsmeta标签则主要是针对一个具体的页面。和其他的meta标签一样

  robotsmeta标签也是放在页面的<head></head>中,专门用来告诉搜索引擎蜘蛛程序如何抓取该页的内容

  robotsmeta标签没有大小写之分

  name="robots"表示所有的搜索引擎

  name="搜索引擎机器人名称"针对某个具体的搜索引擎

  content部分有四个指令选项:index,noindex,follow,nofollow指令间以“,”分隔

  index指令告诉搜索机器人抓取该页面

  follow指令表示搜索机器人可以沿着该页上的链接继续抓取下去

  robotsmeta标签的缺省值是index和follow,只有inktomi除外,对于它,缺省值是index,nofollow

  在上面所说的robots.txt与robotsmeta标签中的命令不是所有搜索引擎机器人(蜘蛛程序)能够遵守的。目前绝大多数的搜索引擎机器人都遵守robots.txt的规则

  对搜索引擎不利的因素

  1、框架网页

  也叫框架结构,即帧结构(frame)网页,表现为一个页面内的某一块保持固定,其它部分信息可以通过滚动条上下或左右移动显示信息,一般邮箱都是采用框架建构。

  目前搜索引擎都无法识别框架结构,还有部分浏览器也不支持框架网页。所以我也不建议使用框架网页,一般大型站点都会使用框架结构来建设网页,那样可以方便维护与管理

  框架网页代码:<noframes></noframes>

  框架结构,与我们所说的调用有点类似,比如我们网页中有部分内容是通过代码调用来自其它网站或网页,比如:<iframe></iframe>js调用,蜘蛛也是无法读取的

  2、flash网页

  flash动画,我很喜欢,我自学过,自己也做过几件作品,很高兴,还在腾讯发表过

  不要跑题了,flash内的信息,蜘蛛是很难读取的,flash动画是属于独立的文件它与调用没有什么区别,它在网页中出现,就是此页面中调用了一个flash文件,蜘蛛是读取不了他内部信息,所以flash网页对蜘蛛而言,就是一个空白的页面,只能读取他的头部head信息

  3、不可见导航

  不可见导航有多种,一种就是你的网页没有导航,这样不止搜索引擎蜘蛛程序,包括客户也无法访问你网页中的另外页面,但是这种情况很少,一般情况是你的网中出现的导航是使用特殊代码做成的导航,只有访问者可以看到,蜘蛛程序是无法读取的,这样只能美化你的网页,而无法让蜘蛛更好的收录你的网站,所以建议你不要使用这样的导航

  常见的不可见导航代码有:javaapplets,javascripts,macromediafalsh

  个人建议:网站做好后再做一个网站地图(就是一个网页中有网站所有页面的链接)

  4、代码混乱

  代码简洁就好,页面越混乱,打开速度就慢,搜索引擎抓取页面内容就越困难

  (1)javascript代码

  最好不要把javascript代码放到页面代码中

  也不要用外部调用javascript这样可能比较简结,但是蜘蛛程序是读取不了调用代码中的数据

  (2)特效代码

  现在有很多网站都有网页特效代码,还有网页特效软件提供特效代码,这样可以使你的网页很好看、很美观,但是这些特效代码,这些代码有很多字符,有的上千字符,这样使网页加大读取与访问都会变的很慢,也是无用的代码;如果你真的很喜欢这样的特效代码,你可以使用外调用,将它转换成js代码保证为js文件,再调用到网页中,因为特效代码是给访问者看的,所以不用给蜘蛛读取,那么就可以使用调用,调用也可以使你很方便的管理与修改特效代码,这样访问网页时,浏览器只要下载一次,把它保存在缓存中,可以提高访问速度。

  (3)css样式

  一个网站美化都是靠css样式来实现的,自动采集软件css样式写入代码中,这样不指代码混乱太多,也使你管理与修改不方便,如果你要修改还要每一页打开修改,那样很浪费时间,你可以使用调用css,将它保存在服务器下,使用调用,这样方便管理与修改,也减少了代码

  (4)不要直接从微软的word文档中复制、粘贴文本

  这样可以避免杂乱的各种格式化控制符,你可以将word储存为html文件格式,选用“筛选过的网页”的方式储存,也可以使用网页设计软件来清除混乱的格式控制符,现在有很多软件都支持这种功能,比如:dreamweaver、frontpage

  5、动态网页

  [url]http://www.iiseo.cn/tool/index.html[/url]这是标准的静态页面url,或者说至少看上去是静态的。比较一下这个地址:[url]http://www.iiseo.cn/article/view.asp?id=44[/url]其中以“?id=44”结尾,就就是动态网页了,?id=44是一个参数,用于告诉服务器,网页需要什么样的信息。

  参数不要超过三个,一般参数多的网页搜索引擎是不会收录的,一般现在的网站程序都提供访静态功能,这样网站程序就会生成一个静态的页面给搜索引擎索引,关于访静态与动态网页的详细内容你可以加我的qq群(36067422)与我交流,我也会在以后写出相关的文章

  6、在urls中使用sessionids

  正如动态网页能够给搜索引擎带来破坏性因素一样,sessionids同样不落后。sessionids能够让服务器记录特定的人、特定的时间,在一个会话期间的所有活动,包括:访问者访问那些网页、产生了怎么的行为等。例如,你通过网站上的链接打开一个页面,于是,服务器该页发送到你的浏览器;然后你打开另外的网页,服务器不知道你是同一个人。如果服务器需要知道你是谁,就需要借助与sessionids了。

  这样可能你还不能了解sessionids比如:商城程序的购物车系统就广泛应用了sessionids的一个例子,要不然怎么会允许你选好商品放入购物车后,继续购物呢,它就是通过你的sessionids来认识你的。

  7、检查基于cooke的导航

  cookies是服务器存储在访问者端的一个很小的文本,它像动态网页的sessionid一样会给搜索引擎带来一些麻烦。设想一下这样的情景:你访问一下应用cookies设置的网站,有些时候,服务器需要存诸cookie信息,它会发相关的信息到你的浏览器,浏览器会适时的存储这些信息。这些信息中包含sessionid,当然可能还有其它的一些信息。系统通过这些信息就会知道你是谁了,不用每次都要登录,这就是通过cookies来实现的。

  8、跳转页面,图片地图,特殊字符

  (1)跳转页面

  最好不要用,搜索引擎不会收录的

  (2)图片地图

  一般网站是少不了图片的,那么我们就要讲讲如果解决搜索引擎无法读取的图片信息

  每个图片<img>标签中都有alt属性,搜索引擎是会读取该属性来了解图片信息

  比如:<imgsrc=”http://www.iiseo.cn/images/logo.gif”alt=”杰讯seo服务”>

  (3)特殊字符

  蜘蛛程序是无法识别特殊的字符的,建议不要使用

  网站建好后,建议到我的网站用蜘蛛模拟器检查一下,网页建设是否受蜘蛛程序所喜欢

  蜘蛛模拟器

  [url]http://www.iiseo.cn/tool/[/url]

  spideredtext:(蜘蛛可识别的文本)

  网页设计

  spideredlinks:(蜘蛛可识别的连接)

  nospiderablelinksfound

  metakeywords:(蜘蛛可识别的关键词meta标签)

  nometakewordsfound

  metadescription:(蜘蛛可识别的关键词网页描述标签)

  nometadescriptionfound

  关键词

  首先确定你的核心关键字,再围绕核心关键字进行排列组合产生关键词组或短句.对企业、商家而言,核心关键词就是他们的经营范围,如:产品、服务名称、行业定位,以及企业名称或品牌名称等。总结起来,选择关键词有以下技巧:

  1、站在客户的角度考虑

  2、看看自己对手的网站关键词

  3、通过一些关键词工具选择

  4、关键词一定要有针对性

  对于以上四点看法,我以一个例子说明:在我的seo技术交流群内有一个北京搬家公司的朋友,这个词很热,在百度做推广的也有很多,他是一个seo新手向我请教,我就给他分析了一下,最后我发现,优化北京区域的词很少,而且搜索量也不错,我就推荐他优化:北京海淀区搬家公司、北京朝阳区搬家公司、北京搬运公司,这些词虽然搜索量少,但是搜索的客户都是自己的准客户,他们都是为了搬家公司才搜索的,而且没有难度,这样你可以很快的获得排名与客户

  关键词密度

  关键词密度可以使你获得较高的排名位置,千万记住,并不是关键词密度越大越好,不同的搜索引擎之是也存在不同的容许级别。

  在确定了自己的关键词之后,需要在网页文本中适当的出现这些关键词。关键词出现的次数,就是关键词密度(keyworddensity),就是在一个页面中,占所有该页面中总的文字比例,该指标对搜索引擎的优化起到重要作用。关键词密度一般在3%—8%较为合适

  比如:一个页面有16个字“杰讯”出现次数是4次,那么“杰讯”在该页中的关键词密度为:4/16=25%

  关键词如何在网页中那些位置突出?

  [1]网页标题title中

  例如:<title>seo服务,seo顾问—杰讯seo服务</title>

  [2]meta标签中

  例如:<metaname="keywords"content="seo服务,seo顾问"/>

  [3]网页内容的大标题中

  可以用<b></b>加粗标签来索引搜索引擎

  [4]网页文本中例如:

  网页文本中出现关键词加粗

  例如:杰讯seo服务,中国最专业的seo服务工作室

  源码:杰讯<b>seo</b>服务,中国最专业的<b>seo</b>服务工作室

  [5]图片注释标签中例如:

  例如:<imgsrc="http://www.iiseo.cn/images/logo.gif"alt="seo">

  [6]超链接注释中

  例如:<ahref="http://www.iiseocn">seo</a>