关于SEO优化方案(网上整理的资料)
2009-12-30 13:44
239 查看
1.title标签网站标题 一般格式:文章名 – 分类名 – 网站名 如果太长的话,就只要文章名 – 网站名 搜索引擎只考虑标题标签中有限的字数,比如说前十到前十五个字。所以很长的充满关键词的title tag,只能使你的网站看起来更像垃圾。 2.meta标签 标题标签不要超过十到十二个字。描述标签也不要超过三十到三十五个字。关键词标签只要列出确实和你的网站有关的重要关键词 在这所有的三个标签里,都切忌重复和堆砌关键词。meta不要每个页面都千篇一律。 3.URL中的关键词 对英文网页来说,关键词出现在URL中,多少会有点帮助。对搜索引擎相关性算法的帮助可能很小,但其实对用户帮助蛮大的。因为搜索结果列在搜索引擎中时,用户可以从你的文件名就判断出这个网页是讨论什么的。 关键词可以在域名里,也可以在目录名里,也可以是文件名,不过切忌关键词堆砌在URL中。 4.文章长度有利于SEO 首先,文章最短也应该在200字左右以上。原因有两个: 1)如果只有几十个字,搜索引擎不容易判断出文字的主题是什么,也就判断不出与什么关键词最相关。 2)正文太短的话,有可能比导航系统,菜单,版权声明等杂七杂八的东西加起来的字数还少,被怀疑是复制内容。如果这样的文字过少的页面大量存在,可能造成网站内部复制网页增多。因为你的网页之间相似性太高,有区别的文字太短。 长文章容易吸引链接。看过很多很长的文章,甚至长到几十页。虽然读的时候拉来拉去有点儿不方便,但这样的文章其实是比较容易吸引链接的。 5.robots.txt使用 robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。 语法:最简单的 robots.txt 文件使用两条规则: User-Agent: 适用下列规则的漫游器 Disallow: 要拦截的网页 1. 每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该在网站中添加一个robots.txt。 2. 网站管理员必须使蜘蛛程序远离某些服务器上的目录——保证服务器性能。比如:大多数网站服务器都有程序储存在“cgi-bin”目录下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是个好主意,这样能够避免将所有程序文件被蜘蛛索引,可以节省服务器资源。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。 User-agent: 该项的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到"robots.txt"的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则对任何robot均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。如果在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那么名为"SomeBot"只受到"User-agent:SomeBot"后面的Disallow和Allow行的限制。 Disallow: 该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。 Allow: 该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。 需要特别注意的是Disallow与Allow行的顺序是有意义的,robot会根据第一个匹配成功的Allow或Disallow行确定是否访问某个URL。 使用"*"和"$": Baiduspider支持使用通配符"*"和"$"来模糊匹配url。 "$" 匹配行结束符。 "*" 匹配0或多个任意字符。 6.建立sitemap站点地图 XML地图可以让搜索引擎更迅速地了解你站点的更新。Google和yahoo都已经使用sitemap xml地图加速收录服务了。 |
相关文章推荐
- IOS中自己关于Ivar和objc_property_t的理解,整理下网上资料
- 关于面试题的网上资料整理
- 关于网上一些关于内存泄漏和内存溢出资料整理(一)
- 关于MOS功率与选型,网上资料的整理
- [网上资料整理]关于标准电阻阻值的说明(E6、E12、E24、E48、E96、E192)
- 整理一点关于Lucene的学习资料, 方便自己与别人查看
- 解决ssh登录很慢的问题(汇总整理网上资料)
- 关于EJB,查看资料,整理的笔记
- 整理网上的一些关于sharepoint编码方面的最佳实践
- ORACLE异常(整理网上资料)
- 整理网上的关于 路径遍历漏洞
- 安卓开发环境的搭建(本文由本人根据网上的资料整理的成功版本)
- 公司、家里、笔记本资料同步方案整理
- 关于递归的求水仙花数,网上搜索到的资料,储存起来,以便多次复习——初学者
- 关于bus error的一些资料整理
- Android关于分包方案、插件化动态加载APK或DEX 以及热补丁资料总结
- 关于云计算与大数据的真相(干货整理:资料+视频)
- 关于In和Exists性能网上找的对比资料
- 关于条形码绘制的资料整理
- 在Mapnik中显示中文(网上资料整理)