吴军SEO博客

专注与研究SEO最新教程并及时发布。电话:15824506475 QQ:87018501 地址:宁波市鄞州区学士路298号科技中心1306-1307室

« 如何写SEO方案(二)宁波SEO联盟第十次线下聚会 »

在两个月内,让网站的流量翻个倍的秘诀(转载)

在SEOWHY上面发的,想着既然都写了这么多了,就也发到这里来,让更多人看到更好些。软文的很厉害,一堆锚文本,但相比其价值之下,应该没问题吧。。。

p.s.点石的链接,和正文颜色太像了。。。鼠标多移两下找找链接。。。

首先,这种标题自然是标题党,SEO里面没有什么制胜秘诀。但也可以肯定的是,很多网站的确能靠这样的方式,在一个月之内,获得比原先多得多的流量。按照网站情况的不同,自然能增加的流量是不同的。但可以确定的说,大多数网站,只要按照这些做了以后,流量是可以得到质的飞跃的。

请不要随便的一眼略过这篇文章,因为这是我对于提升网站流量的所有重要的心得我不会有所保留。然后在正文之前,容恕我啰嗦一下。

http://www.seowhy.com/bbs/thread-193630-1-1.html这篇文章里有人提到:

不是我老生常谈,而已这个论坛死气沉沉,有谁愿意去分享有实际的东西!
---------------分享实际的东西,给我带来什么东西?
--------------分享实际的东西,对我有什么好处?
-------------分享实际的东西,凭什么我要分享给你?


但我并不这么认为,我对于其的回复是:

这个是现在SEO行业的普遍认识,我觉得是很有问题的。就是因为如此,SEOer平均水平越来越差,客户越来越觉得SEO没有技术含量,只值白菜价。
当打压竞争对手的时候,其实自己也会受到殃及——因为竞争对手也促进了行业的发展。
所以我一向是把所有懂的东西全部分享出来的,我宁可赌一赌这个行业的未来,也不想去为了一个词几百块去争得累死。。。


再举个例子吧,国外的SEO行业是十分之热门的,但是尽管做SEO的人比中国多得多,但并没有产生SEO价钱变成白菜的情况。究其原因,是国内的所谓SEOer,都不会多研究一点技术,使得这个行业看上去“饱和”,其实还是十分匮乏的缘故。希望大家也能认识到这一点,不要把自己的行业搞得不堪。

p.s.这篇文章很长,而且或许有一部分人会觉得难以理解。但我认为对于绝大多数人而言,是很有必要慢慢看一遍的——若一个做SEO的人,看到SEO的技术文章,会没耐心看的话,是不是并不适合做SEO呢?当然如果这些全都是早已知晓的话,那就另当别论了

------------------------------------------------------------------------

描述标签:这个标签无论对于百度和Google而言,排名上都是不看的,但是书写好它,却能提升CTR(点击率)。有一个好的描述标签,完全可能使网站在相同的排名位置下,得到两倍的流量。

首先注意一点,描述标签只能有200字符多些,可以显示在SERP(搜索结果页)中,所以无论如何,别超出规定的字符数。

然后,因为很多网站的描述标签很长,所以如果自己网站的描述标签短一些的话,可以使它更独特。同样,在描述中,加入一些显眼的特殊字符,也是会使网站更显眼的。

另外一个可以使描述更显眼的方式是重复关键词。虽然哪怕这样对于排名也没有作用,但是因为关键词在搜索时,会高亮显示,所以适当的重复关键词也会让人更容易注意到网站。切勿重复过多,看上去太缭乱,可能会被人当做垃圾网站看待。

最后一点是,要在尽量简短的描述中,表现出网站的USP(独特卖点)或是UVP(独特价值主张),如:20%折扣(USP),最好的XXX网站(UVP)。

顺带说下,关键是首页的描述标签,因为一般SERP里面出现首页的话,摘要往往会显示描述标签。而内页的描述往往是搜索引擎从正文中寻找出来的。

后面提到的一些,可能有些人一下看不出它们和网站的流量有什么关系,在最后一段我会再讲一下。

解除蜘蛛障碍:蜘蛛障碍主要体现在flash网站之中。flash网站的SEO操作这篇文章里面,我有做过很多的阐述,不再多提。

若是JS和frame造成的蜘蛛障碍,可以使用<noscript>和<noframe>这些标签。

解除蜘蛛陷阱:蜘蛛陷阱主要指的是程序生成的无限循环页面,国平的这篇文章里面有过较详细的阐述,也不再多提:网站的url规范化

以上为提升蜘蛛抓取页面的可能性,以下则是提升蜘蛛的爬行速度。

Gzip压缩:没什么可多说的东西,开启压缩用不了多久,而好处是立竿见影的——网页上面的文字内容压缩约50%以上。网页的加载速度明显的提高,无论对于用户体验,还是蜘蛛爬行速度,都是有着很大利处的。

静态化页面:不是伪静态,而是静态缓存。由于伪静态是通过url重写实现的,对于网页的访问速度只会更加拖累。

静态缓存则是事先生成一个html版本,当用户及蜘蛛请求的时候,直接返回那个静态版本。

相比之下,php等动态网页每次都需要服务器来进行一些处理,再返回html代码,这样子相对要慢得多。

所以,对于多数情况下,开启静态化缓存还是很有利处的(尽管有更新不灵活,文件数暴增之类的弊端)。

nofollow标签:我写的这篇文章,里面又连向了国平和Zac的几篇文章。关键是国平的那篇,提到了nofollow对于提升爬虫效率有着非常大的效果:nofollow的进阶使用

不过这个对于小型网站的作用比较有限。但最好还是做下。

顺带一提,百度nofollow这篇文章里面,我提到,百度蜘蛛是会爬取nofollow链接的,所以nofollow并不能直接的提升蜘蛛效率。但是在理论上,由于给予特定某些页面的权重低了,那些页面也应该就会更新的更少些,也能间接提升一定的蜘蛛爬行效率。

外部加载JS:Google会分析页面上简单的JS代码,所以尽量要从外部载入,不让它读,不然可能拖累其蜘蛛的效率。

外部加载CSS:和前面共同的一点是,能够减少html文件的大小,从而提升蜘蛛效率。但似乎大型网站为了减少DNS查询次数,会把一些代码放在html文件中,这倒是具体的不清楚。

顺带一提,搜索引擎是会抓取并分析外部载入的CSS的,所以不要妄图用CSS作弊

简化代码:table布局的网站,将就下也可以。但要把网站做大的话,还是一定要主体上使用DIV+CSS才行。另外,其他代码都可以尽量的去精简。

说了这么多提升蜘蛛效率的,其意义何在呢?可以看国平的这篇:蜘蛛抓取速度对于SEO的影响

说到现在,归根结底,除了描述标签以外,都是想让蜘蛛抓取更多页面的。要知道,大多网站的页面收录比例是很低的,而收录量则是整个SEO操作中,最重要的一个因素(为什么国内没人经常提及?可见国内SEO的匮乏)。长尾关键词流量建立于内页收录之后,才可能带来。核心关键词要把排名做上去的话,靠内链锚文本也是需要尽多的收录量的。

只要做好了这些,大多数网站流量在两个月里面翻个倍,真的一点都不难。

最后,如果是网站有操作不当,造成被搜索引擎惩罚,流量剧减的话,可以看看我的这篇文章:网站被惩罚时的措施。按照里面提到的分析一下,相信可以解决不少网站被惩罚的问题。

我的网站地址:SEO 作者:Zero 转载请以链接形式,注明作者名字与网站地址

p.s.发现写着写着引用了很多国平的文章,其实真的是很无奈,至今为止,国内优秀的技术博客,除了国平的,大概也就只有SEM WATCH了(不过不介意的话,可以把我的算上 )其中,SEM WATCH的那一小部分高价值的SEO文章,多数还是来自于翻译国外的SEOmoz的。国内的SEO行业,真的是不怎么景气。。。希望有更多人能致力于改善它吧,而不是注重眼前的一点蝇头小利——过个十年,若SEO行业彻底变垃圾的话,身为SEOer的你,应该怎么办呢?

p.p.s.若有我错过的优秀博客,务必帮忙推荐下,国外的也可以(目前国外我只看过SEOmoz的)。

转自点石论坛:http://www.dunsh.org/forums/thread-74866-1-1.html

发表评论:

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。

日历

最新评论及回复

随机文章

热门文章

相关文章

Powered By 宁波网络公司 theme by 宁波SEO

Copyright 2008-2012 吴军 宁波网站优化 宁波网站推广QQ交流群:2075857 Some Rights Reserved.