网络营销之SEO无敌宝典(txt+pdf+epub+mobi电子书下载)


发布时间:2020-05-16 19:40:47

点击下载

作者:黎雨

出版社:清华大学出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

网络营销之SEO无敌宝典

网络营销之SEO无敌宝典试读:

前言

如果说网站就是一个企业的名片,那么搜索引擎优化(search engine optimization,SEO)就是让世界了解这张名片的催化剂。在这个互联网普及的时代,大家都认识到了网络营销的优越性,越来越多的网站开始了解并重视SEO,希望能通过SEO来提高网站的效益。SEO是一项很严谨的工作,SEO人员需要有长远的目标,把一些比较重要的SEO指标细化,以一丝不苟的态度分析各项数据,分别达成各个阶段的目标。SEO是一个学习和历练的过程,SEO人员需要保持探求者的热情,不断丰富自己的知识和经验,了解搜索引擎的算法,寻找应对策略。本书共分为11章,全书理论与实际相结合,深入浅出、全面细致地分析了SEO实际应用的操作。第1章是了解SEO,主要讲解SEO的发展和现状;第2章是搜索引擎算法分析,主要介绍搜索引擎的工作原理和几种常用算法的特点;第3~第7章分别对关键词、网站结构、网站链接、网站页面、网页内容五个方面的搜索引擎优化进行了透彻清晰的阐释;第8章讲述了目前几种常用的SEO作弊方式和搜索引擎对作弊的惩罚;第9章从长远发展的角度指导SEO人员制定各阶段目标;第10章介绍了目前较实用的几种SEO工具;第11章列举了一些SEO成功的经典案例。本书适合阅读人群包括将要进入或已经从事搜索引擎优化的职员、有一定SEO优化经验的读者、负责营销的项目主管、网站设计者、个人网站的站主,还适合电子商务专业的学生使用、学习。本书得到了多位朋友和SEO同行的帮助和支持,他们的倾力相助为本书注入了更多的亮点,在此表示衷心感谢。此外,还要感谢清华大学出版社的各位编辑,感谢他们在本书的出版过程中给予的精心指导和宝贵意见。由于编者水平有限,书中难免会出现纰漏,恳请广大读者批评指正。编者2013年12月

第1章 了解SEO

1.1 采用SEO的原因

企业网站,就是企业在互联网上进行网络建设和形象宣传的平台。企业网站就相当于一个企业的网络名片,不但对企业的形象是一个良好的宣传,同时可以辅助企业的销售,甚至可以通过网络直接帮助企业实现产品的销售,企业可以利用网站来进行宣传、产品资讯发布、招聘等。企业网站的作用就是展现公司形象、加强客户服务,完善网络业务以及与潜在客户建立商业联系。随着网络的发展,出现了以提供网络资讯为赢利手段的网络公司,通常这些公司的网站上提供人们生活各个方面的资讯,如时事新闻、旅游、娱乐、经济等。

但是,目前80%的网站都还只停留在“名片”的阶段,很多人期待某年某月某日顾客通过搜索公司名字而找到自己的网站,还有一些人认为搜索网址被收录,搜索网站全名被收录,就可以为网站优化了。其实不然,试着搜索下本行业,是否能在前5页之内找到您的网址?如果找不到,做了网站(企业、公司、机构)又有何意义?

企业在网上建立网站,是为了让更多的用户和合作伙伴知道,这就是网站推广的意义所在。企业网站建好以后,如果不进行推广,那么企业的产品与服务在网上就仍然不为人所知,起不到创造收益的作用。所以企业在一边建立网站时就一边着手准备推广自己的网站,这才是明智之举。

通过搜索引擎优化(SEO),可以让企业更完整、更系统地展现企业文化,让网站这张“名片”从架构、感观、用户体验等各方面更加富有涵养。

通过SEO,可以让搜索引擎尽可能多地收录企业网站信息,获得很好的搜索引擎排名。让潜在客户轻而易举地看到企业的网站和产品信息,从而使网站获得较高的流量,同时提高网站的黏性,进而为企业带来声誉和财富,达到最佳转化率。

1.2 搜索引擎概述

所有搜索引擎的祖先,都是1990年由蒙特利尔(Montreal)的麦吉尔大学(McGill University)3名学生(Alan Emtage、Peter Deutsch、Bill Wheelan)发明的Archie(Archie FAQ)得来的。Alan Emtage等人想开发一个可以用文件名查找文件的系统,于是便有了Archie。Archie是第一个自动索引互联网上匿名FTP网站文件的程序,但它还不是真正的搜索引擎,它只是一个可搜索的FTP文件名列表,用户必须输入精确的文件名搜索,然后Archie会告诉用户哪一个FTP地址可以下载该文件。由于Archie深受欢迎,受其启发,美国内华达州的System Computing Services于1993年开发了一个Gopher(Gopher FAQ)搜索工具Veronica(Veronica FAQ)。Jughead是后来另一个Gopher搜索工具。

1993年年初,斯坦福大学(Stanford University)的6名学生想利用分析字词关系,以对互联网上的大量信息作更有效地检索。到1993年年中,这已是一个完全投资项目,他们还发布了一个供Webmasters在自己网站上使用的搜索软件版本,后来被叫作Excite for Web Servers。

1993年,Matthew Gray开发了 World Wide Web Wanderer,这是第一个利用HTML网页之间的链接关系来检测万维网规模的“机器人”(Robot)程序。开始,它仅仅用来统计互联网上的服务器数量,后来也能够捕获网址(URL)。

1994年4月,斯坦福大学的两名博士生,美籍华人杨致远(Jerry Yang)和David Filo共同创办了Yahoo!(雅虎)。随着访问量和收录链接数的增长,Yahoo!目录开始支持简单的数据库搜索。因为Yahoo!的数据是手工输入的,所以不能真正被归为搜索引擎,事实上只是一个可搜索的目录。雅虎公司于2002年12月23日收购inktomi,2003年7月14日收购了包括Fast和Altavista在内的Overture,[1]2003年11月,雅虎全资收购3721公司。

1994年年初,华盛顿大学(University of Washington)的学生Brian Pinkerton开始了他的小项目WebCrawler。1994年4月20日,WebCrawler正式亮相时仅包含来自6 000个服务器的内容。WebCrawler是互联网上第一个支持搜索文件全部文字的全文搜索引擎,在它之前,用户只能通过URL和摘要搜索,摘要一般来自人工评论或程序自动提取正文的前100个字。

1994年7月,卡内基-梅隆大学(Carnegie Mellon University)的Michael Mauldin将John Leavitt的蜘蛛(Spider)程序接入到其索引程序中,创建了Lycos。除了相关性排序外,Lycos还提供了前缀匹配和字符相近限制,Lycos第一个在搜索结果中使用了网页自动摘要,而最大的优势还是它远胜过其他搜索引擎的数据量。

1994年年底,Infoseek正式亮相。其友善的界面,大量的附加功能,使之和Lycos一样成为搜索引擎的重要代表。

1995年,一种新的搜索引擎形式——元搜索引擎(Meta Search Engine)出现了。用户只需提交一次搜索请求,由元搜索引擎负责转换处理后提交给多个预先选定的独立搜索引擎,并从各独立搜索引擎返回的所有查询结果,集中起来处理后再返回给用户。

第一个元搜索引擎是华盛顿大学硕士生 Eric Selberg和 Oren Etzioni的 Metacrawler。元搜索引擎概念上非常好听,但搜索效果始终不理想,所以没有哪个元搜索引擎有过强势地位。

1995年12月,美国DEC公司正式发布AltaVista。AltaVista是第一个支持自然语言搜索的搜索引擎,第一个实现高级搜索语法的搜索引擎(如AND、 OR、 NOT等)。用户可以用AltaVista搜索新闻组(newsgroups)的内容并从互联网上获得文章,还可以搜索图片名称中的文字、搜索Titles、搜索Java applets、搜索ActiveX objects。AltaVista也声称是第一个支持用户自己向网页索引库提交或删除URL的搜索引擎,并能在24小时内上线。AltaVista最有趣的新功能之一,是搜索有链接指向某个URL的所有网站。在面向用户的界面上,AltaVista也作了大量革新。它在搜索框区域下放了“tips”以帮助用户更好地表达搜索式,这些小“tips”经常更新,这样,在搜索过几次以后,用户会看到很多他们可能从来不知道的有趣功能。这一系列功能,逐渐被其他搜索引擎广泛采用。1997年,AltaVista发布了一个图形演示系统LiveTopics,帮助用户从成千上万的搜索结果中找到想要的信息。

1996年5月20日,Inktomi公司成立,强大的HotBot出现在世人面前。声称每天能抓取索引1千万页以上,所以有远超过其他搜索引擎的新内容。HotBot也大量运用cookie储存用户的个人搜索喜好设置。

1996年8月,搜狐公司成立,制作中文网站分类目录,曾有“出门找地图,上网找搜狐”的美誉。随着互联网网站的急剧增加,这种人工编辑的分类目录已经不适应。为此2004年8月搜狐公司创建独立域名的搜索网站“搜狗”,自称“第三代搜索引擎”。

1997年8月,Northernlight搜索引擎正式现身。它曾是拥有最大数据库的搜索引擎之一,它没有Stop Words,它有出色的Current News、7 100多出版物组成的Special Collection、良好的高级搜索语法,第一个支持对搜索结果进行简单的自动分类。

1998年10月之前,Google只是斯坦福大学的一个小项目BackRub。1999年2月,Google完成了从Alpha版到Beta版的蜕变。Google公司则把1998年9月27日认作自己的生日。Google以网页级别(Pagerank)为基础,判断网页的重要性,使得搜索结果的相关性大大增强。Google公司的奇客(Geek)文化氛围、不作恶(Dont be evil)的理念,为Google赢得了极高的口碑和品牌美誉。2006年4月,Google宣布其中文名称为“谷歌”,这是Google第一个在非英语国家起的名字。

2000年1月,两位北京大学的校友,超链分析专利发明人、前Infoseek资深工程师李彦宏与好友徐勇(加州伯克利分校博士后)在北京中关村创立了百度(Baidu)公司。2001年8月发布百度搜索引擎Beta版(此前Baidu只为其他门户网站搜狐、新浪、Tom等提供搜索引擎),2001年10月22日,百度正式发布Baidu搜索引擎,专注于中文搜索。

Baidu搜索引擎的其他特色包括:百度快照、网页预览/预览全部网页、相关搜索词、错别字纠正提示、MP3搜索、Flash搜索。2002年3月闪电计划(Blitzen Project)开始后,百度公司的技术升级明显加快。后推出百度贴吧、知道、地图、国学、百科、文档、视频、博客等一系列产品,深受网民欢迎。2005年8月5日,百度在纳斯达克上市,发行价为27.00美元,代号为BIDU。开盘价66.00美元,当日以122.54美元收盘,涨幅353.85%,创下了5年以来美国股市上市新股当日涨幅最高纪录。

2003年12月23日,原慧聪搜索正式独立运作,成立了中国搜索。2004年2月,中国搜索发布桌面搜索引擎网络猪1.0,2006年3月中搜将网络猪更名为IG(Internet Gateway)。

2005年6月,新浪正式推出自主研发的搜索引擎“爱问”。2007年起,新浪爱问使用Google搜索引擎。

2007年7月1日,中国主要门户网站之一网易公司全面采用自主研发的有道搜索技术,并且合并了原来的综合搜索和网页搜索。有道网页搜索、图片搜索和博客搜索为网易搜索提供服务。其中网页搜索使用了其自主研发的自然语言处理、分布式存储及计算技术;图片搜索首创根据拍摄相机品牌、型号,甚至季节等高级搜索功能;博客搜索相比同类产品具有抓取全面、更新及时的优势,提供“文章预览”“博客档案”等创新功能。

2009年,微软和Yahoo!达成协议,Yahoo!将逐步放弃自己的搜索技术,使用Bing数据。2010年8月,Yahoo!开始使用Bing搜索数据。

2011年,Google推出旨在减少搜索结果中低质量页面的Panda更新。注释[1]3721公司成立于1998年,一直专注于中文上网服务,是中文上网服务的开创者和行业领导者。由奇虎公司的创始人周鸿祎创办,并最终以1.2亿美元卖给雅虎公司。

1.3 SEO的境界

1. SEO是一种操作

SEO会重复做很多项工作,不断地查找网站问题点,按时或不定时查看排名,使用各种工具获取所需数据,周而复始地比较,耐心等待每一次优化后的结果。SEO是一种精细操作,需要一丝不苟地对待。

2. SEO是一种过程

SEO以网站目标为核心,制订不同阶段的SEO各项目标,认真谨慎地修订下一阶段的SEO方案,不断地向前辈学习,从竞争对手中吸取经验教训,每天都要有进步。SEO是一种历练的过程,享受并快乐着。

3. SEO是一种沟通

SEO成功了吗?转化率是最好的回答。SEO人员进行的每一项操作,在数据上得到的体现就是搜索引擎的认可程度、用户的体验效果以及与竞争对手的较量。SEO需要以科学的方法、耐心的态度和热忱的激情在试验过程中不断尝试,不断肯定与否定,最后积淀下丰富的知识和经验,实现网站的飞跃,成就自我更高的价值。SEO是一种与未来的沟通,带着游刃有余的自信。

第2章 搜索引擎算法分析

2.1 搜索引擎的工作原理

搜索引擎的基本工作原理包括如下3个过程:在互联网中发现、搜集网页信息;对信息进行提取和组织建立索引库;由检索器根据用户输入的查询关键词,在索引库中快速检出文档,进行文档与查询的相关度评价,对将要输出的结果进行排序,并将查询结果返回给用户。

1. 抓取网页

每个独立的搜索引擎都有自己的网页抓取程序(Spider)。Spider顺着网页中的超链接,连续地抓取网页。被抓取的网页被称为网页快照。由于互联网中超链接的应用很普遍,理论上,从一定范围的网页出发,就能搜集到绝大多数的网页。

2. 处理网页

搜索引擎抓到网页后,还要做大量的预处理工作,才能提供检索服务。其中,最重要的就是提取关键词,建立索引库和索引。其他还包括去除重复网页、分词(中文)、判断网页类型、分析超链接、计算网页的重要度/丰富度等。

3. 提供检索服务

用户输入关键词进行检索,搜索引擎从索引数据库中找到匹配该关键词的网页;为了用户便于判断,除了网页标题和URL外,还会提供一段来自网页的摘要以及其他信息。

当用户以关键词查找信息时,搜索引擎会在数据库中进行搜寻,如果找到与用户要求内容相符的网站,便采用特殊的算法——通常根据网页中关键词的匹配程度,出现的位置、频次,链接质量等——计算出各网页的相关度及排名等级,然后根据关联度高低,按顺序将这些网页链接返回给用户。搜索引擎的工作原理示意图如图2-1所示。图2-1 搜索引擎的工作原理示意图

2.2 搜索引擎的抓取算法

搜索引擎工作的第一步,就是要完成数据收集的任务,也就需要从海量的数据中抓取符合搜索要求的相关数据。搜索引擎用来爬行和访问页面的程序被称为蜘蛛(Spider)。搜索引擎蜘蛛访问网站页面时类似于普通用户浏览网页,当程序发出页面访问请求后,服务器返回HTML代码,蜘蛛程序把收到的代码存入原始页面数据库。搜索引擎为了提高爬行和抓取速度,通常都使用多个蜘蛛并发分布爬行。

当蜘蛛访问某个网站时,它会先访问网站根目录下的Robots.txt(爬虫协议)文件。如果Robots.txt文件禁止搜索引擎抓取某些文件或目录,蜘蛛将遵守协议,不抓取被禁止的网址。

搜索引擎蜘蛛也有标明自己身份的代理名称,我们可以通过查看日志文件中的搜索引擎特定代理名称来辨识搜索引擎蜘蛛。

为了抓取网上尽量多的页面,搜索引擎蜘蛛会跟踪页面上的链接,从一个页面爬到下一个页面,就好像蜘蛛在蜘蛛网上爬行那样,这也就是搜索引擎蜘蛛这个名称的由来。整个互联网是由相互链接的网站及页面组成的。从理论上说,蜘蛛从任何一个页面出发,顺着链接都可以爬行到网上的所有页面。然而,由于网站及页面链接结构异常复杂,蜘蛛需要采取一定的爬行策略才能遍历网上所有页面。

最简单的爬行遍历策略分为两种,一种是深度优先遍历,另一种是广度优先遍历,如图2-2所示。图2-2 深度优先遍历和广度优先遍历示意图

所谓深度优先,指的是蜘蛛沿着发现的链接一直向前爬行,直到前面再也没有其他链接,然后返回到第一个页面,沿着另一个链接再一直往前爬行。

广度优先是指蜘蛛在一个页面上发现多个链接时,不是顺着一个链接一直向前,而是把页面上所有第一层链接都爬一遍,然后再沿着第二层页面上发现的链接爬向第三层页面。

从理论上说,无论是深度优先还是广度优先,只要给蜘蛛足够的时间,都能爬完整个互联网。在实际工作中,蜘蛛的带宽资源、时间都不是无限的,也不可能爬完所有页面。实际上最大的搜索引擎也只是爬行和收录了互联网的一小部分。

深度优先和广度优先通常是混合使用的,这样既可以照顾到尽可能多的网站(广度优先),也能照顾到一部分网站的内页(深度优先)。

2.3 搜索引擎的排序算法

互联网上能提供搜索服务的网站有很多,同样的关键词在各网站搜索引擎进行搜索,得到的是不同的排序结果,主要是由于每个搜索引擎采用的排序技术都不尽相同。搜索引擎的排序有多种算法,其中较常用的是词频位置加权排序算法和HITS算法。2.3.1 词频位置加权排序算法

词频位置加权排序算法是从整个网站上的文字位置上与出现的次数进行排序。

位置:不同的网站关键词在内容与标题里面出现时,其搜索的结果差别非常大,搜索引擎认为标题能表现出一个网站是干什么的,一篇文章在标题、段首等位置出现关键词中所获得的权值要远比文章里面出现关键词多得多。所以,网页标题中是否含有关键词至关重要。

出现的次数:一个词在一个网站里或某一个页面里出现的次数越多说明它的相关性越强,所获得的权值就会越大。

词频位置加权排序算法的缺陷在于只注重词在网站的表现而去给某个网站排名,这是早期的搜索引擎所使用的基础算法,由于容易引起作弊,现在已不再单纯使用这样的算法了。2.3.2 HITS算法

HITS算法也叫超链接分析算法。按照HITS算法,用户输入关键词后,算法对返回的匹配页面计算两种值,一种是枢纽值,另一种是权威值。这两个值互相依存、互相影响。枢纽值,指的是页面上所有导出链接指向页面的权威值之和。权威值,指的是所有导入链接所在页面的枢纽值之和。

HITS算法会提炼出两种比较重要的页面,即枢纽页面和权威页面。枢纽页面本身可能没有多少导入链接,但是有很多导出链接指向权威页面。权威页面本身可能导出链接不多,但是有很多来自枢纽页面的导入链接。HITS算法是针对特定查询词的,所以被称为主题搜索。

HITS算法完全将网页的内容或文本排除在外,仅考虑网页之间的链接结构来分析页面的权威性,这与现实网络中的权威页面相比,其不科学性显而易见。由于它在查询阶段进行计算,而不是在抓取或预处理阶段。所以,HITS算法是以牺牲查询排名响应时间为代价的。也正因为如此,原始HITS算法在搜索引擎中并不常用。不过HITS算法的思想很可能融入搜索引擎的索引阶段,也就是根据链接关系找出具有枢纽特征或权威特征的页面。HITS算法及变种如图2-3所示。图2-3 HITS算法及变种2.3.3 李彦宏的超链分析专利

百度创始人李彦宏在回国创建百度之前就是美国顶级的搜索引擎工程师之一。据说李彦宏在寻找风险投资时,投资人曾询问其他3个搜索引擎业界的顶级技术专家一个问题:“要了解搜索引擎技术应该问谁。”这3个被问到的专家中有两个回答:“搜索引擎的事就问李彦宏。”由此投资人断定李彦宏是最了解搜索引擎的人之一。

这其实就是现实生活中类似于链接关系的应用。要判断哪个页面最具权威性,不能光看页面自己怎么说,还要看其他页面怎么评价。

1997年,李彦宏就提交了一份名为“超链文献检索系统和方法”的专利申请,这比Google创始人发明PR要早得多,不得不说这是一个非常具有前瞻性的研究工作。在这份专利中,李彦宏提出了与传统信息检索系统不同的基于链接的排名方法。

除了索引页面之外,这个系统还建立一个链接词库,记录链接锚文字的一些相关信息,如锚文字中包含哪些关键词,发出链接的页面索引,包含特定锚文字的链接总数,包含特定关键词的链接都指向哪些页面。词库不仅包含关键词原型,也包含同一个词干的其他衍生关键词。

根据这些链接数据,尤其是锚文字,计算出基于链接的文件相关性。在用户搜索时,将得到的基于链接的相关性与基于关键词匹配的传统相关性综合使用,得到更准确的排名。

在今天看来,这种基于链接的相关性计算是搜索引擎的常态,每一个SEO人员都应该知道。但是在1997年,这无疑是非常创新的概念。当然现在的搜索引擎算法对链接的考虑,已经不仅仅是锚文字,实际上要负责得多。

第3章 多重视角关键词

3.1 我们和搜索引擎眼中的关键词

早期我们在图书馆查阅资料时,首先会判断资料属于哪一类,头脑中便浮现出诸如“历史”“化工”“古文”等词语。而当人们进入网络搜索时代时,就不再拘泥于图书所属的类别,人们会在搜索框中输入与所需资料关系更密切的词语,如“诺贝尔”“T1”“陨石”等词,这些词可以称之为关键词。为了达到更精准地搜索,还可以附加一些相关词形成组合,如“电气工程师 杨有启”“俄罗斯 陨石”,搜索引擎便将会把这些组合词更精确符合的结果呈现出来。一般情况下,输入两个关键词搜索,就能获得较好的搜索结果。

对于搜索引擎而言,关键词是什么呢?

当我们用词或者短语来表达信息需求时,网页中含有该词或者该短语中的文字,是搜索引擎查询模式。就中文来说,它是包含若干个词的一段文字。首先需要被“切词”(segment)或称为“分词”,即把它分成一个词的序列,不同的搜索引擎可能得出不同的结果。随后,还需要删除那些没有查询意义或者几乎在每篇文档中都会出现的词(例如“的”字),最后形成一个用于参加匹配的查询列表。所以,关键词的设定不只是添加,还需要大量的分析。

在早期的搜索引擎推广策略中,针对网站Meta标签中关键词的设计一度是网站推广的一项重要工作内容,现在这项工作的重要程度大大降低,但对于网站关键词的选择设计仍然有其重要意义。因此,选择和确认关键词仍然是搜索引擎营销中必不可少的一项工作。

3.2 关键词的密度和分布

3.2.1 什么是关键词密度

关键词密度也叫关键词频率,它是用来衡量关键词在网页上出现的总次数与其他文字的比例,一般用百分比表示。相对于页面总字数而言,关键词出现的频率越高,关键词密度也就越大。

举例来说,如果某个网页共有100个词,而关键词在其中出现5次,则可以说关键词密度为5%。但这只是一种理想的简化方式,它没有有效包括HTML代码里面的诸如Meta 标签中的Title、Keywords、Description,图像元素的Alt文本、注释文本等,这些在计算关键词密度时也都要考虑在内。同样地,在计算关键词密度时,也不仅仅指网页可见部分中关键词出现的次数,也包括这些非可见部分中的出现次数。同时,也要考虑Stop Words(停用词) ,这些词往往会在很大程度上稀释关键词密度。搜索引擎在算法上要比这复杂得多,但基本策略与此近似。3.2.2 关键词密度对网站排名的影响

许多搜索引擎都将关键词密度作为其排名算法考虑因素之一,每个搜索引擎都有一套关于关键词密度的不同的数学公式。合理的关键词密度可使网站获得较高的排名位置,密度过大,起到相反的效果。

一般来说,在大多数的搜索引擎中,关键词密度在3%~8%是一个较为适当的范围,有利于网站在搜索引擎中的排名,同时也不易被搜索引擎视为关键词填充。

就实施惩罚前所允许的关键词密度的阈值而言,不同的搜索引擎之间也存在不同的允许级别。对过度优化如关键词Spam而言,不同的搜索引擎容忍的阈值也不尽相同,从大到小排列依次是谷歌、MSN、百度、搜狗、 IASK,雅虎是最低的。3.2.3 关键词出现的位置和形式

由于关键词密度是相对于整个网页的文本之比,那么对于出现的位置来说,可以出现关键词的地方可以是Title标签、元标签、链接、Headings、文本正文,或任何有文字出现的地方,比如Alt标签甚至是注释。

Title标签是一个网页最重要的搜索关键词放置的位置。在Title标签内,关键词的布局方式是很重要的。最重要的关键词应放置在网页Title标签的开头部分。如果放上全部关键词,则在Title标签内有造成关键词堆砌(Keyword Stuffing)的危险。千万不要在Title标签内使用任何关键词超过3次,否则有可能造成Keywords密度过大而被搜索引擎过滤和抛弃。

有人使用网页中的Alt属性来为Keywords密度加强,这个属性在搜索引擎中的权值已经被降低,但不是说没有用,结合Alt属性中的锚文本和主页中的其他元素告诉搜索引擎该网页的主题。这样的做法不会受到惩罚,而且会对搜索引擎优化有一定的好处。

关键词最好是能在某句话中出现,当然还有复合的关键词组,研究搜索者可能的搜索行为和意识,将此作为参考的有力依据,那么整个关键词的密度会比较合适,从而达到比较好的效果。3.2.4 怎样提高关键词的密度

关键词密度在很大程度上影响着网站的排名,较高的关键词密度对网站排名有很大的提高作用。但是,也并非说关键词密度越高越好,需要的是在恰当的位置分布合理而且可读性高的关键词。一般从以下几点来进行操作:(1)合理利用Title、Keywords、Description区域,指定合适的关键词;(2)栏目导航里建议不要使用Flash图片;(3)图片Alt属性,利用这个属性可以布置一些有效的关键词;(4)友情链接区域,选择一些行业相关的链接进行友情链接交换;(5)内容页上,遵循从上到下,从左到右的原则,尽量在开头和结尾的地区多布置一些关键词;(6)底部Footer区域,可以加上网站说明性质的字样。

3.3 顶级关键词

顶级关键词通常就是网站首页的目标关键词。一个网站通常会有多个顶级关键词,这些关键词不可能都集中在首页上进行优化,而是合理地分布在整个网站,形成金字塔形结构。难度最高、搜索次数最多的两三个放在首页;难度次一级、数量更多的关键词,放在栏目首或分类首页;难度更低的关键词,数量更为庞大,放在具体产品或文章页面。

在确定顶级关键词之前,需要尽可能多的列出所有与网站目标相关的关键词,然后进行排序选择。可以通过团队的力量,请同事、朋友、客户以各自不同的身份及需求列出能想到的关键词,然后进行整合;也可以参考同行的网站,查看这些网站的Keywords,如图3-1所示。图3-1 查看网站的keywords

此外,还有不少关键词工具以及一些竞价网站公示的关键词排名表等,对于营销人员了解市场、确定关键词都有很大的帮助。

3.4 二级关键词

在确定顶级关键词之后,可以对这些关键词进行扩展延伸,扩大关键词的涉及范围和组成,这样就可以构成二级关键词。(1)二级关键词可以是顶级关键词的同音词、同义词、相关词、简称等。如“图书”,相关的二级关键词有图书网、book、tushu、电子图书、电子书、图书下载、新业图书网等。(2)二级关键词可以是对顶级关键词的补充说明。如“童装”,相关的二级关键词有品牌童装、外贸童装、童装加盟、童装批发、亲子装、女童春装、童鞋等。(3)对于在顶级关键词前加上相关品牌及属性特色,也是不错的选择。如“咖啡”,相关的二级关键词有雀巢咖啡、麝香猫咖啡、蓝山咖啡、G7咖啡、花式咖啡、巴西咖啡、咖啡豆、现磨咖啡、白咖啡等。(4)经过对网站流量的分析可以让网民心中的关键词脱颖而出。一个人或一个团队的力量是有限的,认真分析网站流量来源,了解网民是通过哪些关键词的搜索来到这个网站,看看这其中是否有以往没有设定的漏网之鱼。只要用户能通过这些关键词进入网站,就说明搜索引擎已经认可了这个词与网站的相关性,SEO就需要引起重视。

3.5 长尾关键词

3.5.1 什么是长尾关键词

长尾关键词是长尾理论在关键词研究上的延伸。“长尾”具有两个特点:细和长。细,说明长尾是份额很少的市场,在以前这是不被重视的市场;长,说明这些市场虽小,但数量众多。巨大的微小市场,却也占据了市场中客观的份额——这就是长尾的思想。网站上非顶级关键词和二级关键词,但也可以带来搜索流量的关键词,被称为长尾关键词。

长尾关键词具有的特征:通常比较长,往往是2~3个词组成,甚至是短语;存在于内容页面,除了内容页的标题,还存在于内容中;搜索量非常少,并且不稳定。长尾关键词曲线图如图3-2所示。图3-2 长尾关键词曲线图

虽然长尾关键词带来的客户及流量较少,但长尾关键词转化为网站产品客户的概率比顶级关键词高很多。如果一个网站拥有大量的数据,如百度百科,这其中的数据页面中存在着大量的长尾关键词,其带来的总流量非常大。对于大中型购物网站,分析由关键词带来的销量及利润,长尾关键词可与顶级关键词相媲美。3.5.2 长尾关键词的选择

由于长尾关键词数量庞大,去查看搜索次数、专门调整页面优化都是不可行的,只能通过大量有效内容及网站结构方面的优化确保页面收录。只有页面基本优化做好,长尾关键词排名才能全面提高。一个网站做几百几千个关键词的研究有可行性,但这个数量算不上是长尾词。真正体现长尾效应的网站至少要几万个页面,达到几十万数百万个也只是普通的。长尾关键词数量至少上万。大致列出这些关键词,通过软件查询搜索次数或百度指数是可行的,但需要再进一步研究。

长尾关键词的选择主要有以下3个途径。

1. 利用百度搜索框

如图3-3所示,在百度搜索框中输入关键词“电子书”,下方会自动列出一系列词语。这些词语就是搜索引擎根据网络用户的实际搜索总结罗列出来的关键词。分析这些词,从中选出合适自己网站长尾关键词。图3-3 长尾关键词百度搜索图

2. 百度相关搜索

点击图3-3的“百度一下”,进入到的搜索列表页下方有“相关搜索”关键词罗列,如图3-4所示。图中的词语也是我们选择长尾关键词的重要来源。图3-4 长尾关键词百度相关搜索

3. 利用关键词工具

以上两种方式得到的扩展关键词往往不到20个,所以我们还需要一些关键词工具来为我们提供帮助。常用的有Google关键词工具、百度指数、追词助手等。如图3-5所示为利用追词助手查询“电子书”得到的关键词扩展列表。在第10章将对SEO工具进行详细介绍。图3-5 长尾关键词追词助手查询

3.6 关键词排名的背后

3.6.1 最多元:影响关键词排名的因素

影响关键词排名的因素有很多,包括关键词的密度、关键词的分布、关键词的格式和位置、关键词的匹配度、外部链接锚文本、网站是否更新、外链的质量和稳定性、季节性波动、社会热点事件等。

季节性波动体现较为明显的是各个节日,例如“月饼”,在每年的中秋节前夕,这个词会成为热门搜索关键词,但随着中秋节一过,搜索量就迅速下降了。而这个词就月份而言,一般是在9月。这样类似的关键词还有“玫瑰”“巧克力”“粽子”“汤圆”“元宵”“年夜饭”等。这些关键词每年都会有一个爆发搜索期,其他时期都很平淡。

此外,还有在固定时期会发生的大事,如奥斯卡奖、诺贝尔奖、高考、开学等。2012年10月11日,中国作家莫言获得诺贝尔文学奖,为此莫言作品出现“一书难求”,各大书城紧急补货,网站销售也纷纷挂出了“预售”,而与之相关的关键词如“莫言”“诺贝尔”“蛙”“丰乳肥臀”等都成了热门关键词,甚至连“高粱”也因此而变得不仅仅是一种作物名称了。

社会热点事件导致的关键词往往有一定的突发性,关键词的搜索量增加大有坐火箭的势态。如每年高考过后,各省高考的作文题、各省文理科状元的相关资料、对其采访实录、最终选择的大学等,都会成为网络热词。因此我们在修正SEO方案时,要合理考虑这些因素,结合自身网站特点,提前做好计划,合理地选择长尾关键词及付费广告力度。3.6.2 最单纯:自然排名与竞价排名

自然排名是根据搜索引擎算法而获得排列结果。当我们搜索某个关键词时,搜索引擎根据对与该关键词相关的网页分析的结果进行排列,然后把按算法认为某页面最符合(或说内容相关的)对该关键词的解释的页面展示在最前的位置。

1. 自然排名

自然排名的优点包括以下几点:(1)整体效果很明显,可以做到长尾效应;(2)费用低,相对竞价排名费用会低很多;(3)不必再投入人力进行管理,因为无须涉及点击费用;(4)更能展示企业的实力。同样是排在第一页,如果访客发现企业的网站不需要做竞价就能排在前面,这更能说明企业的实力。同时也了解到这家企业减少了广告投入费用,这样就可以降低产品价格,消费者就可以买到更实惠的产品。

自然排名的缺点有以下几点:(1)需要一个优化排期,从开始优化到实现效果,一般需要1~3个月的时间;(2)如果是百度优化并且已经有其他竞争者做竞价排名,那么自然优化的结果只能排在百度竞价排名的下面。

2. 竞价排名

竞价排名是一种按效果付费的网络推广方式。用少量的投入就可

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载