从零开始学SEO搜索引擎优化(txt+pdf+epub+mobi电子书下载)


发布时间:2020-10-18 07:29:16

点击下载

作者:倪涛

出版社:机械工业出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

从零开始学SEO搜索引擎优化

从零开始学SEO搜索引擎优化试读:

前言

SEO(搜索引擎优化)是伴随着互联网而生的。最早提出SEO一词是在1997年,当时中国的互联网并不发达。在互联网发展至今的20多年时间时里,SEO逐渐形成了一套完整的操作流程。说到操作,许多人会认为SEO是一门技术。但其实在笔者看来,SEO不仅是一门技术,更是一种思维。SEO可以算得上是理论结合实际操作,并不断更新的一门技术。对于一些不懂互联网的“小白”(新手)来说,他们往往并不懂SEO具体是做什么的。尤其是一些没有进行过系统学习的人,更无法进入这个领域。如何让那些没有接触过系统培训学习而又对互联网充满兴趣,甚至想通过互联网获得收益的人快速地从“网络小白”到SEO实战高手,正是本书创作的初衷。

笔者大学毕业后从一个“小白”开始,先做程序开发工作,然后又从事SEO的相关工作,再后来创业,积累了8年的从业经验,也因此改变了自己的人生。本书便是想将这段期间笔者积累的一些技术、经验和建议分享给广大读者。

本书采用了从基础到进阶再到深入的学习梯度进行讲解,注重实际操作和应用,让读者能真正地学以致用。在本书中,笔者剔除了很多对读者没有太大价值的内容,而是将更多更加有效和实用的知识介绍给读者,将SEO的精华结合自己的从业经验分享给读者,让读者明白仅仅掌握SEO的理论知识远远不够,而是要通过实际操作来加深SEO的理解。本书介绍的都是笔者总结的一些有较高价值的经验之谈,相信对读者会有启发。

本书特色

1.从零开始学SEO,让“网络小白”快速入门

本书从SEO基础知识开始讲解,详细介绍了网站如何通过SEO获取排名和引入流量,并通过流量达成交易。通过一步步的操作讲解,提高读者的实际动手能力和数据分析能力,从而快速入门。

2.重点内容突出,让“网络小白”快速提升

本书对重点内容都做了细致的讲解,如站内优化、外链引流和关键词优化等,尤其对SEO优化的内容更是重点讲解。从快速建站,到关键词的定位,到网络引流,再到原创文章的撰写,本书内容重点突出,一步步引导读者学习,从而快速提升读者的SEO优化水平。

3.操作步骤详细,让“网络小白”快速掌握

本书讲解时对一些实际操作都给出了非常详细的步骤,读者只需要按照书中给出的步骤一步步操作,就可以快速掌握这些内容和技巧。

4.应用实例丰富,让“网络小白”成为高手

本书不仅详细介绍了SEO的基础知识和实际操作步骤,而且还介绍了一些应用实例,这些实例可以开阔读者的视野,来提升应用技能和水平,以便脱离仅仅只会发外链的入门水平,而真正成为一名高手。

5.总结从业经验,内容更具指导意义

笔者从大学便开始接触编程,并自己建站、做SEO运营,毕业之后便开始了创业之路,所以更加了解一个SEO从业人员应该怎么学习。本书是对自己SEO从业的经验总结,书中的内容对从事该行业的读者有很好的指导意义。本书以解决实际问题为目标,书中介绍的原创文章等例子均是笔者亲身经历的真实案例,具有很高的学习价值。

本书内容

第1章 从零开始学SEO,主要介绍了SEO的基本概念、常用词汇,以及做SEO之前的准备工作等内容,并对已经过时的SEO方法做了简要介绍。

第2章 SEO进阶步骤,主要介绍了SEO实操的准备和优化阶段,以及SEO的分类和学好SEO的一些方法。

第3章 深入理解搜索引擎,首先介绍了搜索引擎的基础概念和一些主流的搜索引擎,然后对搜索引擎的搜索方式、喜好,以及SEO常用的一些命令做了详细介绍。

第4章 站内优化的关键细节,首先介绍了站内优化的重要性、四大技巧和注意事项,然后详细介绍了网站的三大要素——T、K、D及URL优化的相关知识。

第5章 关键词优化详解,首先介绍了关键词的选择、分类和定位,然后分析了关键词优化的原因和各种关键词优化的具体方法。

第6章 SEO营销载体与引流,首先介绍了SEO的载体——原创内容,并详细介绍了外链引流的7大招式,最后对分裂式营销做了必要讲解。

第7章 WAP站点优化,主要介绍了WAP网站的概念、WAP站点的优化方法及WAP站点优化的注意事项。

第8章 SEO的盈利之路,主要介绍了如何利用SEO来优化网站排名而获得盈利的一些方法,并给出了笔者的一些实际经验总结。

本书读者对象

·学习SEO的入门新手;

·从事网络营销的职场“小白”;

·职场外推想要转为SEO的人员;

·想要通过SEO获得盈利的人员;

·对SEO感兴趣的高校学生;

·想要通过互联网推广产品的营销人员;

·对网络有兴趣并想深入研究的人员;

·各类程序员和网站工程师。

本书作者

本书由倪涛主笔编写,其他参与编写的人员有张昆、张友、赵桂芹、张金霞、张增强、刘桂珍、陈冠军、魏春、张燕、孟春燕、顼宇峰、李杨坡、张增胜、张宇微、张淑凤、伍云辉、孟庆宇、马娟娟、李卫红、韩布伟、宋娟、郑捷、方加青、曾桃园、曾利萍、谈康太、李秀、董建霞、方亚平、李文强、张梁、邓玉前、刘丽、舒玲莉、孙敖。

虽然我们对书中所述内容都尽量核实,并多次进行文字校对,但因时间所限,加之水平所限,书中可能还存在疏漏和错误,敬请广大读者批评、指正。联系我们请发E-mail到hzbook2017@163.com。第1章从零开始学SEO

SEO的意思是搜索引擎优化,它一般由两部分组成:站内优化和站外优化。站内优化主要是指通过网站技术、网站内容结构、域名、服务器和代码等操作,促使用户的网站能够在百度搜索引擎当中获得更好的排名;而站外优化可以理解为,通过在第三方平台发布一些与网站本身相关的信息,并通过第三方网站提供的品牌词及外部链接来提高网站的曝光度。

SEO作为一门网络技术一直存在于互联网应用中。有一些对网站SEO特别感兴趣的人,他们通过努力学习,希望自己所优化的关键词能展示在搜索引擎的首页,以此来提高网站的访客数量和对话量,最终促成业务成交,我们将这类人统称为SEOer,也就是从事SEO工作的人员。1.1 SEO的基础概念

在学习SEO的时候需要掌握网络的相关知识。记住,我们是SEO工作者,而不是单一的外推专员。SEO并不是指简单地做一个网站就能够获得好的排名。这种模式在2005年之前是有效的,但是在互联网快速发展的今天,我们需要不断学习,并了解SEO的相关知识。

想要成为一名专业的SEO人员,需要在一开始就做好定位,而不能没有目标地学习。目前的SEO人才分为几类:策略型人才、项目型人才、数据型人才、技术型人才、执行型人才、资源型人才和综合型人才。接下来,让我们来一起了解SEO吧。1.1.1 什么是百度蜘蛛(Spider)

在了解百度蜘蛛之前,我们需要先了解什么是网络。其实我们所说的网络一般指互联网。我们可以将网络比喻成一张巨大而无边际的蜘蛛网,而网站可以比喻成这张蜘蛛网上的每个节点,节点上有哪些信息需要去搜集,就有了“蜘蛛”这种自动化的程序。例如,百度“蜘蛛”就是针对百度搜索引擎而下的定义。

例如,以某个站点为中心,通过在不同的平台间发布相应的外链(即外部链接),如图1-1所示,从而形成一张有效的蜘蛛网。图1-1 百度蜘蛛模拟

1.工作原理

百度作为中国最大的搜索引擎,有一套自己的算法。而百度蜘蛛就是通过这套算法来抓取相应的网站,并对这些网站进行判断。

2.分类

百度经过多年的更新,面对不同的网站也给出了不同的蜘蛛分类,让这些蜘蛛有效地去判断网站的价值。而百度蜘蛛一般分为3类:高级蜘蛛、中级蜘蛛和初级蜘蛛。每种蜘蛛就像我们人的职位一样,对网站进行不同的分工。(1)高级蜘蛛:这种蜘蛛只会去爬行一些权重高的网站。我们经常会发现,为什么在其他大型网站发外链都会秒收,而自己的网站却不收录。原因就是高级蜘蛛在爬行网站的时候有各种优先权,如来访率高、爬行深度高、收录快和排名好等。(2)中级蜘蛛:这种蜘蛛会通过一些网站的友情链接及外链进入一个新的网站,然后会对新的网站再次进行判断,如新的网站内容是否优质、原创,并删除一些劣质的内容。(3)初级蜘蛛:初级蜘蛛就像一个小门槛,要求不高,审核频率也不高。其只会针对一些新站进行过滤,经过一段时间之后再来判断是否值得放出来。出现这种情况的主要原因是新网站太多,但是好的新网站却很少。互联网提供的是优质的内容,过不了审核期的新网站自然不会放出来。这种情况一般叫做沙盒期,这也是很多新网站无法坚持下去的原因。

3.禁止爬行

百度蜘蛛是一个勤劳的“工作者”,但是有的时候我们又不想它太勤劳了。尤其是一些新网站,很多新手站长没有确定好自己网站的定位,会不停地修改网站的关键词。而这种情况就会导致百度蜘蛛无法对网站准确地定位,久而久之网站就会被其抛弃了。

解决这种情况的办法有两种:一种是通过本地搭建的虚拟服务器,做好网站程序,并填充了相应的网站内容之后再进行上传,这样从本地开始就针对网站进行全方位的优化,包括代码、图片和文字等;另一种是通过屏蔽百度蜘蛛的代码,将整个网站全体屏蔽到robots.txt文件中。

4.抓取时间

百度蜘蛛的抓取时间,决定了网站更新的内容是否能快速收录。

例如,周一更新的频率比较高,最好是在早上的8点~10点进行更新;周二可以作为周一的铺垫,进行持续更新;周三百度会对所有的关键词进行洗牌,也就是说这个时候将决定你的关键词是否有机会更加靠前;周四百度会对周三抓取到的数据进行定位,然后排名。而剩下来的几天,保证持续更新就好。

当然我们需要了解的是,百度在不断地更新和变动,我们需要通过长时间的分析才能判断出百度蜘蛛的抓取时间。如果所采用的方法不奏效,就需要再次分析判断了。

5.收录规则

作为新手站长,一般都会非常关心自己的网站收录情况,而百度在2017年更新算法之后,同样将收录的时间做了调整,由之前的1~2个月,缩短到现在的1~2周。

6.模拟

百度蜘蛛的模拟是为了让SEO更加透明化而给的一个定义,我们可以通过一些平台所提供的模拟工具,来了解百度蜘蛛的工作情况,如百度站长平台、搜外网等。1.1.2 百度权重

百度权重这个定义并不官方,因为百度并没有公开认可这个说法。但是由于百度官方也没有给出一个完整判断网站价值的标准,因此经过多年的发展,人们也默认了百度权重这个说法,权重越高,网站越好。

很多人会将百度权重和谷歌PR值、搜狗SR值、360权重列为一类,其实并不是这样的。百度权重更多的是由站长工具和爱站工具(与站长工具平级的一款查询工具)针对关键词的排名进行的评级。

1.作用

百度权重仅仅是针对网站关键词的定义,因为用户在网上搜索信息的时候,都是围绕关键词而展开的。如果某个关键词流量越大,则网站排名越靠前,自然权重也就越高。网站的权重高低仅与关键词的搜索量及网站的优先级有关。

2.权重与PR

在网络刚开始发展的时期,谷歌占据了包括中国在内的全球大部分市场,所以为了让用户明白哪些网站的权值更好,谷歌搜索引擎开发了一种叫做PR值的定义。而百度权重并不公开,但也是存在的,如图1-2所示。图1-2 权重与PR

3.站长工具与爱站

这两种工具是目前网络上主流判断网站好坏的平台,但是很多人会好奇,为什么两个站点查询的数据不一样呢?

其实这个很好解释,因为这两个站点都不正规,两个站点的算法评判标准也不一样,自然查询的数据就不一样了。

4.权重等级

0~99,百度权重1;100~499,百度权重2;500~999,百度权重3;1000~4999,百度权重4;5000~9999,百度权重5;10000~49999,百度权重6;50000~199999,百度权重7;200000~999999,百度权重8;大于1000000,百度权重9。

0~99含义:是指通过某个关键词访问网站的独立访客有0~99个。这个数据并不准确,所以在站长工具上展示的依然是预估流量,而这个预估流量并不能完全代表一定有这么多访客。

5.提升方法

有了目标才有动力。不得不说,因为百度权重的出现,才会有越来越多的人对网站充满兴趣。所以百度虽然官方明确表示百度权重不存在,但是又无法抹杀这一说法,因为大家都在利用百度权重这个定义对网站进行优化,也就是SEO。

提升百度权重的方法有两个:一个是提升关键词的排名顺序,另一个是提高关键词的指数。1.1.3 站长工具

站长工具主要是针对已经做好并上线的网站进行网站质量方面的查询,并提出一些相关的改进方法。网络上的站长工具有很多,而默认的站长工具主要来至站长之家,如图1-3所示。下面列举一些站长工具中常用的工具。

·百度权重:这是所有站长最关心的一个工具,百度搜索引擎经过多年的努力,再加上谷歌搜索引擎完全退出中国市场,形成了百度一家独大的局面。

·检查死链:站长工具能够通过模拟蜘蛛进行网站域名的爬行,当遇到死链接的时候就可以反馈出相应的链接,有助于站长去除死链。

说明:死链指网址打不开的情况。图1-3 站长工具

·网站速度测试:我国的网络运营商有电信、移动和联通,由于每个网络的流通性不一样,所以会导致某个区域网站速度打开较慢的情况。影响网站打开速度的原因除了网络之外,还有服务器稳定与否及网站是否使用了过多的JavaScript代码。

·网站域名IP地址查询:可以通过站长工具查询,还可以通过DOS命令查询相应域名的IP地址。而这个IP地址,就是我们通常所说的服务器地址。

·友情链接查询:现在很多人会通过隐藏的方法隐藏友情链接的存在。也就是说,百度蜘蛛和用户可通过你的网站进入他人的网站,但是却不能通过他人的网站进入你的网站。1.1.4 百度指数

百度指数的重点对象是用户所搜索的关键词次数。也可以理解为,当我们需要做某个网站并定义某个关键词的时候,可以通过百度指数来查询该关键词的竞争度有多大,也可以通过自己的经验和市场调查,来判断我们所做的关键词的趋势有多大。

百度指数的诞生意欲告诉用户,某个关键词在某段时间内,因为某种事件的发酵而产生超高指数。并且可以通过百度指数得出分析,是哪些用户在搜索该类关键词。通过这些数据,SEO工作者都可以有效地去判断并优化该关键词。

1.功能

百度指数的诞生,主要是展现互联网关键词的走势和分析。但是互联网的工作原理是先将信息存储到数据库中,然后根据排名规则和一些搜索引擎规则进行转译之后再排名,这也需要大量的时间,所以百度指数目前只保留了2006年6月PC端至今的数据,以及2011年1月移动端至今的数据。

2.使用

百度指数的使用方法很简单,只需注册一个百度账号,并登录百度指数首页,如图1-4所示,或直接输入网址http://index.baidu.com/。登录之后输入要查询的关键词,即可展示出该关键词近段时间的走势。当然如果我们要想分析,就需要花时间和经历去学习了。

3.搜索指数

很多SEO初学者在了解搜索指数的时候会惯性地下定义,认为某个关键词的搜索指数就等于该关键词带来的流量。其实并不是这样的,流量的定义是站长工具给的,而搜索指数的定义是百度官方认可的。

搜索指数越高,该关键词带来的流量越大,广义上是可以这么理解的。但是搜索指数的多少并不完全等于流量的多少。图1-4 百度指数首页

随着移动端的普及,搜索指数也分为PC端指数和移动端指数。根据作者多年的网络营销经验,可以通过百度指数来判断某个关键词的热度,并从中决定该关键词是否值得去做SEO。

4.趋势的关键词

关键词一般处于3种状态,第一种是热度极高的词,这种词做SEO的意义并不大,热度越高证明竞争越大,在没有人力、财力和物力支持的情况下,个人是不用考虑这种情况的。

第二种是没有指数的词,这里我们也要清楚没有搜索指数并不代表没有搜索量,有搜索量也未必有搜索指数。没有搜索指数的词可以理解为搜索量很少的词或几乎没有搜索量的词,做了SEO也没有太大的意义。

第三种是有趋势的词,这种情况下就要会分析了。作者曾经利用百度指数的分析工具,分析出一个项目在未来一年内的发展趋势,因此而达到了月入十万的收益。

有趋势的词,比如《战狼2》、借贷宝事件等都可以在短时间内带来超高的流量。有趋势的词一般可以理解为线下“火爆”而线上展示较低的词。例如某家公司获得了某项目的一手信息,但是该公司依靠的依旧是线下电话营销的模式,也可以说是地推模式,这个时候我们就可以预测到,当地推模式普遍开展,线上却没有相应的广告时,那么线上的机会就来了。

在网络飞速发展的今天,如何从中获取有用的信息很重要。我们可以通过对线下资源的了解,以及对各个行业的饱和程度分析,来选择更有发展前景的行业,从而进行网络优化和推广,让我们的优势最大化。

案例1-1

百度权重除了由排名决定之外,还由百度指数决定。也就是说,我们只要将所做的关键词与网站相关的指数提高就可以了。这里为大家介绍一个从业者曾应公司要求通过刷新百度指数而提高网站百度权重的案例。

首先准备一个垃圾域名,一台VPS服务器或虚拟主机,以及刷流量的工具。接下来需要通过编写代码营造一个虚假的百度搜索返回页面,也就是返回页面的次数越多,说明用户搜索的次数也就越多,自然地百度指数也就会越高。

新建一个index.html文件,将以下代码复制进去:

以上都是一些比较常见的前端框架代码,这里的ts2.html和ts1.html为调试文件。接着创建一个ts1.html的文件,并将以下代码复制进去:

这段代码主要是控制我们所需要刷的关键词,这里为“深圳英语培训”,可以根据自己需要的关键词进行修改。

最后新建一个ts2.html文件,并将以下代码复制进去:

通过以上3个文件,再借助相应的刷流量工具,通过两到三个月的坚持,该关键词的百度指数涨到了好几百。

当然,通过这种方法获取的百度权重并不是真实的,但是可以通过这种方法换取更多更高权重的网站进行友链交换。1.2 SEO常用词汇

SEO是一个专有名词,是一个广泛的定义。很多人以为了解了SEO这个词就认识了SEO的全部,其实并不是这样。学习SEO也不能抱着这种心态,而需要不断深入挖掘SEO的内在核心,并用到实践当中去。

资深的SEO工作者不会将SEO挂在嘴上,他们往往会通过一些专有的词汇来分析并得出结论,然后再进行相应的改进和优化。例如,爬行、索引、收录、排名和robots文件等。

这些常用的词汇,会在接下来的内容中讲到。1.2.1 爬行

爬行广义上是指慢慢地向前行走,但是在网络术语中却并不是这个意思。爬行一词来源于百度蜘蛛,特指百度蜘蛛通过网站并留下痕迹的过程。

笔者曾经在做谷歌搜索引擎时发现,谷歌很容易做收录,那是因为谷歌搜索引擎在爬行并判断方面做得没有百度那么严谨。而百度蜘蛛也会做到快速收录并展示的效果,但是它却不会急于展示出来,而是通过一段时间的审核才会展示在搜索引擎上。

1.确定式爬行

确定式爬行是指当你的网站进行更新之后,百度蜘蛛会来你的网站进行第一次爬行,并确定你的网站定位,但是不会马上就将收录的页面展现出来,如图1-5所示。图1-5 百度蜘蛛来访

2.稳定式爬行

稳定式爬行一般是该网站上线了一段时间,如半年左右并且成功地渡过了沙盒期。百度蜘蛛此时就会每天到该网站进行爬行,并在第一时间展示和收录该网站的页面。

3.爆发式爬行

这种模式一般会出现百度重新定义算法,对所有网站进行大洗牌的时候。百度剔除不符合规则的网站,并将一些高质量的网站给予更好的排名。

4.爬行与抓取

通过词汇我们可以知道是先爬行后抓取。百度蜘蛛在爬行网站的时候,往往会优先判断robots文件里的内容,判断哪些文件是禁止抓取的。而这个robots文件的定义是根据国际规范标准而定的,正所谓无规矩不成方圆,百度也不例外。

5.爬行轨迹

百度蜘蛛爬行的轨迹往往从网站的首页开始,而且会根据首页的链接进行抓取。根据W3C规则,所有的网站分为三个板块,分别是头部、正文和底部。而首页头部的导航部分则会引导百度蜘蛛进行栏目页的抓取,首页的文章列表部分则会引导百度蜘蛛抓取文章页。

为了保证全站的畅通性,于是百度给出了网站内链(即内部链接)和锚文本的定义。1.2.2 索引

百度索引是指根据百度蜘蛛所爬行的网站,如通过服务器日志会发现,百度蜘蛛爬行了网站的多少个页面,那这个爬行的页面就是百度的索引量。这种数据是看不到的,而且非专业人士也是看不懂的。往往我们是通过百度给出的某个特定的单词来读取出收录了多少个页面。例如,site:http://www.xxx.com,这个site的意思是百度蜘蛛通过索引爬行之后展示出来的页面条数,与索引是不相关的。

1.索引量下降的原因

初级的SEOer一般会关注收录量,而专业一点的SEOer就会知道,如果不是大的变动,网站的页面收录之后,收录量就会趋于稳定,所以往往会观察那些有待放出来的页面,也就是索引量,如图1-6所示。而有的时候,索引量也会下降。现在来了解一下百度索引量下降的原因。

·原因1:配额已满,重新分配。这种情况可以理解为百度大规模的更新,当某个关键词的配额无限接近百度的最大容量时,就会进行第二次分配。

解决办法:这种时候,我们需要对网站进行数据整改、更新,研究竞争对手的网站,并再次超越对手。

·原因2:更新数据异常。由于百度搜索引擎对网站数据的错误判断,导致更新数据发生异常。

解决办法:这种情况一般是误杀,如果在我们网站没有出现任何碰触百度搜索引擎底线的情况下,我们需要将网站提交给百度,并请求恢复原来的数据。

·原因3:地区性数据异常。百度蜘蛛抓取了全国各地的网站,当然也包括国外的服务器。这种情况下,可能由于网络的不稳定,导致网站数据异常。

解决办法:这种情况也是由于地域性的百度蜘蛛导致的,只需要提交给百度处理即可。图1-6 百度索引量

2.索引量和site的区别

索引量和site的判断依旧主要是看我们需要对网站进行哪部分的数据分析。如果只想判断网站的排名,可以优先使用site然后去查相关的排名。如果只想知道有多少页面被百度蜘蛛爬行了,那么就可以参考索引量了。

3.提高百度索引量的方法

提高百度索引量的方法主要有:

·加强网站原创内容;

·合理的内链搭配;

·寻找高质量的外链引流;

·网站静态化。

其实百度索引量在SEO当中只是一个入口,所有的SEO技术都是通过这个入口来提高网站在百度中的地位的。1.2.3 收录

只要是搜索引擎能够展示的网页,统称为收录。但是由于百度几乎占据了中国搜索引擎的半壁江山,所以作为SEO的工作者,更多地是研究如何提高百度的收录。

1.提高收录的方法

·对网站内部结构定义清晰,不要随意下载他人的网站页面进行修改。错误的代码、死链、不符合网站定位的alt标签,这些都会导致网站的收录下降。

·更新原创文章。由于百度不断地加强高质量内容的收录,所以我们要坚持更新原创文章,只有高质量持续性地更新原创文章,才能不断提高收录,权重和排名也会越来越高。

·友情链接,这里千万记住不要去购买高权重且不相关的友情链接。这种方法被百度视为不正规的牟利渠道,是百度明令禁止的。这种方法不仅会导致收录下降,更严重的会直接导致K站。

说明:K站指在网站已经达到正常收录的状态下因为作弊或者其他原因,百度等搜索引擎突然删除了所有网页或只留下首页。

2.主流搜索引擎提交入口

很多新手站长认为只要做好了网站,就会慢慢有收录、有排名、有流量,之后就能挣钱了。其实当一个新站出现的时候,我们首先要做的并不是等收录和更新,而是主动出击,将自己的网站首页提交给相应的搜索引擎。这种方式会让各大搜索引擎收录得更快。下面为大家提供目前市面上三大主流的搜索引擎入口。

百度收录:http://zhanzhang.baidu.com/linksubmit/url,如图1-7所示。图1-7 百度收录提交页面

搜狗收录:http://fankui.help.sogou.com/index.php/web/web/index?type=1,如图1-8所示。图1-8 搜狗收录提交

360收录:http://www.sousuoyinqingtijiao.com/360/tijiao/,如图1-9所示。

3.百度搜索引擎的特点

作为全球最大的中文搜索引擎,我们需要清楚百度的准则,那就是一切以原创为主。百度在极力打造一个完全原创的互联网中文平台,因为在百度,只有原创才是有价值的,只有原创才能留住更多的用户来打造更高价值的产业链。图1-9 360收录提交1.2.4 排名

网站排名指的是,当用户搜索某个词的时候,搜索引擎会依次将该搜索词权重更高、质量更好的网站展现在搜索引擎的界面。而这些排名靠前的网站,在被点击之后就会产生相应的信息交流,从而达成客户成交。所以往往网站排名越靠前的网站,利益也相对更大。

1.排名规则

一个网站的好坏,权重的高低,直接决定了这个网站的排名。当网站出现如关键词堆砌、关键词不明确、多次更改网站关键词等问题的时候,排名是很难上去的。

2.排名方法

作为专业的SEO工作者,凭借作者多年的经验分析出,域名越短、域名越久,对网站的优化排名越好。曾经有人拿着一个存在了12年的老域名去分析网站的数据,被大多数网站SEO工作者比喻为“拿着神器砍野猪”。足以说明网站域名的好处。

3.排名提高

一个网站想要提高排名,需要来分析多个因素,如网站的布局、内容的质量、高质量的外链引流、网站空间的稳定性等。我们需要从多个角度去分析网站带来的流量,并针对网站指向的关键词进行优化。1.2.5 robots文件

我们在与人交往的时候,往往会将自己最好的一面展现给对方,避免不好的方面给对方留下不好的印象。同样,百度为了收录更多有效的页面,而SEO人员也为了展示更多有价值的页面,避免百度收录一些没有意义的页面,robots文件就诞生了。但是网站的程序是多样化的,不可能每个页面包括的数据库都有价值,所以百度给出了一个优先级的txt文件,也就是robots.txt文件。这个robots文件里优先存储的一般都是禁止百度蜘蛛爬行的文件,也就是不希望百度收录该网站的页面。

当百度蜘蛛首次爬行我们网站的时候,会优先爬行根目录下的robots文件,根据robots文件里屏蔽的文件夹或者某个文件名,而跳过这些文件,然后进行其他目录下页面的爬行及收录。如果网站下并不存在这个文件,那么百度或许会收录一些不必要的文件,甚至暴露我们的数据库等,这就会给一些不法分子造成空隙,通过我们的网站获利。

1.robots.txt所存放的位置

robots.txt文本文件必须存放在站点的根目录下,也就是需要和首页在同级目录下。这样一方面优先百度查找并进行排除,另一方面使百度蜘蛛没有必要去判断robots.txt文件存放在哪个目录下。如果没有robots.txt文件,会使百度蜘蛛爬行所有的网站,然后进行收录等,增加了一些不必要的操作,加大了百度蜘蛛的工作量。

注意:百度蜘蛛只能识别小写的robots文件,如图1-10所示,而且只能放在站点根目录下。

2.robots.txt常用语句

一般情况下,为了快速建站,会使用一些网络上的开源程序,而这些开源程序已经了解百度蜘蛛的模式,会默认在根目录下添加robots.txt文件,并且已经屏蔽了某些文件夹。以织梦网站CMS(内容管理系统)里的robots.txt为例:图1-10 robots文件

根据织梦网站的CMS里的robots.txt文件可以看到,User-agent:*表示禁止所有的搜索引擎收录本站。Disallow的意思是禁止抓取,/data/表示数据库,/dede/表示织梦默认的后台登录地址,/images/表示图片文件,/include/表示配置文件,/plus/表示附加文件,/special/表示专题目录,/templets/表示模板静态文件,/uploads/表示上传文件。最后的Sitemap是网站地图,是告诉百度蜘蛛这是网站的运行轨迹。

以上是织梦网站CMS里的robots文件,每个程序都会有对应的robots文件,我们只需要根据不同的开源程序提供的robots文件进行添加即可。

3.robots在网站中的展现形式

当SEO工作者需要在网站中展现robots文件的时候,可以根据自己的代码知识,或者通过网站程序员的帮助,进行一些必要的代码添加。而常用的代码则是

·META:HTML网站中一个最重要的标签,通常可以展现网站的关键词和网站描述等;

·NAME="ROBOTS":识别所有搜索引擎;

·CONTENT="INDEX,FOLLOW":搜索引擎索引该页,并可以通过网页的链接搜索其他页面。

4.小结

一个优秀的网站都会存在robots文件,这个文件往往能帮助我们规避一些不必要的文件被展现出来。做SEO最重要的任务是展现我们的首页、栏目页及最重要的文章页。只有当这些页面优化得足够好的时候,我们的网站才是一个优秀网站。1.3 已经过时的SEO方法

SEO是一门技术,而且这门技术是伴随着互联网而产生的。互联网的发展速度是非常快的,而且还在不断地完善。简而言之,当互联网在变化的时候,SEO这门技术也在不断地更新。根据作者从事SEO的经验来看,有些SEO技术形成了固定的模式,并很好地延续了下来。但是也有一些SEO技术因为太简单,搜索引擎认为这是没有必要的操作。所以我们把那些没有作用的SEO方法称为已经过时的SEO方法。1.3.1 大量使用采集和伪原创

在2010年之前,百度搜索引擎并不强大的时候,曾流行这样一段话:只要你会做网站,那么你就能挣钱。这句话的意思是什么呢?就是只要你做了网站,然后会复制、粘贴,那么你的网站排名很容易就能靠前。就像曾经作为外链之王的分类信息网,如比比贴、好喇叭等,这些网站完全开放注册,只要用户注册之后就能发布外链信息,而且排名还比较靠前。

但是这只能停留在曾经的互联网时期,对于现在仅存的一些分类信息网,百度不再接纳它们的外链,只是保留了它们的一些权重。再也不是那个只要“发”就能“排”(排名)的时代了。

采集是一种程序的技术方法。主要是针对一些新网站,程序员不想花大量的时间去复制、粘贴其他网站上的信息,于是网站程序员为了方便这个操作,而开放的一项程序功能。

1.采集的好处与坏处

现在很少有人再去专门学习网站建设了,一是因为一个完整的网站从前端静态页面到后台数据程序,并不是一个人能在短时间内完成的;二是因为现在越来越多的公司开始招聘一些会使用网站开源CMS的程序员,省心省时又省钱,再加上如图1-11所示的采集软件,更加方便了网站文章的填充。但这种填鸭式的填充方式,并不利于网站的SEO优化。

当这些精通开源CMS的程序员操作网站后台的时候,会发现这些程序都附带了采集的功能。

·好处:使网站能够快速填充,完善整个网站的数据,快速上线。

·坏处:网站必定被封,因为这种站点毫无意义。

如果是为了学习采集这个技术而不需要考虑网站SEO的发展的话,可以这么做。但是为了网站的长远发展考虑,我们必须要坚持原创文章,并每天保证更新网站文章内容,不必急于让网站快速上线。图1-11 某采集软件

2.什么是伪原创

在2013年,“伪原创”还是一种比较普遍的方法。当时笔者所在的一家公司,除了依靠百度竞价之外,还会招聘大量的新手编辑。而之所以招聘这些编辑,就是教他们怎么去做“伪原创”的文章。当时之所以这样做,是因为百度还没有更新得那么细致,只要网站编辑对一些原创文章稍加修改,就能再次被百度收录。

伪原创:一般是指将某一篇优质的文章稍加修改,使其成为一篇新的文章。一般是修改文章的标题及正文开头与结尾部分的30%左右的内容。

常见的“伪原创”的方法有:修改开头、同义词替换、修改段落章节顺序和尾部修改等。

由于“伪原创”同样会造成大量的垃圾信息和重复信息,所以这种方法现在也不再适用百度搜索引擎。

案例1-2

2013年时接到公司的一个新项目,需要新建一个网站。因为是一个新建的网站,因此没有任何备用数据,所以只能通过采集的方法来实现快速填充网站内容的效果。

这里同样使用DEDECMS搭建好网站之后,便可以通过DEDECMS后台进行采集了。第1步先打开“新增节点”栏,打开后台→采集→采集节点管理,单击“增加新节点”。第2步选择模型,模型选择为普通文章。第3步新增节点,配置网址索引,填写相应的采集规则。第4步查看采集站点的编码和网站源码,通过右击鼠标可以查看网站源代码,常见的编码格式有GB2312和UTF-8。第5步配置文章网站的匹配规则,设置之后单击“保存”按钮进入下一步。第6步是网址获取规则测试,看是否能正常采集到相应的数据。

因为网络上的文章参差不齐,所以通过采集来填充网站信息基本上是没有什么效果的。而且一般来说新公司不会随意采集其他网站的文章,而大多数老公司都会通过程序使用数据库备份还原的功能来创建新的站点。

总之采集只能算是一个被淘汰的技术,如果想要真正做到快速填充网站数据,只需要从服务器上获取数据库,然后进行还原即可。1.3.2 刻意堆砌关键词假象

每个网站都是围绕关键词而产生的,例如,一家做英语教育的网站,其公司的主营业务也是英语教育培训。但是该公司的网站上出现了大量与英语不相关的信息,这种情况对公司来说是不利的,对网站SEO也是没有好处的。

在刚开始学习SEO的时候,需要明确网站的标题,关键词和网站对应的描述。而百度判断一个网站是否有价值,完全取决于关键词所占的比例。因此有些SEO技术人员就通过刻意堆砌关键词,造成该网站时刻都会出现与其相关的关键词的假象,以获得更好的排名。

1.概念

通过大量展现关键词,提高关键词的权重比例,达到网站与关键词的高度匹配。这些关键词一般出现在网站的文章中,如我们在看一篇文章的时候,经常会发现原本很通顺的一句话中会突然出现一个与网站相关的词汇。而在代码中,如title(标题)或Tag(标签)中也会出现关键词。

2.搜索引擎更新

由于刻意堆砌关键词做法的出现,导致越来越多的垃圾网站和一些贪图快速见效的SEO工作者的出现,因此百度开始进行大数据更新,因为搜索引擎的目的是为了将更多、更好、更优质的内容展现给用户,只有当有价值的内容展现给用户的时候,用户才会青睐搜索引擎。

由于刻意堆砌关键词手法的出现,导致网站完全是为了优化而优化,并不是为了用户而优化。于是百度开始限制网站关键词出现的比例,而且对那些大量使用关键词堆砌的网站进行降权,甚至是K站。

3.关键词占比

在百度算法没有更新关键词所占比重数据的时候,网站会出现大规模的相关关键词,甚至有些SEO人员会为了关键词而做网站,以获得好的排名。后来由于百度对网站的关键词占比进行了数据更新,最终确定一个网站关键词所出现的比例维护在3%~8%之间是最优网站。

案例1-3

笔者最初接触SEO的时候,经常会使用关键词堆砌这种方法来进行优化,当然那是几年以前的事了。例如当时曾做过一个传统行业的网站,该网站的主营业务是粉刷墙壁,所以当时笔者通过了3种方式来进行关键词的堆砌。

第一种是meta标签位置的关键词堆砌。meta标签主要是指网站标签三要素,即title标签、keywords标签及description标签。通过在title和keywords标签里加入:墙壁粉刷_粉刷墙壁_墙壁粉刷多少钱_墙壁粉刷价格,这种就是典型的标签关键词堆砌,这种方法后来被分词技术(一种将词分开搭配的方法)抢到了更好的排名。

第二种是网站内容关键词堆砌,这种模式一眼就能看出来。例如

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载