网站建设
优化策略SEO

您的位置:主页 > 营销知识 > 优化策略 > 网站建设SEO优化分享

网站建设SEO优化分享

上海网站建设公司建站资讯2017-09-05

1、SEO(Search Engine Optimization)

汉译为搜索引擎优化,是一种利用搜索引擎的搜索规则来提高目前网站在有关搜索引擎内的排名的方式。目前是较为流行的网络营销方式,主要目的是增加特定关键字的曝光率以增加网站的能见度,进而增加销售的机会。分为站外SEO和站内SEO两种。

SEO的作用

扩张资本规模

优化企业财务结构

通过SEO 进行资产重组

调整产品结构,促进产业升级

品牌保护

推广(主要作用)

为企业节约网络营销费用

SEO 1.0阶段

1995-1998年,当时注重的是网站的内容匹配,搜索引擎蜘蛛识别能力较弱,所以就出现了罗列关键词的现象

SEO 2.0阶段

1999-2010年,这个时间段注重的是站内优化,站外优化,同时搜素结果的地区性差异,以及多媒体结果的出现。网站是否有高的权重,是否有高质量的内容成了排名的主要因素之一。

SEO 3.0阶段

在这里输入你的内容,注意不要用退格键把所有文字删除,请保留一个或者用鼠标选取后直接输入,防止格式错乱。

SEO分类

分类说明

白帽SEO白帽SEO是使用符合主流搜索引擎发行方针规定的SEO优化方法。一直被业内认为是最佳的SEO手法,它是在避免一切风险也避免了与搜索引擎发行方针发生任何的冲突,它也是SEOer从业者的最高职业道德标准。因为搜索引擎是以文本为中心,白帽SEO的许多有助于网页亲和力的同样手段同样便利于搜索引擎优化。这些方法包括优化图形内容、包括ALT属性、和增加文本说明。

黑帽SEO笼统的说,所有使用作弊手段或可疑手段的,都可以称为黑帽SEO。比如说垃圾链接,隐藏网页,刷IP流量,桥页,关键词堆砌等等。SEO黑帽是一种不为搜索引擎所支持的违规行为,因为黑帽SEO挑战了行业道德底线,因此为被广大白帽SEO而所不齿。垃圾索引(Spamdexing)意指通过欺骗技术和滥用搜索算法来推销毫不相关、主要以商业为着眼的网页。

灰帽SEO灰帽SEO是指介于白帽与黑帽之间的中间地带。对于白帽而言,会采取一些取巧的手法,这些行为因为不算违规,但同样也不遵守规则,是为灰色地带。它注重了优化的整体与局部的方方面面。灰帽SEO追求的是某种程度的中庸。灰帽SEO是白帽和黑帽手法的结合体,既考虑长期利益,也要考虑短期收益问题。

关于SEO小知识

1、原创信息被别人转载后,别人的信息排在前面

自然排名的衡量因素比较多,常见的有:网页评价或权重(PR\SR)、网页地址的深度、指向该网页的外部链接、网站在行内的权重、网站在搜索引擎的影响、网页的内部链接、网页指向其他网站的链接、标题的合理性、描述的恰当、关键词的合理分布、内容质量的可读性、用户体验的体现度等等。

2、多个域名对网站有什么影响?

同一站点使用多个域名属于作弊行为,多域名短期内可以提高收录量,但是会造成权重、补充材料、重复页面等问题,建议只保留一个,其他的可以做301重定向。

3、SEO和SEM的区别

SEO(Search  engine  optization ),译为搜索引擎优化。指的是一种利用搜索引擎的排名规则来提升目标网站在自然搜索结果中的收录数量和排名的优化行为,其目的是为了从搜索引擎获得更多的免费流量,以及更好的展现形象。

SEM(Search engine marketing),译为搜索引擎营销。它是网络营销的一种方式,主要在搜索引擎中进行网站或品牌的营销,因此在搜索引擎范围内的营销行为都属于SEM。SEM包括:竞价排名、关键词广告、ppc来电付费、seo。

搜索引擎蜘蛛

搜索引擎蜘蛛一般指:网络爬虫

网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。

爬虫分类:

通用网络爬虫

又称全网爬虫爬行对象从一些种子 URL 扩充到整个 Web,主要为门户站点搜索引擎和大型 Web 服务提供商采集数据。 由于商业原因,它们的技术细节很少公布出来。结构大致可以分为页面爬行模块 、页面分析模块、链接过滤模块、页面数据库、URL 队列、初始 URL 集合几个部分。

聚焦网络爬虫

又称主题网络爬虫(Topical Crawler),是指选择性地爬行那些与预先定义好的主题相关页面的网络爬虫[8]。 和通用网络爬虫相比,聚焦爬虫只需要爬行与主题相关的页面,极大地节省了硬件和网络资源,保存的页面也由于数量少而更新快,还可以很好地满足一些特定人群对特定领域信息的需求。

增量式网络爬虫

是指对已下载网页采取增量式更新和只爬行新产生的或者已经发生变化网页的爬虫,它能够在一定程度上保证所爬行的页面是尽可能新的页面。增量式爬虫只会在需要的时候爬行新产生或发生更新的页面 ,并不重新下载没有发生变化的页面,可有效减少数据下载量,但是增加了爬行算法的复杂度和实现难度。

Deep Web 爬虫

按存在方式可以分为表层网页和深层网页。表层网页是指传统搜索引擎可以索引的页面,以超链接可以到达的静态网页为主构成的 Web 页面。Deep Web 是那些大部分内容不能通过静态链接获取的、隐藏在搜索表单后的,只有用户提交一些关键词才能获得的 Web 页面。

SEO常见现象

沙 盒

沙盒的意思是通常指新网站在前期很难在Google有好的排名,一般时间限制在6个月左右。为什么进入沙盒? 一般进入沙盒的原因是网站突然增加了大量的外部连接。

炸 弹

炸弹的意思是通过建立大量的外部连接,锚文本全部为关键字.致使网站强行上升排名。因搜索引擎算法问题,大量的锚文本让引擎误认为某个网站是最符合搜索请求的页面

幽 灵

幽灵指的是新站排名不稳定,忽高忽低的现象。为什么会出现幽灵? 这个主要是因为搜索引擎防止作弊造成的。还一个因素就是网站的权重问题

连 坐

连坐是古代一种刑法,在这里指的是被同服务器或IP地址的其他网站牵连。同样也是搜索引擎防止作弊,为了避免链接工厂的泛滥。

金 三 角

金三角指的是google抓取关键字重点位置一般分布在页面左上,呈三角形。

快照回档

快照回档是指百度的快照被退回到之前日期的快照。 形成原因: 主机空间不稳定,网站首页的改动,友链链接异常,百度算法的调整,优化过度,使用seo作弊手法。 解决办法:稳定的维护跟更新站内的文章以及站外外链及友情链接排查及时更新调整!

一、优化内容 - 内部优化

META标签优化:例如:TITLE,KEYWORDS,DESCRIPTION等的优化内部链接的优化,包括相关性链接(Tag标签),锚文本链接,各导航链接,及图片链接

网站内容更新:每天保持站内的更新(主要是文章的更新等)

代码压缩改进:例如:网站主页唯一性,网站内页链向主页,301,404等改进;

页面静态化;

一、优化内容 - 外部优化

外部链接类别:博客、论坛、B2B、新闻、分类信息、贴吧、问答、百科、社区、空间、微信、微博等相关信息网等尽量保持链接的多样性。

外链组建:每天添加一定数量的外部链接,使关键词排名稳定提升。

友链互换:与一些和你网站相关性比较高,整体质量比较好的网站交换友情链接,巩固稳定关键词排名。

一、链接优化

网站结构优化

1、建立网站地图

只要有可能,最好给网站建一个完整的网站地图sitemap。同时把网站地图的链接放在首页上,使搜索引擎能很方便的发现和抓取所有网页信息。

2、每个网页最多距离首页四次点击就能到达。

3、网站的导航系统最好使用文字链接。

4、网站导航中的链接文字应该准确描述栏目的内容。

5、整站的PR传递和流动。

6、网页的互相链接。

搜索引擎如何抓取网页

1、搜索引擎如何爬取。(按什么规则,怎样爬取)

2、物理及链接结构

3、URL静态化

4、绝对路径和相对路径

5、内链的权重分配及网站地图

6、避免蜘蛛陷阱

链接结构

网络结构的第二个结构形式:链接结构也称为逻辑结构,也就是有网站内部链接形成的链接的网络图。网站架构分析包括:剔除网站架构不良设计、实现树状目录结构、网站导航与链接优化。

关键词选择

使用百度推广助手中关键词工具进行选择适合推广的词;

做调查来选取关键词;

通过查看统计日志来选取关键词;

长尾关键词 ;

将关键词进行多重排列组合;

尽量不要使用行业通用词;

擅于利用地理位置;

确定关键词的价值;

长尾词的选择;

关键词的时效性;

分析竞争对手;

有些词是从百度的相关搜索中过来的,而非用户搜索的关键词。

技术篇 - 描述标签

1、描述标签

建议:

? 最不好(只简单得写着关键词标签):

? 稍好(简单加了几个相关的词):

? 最佳(提供用户感兴趣的信息,同时突出关键词)

? 要避免(可能会导致被视为Spam垃圾网站):

注意:

? 不同的网页,不同的描述说明;

? 对于主页和列表页面(汇总页面),建议采用网站一级的描述,即与主页的描述一致;内容页面,则采用网页一级的描述;

? 如果没有条件或时间为每一个页面写描述,则可以考虑放空。但对于重要的页面,还是建议手写上。

2、Robots.txt文件

建议:

? 如果你的站点对所有搜索引擎公开,则不用做这个文件或者robots.txt为空就行。

? 必须命名为:robots.txt,都是小写,robot后面加"s"。

? robots.txt必须放置在一个站点的根目录下。如:通过http://www.seowhy.com/robots.txt 可以成功访问到,则说明本站的放置正确。

? 一般情况下,robots.txt里只写着两个函数:User-agent和 Disallow。

3、关键词

建议:

? 目标关键词一般作为网站首页的标题。

? 目标关键词一般是2-4个字构成的一个词或词组,名词居多。

? 目标关键词在搜索引擎每日都有一定数目的稳定搜索量。

? 搜索目标关键词的用户往往对网站的产品和服务有需求,或者对网站的内容感兴趣。

? 网站的主要内容围绕目标关键词展开,关键词位置、密度、处理。

注意:

关键词叠加:指为了增加关键词密度,在网页上大量重复关键词的行为。关键词叠加是一种典型的SEO作弊行为,搜索引擎判断这种作弊行为的算法已经相当成熟,所以,一旦网页上出现关键词叠加现象,一般整个网站会被搜索引擎封掉。很多网站不被搜索引擎收录,往往也是这个原因。

什么是长尾关键词:

网站上非目标关键词但也可以带来搜索流量的关键词,称为长尾关键词,一般长尾关键词具有的以下特征:

   ? 比较长,往往是2-3个词组成,甚至是短语。

   ? 存在于内容页面,除了内容页的标题,还存在于内容中。

   ? 搜索量非常少,并且不稳定。

   ? 长尾关键词带来的客户,转化为网站产品客户的概率比目标关键词低很多。

   ? 存在大量长尾关键词的大中型网站,其带来的总流量非常大。

4、隐藏文本和链接

建议:

隐藏文本和链接:采用隐藏的手段在网页上放置许多文本和链接,浏览者看不到隐藏文本而搜索引擎可以爬取到,从而欺骗搜索引擎对网页关键词的判断。这些手段包括:

? 将文本和链接的颜色设置与背景一样

? 将文本堆积在图片后

? 使用 CSS 隐藏文本,如:字体大小设置为0

? 通过 CSS 隐藏链接,如:链接的像素为1

? 把链接隐藏在小字符里,如:逗号等

意见:

如果你的站点因为这个错误而被搜索引擎删除了,则清理完隐藏文本和链接后,重新向搜索引擎提交网址,过段时间应该可以重新获得收录和排名。对于Google,你可以通过注册并使用Google网站管理员工具获得帮助。

5、前端代码

a. 代码精简

代码精简带来的好处由两点:一是提高spider爬行效率,能在最短的实践内爬行完整个页面,这样对收录质量由一定的好处;二是能高效爬行的页面,就会受到spider的喜欢,这样对收录数量有一定的好处。

b. 表格的嵌套问题

根据目前掌握的情况来看,spider爬行表格布局的呀面,遇到多层表格嵌套时,会跳过嵌套的内容或直接放弃整个页面,尽量避免。

c.布局

DIV+CSS布局与表格布局相比减少了页面大改,加载速度的到了很大的提高,这对spider爬行时非常有利的。过多的页面代码可能造成爬行超时,spider就会认为这个页面无法访问,影响收录及权重。另一方面,真正的网站优化不只是为了追求收录、排名,快速的响应速度也是提高用户体验的基础。

意见:

搜索引擎是从上到下、从左到右访问网站信息的,而且搜索引擎访问的是代码,和网页做得如何漂亮无关,所以,在建立网站的时候,关键内容在网页中的位置非常重要。我们在研究那些比较大的网站时会发现,整个网页代码被很多注释所包围。这些注释有两个好处:一是便于技术人员对代码的调整;二是便于SEO人了解关键内容的位置,便于调整。

6、URL

a. URL重写优化

一般情况下,谷歌根据被外链的数量来判断。采用多的,则是标准化URL。如果想设置标准化的URL,可以采用301重定向。

b. 把动态链接静态化

搜索引擎喜欢静态页面,从Web服务器的角度,这个问题就转变为:如何将静态化的文件名称转化成参数。

7、网站静态化

一、利于搜索引擎抓取和收录

静态页面和动态页面想对比来说,搜索引擎更喜欢静态页面,对于静态页面搜索引擎能好抓取收录,这样利于排名。比如一些大型的门户网站:新浪、阿里巴巴、百度等页面大多采用静态或伪静态页面来显示,可想而知,连百度都要把页面静态化,那这足够说明了静态化带给网站很大好处。

但是自从2013年百度算法和功能改进以后,搜索引擎请对于静态页面和动态页面的抓取是一样的。当动态页面的路径层级较深,参数在三个或者三个以上的必须作为静态处理,不然的话搜索引擎是很能抓取和收录的。我个人建议一般还是都做采用的是静态页面。

二、网站的稳定性好

首先从安全角度来看,静态页面不容易遭受黑客的攻击,黑客从你的路径中看不出你网站的后台、网站的程序以及数据库的地址。其次静态页面是存放在空间上的一个文件,所以它不会因为程序、数据库等出问题,影响网站的正常打开,影响用户的访问,所以网站的稳定性就高。一个非常稳定的网站不仅仅对搜索引擎友好,同时也有利于用户体验,这对于提高网站的信用度有很大的帮助。

三、网页打开速度快

动态页面存放在数据库中,当打开这个页面的时候程序调用数据库中的表文件,然后把内容展现出来,这个过程就需要一定的时间。静态页面存放在空间中,一个页面相当于一个文件夹,当页面打开的时候直接打开这个文件夹就可以,速度相对来说比较快。所以静态页面的优势就先显现出来了。对于一个网站来说,首先是打开速度。一个页面打开时需要好几秒,这样的网站用户一定是直接关掉。所以为了减少用户的时间成本尽量选择静态页面。

8、伪静态

伪静态是相对真实静态来讲的,通常我们为了增强搜索引擎的友好面,都将文章内容生成静态页面,但是有的朋友为了实时的显示一些信息。或者还想运用动态脚本解决一些问题。不能用静态的方式来展示网站内容。但是这就损失了对搜索引擎的友好面。怎么样在两者之间找个中间方法呢,这就产生了伪静态技术。就是展示出来的是以html一类的静态页面形式。

区别静态

从URL结构以及页面名称看,伪静态和静态页面是一样的。伪静态的页面后缀可以是html htm 或者是目录格式

伪静态只是改变了URL的表现形式,实际上还是动态页面

静态页面可以节省服务器资源,而伪静态严格说是增加服务器资源消耗的。

不足之处:

1、服务器开销相对大;

2、网站承受力低,如果你的网站可以保证1000人同时访问的话,那么做了伪静态处理之后,300人访问就足以让你网站挂掉;

3、网页打开慢。伪静态仍然要读取数据库,还额外的多了一个.重写网址.的过程,其他的步骤绝对不会比动态少;

4、大量的重复页面;

5、造成真正的静态网页无法访问,如果把php伪静态成html,那么真正的静态页就无法访问了(可在服务器配置)。


TAG网站建设,SEO,优化,分享,SEO,Search,Engi,上海网站建设,上海网站制作,上海APP开发

最新案例

最热文章

更多最新文章

网站关键词

上海云轩网络版权所有 Copyright©2008-2018 http://www.lvon8.com All Rights Reserved 备案号:沪ICP备14049216号