• 欢迎使用千万蜘蛛池,网站外链优化,蜘蛛池引蜘蛛快速提高网站收录,收藏快捷键 CTRL + D

东北seo优化(中国数据要素高峰论坛)


今天我们来聊一聊 高质量 原创文章 网站seo优化 好处 ,本文中会介绍到 搜索引擎 喜欢什么样的高质量 原创 文章 ,已经我们在实际操作过程中如何避免一些垃圾页面的产生。


一、

稍微懂一点 seo 的站长都听说过“内容为王”这个词,我们这里所说的内容指的就是高质量原创内容,这也是搜索引擎所喜欢的内容。

互联网中部分站点采集其它站点的内容,搜索引擎同样进行了收录和给予了排名,导致少数站长认为,高质量原创内容对网站的帮助不是很大,这种想法是错误的,就算搜索引擎一时收录了你的内容,后面搜索引擎发现你网站的内容全部都是采集来的文章,网站根本没有自己独特的内容,搜索引擎就会认为你这个网站是没有价值的,也就绝对不会给你一个好的排名。

二、高质量原创内容的好处

1、高质量原创内容首先符合搜索引擎的目标。搜索引擎的目标是给搜索用户提供信息,而不是给你的网站带来客户。只有你的网站提供了高质量的内容,才能与搜索引擎的目标达成一致,也就提升了搜索引擎友好度。

2、高质量原创内容也是页面收录的重要推动力。不少站长都为网站收录问题发愁,搜索引擎 蜘蛛 要么只访问首页,不再进一步抓取内页,要么收录之后又被删除。缺少原创内容是关键性原因之一。一个以转载、抄袭为主体内容的网站对搜索引擎来说毫无价值。收录这样的页面越多,越浪费搜索引擎的带宽、数据库容量、爬行时间、计算时间,却不能给搜索用户提供更多信息,所以搜索引擎根本没有收录这些内容的理由

3、原创内容也是外部链接建设的重要方法。除非是交换链接,不然其他站长没有道理链接到一个没有实质内容的网站。

三、搜索引擎喜欢什么样的文章

我们一直在强调高质量原创内容,那么这里的高质量指的有哪些特征呢?

1、内容完整可读;

2、标题内容 规范

3、文章段落及字体干净;

4、文章相关性强,不要出现标题党;

5、高质量原创内容应该具有高粘度、高转发的特征。

四、规避垃圾页面

从SEO的角度看,互联网中存在着大量搜索引擎不喜欢的垃圾页面,部分垃圾页面搜索引擎可以无法检测到,但是会影响网站用户体验,从而影响用户在站点中的停留时间,所以网站中不要出现这些垃圾页面:

1、用户不可读的页面。最常见的现象就是复制其他站点的文章直接粘贴到本站中,因文章页面设置问题,导致站点中的文字重叠。

2、页面文章不完整的页面。

3、标题和文章内容不相关的页面。

4、文章内容是拼凑出来的。直接拼凑出来的文章内容影响用户的阅读,导致用户跳出率较高。

5、垃圾聚合页面。

这里讲的垃圾聚合页面指的是网站标签由机器自动生成一个标签页面,但是标签和页面中的内容都是机器自动采集的。如笔者见过一个婚恋网站,标签名字为“东北的女孩”,但是页面中还出现了很多男性会员。

6、违规词标签页面。

互联网中的大部分站点都提供了用户站内搜索功能,但是站长未屏蔽黄、赌、毒等违法违规词语,导致网站被一些不良用户钻了空子,用于黑帽排名。这种方法常出现在一些权重比较高的站点中,用户在站点中搜索某些欲获取排名的词语,然后将链接提交给搜索引擎从而依据网站的高权重获取排名。

7、网页实质内容较少的页面。

每个页面不可避免的会有一些通用部分,比如常见的页面顶部、底部、页面左侧或者右侧等。如果网页中的正文内容太少的话,内容数量还抵不过通用部分,搜索引擎有可能会认为此类页面相似度过高。

8、产品页面中包含太多态度用户读不懂的信息。

这种情况常出现于一些进口产品页面,如果网站针对的是国内用户,建议页面中不要出现太多的英文信息,这种页面影响用户体验。

9、复制内容。

互联网中的部分站点不可避免的会复制其他站点的内容,如下级转载上级的通知、代理商从产品商那里转载产品信息等。搜索引擎并不会因为网站中有少量的复制内容而惩罚站点,但是如果网站中存在大量的复制内容,这样会浪费搜索引擎的各种资源从而受到惩罚。

五、规避复制页面的产生

避免复制内容的产生需要从站内和站外两个地方着手:

1、由于 网址规范化 造成的站内重复内容,最好的解决办法就是选取一个版本的URL允许搜索引擎抓取和收录,其他版本的页面禁止搜索引擎抓取和收录。常见的方法是使用robos.txt禁止搜索引擎抓取,连向希望不被搜索引擎收录的页面的链接可以使用 nofollow 属性阻止搜索引擎爬行。

2、另一个解决方法是使用canonical标签。它的主要作用是用来解决由于网址形式不同内容相同而造成的内容重复问题。这个标签对搜索引擎作用非常大,简单的说它可以让搜索引擎只抓取你想要强调的内容。

我们来看下如下的网址:

www.***.com/archives/2011-snow.html

www.***.com/archives/2011-snow.html?comments=true

www.***.com/archives/2011-snow.html?postcomment=true

这三个网址形式虽然不同,但是打开的页面是相同的。加入第一个URL才是我们想显示给搜索引擎和用户的网址,一般像这种情况搜索引擎是很难分辨出来哪个才是网站主要想强调的网址,这样会直接造成搜索引擎在你的站里面收录到大量重复的内容,现在我们通过 canonical 标签就可以解决这些棘手的问题了。

像上面的状况,我们只需要在网址的 head 区域添加如下代码:

<link rel='canonical' href='htp://www . ***.com/archives/2011-snow.html' />

这样的话搜索引擎最终都会只收录 canonical 标签指定的这个网址,搜索引擎会将其它页面作为重复内容,这些重复的内容不再参与页面的权重分配。

3、不同站点之间的内容复制解决起来比较麻烦,因为我们是无法控制的。就同一篇文章来说,有时复制的站点排名比原创站点排名还要高。这种情况我们最常见的操作方法就是在页面中加入版权声明,要求转载的站点保留版权。出现了上述情况大家不要气馁,坚持原创,假以时日必定能够增加网站权重,使网站上的内容被判定为原创内容的几率增加。

4、将网站中发布的文章及时提交到各大搜索引擎的站长平台中。

本文链接:https://www.24zzc.com/news/169776846049183.html

相关文章推荐

    无相关信息