• 欢迎使用千万蜘蛛池,网站外链优化,蜘蛛池引蜘蛛快速提高网站收录,收藏快捷键 CTRL + D

以蜘蛛程序为基础的全文搜索引擎的工作原理(搜索引擎工作原理的理解)


搜索引擎的工作分为三个阶段,即爬行,索引和检索

1.爬行

搜索引擎具有网络爬虫或蜘蛛来执行爬网,每次抓取工具访问网页时,它都会复制该网页并将其网址添加到索引中。

在“蜘蛛”抓取网页内容,提炼关键词的这个过程中,就存在一个问题:“蜘蛛”能否看懂。如果网站内容是 flash 和 js,那么它是看不懂的。

相应的,如果网站内容是它的语言,那么它便能看懂,它的语言即 SEO

2.索引

此阶段,爬网程序会创建搜索引擎的索引。索引就像一本巨大的书,其中包含爬虫找到的每个网页的副本。如果任何网页发生更改,则抓取工具会使用新内容更新图书

3.检索

这是搜索引擎以特定顺序提供最有用和最相关答案的最后阶段。

1.SEO 的分类

A.白帽 SEO:起到了改良和规范网站设计的作用,使网站对搜索引擎和用户更加友好,并从搜索引擎中获取合理的流量

B.黑帽 SEO:利用和放大搜索引擎政策缺陷来获取更多用户的访问量

2.白帽 SEO 的使用

a.对网站的标题、关键字、描述精心设置,反映网站的定位,让搜索引擎明白网站是做什么的;

b.网站内容优化:内容与关键字的对应,增加关键字的密度;

c.在网站上合理设置 Robot.txt 文件;

d.生成针对搜索引擎友好的网站地图;

e.增加外部链接,到各个网站上宣传;

通过网站的结构布局设计和网页代码优化,使前端页面既能让浏览器用户能够看懂,也能让“蜘蛛”看懂。

1.网站结构布局优化

A.控制首页链接数量

对于中小型企业网站,建议首页链接在100个以内,链接的性质可以包含页面导航、底部导航、锚文字链接等

B.扁平化的目录层次

尽量让“蜘蛛”只跳转3次,就能到达网站内的任何一个内页

C.导航优化

导航应该尽量采用文字方式,也可以搭配图片导航,但<img>标签务必添加“alt”和“title”属性,告诉搜索引擎导航的定位

其次,在每一个网页上应该加上面包屑导航

对用户而言,可以让用户了解当前所处的位置,形成更好的位置感,并方便用户操作;

对蜘蛛而言,能够清楚的了解网站结构,同时还增加了大量的内部链接,方便抓取,降低跳出率。

D.结构布局的规范优化

a.页面头部:logo 及主导航,以及用户的信息

b.页面主体:左边面包屑导航及正文;右边放热门文章及相关文章,既增强了页面相关性,也增强页面的权重

c.页面底部:版权信息和友情链接

注意:分页导航推荐写法:“1 2 3 4 5 6 7 8 9 10 下拉框/输入框”,这样“蜘蛛”能够根据相应页码直接跳转,下拉框直接选择页面跳转

E.控制页面的大小

一个页面最好不要超过100k,太大,页面加载速度慢,用户体验不好,并且一旦超时,“蜘蛛”也会离开。

2.网页代码优化

a.<title>

标题,强调重点即可,尽量做到每个页面的 <title> 标题内容不重复

b.<meta keywords>

关键词,列举出几个页面的重要关键字即可

c.<meta description>

网页描述,高度概括网页内容的关键词,每个页面也要有所不同

d.标签语义化

比如:h1-h6是用于标题类的,<nav>标签是用来设置页面主导航的等

e.<a>标签

页内链接,要加“title” 属性加以说明,让访客和 “蜘蛛” 知道;

外部链接,链接到其他网站的,则需要加上 el="nofollow" 属性,避免“蜘蛛”爬了外部链接之后,就不回了

f.正文标题要用 <h1> 标签

“蜘蛛” 认为它最重要,若不喜欢<h1>的默认样式可以通过CSS设置

g.<br>

只用于文本内容的换行

h.<caption>

表格应该使用 <caption> 表格标题标签

i.<img> 应使用 “alt” 属性加以说明

j.<strong> 和 <em> : 需要强调时使用

<strong>标签在搜索引擎中能突出关键词

<em>标签强调效果仅次于 <strong>

而 <b>、<i>标签: 只是用于显示效果时使用,在 SEO 中不起效果

k.避免使用 和 ?

空格符 应用 CSS 进行设置

版权符 ? 可以直接使用输入法打“?”

l.少用 iframe 框架,因为“蜘蛛”一般不会读取其中的内容

m.少用 display: none;

对于不想显示的文字内容,应当设置 z-index 或设置到浏览器显示器之外。因为搜索引擎会过滤掉 display:none 中的内容

本文链接:https://www.24zzc.com/news/169432657231985.html

相关文章推荐

    无相关信息