点击精灵Logo
您的位置:首页 >seo高级

robots协议文件中应该屏蔽哪些文件?

来源:精灵SEO 发布时间:2020-08-13

  网站的robots.txt文件设置是不是合理,哪些文件或许目录需求屏蔽、哪些设置办法对网站运营有优点?有人复制出相同的内容以应付不同搜索引擎的排名规则。然而,一旦搜索引擎发现站内有大量“克隆”的页面,就会给以惩罚,不收录这些重复的页面。另一方面,我们网站的内容属于个人私密文件,不想暴露在搜索引擎中。这时,robot.txt就是为了解决这两个问题。

  一、什么是robots.txt

  搜索引擎运用spider程序主动拜访互联网上的页面并获取页面信息。spider在拜访一个网站时,会首先会查看该网站的根域下是不是有一个叫做robots.txt的纯文本文件,这个文件用于指定spider在您网站上的抓取规划。您能够在您的网站中创立一个robots.txt,在文件中声明该网站中不想被搜索引擎录入的有些或许指定搜索引擎只录入特定的有些。

  二、robots.txt文件对网站有啥优点

  1、疾速增加网站权重和拜访量;

  2、制止某些文件被搜索引擎索引,能够节约服务器带宽和网站拜访速度;

  3、为搜索引擎供给一个简洁明了的索引环境

robots协议文件中应该屏蔽哪些文件?

  三、哪些网站的目录需求运用robots.txt文件制止抓取

  1)、图像目录

  图像是构成网站的首要组成元素。跟着现在建站越来越便利,许多cms的呈现,真实做到了会打字就会建网站,而正是由于如此便利,网上呈现了许多的同质化模板网站,被重复运用,这样的网站搜索引擎是必定不喜爱的,就算是你的网站被录入了,那你的作用也是很差的。若是你非要用这种网站的话,主张你大概在robots.txt文件中进行屏蔽,一般的网站图像目录是:imags或许img;

  2)、网站模板目录

  如上面图像目录中所说,cms的强大和灵敏,也致使了许多同质化的网站模板的呈现和乱用,高度的重复性模板在搜索引擎中形成了一种冗余,且模板文件常常与生成文件高度类似,相同易形成相同内容的呈现。对搜索引擎很不友爱,严峻的直接被搜索引擎打入冷宫,不得翻身,许多cms有具有独立的模板寄存目录,因而,大概进行模板目录的屏蔽。一般模板目录的文件目录是:templets

  3)、css、js目录的屏蔽

  css目录文件在搜索引擎的抓取中没有用途,也无法供给有价值的信息。所以强烈主张在robots.txt文件中将其进行屏蔽,以进步搜索引擎的索引质量。为搜索引擎供给一个简洁明了的索引环境更易晋升网站友爱性。css款式的目录一般情况下是:css或许style

  js文件在搜索引擎中无法进行辨认,这里仅仅主张,能够对其进行屏蔽,这样做也有一个优点:为搜索引擎供给一个简洁明了的索引环境;

  4)、屏蔽双页面的内容

  这里拿dedecms来举例吧。我们都晓得dedecms能够运用静态和动态url进行同一篇内容的拜访,若是你生成全站静态了,那你有必要屏蔽动态地址的url连接。这里有两个优点:1、搜索引擎对静态的url比动态的url更友爱、更简单录入;2、避免静态、动态url能拜访同一篇文章而被搜索引擎判为重复内容。这样做对搜索引擎友爱性来说是有益无害的。

  5)、模板缓存目录

  许多cms程序都有缓存目录,这种缓存目录的优点我想不用说我们也明白了吧,能够十分有用的晋升网站的拜访速度,削减网站带宽,对用户体会也是极好的。不过,这样的缓存目录也有必定的缺陷,那就是会让搜索引擎进行重复的抓取,一个网站中内容重复也是大祭,对网站百害而无一利。许多运用cms建站的兄弟都没有注意到,有必要要导致注重。

  6)被删去的目录

  死链过多,对搜索引擎优化来说,是丧命的。不能不导致站长的高度注重,。在网站的开展过程中,目录的删去和调整是不可避免的,若是你的网站当时目录不存在了,那有必要对此目录进行robots屏蔽,并回来正确的404过错页面(注意:在iis中,有的兄弟在设置404过错的时分,设置存在疑问,在自定义过错页面一项中,404过错的正确设置大概是挑选:默认值或许文件,而不大概是:url,以避免搜索引擎回来200的状况码。至于怎样设置,网上教程许多,我们要吧查找一下)

  这里有一个争议性的疑问,关于网站后台办理目录是不是需求进行屏蔽,其实这个可有可无。在能确保网站安全的情况下,若是你的网站运营规划较小,就算网站目录呈现在robots.txt文件中,也没有多大疑问,这个我也见过许多网站这样设置的;但若是你的网站运营规划较大,对手过多,强烈主张千万别呈现网站后台管理目录的信息,以防被心怀叵测的人使用,危害你的利益;引擎越来越智能,关于网站的管理目录仍是能极好的辨认,并抛弃索引的。别的,我们在做网站后台的时分,也能够在页面元标签中增加:进行搜索引擎的屏蔽抓取。

  四、robots.txt的基本语法

  内容项的基本格式:键:值对。

  1)User-Agent键

  后面的内容对应的是各个具体的搜索引擎爬行器的名称。如百度是Baiduspider,谷歌是Googlebot。

  一般我们这样写:

  User-Agent:*

  表示允许所有搜索引擎蜘蛛来爬行抓取。如果只想让某一个搜索引擎蜘蛛来爬行,在后面列出名字即可。如果是多个,则重复写。

  注意:User-Agent:后面要有一个空格。

  在robots.txt中,键后面加:号,后面必有一个空格,和值相区分开。

  2)Disallow键

  该键用来说明不允许搜索引擎蜘蛛抓取的URL路径。

  例如:Disallow:/index.php禁止网站index.php文件

  Allow键

  该键说明允许搜索引擎蜘蛛爬行的URL路径

  例如:Allow:/index.php允许网站的index.php

  通配符*

  代表任意多个字符

  例如:Disallow:/*.jpg网站所有的jpg文件被禁止了。

  结束符$

  表示以前面字符结束的url。

  例如:Disallow:/?$网站所有以?结尾的文件被禁止。

  五、robots.txt实例分析

  例1.禁止所有搜索引擎访问网站的任何部分

  User-agent:*

  Disallow:/

  例2.允许所有的搜索引擎访问网站的任何部分

  User-agent:*

  Disallow:

  例3.仅禁止Baiduspider访问您的网站

  User-agent:Baiduspider

  Disallow:/

  例4.仅允许Baiduspider访问您的网站

  User-agent:Baiduspider

  Disallow:

  例5.禁止spider访问特定目录

  User-agent:*

  Disallow:/cgi-bin/

  Disallow:/tmp/

  Disallow:/data/

  注意事项:1)三个目录要分别写。2)请注意最后要带斜杠。3)带斜杠与不带斜杠的区别。

  例6.允许访问特定目录中的部分url

  我希望a目录下只有b.htm允许访问,怎么写?

  User-agent:*

  Allow:/a/b.htm

  Disallow:/a/

  注:允许收录优先级要高于禁止收录。

  从例7开始说明通配符的使用。通配符包括("$"结束符;

  "*"任意符)

  例7.禁止访问网站中所有的动态页面

  User-agent:*

  Disallow:/*?*

  例8.禁止搜索引擎抓取网站上所有图片

  User-agent:*

  Disallow:/*.jpg$

  Disallow:/*.jpeg$

  Disallow:/*.gif$

  Disallow:/*.png$

  Disallow:/*.bmp$

  其他很多情况呢,需要具体情况具体分析。只要你了解了这些语法规则以及通配符的使用,相信很多情况是可以解决的。

  最终,需求阐明一点,许多站长兄弟喜爱把站点地图地址放在robots.txt文件中,当然这里并不是去屏蔽搜索引擎,而是让搜索引擎在首次索引网站的时分便能经过站点地图疾速的抓取网站内容。这里需求注意一下:1、站点地图的制造必定要标准;2、网站必定要有高质量的内容;


相关文章内容简介

1 新站关键词排名为什么会忽上忽下

  每个人都期待自己优化的网站有一个稳定的排名,尤其是主关键词。但是很多时候,除了一些长尾词之外,主关键词排名会忽上忽下,是什么原因引起的?   新站排名经常会出现关键词上下波动,一天有排名一天没有排名,多是因为网站的上线时间短导致的,这个属于正常情况。为什么新站会出现这种排名波动呢?因为一个上线的新站,想要在百度获取好的排名是很难的一件事,原因大概有三,一是收录太少,网站收录都没有,谈什么参与排名?第二个是受众少,不想老站那样会有忠实的粉丝用户,会寻址访问或者收藏夹访问,获得网站投票的外链和友链都没有都几乎没有;三是网站内容质量问题,一般新站的内容都是比较少的,很多功能模块还不完善,所以与老站丰富的内容相比还是有一定差距的。   那新站是不是就没有机会获得网站排名了呢?当然不会,百度对于新站是有一定照顾的,所以现象就来了,你会发现有时上线一个网站,几天之后就会有首页的排名,还能够坚挺排名几天,但是几天之后排名就全掉了,再过几天,排名又会这样周而复始,简称排名忽上忽下。百度通常给新站 [阅读全文]

2 高指数的关键词该如何优化

  一般网站优化指的是关键词指数在500以内,优化的效果更好,更快。高指数一般是百度指数1-2k范围内的。今天给自贡SEO小伙伴们,一起讨论高指数关键词的优化方式和思路,不代表权威性,仅供SEO爱好者借鉴。   操作流程:   1、分析关键词,确认网站主关键词,然后选择2-3个辅助关键词,注意关键词的关联性和选词方法;   2、围绕用户心理,分析用户的来源和搜索喜好等等;   3、合理分布关键词,无论是频道页或者栏目页,都需要根据服装主关键词来部署相关词和长尾词,以便后期获得长尾流量;   4、文章上传的频率要高,前3个月每天至少2篇文章,每篇文章带至少一张图片,图片与文章内容有相关性;   网站上线之后,接下来就是需要一个团队围绕这个主关键词进行合理的分工,人员配置方面至少需要外链专员、编辑、推广专员、团队负责人(主管),具体的人数按需而定。外链专员需要做的是产生高质量外链,找寻高质量友链,外链以锚文本为主要目标,其中90%的锚文本指向首页,10%的锚文本指向内页,如果有能力操作链 [阅读全文]

系统提示

登录密码错误!!!