robots.txt

时间:2024-07-02 01:08:13编辑:优化君

robot.txt的文件格式

“robots.txt”文件包含一条或多条记录,这些记录通过空行分开(以CR、CR/NL、or NL作为结束符),每一条记录的格式如下所示:“:”在该文件中可以使用#进行注释,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow行,详细情况如下:User-agent:该项的值用于描述搜索引擎机器人robot的名字。在“robots.txt”文件中,如果有多条 User-agent记录,说明有多个robot会受到该协议的约束。所以,“robots.txt”文件中至少要有一条User- agent记录。如果该项的值设为*(通配符),则该协议对任何搜索引擎机器人均有效。在“robots.txt”文件 中,“User-agent:*”这样的记录只能有一条。Disallow:该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以 是部分的,任何以Disallow开头的URL均不会被robot访问到。例如:“Disallow: /help”对/help.html 和/help/index.html都不允许搜索引擎访问, 而“Disallow: /help/”则允许robot访问/help.html,而不能访问/help/index.html。任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在 “/robots.txt”文件中,至少要有一条Disallow记录。如果“/robots.txt”是一个空文 件,则对于所有的搜索引擎robot,该网站都是开放的。

如何设置robots.txt

robots.txt的使用方法和详细解释
robots.txt对于大多数有网站优化经验的朋友来说并不算太陌生,用过的朋友肯定会有感受,设置好robots.txt对网站优化来说利远远大于弊。今天彭宇诚就与大家分享一下robots.txt的使用方法,希望对大家有所帮助。

我们先来认识一下什么是robots.txt?

我理解的是robots.txt是通过代码控制搜索引擎蜘蛛索引的一个手段,以便减轻网站服务器的带宽使用率,从而让网站的空间更稳定,同时也可以提高网站其他页面的索引效率,提高网站收录。

下面我们再来熟悉一下怎样使用robots.txt?

首先,我们需要创建一个robots.txt文本文件,然后在文档内设置好代码,告诉搜索引擎我网站的哪些文件你不能访问。然后上传到网站根目录下面,因为当搜索引擎蜘蛛在索引一个网站时,会先爬行查看网站根目录下是否有robots.txt文件。

robots.txt文件内的代码书写规范我们也要注意,其中User-agent:*是必须存在的,表示对所有搜索引擎蜘蛛有效。Disallow:是说明不允许索引哪些文件夹


robots.txt错误是什么意思

TherequestedURLwasnotfoundonthisserver的意思是在此服务器上找不到所请求的URL。组织成正常的中文语序,意思就是:在该服务器上无法找到您想要浏览的这个URL(资源地址)下辖的‘item.htm’路径。item是条目,htm是html协议的简写,item.htm是url地址的一种固定路径格式,没有特定含义,可以不翻译。扩展资料:注意事项:1、404没有找到请求失败,在服务器上找不到所需的资源。没有信息告诉用户这种情况是暂时的还是永久的。如果服务器知道,它应该使用410状态代码告诉旧资源,由于一些内部配置机制问题,它是永久不可用的,没有地址跳到。当服务器不想透露请求被拒绝的确切原因,或者当没有其他合适的响应可用时,状态码404被广泛使用。此错误最可能的原因是服务器端没有页面。2、内部服务器错误服务器遇到意外情况,导致它无法完成对请求的处理。通常,当服务器端源代码中出现错误时,就会出现此问题。

关于robots.txt怎么写

robots 是站点与 spider 沟通的重要渠道,站点通过 robots 文件声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用 robots.txt 文件。如果您希望搜索引擎收录网站上所有内容,请勿建立 robots.txt 文件。robots 文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以 CR,CR/NL, or NL 作为结束符),每一条记录的格式如下所示: :在该文件中可以使用#进行注解,具体使用方法和 UNIX 中的惯例一样。该文件中的记录通常以一行或多行 User-agent 开始,后面加上若干 Disallow 和 Allow 行 , 详细情况如下:User-agent:该项的值用于描述搜索引擎 robot 的名字。在 "robots.txt" 文件中,如果有多条- User-agent 记录说明有多个 robot 会受到 "robots.txt" 的限制,对该文件来说,至少要有一条 User-agent 记录。如果该项的值设为 ,则对任何 robot 均有效,在 "robots.txt" 文件中,"User-agent:" 这样的记录只能有一条。如果在 "robots.txt" 文件中,加入 "User-agent:SomeBot" 和若干 Disallow、Allow 行,那么名为 "SomeBot" 只受到 "User-agent:SomeBot" 后面的 Disallow 和 Allow 行的限制。Disallow:该项的值用于描述不希望被访问的一组 URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以 Disallow 项的值开头的 URL 不会被 robot 访问。例如 "Disallow:/help" 禁止 robot 访问 /help.html、/helpabc.html、/help/index.html,而 "Disallow:/help/" 则允许 robot 访问 /help.html、/helpabc.html,不能访问 /help/index.html。"Disallow:" 说明允许 robot 访问该网站的所有 url,在 "/robots.txt" 文件中,至少要有一条 Disallow 记录。如果 "/robots.txt" 不存在或者为空文件,则对于所有的搜索引擎 robot,该网站都是开放的。Allow:该项的值用于描述希望被访问的一组 URL,与 Disallow 项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以 Allow 项的值开头的 URL 是允许 robot 访问的。例如 "Allow:/hibaidu" 允许 robot 访问 /hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有 URL 默认是 Allow 的,所以 Allow 通常与 Disallow 搭配使用,实现允许访问一部分网页同时禁止访问其它所有 URL 的功能。使用 "*"and"$":Baiduspider 支持使用通配符 "" 和 "$" 来模糊匹配 url。 "" 匹配 0 或多个任意字符 "$" 匹配行结束符。最后需要说明的是:百度会严格遵守 robots 的相关协议,请注意区分您不想被抓取或收录的目录的大小写,百度会对 robots 中所写的文件和您不想被抓取和收录的目录做精确匹配,否则 robots 协议无法生效。

怎么把robots.txt文件放在网站根目录下?网站根目录是什么

网站根目录就是你网站目录的顶级
例如 入口文件在 www/public/index.php,网站根目录就是www
robots.txt就在www/robots.txt
或者你的服务器有多个网站
例如网站A的入口文件 www/A/public/index.php
网站A的根目录就是www/A
robots.txt就在www/A/robots.txt
网站B的入口文件 www/B/public/index.php
网站B的根目录就是www/B
robots.txt就在www/B/robots.txt


robot.txt的使用技巧

每当用户试图访问某个不存在的URL时,服务器都会在日志中记录404错误(无法找到文件)。每当搜索蜘蛛来寻找并不存在的robots.txt文件时,服务器也将在日志中记录一条404错误,所以你应该在网站中添加一个robots.txt。网站管理员必须使搜索引擎机器人程序远离服务器上的某些目录,以保证服务器性能。比如:大多数网站服务器都有程序储存在“cgi-bin”目录下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是个好主意,这样能够避免所有程序文件都被蜘蛛索引,以达到节省服务器资源的效果。一般网站中不需要蜘蛛抓取的文件有:后台管理文件、程序脚本、附件、数据库文件、编码文件、样式表文件、模板文件、导航图片和背景图片等等。下面是VeryCMS里的robots.txt文件:User-agent: *Disallow: /admin/ 后台管理文件Disallow: /require/程序文件Disallow: /attachment/ 附件Disallow: /images/ 图片Disallow: /data/数据库文件Disallow: /template/ 模板文件Disallow: /css/ 样式表文件Disallow: /lang/ 编码文件Disallow: /script/脚本文件Disallow: /js/js文件如果你的网站是动态网页,并且你为这些动态网页创建了静态副本,以供搜索蜘蛛更容易抓取。那么你需要在robots.txt文件里设置避免动态网页被蜘蛛索引,以保证这些网页不会被视为是网站重复的内容。robots.txt文件里还可以直接包括在sitemap文件的链接。就像这样:Sitemap: http://www.***.com/sitemap.xml目 前对此表示支持的搜索引擎公司有Google, Yahoo, Ask and MSN。而中文搜索引擎公司,显然不在这个圈子内。这样做的好处就是,站长不用到每个搜索引擎的站长工具或者相似的站长部分,去提交自己的sitemap文件,搜索引擎的蜘蛛自己就会抓取robots.txt文件,读取其中的sitemap路径,接着抓取其中相链接的网页。合理使用robots.txt文件还能避免访问时出错。比如,不能让搜索者直接进入购物车页面。因为没有理由使购物车被收录,所以你可以在robots.txt文件里设置来阻止搜索者直接进入购物车页面。

如何写网站robots.txt

robots.txt撰写方法:
(1),允许所有的搜索引擎访问网站的所有部分或者建立一个空白的文本文档,命名为robots.txt。
User-agent:*Disallow:或者User-agent:*Allow:/
(2),禁止所有搜索引擎访问网站的所有部分。
User-agent:*Disallow:/
(3),禁止百度索引你的网站。
User-agent:BaiduspiderDisallow:/
(4),禁止Google索引你的网站。
User-agent:GooglebotDisallow:/
(5),禁止除百度以外的一切搜索引擎索引你的网站。
User-agent:BaiduspiderDisallow:User-agent:*Disallow:/
(6),禁止除Google以外的一切搜索引擎索引你的网站。
User-agent:GooglebotDisallow:User-agent:*Disallow:/
(7),禁止和允许搜索引擎访问某个目录,如:禁止访问admin目录;允许访问images目录。
User-agent:*Disallow:/admin/Allow:/images/
(8),禁止和允许搜索引擎访问某个后缀,如:禁止访问admin目录下所有php文件;允许访问asp文件。
User-agent:*Disallow:/admin/*.php$Allow:/admin/*.asp$
(9),禁止索引网站中所有的动态页面(这里限制的是有“?”的域名,如:index.php?id=8)。
User-agent:*Disallow:/*?*


"robots.txt"是什么?求大神帮助

一.什么是robots.txt文件? 搜索引擎通过一种程序robot(又称spider),自动访问互联网上的网页并获取网页信息。 您可以在您的网站中创建一个纯文本文件robots.txt,在这个文件中声明该网站中不想被robot访问的部分,这样,该网站的部分或全部内容就可以不被搜索引擎收录了,或者指定搜索引擎只收录指定的内容。 二.robots.txt文件放在哪里? robots.txt文件应该放在网站根目录下。举例来说,当robots访问一个网站(比如http://www.abc.com )时,首先会检查该网站中是否存在http://www.abc.com /robots.txt这个文件,如果机器人找到这个文件,它就会根据这个文件的内容,来确定它访问权限的范围。 网站URL相应的robots.txt的URL http://www.w3.org/ http://www.w3.org/ robots.txt http://www.w3.org:80/ http://www.w3.org:80/ robots.txt http://www.w3.org:1234/ http://www.w3.org:1234/ robots.txt http://w3.org/??http://w3.org/robots.txt 三.robots.txt文件的格式 "robots.txt"文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL,orNL作为结束符),每一条记录的格式如下所示: ":"。 在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow行,详细情况如下: User-agent: 该项的值用于描述搜索引擎robot的名字,在"robots.txt"文件中,如果有多条User-agent记录说明有多个robot会受到该协议的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为*,则该协议对任何机器人均有效,在"robots.txt"文件中,"User-agent:*"这样的记录只能有一条。 Disallow: 该项的值用于描述不希望被访问到的一个URL,这个URL可以是一条完整的路径,也可以是部分的,任何以Disallow开头的URL均不会被robot访问到。例如"Disallow:/help"对/help.html和/help/index.html都不允许搜索引擎访问,而"Disallow:/help/"则允许robot访问/help.html,而不能访问/help/index.html。 任何一条Disallow记录为空,说明该网站的所有部分都允许被访问,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"是一个空文件,则对于所有的搜索引擎robot,该网站都是开放的。 四.robots.txt文件用法举例 例1.禁止所有搜索引擎访问网站的任何部分 下载该robots.txt文件 User-agent:* Disallow:/ 例2.允许所有的robot访问 (或者也可以建一个空文件"/robots.txt"file) ?? User-agent:* Disallow: 例3.禁止某个搜索引擎的访问 User-agent:BadBot Disallow:/ 例4.允许某个搜索引擎的访问 User-agent:baiduspider Disallow: User-agent:* Disallow:/ 例5.一个简单例子 在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。 需要注意的是对每一个目录必须分开声明,而不要写成"Disallow:/cgi-bin//tmp/"。 User-agent:后的*具有特殊的含义,代表"anyrobot",所以在该文件中不能有"Disallow:/tmp/*"or"Disallow:*.gif"这样的记录出现. User-agent:* Disallow:/cgi-bin/ Disallow:/tmp/ Disallow:/~joe/ 五.robots.txt文件参考资料 robots.txt文件的更具体设置,请参看以下链接: ·WebServerAdministrator''sGuidetotheRobotsExclusionProtocol ·HTMLAuthor''sGuidetotheRobotsExclusionProtocol ·Theoriginal1994protocoldescription,ascurrentlydeployed ·TherevisedInternet-Draftspecification,whichisnotyetcompletedorimplemented 在你的主页中为WebRobot设计路标 Internet越来越酷,WWW的知名度如日中天。在Internet上发布公司信息、进行电子商务已经从时髦演化成时尚。作为一个WebMaster,你可能对HTML、javascript、Java、ActiveX了如指掌,但你是否知道什么是WebRobot?你是否知道WebRobot和你所设计的主页有什么关系? Internet上的流浪汉---WebRobot 有时你会莫名其妙地发现你的主页的内容在一个搜索引擎中被索引,即使你从未与他们有过任何联系。其实这正是WebRobot的功劳。WebRobot其实是一些程序,它可以穿越大量Internet网址的超文本结构,递归地检索网络站点所有的内容。这些程序有时被叫“蜘蛛(Spider)”,“网上流浪汉(WebWanderer)”,“网络蠕虫(webworms)”或Webcrawler。一些Internet网上知名的搜索引擎站点(SearchEngines)都有专门的WebRobot程序来完成信息的采集,例如Lycos,Webcrawler,Altavista等,以及中文搜索引擎站点例如北极星,网易,GOYOYO等。 WebRobot就象一个不速之客,不管你是否在意,它都会忠于自己主人的职责,任劳任怨、不知疲倦地奔波于万维网的空间,当然也会光临你的主页,检索主页内容并生成它所需要的记录格式。或许有的主页内容你乐于世人皆知,但有的内容你却不愿被洞察、索引。难道你就只能任其“横行”于自己主页空间,能否指挥和控制WebRobot的行踪呢?答案当然是肯定的。只要你阅读了本篇的下文,就可以象一个交通警察一样,布置下一个个路标,告诉WebRobot应该怎么去检索你的主页,哪些可以检索,哪些不可以访问。 其实WebRobot能听懂你的话 不要以为WebRobot是毫无组织,毫无管束地乱跑。很多WebRobot软件给网络站点的管理员或网页内容制作者提供了两种方法来限制WebRobot的行踪: 1、RobotsExclusionProtocol协议 网络站点的管理员可以在站点上建立一个专门格式的文件,来指出站点上的哪一部分可以被robot访问,这个文件放在站点的根目录下,即robots.txt."target="_blank">http://.../robots.txt. 2、RobotsMETAtag 一个网页作者可以使用专门的HTMLMETAtag,来指出某一个网页是否可以被索引、分析或链接。 这些方法适合于大多数的WebRobot,至于是否在软件中实施了这些方法,还依赖于Robot的开发者,并非可以保证对任何Robot都灵验。如果你迫切需要保护自己内容,则应考虑采用诸如增加密码等其他保护方法。 使用RobotsExclusionProtocol协议 当Robot访问一个Web站点时,比如http://www.sti.net.cn/ ,它先去检查文件robots.txt"target="_blank">http://www.sti.net.cn/ robots.txt。如果这个文件存在,它便会按照这样的记录格式去分析: User-agent:* Disallow:/cgi-bin/ Disallow:/tmp/ Disallow:/~joe/ 以确定它是否应该检索站点的文件。这些记录是专门给WebRobot看的,一般的浏览者大概永远不会看到这个文件,所以千万不要异想天开地在里面加入形似类的HTML语句或是“Howdoyoudo?whereareyoufrom?”之类假情假意的问候语。 在一个站点上只能有一个"/robots.txt"文件,而且文件名的每个字母要求全部是小写。在Robot的记录格式中每一个单独的"Disallow"行表示你不希望Robot访问的URL,每个URL必须单独占一行,不能出现"Disallow:/cgi-bin//tmp/"这样的病句。同时在一个记录中不能出现空行,这是因为空行是多个记录分割的标志。 User-agent行指出的是Robot或其他代理的名称。在User-agent行,''*''表示一个特殊的含义---所有的robot。 下面是几个robot.txt的例子: 在整个服务器上拒绝所有的robots: User-agent:* Disallow:/ 允许所有的robots访问整个站点: User-agent:* Disallow: 或者产生一个空的"/robots.txt"文件。 服务器的部分内容允许所有的robot访问 User-agent:* Disallow:/cgi-bin/ Disallow:/tmp/ Disallow:/private/ 拒绝某一个专门的robot: User-agent:BadBot Disallow:/ 只允许某一个robot光顾: User-agent:WebCrawler Disallow: User-agent:* Disallow:/ 最后我们给出http://www.w3.org/ 站点上的robots.txt: #Forusebysearch.w3.org User-agent:W3Crobot/1 Disallow: User-agent:* Disallow:/Member/#ThisisrestrictedtoW3CMembersonly Disallow:/member/#ThisisrestrictedtoW3CMembersonly Disallow:/team/#ThisisrestrictedtoW3CTeamonly Disallow:/TandS/Member#ThisisrestrictedtoW3CMembersonly Disallow:/TandS/Team#ThisisrestrictedtoW3CTeamonly Disallow:/Project Disallow:/Systems Disallow:/Web Disallow:/Team 使用RobotsMETAtag方式 RobotsMETAtag允许HTML网页作者指出某一页是否可以被索引,或是否可以用来查找更多的链接文件。目前只有部分robot实施了这一功能。 RobotsMETAtag的格式为: 象其他的METAtag一样,它应该放在HTML文件的HEAD区: ... ... RobotsMETAtag指令使用逗号隔开,可以使用的指令包括[NO]INDEX和[NO]FOLLOW。INDEX指令指出一个索引性robot是否可以对本页进行索引;FOLLOW指令指出robot是否可以跟踪本页的链接。缺省的情况是INDEX和FOLLOW。例如: 一个好的Web站点管理员应该将robot的管理考虑在内,使robot为自己的主页服务,同时又不损害自己网页的安全。


网站robot.txt如何设置

•要匹配连续字符,请使用星号 (*)。例如,要拦截对所有以 private 开头的子目录的访问,请使用以下内容:
User-agent: Googlebot
Disallow: /private*/

•要拦截对所有包含问号 (?) 的网址的访问(具体地说,这种网址以您的域名开头、后接任意字符串,然后接问号,而后又接任意字符串),请使用以下内容:
User-agent: Googlebot
Disallow: /*?

•要指定与某个网址的结尾字符相匹配,请使用 $。例如,要拦截以 .xls 结尾的所有网址,请使用以下内容:
User-agent: Googlebot
Disallow: /*.xls$

•要拦截整个网站,请使用正斜线。
Disallow: /
•要拦截某一目录以及其中的所有内容,请在目录名后添加正斜线。
Disallow: /无用目录/
•要拦截某个网页,请列出该网页。
Disallow: /私人文件.html
•要从 Google 图片中删除特定图片,请添加以下内容:
User-agent: Googlebot-Image
Disallow: /images/狗.jpg
•要从 Goo le 图片中 除您网站上的所有图片,请执行以下指令:
User-agent: Googlebot-Image
Disallow: /
•要拦截某一特定文件类型的文件(例如 .gif),请使用以下内容:
User-agent: Googlebot
Disallow: /*.gif$


什么是robots.txt文件

应该是robots.txt文件吧, robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。Robots.txt文件告诉蜘蛛程序在服务器上什么文件是可以被查看的。robots.txt 是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。 当一个搜索机器人robots(有的叫搜索蜘蛛或者爬虫)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索引擎爬虫就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索引擎爬虫就沿着链接抓取。robots.txt 文件限制抓取网络的搜索引擎爬虫对您的网站的访问。这些搜索引擎爬虫是自动的,它们在访问任意网站的网页之前,都会查看是否存在阻止它们访问特定网页的 robots.txt 文件。(虽然某些搜索引擎爬虫可能会以不同的方式解释 robots.txt 文件中的指令,但所有正规的搜索引擎爬虫都会遵循这些指令。然而,robots.txt 不是强制执行的,一些垃圾信息发送者和其他麻烦制造者可能会忽略它。因此,我们建议对机密信息采用密码保护。) 只有当您的网站中包含您不想让搜索引擎编入索引的内容时,才需要使用 robots.txt 文件。如果您希望搜索引擎将网站上的所有内容编入索引,则不需要 robots.txt 文件(甚至连空的 robots.txt 文件也不需要)。 为了能使用 robots.txt 文件,您必须要有对您网站的根目录的访问权限(如果您不能确定是否有该权限,请与您的网络托管商核实)。如果您没有对网站的根目录的访问权限,可以使用robots元标记来限制访问。


上一篇:you da one

下一篇:robots.txt协议