郑州知网文化传播有限公司欢迎您!

如何写一个合理的robots.txt文件

作者:创始人 日期:2020-06-28 人气:2672
robots.txt文件的写法
User-agent: *    这里的*代表的所有的搜索引擎种类,*是一个通配符
Disallow: /admin/ 这里定义是禁止爬寻admin目录下面的目录
Disallow: /require/   这里定义是禁止爬寻require目录下面的目录
Disallow: /require/ 这里定义是禁止爬寻require目录下面的目录
Disallow: /ABC 这里定义是禁止爬寻ABC整个目录
Disallow: /cgi-bin/*.htm 禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
Disallow: /*?* 禁止访问网站中所有的动态页面
Disallow: .jpg$ 禁止抓取网页所有的.jpg格式的图片
Disallow:/ab/adc.html 禁止爬去ab文件夹下面的adc.html所有文件
User-agent: *   这里的*代表的所有的搜索引擎种类,*是一个通配符
Allow: /cgi-bin/  这里定义是允许爬寻cgi-bin目录下面的目录
Allow: /tmp 这里定义是允许爬寻tmp的整个目录
Allow: .htm$ 仅允许访问以".htm"为后缀的URL。
Allow: .gif$ 允许抓取网页和gif格式图片

在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即搜索引擎不会访问这三个目录。
需要注意的是对每一个目录必须分开声明,而不要写成 “Disallow: /cgi-bin/ /tmp/”。
User-agent:后的*具有特殊的含义,代表“any robot”,所以在该文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”这样的记录出现。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
Robot特殊参数:
允许 Googlebot:
如果您要拦截除 Googlebot 以外的所有漫游器访问您的网页,可以使用下列语法:
User-agent:
Disallow:/
User-agent:Googlebot
Disallow:
Googlebot 跟随指向它自己的行,而不是指向所有漫游器的行。

你觉得这篇文章怎么样?

00

快捷导航

开发双轨直销软件 找网络推广 哪家软件开发好 农场游戏软件定制 网络营销的方式 软件开发项目方案 qq农场这样的游戏开发 二级分销商城 网络推广平台的了解和选择 专业全网推广 网络推广营销托管公司 全新分销商城 直销软件设计 网络建设有限公司 开发app公司 河南网站建设 如何写网络营销方案 合作营销网站方案 独立商城分销 郑州做app的公司 销售推广方案策划 贵阳营销策划 资金盘直销软件开发 教育机构网络营销方案 信息网络推广 青岛营销策划 网络营销新方式 海外网络推广公司 婚庆网络营销方案 深圳软件开发平台