打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
robots.txt文件怎么配置! - 已解决 - 搜搜问问
例1. 禁止所有搜索引擎访问网站的任何部分

User-agent: *
Disallow: /

例2. 允许所有的robot访问
(或者也可以建一个空文件 "/robots.txt")
User-agent: *
Disallow:
或者
User-agent: *
Allow: / 

例3. 仅禁止baiduspider访问您的网站 User-agent: baiduspider
Disallow: /

例4. 仅允许baiduspider访问您的网站 User-agent: baiduspider
Disallow:

User-agent: *
Disallow: /

例5.禁止spider访问特定目录
  在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/

例6. 允许访问特定目录中的部分url
User-agent: *
Allow: /cgi-bin/see
Allow: /tmp/hi
Allow: /~joe/look
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/

例7. 使用"*"限制访问url
   禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
User-agent: *
Disallow: /cgi-bin/*.htm

例8. 使用"$"限制访问url
   仅允许访问以".htm"为后缀的URL。 User-agent: *
Allow: .htm$
Disallow: /

例9. 禁止访问网站中所有的动态页面
User-agent: *
Disallow: /*?*
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
robot文件
robots.txt如何使用?掌握下面几点:
SEO中的robots规则与网站最为亲密
网站robots.txt文件的安全设置
Robots.txt指南:全国特价虚拟主机联盟!
robots.txt和Robot.txt准确代码的写法说明
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服