打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
如何制作网站robots.txt文件?

如何制作网站robots.txt文件?当蜘蛛进入一个网站,首先看的就是robots.txt文件了,如果你不懂这个,就会很麻烦,如果由于不懂robots文件,是很容易导致网站不被搜索引擎爬行,那么做网站就没有任何的意义了。因此我们真的有必要来了解下,怎么制作网站robots文件了。SEO基本技巧有哪些?

那么,网站robots.txt文件该怎么编写呢?请大家看下面的编写方法:

User-agent:制定规则适用于哪个蜘蛛。

“*”代表所有搜索引擎。针对某个搜索引擎,则写该搜索引擎蜘蛛名称。在国内,99%的企业网站和个人,都非常的重视百度搜索引擎了,因此都是不会选择屏蔽百度搜索引起了。

这是我写得robots.txt文件

User-agent:Baiduspider 百度蜘蛛

User-agent:Googlebot-Mobile 谷歌蜘蛛

User-agent:360Spider 360蜘蛛

User-agent:Sosospider SOSO蜘蛛

User-agent:Sogou News Spider 搜狗蜘蛛

Robots文件中的特殊符号的作用和意思:

*表示所有搜索引擎,用于指定蜘蛛使用;菜鸟怎么学好SEO优化?

~表示以某字符串开头;

$表示以某字符串结尾;

/表示当前目录下的所有内容。

参数说明:

User-agent 指定搜索引擎蜘蛛名称;

Disallow要禁止抓取的内容;

Allow允许抓取的内容。

不同的网站,写法也是不一样的,希望可以帮到那些对robots.txt文件还不太了解的SEO新手朋友们。喜欢此文章,你就在下面回复下,毛毛万分感谢你。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
分享一下robots.txt写法
网站还没准备好,如何让它暂时不要被百度收录
robots协议是什么意思?robots.txt文件的作用是什么?
让蜘蛛飞一会儿
Robots文件在网站优化中的使用
seo的双刃剑--robots.txt简介
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服