打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
Robots.txt和sitemap索引文件【kekewolf】


robots.txt和sitema.xml基本的东西大家随便百度下,都会里了解的很清楚,在seo牛人网里kekewolf说下robots文件、sitemap大件应该注意的事!

【robots.txt的优点】

1. 几乎所有的搜索引擎Spider都遵循robots.txt给出的爬行规则,协议规定搜索引擎Spider进入某个网站的入口即是该网站的robots.txt,当然,前提是该网站存在此文件。对于没有配置robots.txt的网站,Spider将会被重定向至404 错误页面,相关研究表明,如果网站采用了自定义的404错误页面,那么Spider将会把其视作robots.txt——虽然其并非一个纯粹的文本文件——这将给Spider索引网站带来很大的困扰,影响搜索引擎对网站页面的收录。

2. robots.txt可以制止不必要的搜索引擎占用服务器的宝贵带宽,如email retrievers,这类搜索引擎对大多数网站是没有意义的;再如image strippers,对于大多数非图形类网站来说其也没有太大意义,但却耗用大量带宽。

3. robots.txt可以制止搜索引擎对非公开页面的爬行与索引,如网站的后台程序、管理程序,事实上,对于某些在运行中产生临时页面的网站来说,如果未配置robots.txt,搜索引擎甚至会索引那些临时文件。

4. 对于内容丰富、存在很多页面的网站来说,配置robots.txt的意义更为重大,因为很多时候其会遭遇到搜索引擎Spider给予网站的巨大压力:洪水般的Spider访问,如果不加控制,甚至会影响网站的正常访问。

5. 同样地,如果网站内存在重复内容,使用robots.txt限制部分页面不被搜索引擎索引和收录,可以避免网站受到搜索引擎关于 duplicate content的惩罚,保证网站的排名不受影响。

【温馨提示:robots.txt带来的风险及解决】

1. 凡事有利必有弊,robots.txt同时也带来了一定的风险:其也给攻击者指明了网站的目录结构和私密数据所在的位置。虽然在Web服务器的安全措施配置得当的前提下这不是一个严重的问题,但毕竟降低了那些不怀好意者的攻击难度。

  比如说,如果网站中的私密数据通过http://www.seoniuren.com/private/index.html 访问,那么,在robots.txt的设置可能如下:

User-agent: *
Disallow: /private/

  这样,攻击者只需看一下robots.txt即可知你要隐藏的内容在哪里,在浏览器中输入http://www.seoniuren.com/private/ 便可访问我们不欲公开的内容。对这种情况,一般采取如下的办法:

设置访问权限,对/private/中的内容实施密码保护,这样,攻击者便无从进入。
另一种办法是将缺省的目录主文件index.html更名为其他,比如说abc-protect.html,这样,该内容的地址即变成http://www.seoniuren.com/private/abc-protect.htm,同时,制作一个新的index.html文件,内容大致为“你没有权限访问此页”之类,这样,攻击者因不知实际的文件名而无法访问私密内容。
2. 如果设置不对,将导致搜索引擎将索引的数据全部删除。

User-agent: *
Disallow: /
上述代码将禁止所有的搜索引擎索引数据。

======附ZAC【这个名人你可以百度下】对自己电子商务网站的robots的设置:===========


# robots.txt for http://www.chinamyhosting.com
User-agent: *
Disallow: /cgi-bin/
Disallow: /images/
Disallow: /footer.txt
Disallow: /lefter.txt
Disallow: /header.txt
Disallow: /form.txt
Disallow: /kb/print/
Disallow: /kb/comment/
Disallow: /seoblog/go/

User-agent: Googlebot
Disallow: /*/*/*/*/*/feed/
Disallow: /*/*/*/*/*/trackback/
Disallow: /seoblog/index.php?image=*
Disallow: /kb/print/
Disallow: /kb/comment/
Disallow: /seoblog/go/
Disallow: /seoblog/?r=*
Disallow: /seoblog/page/*/?*

User-Agent: Yahoo! Slurp
Disallow: /*/*/*/*/*/feed/
Disallow: /*/*/*/*/*/trackback/
Disallow: /seoblog/index.php?image=*
Disallow: /kb/print/
Disallow: /kb/comment/
Disallow: /seoblog/go/
Disallow: /seoblog/?r=*

User-Agent: MJ12bot
Disallow:


二、sitemap索引文件

Sitemap.xml文件大家都知道,这里我就说说sitemap索引文件!索引文件的作用是指引搜索引擎爬行你真正的sitemap文件的。一般情况下,当你的sitemap文件至少在两个或以上时,才建议设立sitemap索引文件。在根目录下建立以sitemap.xml命名的索引文件指向你真正的sitemap文件。

sitemap.xml命名的索引文件建立如下:



该 sitemap索引列出了三个 sitemap:

该 sitemap索引列出了三个 sitemap:

<?xml version=”1.0″ encoding=”UTF-8″?>

<sitemapindex xmlns=”http://www.google.com/schemas/sitemap/0.84″>

<sitemap>

  <loc>http://www.seoniuren.com/sitemap.xml</loc>

  <lastmod>2009-07-23</lastmod>

</sitemap>

<sitemap>

  <loc>http://www.seoniuren.com/xml/sitemap2.xml.gz</loc>

  <lastmod>2009-07-23</lastmod>

</sitemap>

<sitemap>

  <loc>http://www.seoniuren.com/xml/sitemap2.xml.gz</loc>

  <lastmod>2009-07-23</lastmod>

</sitemap>

</sitemapindex>

<loc>标记并用其来识别 Sitemap的位置。

<lastmod>是可选标记,用于指示Sitemap文件的修改时间。

<sitemap>封装单个 Sitemaps 的相关信息。

<sitemapindex>会压缩有关文件中的所有 Sitemaps 的信息。

前面这些大多数人通过网络都可以了解到,对于示例中的

http://www.xxx.com/sitemap1.xml.gz后的gz却有点不解,其实很简单,gz格式为xml的压缩格式。gz为gzip的缩写,gzip最初用于UNIX系统的文件压缩,现今已经成为Internet 上使用非常普遍的一种数据压缩格式,或者说一种文件格式。



转载请写明出处:http://www.seoniuren.com/thread-2062-1-1.html


关键词:【SEO牛人网kekewolf】 robots.txt优缺点  sitemap索引文件



本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
如何设置wordpress robots.txt
Robots.txt
Wordpress针对百度的优化方案
织梦dedecms标准robots.txt
多个sitemap文件该如何处理 如何向搜索引擎提交多个sitemap文件?
网站优化教程:网站地图的建立
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服