搜索引擎访问一个网站时,它首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。robots.txt文件用于限定搜索引擎对其网站的访问范围,即告诉搜索引擎网站中哪些文件是允许它进行检索(下载)的。这就是大家在网络上常看到的“拒绝robots访问标准”(robots exclusion standard)。下面我们简称res。 robots.txt文件的格式:robots.txt文件的格式比较特殊,它由记录组成。这些记录通过空行分开。其中每条记录均由两个域组成:
网站优化攻略:Robots.txt使用指南
搜索引擎访问一个网站时,它首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。robots.txt文件用于限定搜索引擎对其网站的访问范围,即告诉搜索引擎网站中哪些文…
本文来自网络,不代表1号站长-站长学院|资讯交流平台立场。转载请注明出处: https://www.1cn.cc/yunying/seo/23484.html
评论列表()