站长之家 - 优化 2009-02-06 14:18

教你robots文件使用方法屏蔽搜索抓取方法

《教你robots文件使用方法屏蔽搜索抓取方法》文章已经归档,站长之家不再展示相关内容,下文是站长之家的自动化写作机器人,通过算法提取的文章重点内容。这只AI还很年轻,欢迎联系我们帮它成长:

“robots.txt”文件包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL,orNL作为结束符),每一条记录的格式如下所示:...

在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样...

在此情况下,可对robots.txt文件进行如下设置:...

对于没有配置robots.txt的网站,Spider将会被重定向至404错误页面,相关研究表明,如果网站采用了自定义的404错误页面,那么Spider将会把其视作robots.txt——虽然其并非一个纯粹的文本文件——这将给Spider索引网站带来很大的困扰,影响搜索引擎对网站页面的收录...

......

本文由站长之家用户“中国站长站”投稿,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完整的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请联系作者获取原文。

推荐关键词

24小时热搜

查看更多内容

大家正在看