站长之家 - 优化 2012-09-03 10:34

搜索引擎的Robots规则

robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。通常认为,robots.txt文件用来搜索引擎对目标网页的抓取。 robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别

......

本文由站长之家用户投稿发布于站长之家平台,本平台仅提供信息索引服务。为了保证文章信息的及时性,内容观点的准确性,平台将不提供完全的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请查看原文,获取内容详情。

推荐关键词

24小时热搜

查看更多内容

大家正在看

千问终究要回到Chatbot