Robots.txt
更新时间:
Robots.txt主要针对爬虫技术,用简单直接的txt格式文本方式告诉对应的爬虫被允许的权限。本文旨在介绍添加Robots.txt的途径。
背景信息
当一个搜索蜘蛛访问一个站点时,它会首先检查该站点的根目录下是否存在Robots.txt,如果存在,搜索蜘蛛就会按照该文件中的内容来确定访问的范围,如果该文件不存在,搜索蜘蛛能访问网站上所有没有被口令保护的页面。
操作步骤
进入Robots.txt页面:在产品控制台左侧的导航栏中单击 。
添加Robots.txt文件:通过选择上传文件即可完成添加Robot.txt操作。Robots.txt的写法请参见网站管理常见问题。
文档内容是否对您有帮助?