当搜索引擎蜘蛛访问您的网站时,它会读取包含一组特殊规则的 Robots.txt 文件。因此,此 Robots.txt 文件包含许多限制,例如允许您扫描和索引哪些目录,以及不允许您扫描和索引哪些目录,并且类似的规则适用于文件、网页和其他项目您不想在公共搜索结果中显示。因此,Robots.txt 文件对于保护您的网站免受黑客攻击非常重要,因为它允许您指定管理面板的地址以及您不想在搜索引擎中显示的其他敏感目录。
那么,如何在这个 robots.txt 文件中编写规则?嗯,初学者不容易,写robots.txt文件需要时间。这就是 Useotools.com 提供免费工具 Robots.txt Creator 的原因,它让您只需点击几下,即可在几秒钟内生成 robots.txt 文件。因此,该工具具有多种设置,如下所述。
默认 - 所有机器人为:此选项有两种选择:“允许”和“拒绝”。如果您希望所有搜索引擎机器人访问和扫描您的网站,请将其设置为“允许”,但互联网并不那么可靠。那里有一些讨厌的机器人,所以如果你想将特定的机器人或蜘蛛列入黑名单,请将其设置为“拒绝”。 Crawl-Delay:这是一条重要的规则。它允许蜘蛛将扫描延迟特定的时间。例如,如果您有一个带有大型站点地图的大型站点,您不希望通过允许蜘蛛同时浏览您的站点来使服务器超载。因此,您应该设置 Crawl Delay 以便蜘蛛缓慢地抓取您的网站并且不会使服务器超载。站点地图:站点地图是另一个重要规则。如果您的网站很大,则必须保留站点地图,以便搜索引擎蜘蛛知道要探索什么。它与新访客的城市地图非常相似。如果您的网站有站点地图,您可以在此处输入。搜索机器人:这是您可以接受或拒绝的搜索引擎机器人/蜘蛛列表。受限目录:您可以使用此部分指定不希望搜索引擎抓取和查看的受限目录名称和路径。