Robots.txt 创建者


默认-所有机器人都是:  
    
抓取延迟:
    
网站地图: (如果没有,请留空) 
     
搜索机器人: Google
  Google Image
  Google Mobile
  MSN Search
  Yahoo
  Yahoo MM
  Yahoo Blogs
  Ask/Teoma
  GigaBlast
  DMOZ Checker
  Nutch
  Alexa/Wayback
  Baidu
  Naver
  MSN PicSearch
   
受限目录: 该路径是相对于根的,并且必须包含一个斜杠 "/"
 
 
 
 
 
 
   



现在,在您的根目录下创建“ robots.txt”文件。复制上面的文本并粘贴到文本文件中。




关于 Robots.txt 创建者

什么是 Robots.txt?

当搜索引擎蜘蛛访问您的网站时,它会读取包含一组特殊规则的 Robots.txt 文件。因此,此 Robots.txt 文件包含许多限制,例如允许您扫描和索引哪些目录,以及不允许您扫描和索引哪些目录,并且类似的规则适用于文件、网页和其他项目您不想在公共搜索结果中显示。因此,Robots.txt 文件对于保护您的网站免受黑客攻击非常重要,因为它允许您指定管理面板的地址以及您不想在搜索引擎中显示的其他敏感目录。

Useotools Robots.txt Creator 是什么?

那么,如何在这个 robots.txt 文件中编写规则?嗯,初学者不容易,写robots.txt文件需要时间。这就是 Useotools.com 提供免费工具 Robots.txt Creator 的原因,它让您只需点击几下,即可在几秒钟内生成 robots.txt 文件。因此,该工具具有多种设置,如下所述。

默认 - 所有机器人为:此选项有两种选择:“允许”和“拒绝”。如果您希望所有搜索引擎机器人访问和扫描您的网站,请将其设置为“允许”,但互联网并不那么可靠。那里有一些讨厌的机器人,所以如果你想将特定的机器人或蜘蛛列入黑名单,请将其设置为“拒绝”。 Crawl-Delay:这是一条重要的规则。它允许蜘蛛将扫描延迟特定的时间。例如,如果您有一个带有大型站点地图的大型站点,您不希望通过允许蜘蛛同时浏览您的站点来使服务器超载。因此,您应该设置 Crawl Delay 以便蜘蛛缓慢地抓取您的网站并且不会使服务器超载。站点地图:站点地图是另一个重要规则。如果您的网站很大,则必须保留站点地图,以便搜索引擎蜘蛛知道要探索什么。它与新访客的城市地图非常相似。如果您的网站有站点地图,您可以在此处输入。搜索机器人:这是您可以接受或拒绝的搜索引擎机器人/蜘蛛列表。受限目录:您可以使用此部分指定不希望搜索引擎抓取和查看的受限目录名称和路径。

你的想法


搜索
赞助
密码观察
跟着我们
公告

添加了新工具:SVG 缩放尺寸计算器

赞助