3 如何使用robots.txt仅禁止子域? 我的代码库几种环境(活,分期,DEV)&子域(之间共享staging.example,dev.example等),并且只有两个应允许被抓取(即www.example和example)。通常,我会修改/robots.txt并添加Disallow: /,但是由于共享的代码库,我无法在/robots.txt不影响所有(子)域的情况下进行修改。 任何想法如何去做? 10 domains subdomain robots.txt multi-subdomains