Mi base de código se comparte entre varios entornos (en vivo, puesta en escena, dev) y subdominios ( staging.example
, dev.example
, etc.) y sólo dos se debe permitir que se rastree (es decir. www.example
, Y example
). Normalmente modificaría /robots.txt
y agregaría Disallow: /
, pero debido a la base de código compartido no puedo modificar /robots.txt
sin afectar a todos los (sub) dominios.
¿Alguna idea de cómo hacerlo?
sub.example.com/robots.txt
, por lo que deberá hacer algo para responder de manera diferente según el subdominio. No necesita usar mod_rewrite, pero es una técnica que he visto usar varias veces. Sirobots.txt
se genera dinámicamente, puede cambiar la respuesta en el código del lado del servidor (por ejemplo, PHP).robots.txt
podría ser evitar la indexación, en lugar de rastrear, enviando unX-Robots-Tag: noindex
encabezado de respuesta HTTP cuando se accede a dichos subdominios (que también se puede hacer en .htaccess). Aunque creo que es preferible evitar el rastreo. (?)robots.txt
funciona solo si está presente en la raíz.Debe cargar un
robots.txt
sitio web separado para cada subdominio, desde donde se puede accederhttp://subdomain.example.com/robots.txt
.Agregue el código a continuación en
robots.txt
Y otra forma es insertar una
<META>
etiqueta de Robots en todas las páginas.fuente
/robots.txt
y agregaríaDisallow: /
, pero debido a la base de código compartido no puedo modificar/robots.txt
sin afectar a todos los (sub) dominios".Quitaría la metaetiqueta de la página html y la construiría dinámicamente dependiendo de su subdominio. por ejemplo, usamos subdominio dev. Para desarrollo. Entonces, en el evento de carga de página tenemos esto:
fuente