Tengo dos sitios en los que estoy trabajando actualmente, que es un carrito de compras y otro comprador. Ambos están bajo el mismo nombre de dominio, por ejemplo
http://example.com/first_url
http://example.com/second_url
Ambas URL tienen toneladas de páginas debajo de ellas.
http://example.com/first_url/product1
http://example.com/first_url/product2
http://example.com/first_url/product3
http://example.com/second_url/product1
http://example.com/second_url/product2
http://example.com/second_url/product3
¿Cómo rechazo la URL principal /first_url
y /second_url
también todas las subpáginas y subdirectorios? Estaba pensando en algo como esto, pero no sé si esto funciona o no y si era la sintaxis correcta
Disallow: /first_url/*/
Disallow: /second_url/*/
seo
robots.txt
Stephen Ostermiller
fuente
fuente
Respuestas:
No necesita la barra diagonal final para bloquear esos directorios. Esto funcionará:
Esta página de ayuda de Google cubre esto bastante bien.
fuente
Puede usar esto como predeterminado
robots.txt
:La estrella permitirá que todo lo que se encuentre en esa categoría no se permita. Incluso puede rechazar una cosa específica en esa categoría escribiendo esa url específica.
fuente