Tengo algunas URL dinámicas generadas.
¿Puedo usar regex para bloquear estas URL en un archivo robots.txt?
robots.txt
regular-expression
Sudheera Njs
fuente
fuente
Respuestas:
Las expresiones regulares no son válidas en robots.txt, pero Google, Bing y algunos otros robots reconocen alguna coincidencia de patrones.
Indique si desea bloquear todas las URL que tienen un
example
lugar en la URL, puede usar una entrada comodín *También puede usar el signo de dólar $ para especificar que las URL deben terminar de esa manera. Entonces, si desea bloquear todas las URL que terminan con
example
, pero no las URL que tenían unaexample
URL en otra parte, podría usar:Puede encontrar más información detallada sobre Google aquí: Especificaciones de Robots.txt , Bing aquí: Cómo crear un archivo Robots.txt y hay una guía interactiva sobre Moz aquí
fuente