Tengo algunas URL dinámicas generadas.
¿Puedo usar regex para bloquear estas URL en un archivo robots.txt?
robots.txt
regular-expression
Sudheera Njs
fuente
fuente

Respuestas:
Las expresiones regulares no son válidas en robots.txt, pero Google, Bing y algunos otros robots reconocen alguna coincidencia de patrones.
Indique si desea bloquear todas las URL que tienen un
examplelugar en la URL, puede usar una entrada comodín *También puede usar el signo de dólar $ para especificar que las URL deben terminar de esa manera. Entonces, si desea bloquear todas las URL que terminan con
example, pero no las URL que tenían unaexampleURL en otra parte, podría usar:Puede encontrar más información detallada sobre Google aquí: Especificaciones de Robots.txt , Bing aquí: Cómo crear un archivo Robots.txt y hay una guía interactiva sobre Moz aquí
fuente