Uso WordPress y /sample-post/
URL para mis publicaciones y /yyyy/mm/
para los archivos.
Google ha indexado el sitio por completo.
Dado que los archivos actualmente muestran publicaciones completas, he pensado que no debería permitir que Google indexe las páginas del archivo porque contienen las publicaciones completas y será contenido duplicado. Por lo tanto, mi archivo robots.txt contiene:
Disallow: /2009/
Disallow: /2010/
Disallow: /2011/
Disallow: /2012/
Disallow: /2013/
Disallow: /2014/
Disallow: /2015/
¿Crees que esta es una buena práctica o dañaría mi clasificación y / o accesibilidad?
seo
wordpress
robots.txt
duplicate-content
google-index
cherouvim
fuente
fuente
Respuestas:
De hecho, debe evitar el contenido duplicado en su sitio de Wordpress. Wordpress a menudo genera contenido duplicado entre categorías, archivos y etiquetas.
Para solucionar este problema, puede bloquear las URL de los archivos en robots.txt, pero la mejor opción es colocar las
<meta name="robots" content="noindex, follow">
páginas de los archivos para evitar que Google indexe estas URL.Para hacer esto, puede descargar el plugin SEO de Wordpress desde Yoast . Cuando se instala el complemento, tiene la opción de colocar este meta donde desee (en páginas de archivos, en páginas de etiquetas, en páginas de categorías ...). Puede ir al menú del complemento: SEO => Títulos y metas .
En mi opinión, las mejores prácticas para SEO son poner este meta en archivos y etiquetas de páginas y dejar que Google rastree páginas de categorías. Siempre he evitado el contenido duplicado en el sitio de Wordpress como este.
fuente