¿Cómo rel = “next” y rel = “prev” ayudan en SEO si se usan para paginación?

9

¿Cómo ayuda rel = "next" y rel = "prev" en SEO, si se usa para paginación? ¿Es realmente necesario?

es decir, imagina que estás en la página 2:

<link rel="prev" href="http://www.example.com/article-part1.html">
<link rel="next" href="http://www.example.com/article-part3.html">
Niko Jojo
fuente
Quizás un duplicado: webmasters.stackexchange.com/questions/63582/…
Abu Nooh

Respuestas:

6

Paginación con rel = "next" y rel = "prev"

Al igual que rel = "canonical" actúa como una pista fuerte para el contenido duplicado, ahora puede usar los elementos de enlace HTML rel = "next" y rel = "prev" para indicar la relación entre las URL de componentes en una serie paginada. En toda la web, una serie paginada de contenido puede tomar muchas formas: puede ser un artículo dividido en varias páginas de componentes, o una categoría de producto con elementos distribuidos en varias páginas, o un hilo de foro dividido en una secuencia de URL. Ahora, si elige incluir rel = "next" y rel = "anterior" marcado en las páginas de componentes dentro de una serie, le está dando a Google una fuerte pista

Fuente: blogspot de Google


¿Se requiere? No. ¿Deberías hacer esto? Sí, disminuirá la penalización de 'página duplicada' porque puede ver que es una página siguiente / anterior de la página actual. Indica la relación entre páginas (por lo tanto, rel ).

Martijn
fuente
2

Yo diría que si divide una página larga en pequeños fragmentos (puede ser para obtener más ingresos publicitarios), que en realidad debería haber sido una sola página y luego usar atributos anterior / siguiente, dará una señal clara a los motores de búsqueda sobre la página principal para que el Los motores de búsqueda pueden mostrar la página principal en los SERPs y asignar menos importancia a los fragmentos.

Acerca del contenido duplicado, siempre debemos esforzarnos por reducir el contenido duplicado y anterior / siguiente no se relaciona con el contenido duplicado. Deberíamos agregar rel = canonical o bloquear páginas duplicadas por completo a través de Robots.txt o exclusión de meta noindex.

AgA
fuente
0

AFAIK le ayudará a evitar solo problemas de contenido duplicado, porque las páginas paginadas tienen el mismo título y descripciones, para evitar este comportamiento Google introduce estas etiquetas. En lugar de aplicar manualmente estas etiquetas, generalmente bloqueo las páginas paginadas en el archivo ROBOT.txt para evitar las duplicaciones y este es el método más fácil en comparación con el método rel porque necesita mencionarlo manualmente en todas partes y esas etiquetas no son necesarias si bloquea las páginas paginadas en ROBOT.txt.

Bala
fuente
1
No es la mejor idea bloquear páginas paginadas en su archivo robots.txt. Obtendrá más páginas en el índice complementario, mientras que Google mostrará sus páginas en SERP con un texto como "vacío debido al archivo robots.txt de este sitio" en lugar de la descripción.
Marian Popovych