¿Google considera la tasa de rebote o algo similar en los sitios de clasificación?
Antecedentes: aquí en Stack Exchange notamos que los últimos cambios en el algoritmo de Google dieron como resultado una caída del tráfico del 20% hacia la falla del servidor (y una caída mucho menor en el tráfico hacia el superusuario ). El tráfico de desbordamiento de pila no se vio afectado.
Había un artículo en WebProNews que planteaba la hipótesis de que la tasa de rebote podría ser una señal de clasificación en la última actualización de Panda de Google.
Según Google Analytics, estas son nuestras tasas de rebote en el último mes:
Site Bounce Rate Avg Time on Site
------------- ----------- ----------------
SuperUser 84.67% 01:16
ServerFault 83.76% 00:53
Stack Overflow 63.63% 04:12
Ahora, técnicamente, Google no tiene forma de saber la tasa de rebote. Si vas a Google, buscas algo y haces clic en el primer resultado, Google no puede distinguir entre:
- un usuario que apaga su computadora
- un usuario que va a un sitio web completamente diferente
- un usuario que pasa horas haciendo clic en el sitio web en el que aterrizó
Lo que Google no sabe es el tiempo que lleva al usuario a volver a Google y hacer otra búsqueda. Según el libro In The Plex (página 47), Google distingue entre lo que llaman "clics cortos" y "clics largos":
- Un clic corto es una búsqueda en la que el usuario vuelve rápidamente a Google y realiza otra búsqueda. Google interpreta esto como una señal de que los primeros resultados de búsqueda no fueron satisfactorios.
- Un clic largo es una búsqueda en la que el usuario no vuelve a buscar durante mucho tiempo.
El libro dice que Google usa esta información internamente, para juzgar la calidad de sus propios algoritmos. También dijo que los datos de clics cortos en los que alguien vuelve a escribir una ligera variación de la búsqueda se utilizan para alimentar el "¿Quiso decir ...?" algoritmo de corrección ortográfica.
Por lo tanto, mi hipótesis es que Google ha decidido recientemente utilizar tasas de clics largos como señal de un sitio de alta calidad. ¿Alguien tiene alguna evidencia de esto? ¿Has visto sitios de alta tasa de rebote que perdieron tráfico (o viceversa)?
fuente
Respuestas:
Es muy probable que Google pueda estimar su tasa de rebote si tiene en cuenta una nueva función que detecta cuando el usuario hace clic en el botón Atrás:
Busca en Google:
Haz clic en un resultado de búsqueda.
Haga clic de nuevo
Google muestra una nueva opción, "Bloquear todos los resultados [del sitio]":
Obviamente, eso es una suposición, pero los clics de retroceso rápidos pueden ser buenos indicadores de resultados irrelevantes y tienen una fuerte correlación con la tasa de rebote. Tenga en cuenta que esto falla cuando el usuario abre los resultados de búsqueda en una nueva pestaña, por lo que puede dirigirse a los usuarios menos expertos.
Tenga en cuenta la diferencia entre "hacer otra búsqueda", que Google debe tomar personalmente, ya que muestra resultados irrelevantes, y "volver a la misma búsqueda", lo que significa que ese sitio en particular no era adecuado para esta búsqueda.
fuente
:)
. Una vez más, no pude encontrar ninguna referencia a él ...Tengo un problema con el concepto de clics largos / cortos que se utilizan en su algoritmo de clasificación. Hay demasiados escenarios en los que se producen clics cortos y largos que son lo contrario de lo que sería la lógica estándar.
Por ejemplo, podrían producirse clics cortos porque:
Un usuario está abriendo muchas pestañas a la vez, digamos los diez enlaces en la primera página de resultados de búsqueda, para algún tipo de investigación. (Si esa investigación es SEO o académica es irrelevante). Todos aparecerán como clics cortos.
Alguien está buscando un sitio en particular y está buscando resultados hasta encontrar el que desea. Su tomo en cada sitio es corto, no porque el sitio esté mal hecho, simplemente no es el único sitio específico que el usuario está buscando.
Esto es demasiado fácil de manipular. Si esto realmente fue un factor de clasificación potencial, no es difícil imaginar que los sombreros negros hagan clic corto en sus competidores para servir a sus propios fines. (Naturalmente, esto estaría automatizado para producir la cantidad necesaria para estimular a Google a la acción).
Los clics largos pueden ocurrir porque:
Un usuario no tiene idea de lo que está buscando y pasa una eternidad en cada sitio buscándolo, pero nunca lo encuentra (por ejemplo, ese sitio es irrelevante).
Un usuario se aleja de su computadora o es rastreado por cualquier motivo
Abuso (ver arriba)
Un usuario no tiene idea de Internet y solo lleva mucho tiempo en cada sitio porque tiene dificultades para usar Internet.
La mejor manera en que puedo imaginar que esta información se use es mediante una búsqueda personalizada. Si alguien hace clic corto en un sitio en particular, entonces probablemente justifique que se reduzca en sus resultados de búsqueda personales.
En cuanto a la evidencia anecdótica, tengo algunas docenas de sitios de clientes que superviso y la tasa de rebote no parece correlacionarse con las clasificaciones.
En cuanto a Google usando Google Analytics en su algoritmo de búsqueda, la respuesta de Matt Cuitts es no .
fuente
Por Matt Cutts
De acuerdo, esto fue en diciembre de 2008, pero Matt Cutts dice que mi porcentaje de rebote no se usa ni un poco es bastante definitivo en mi libro, incluso 3 años después.
fuente
Creo que el problema con el uso de la tasa de rebote para la clasificación es que no tiene en cuenta el hecho de que los rebotes no siempre son algo malo. ¡Esta métrica debe tomarse en contexto porque hay algunos sitios para los que es posible que desee aumentar su tasa de rebote!
De hecho, como ejemplo, sus sitios podrían ser ese tipo de sitio (al menos desde la perspectiva de Google de proporcionar resultados relevantes a sus usuarios). Tome SO como ejemplo: si estoy buscando la respuesta a una pregunta de programación, entonces no quiero pasar una cantidad considerable de tiempo haciendo clic buscando una respuesta. Quiero una respuesta lo más rápido posible para poder volver a mi trabajo. Esperaría que Google me devuelva una lista de sitios que responden a mi pregunta, no los que reducirán mi tiempo.
Creo que la métrica de la tasa de rebote no proporciona suficiente información por sí sola para ser útil en un algoritmo de clasificación de motores de búsqueda. Si Google lo está utilizando para algo más que un análisis interno (donde los humanos pueden adivinar la intención del usuario), están cometiendo un error.
Como nota al margen, volviendo al ejemplo de una búsqueda de una respuesta a una pregunta de programación, ¿alguna vez encuentra que la respuesta a la pregunta está realmente en los resultados de búsqueda y no necesita hacer clic en un sitio en ¿todas?
fuente
Administro un sitio que genera alrededor de 30 mil páginas vistas por día. Perdió 1/3 de su tráfico alrededor del 11 de abril (lanzamiento internacional de panda). Todo el dominio perdió tráfico en todos los ámbitos. La tasa de rebote promedio general ronda el 65% (pre-panda fue del 71%). Sin embargo, las páginas más afectadas tienen tasas de rebote superiores al 75%. Es una teoría interesante.
Para crédito de Google (espero que no sea solo una coincidencia), la tasa de rebote, el tiempo promedio en el sitio y las páginas por visita mejoraron después del cambio.
Nota al margen: Los otros sitios que administro no se vieron afectados por el cambio de algoritmo. Sus tasas de rebote promedio oscilan entre 52% y 68%. No he hecho análisis en páginas individuales en esos sitios ya que no fueron afectados
fuente
Es casi seguro que Google está utilizando señales de usabilidad como un factor significativo en las clasificaciones. Google probablemente no utiliza la "tasa de rebote", al menos no según lo medido por Google Analytics. En cambio, Google confía en:
La tasa de rebote generalmente se puede usar como un proxy para medir su BBR, pero hay algunas limitaciones:
Además, como lo han señalado otras respuestas, Matt Cutts de Google declaró que la tasa de rebote no se usa a su conocimiento como parte del algoritmo de clasificación. No dijo nada sobre la tasa de rebote (que es sutilmente diferente).
Estoy convencido de que Google usa estas señales en función de mi experiencia con un sitio en el que estaba haciendo el SEO. Era un tipo de sitio de productos. Nos dimos cuenta de que simplemente no podíamos clasificar algunos productos para sus palabras clave específicas, a pesar de verter grandes cantidades de pagerank interno en ellos. Un patrón que surgió fue que los productos que no estaban clasificados tenían menos contenido que los que sí estaban clasificados. El contenido no siempre significaba mucho texto, teníamos varios tipos de contenido:
Nos dimos cuenta de que muchos de estos tipos de contenido serían difíciles de medir para Google directamente. ¿Realmente sabía que había un mapa en la página? ¿Intentaba detectar la presencia de precios? Todas las reseñas de los usuarios estaban en sus propias páginas, ¿podría realmente medir la cantidad de texto asociado con cada producto rastreando muchas páginas y sumando los totales? Teorizamos que sería mucho más fácil para Google medir cómo reaccionan los usuarios a la página y ajustar las clasificaciones en lugar de tratar de medir la cantidad de contenido directamente.
Primero, hicimos algunos cambios en cómo se midió nuestra tasa de rebote. Implementamos "eventos" para que cuando los usuarios hagan clic en los enlaces externos, se mida en análisis. También incluimos "eventos" para elementos como mover el mapa y desplazarse hacia abajo en la página. Pensamos que cuando un usuario interactúa con la página, no debe contar como un rebote, incluso si ese usuario no vio más de una página en el sitio.
Luego correlacionamos la tasa de rebote con la cantidad de contenido que teníamos para cada producto. Los resultados fueron mucho más dramáticos de lo que esperábamos. Para los productos sin contenido, la tasa de rebote fue de alrededor del 90%. Para los productos con muchos tipos de contenido, la tasa de rebote fue inferior al 15%. Los productos con cierto contenido quedaron en el medio. Podríamos usar esto para ver qué tipo de contenido los usuarios encontraron más valioso. También podríamos valorar la solicitud de la décima revisión del usuario en lugar de desenterrar el primer enlace externo a un artículo.
Las clasificaciones también se correlacionaron muy estrechamente con esta tasa de rebote. Necesitábamos menos enlaces internos que apuntaran a páginas con una tasa de rebote muy baja para lograr que ocuparan el puesto número 1 que las páginas con una tasa de rebote moderadamente más alta.
fuente
Si bien esta pregunta es interesante en el sentido hipotético, carece de la parte de capacidad de acción de ser práctico.
Supongamos por un minuto que la respuesta es sí. Google usa la tasa de rebote para clasificar sitios. ¿Qué haría al respecto? La única forma de aumentar de manera confiable esta métrica sería colocar bloques artificiales entre el usuario y la respuesta marcada como correcta en SO, que lentamente capacitaría a los usuarios para evitar estos dominios (disminuir el CTR de Google, que se sabe que es importante métrica en la clasificación de relevancia).
Por lo tanto, mi sugerencia sería centrar su tiempo y esfuerzo en métricas en las que realmente pueda trabajar, en lugar de doble adivinar las externalidades que no están bajo su control.
fuente
"Fuera de mi cabeza, podríamos dejar completamente sin responder preguntas del índice de Google"
Sí y no, OMI, dependiendo de qué tan rápido se respondan las preguntas en general. Todas las preguntas no se responden cuando se publican, por ejemplo, casi por definición (a menos que la pregunta haya respondido algo más). Quizás lo haga así si no se responde durante x días, no indexe y haga ping en google para ver la etiqueta y no indexar.
¿Tiene más preguntas sin respuesta en los sitios que cayeron?
Google seguramente está experimentando y algunos sitios han perdido incluso el 70% de su tráfico desde el 2/24. No todos son un mal sitio, ya sabes, simplemente no hay recuperación de panda hasta ahora, independientemente de lo que hiciste en el sitio.
fuente