Me parece que, tomada sobre todo el gráfico, la norma del vector de error debe estar disminuyendo monotónicamente, de lo contrario no podríamos garantizar que el PageRank converja alguna vez.
Sin embargo, ¿es lo mismo cierto para cada vértice? Es decir, de la iteración t a la iteración t + 1, ¿se garantiza que el error al cuadrado de un vértice siempre disminuirá a medida que se acerque a su valor de PageRank? ¿O es posible que el error de vértice al cuadrado aumente alguna vez?
¿Esto también me parece tener una relación más amplia con las iteraciones de potencia en general? Se agradecería alguna explicación o prueba con la respuesta.