Tengo la opción de alojar nuestra base de datos / servidor web en una empresa de alojamiento administrado en la costa este (EE. UU.) O en la costa oeste (EE. UU.). Nuestra empresa tiene su sede en la ciudad de Nueva York, y ambos proveedores de hosting le dan a nuestra caja una línea T1 dedicada.
¿Cuánto impacto en el rendimiento (suponiendo que todos los demás factores sean iguales) estaría tomando en términos de latencia de red si optara por el de la costa oeste en lugar del de la costa este? No estoy muy seguro de cómo la geografía afecta las velocidades de Internet cuando los números y las distancias se vuelven realmente grandes (T1 y más, y miles de millas).
¡Gracias!
networking
hosting
internet
latency
Neezer
fuente
fuente
Respuestas:
Hay un retraso de distancia y todas las demás cosas son iguales (eficiencia de enrutamiento, procesamiento, sobrecarga, etc.) un sitio en la costa oeste al que accede un anfitrión en la costa este tomará más tiempo que si ese sitio está en el este costa pero estamos hablando milisegundos aquí.
fuente
En igualdad de condiciones, tendrá 44 milisegundos adicionales de latencia solo por la velocidad de la luz. Dé o tome 1/20 de segundo por cada paquete de ida y vuelta. No es mucho para el uso típico de la web. Transitable para sesiones ssh. Sustancial si accede a su base de datos directamente con muchas pequeñas transacciones consecutivas.
He ignorado la latencia adicional causada por enrutadores / repetidores adicionales, que podrían ser mucho, mucho más altos. Asumí la distancia 4400 km y la velocidad de la luz en fibra 200000 km / s.
fuente
Teníamos un cliente con el que pasamos bastante tiempo dando vueltas y vueltas en relación con esto. Originalmente fueron alojados en Nueva York, y su personal se encuentra principalmente en el área de Boston. Estaban trasladando sus servidores a nuestras instalaciones ubicadas en Denver, a aproximadamente dos tercios del país.
Una vez que se mudaron, comenzaron a plantear problemas de rendimiento de sus enlaces de Comcast en las oficinas domésticas. Solían tener <10 ms de latencia, y subió a 80-ish ms. Notaron un rendimiento más lento que llegaba a sus sitios, pero dijeron que "tal vez tendremos que soportar pasar de velocidades increíblemente rápidas a meras velocidades mortales". Parecían darse cuenta de que había limitaciones debido a la geografía, y que sus usuarios en la costa oeste podrían obtener un mejor rendimiento.
Fuimos de ida y vuelta varias veces. Después de aproximadamente 6 meses, cambiamos a un ISP principal primario diferente, por razones ajenas a este cliente (mejor precio, más ancho de banda, descontento con el número de ventanas de mantenimiento del otro proveedor), y con el nuevo proveedor estábamos obteniendo alrededor de 45 ms latencia promedio para este cliente. En este punto, sus preocupaciones de rendimiento parecen haber desaparecido.
Solo para darle algo de experiencia sobre un caso en el que se vio este tipo de problema y los números relacionados con él.
Intente usar "mtr" para mostrar información sobre la latencia y la pérdida de paquetes a los diferentes extremos remotos. A menos que comprenda completamente el enrutamiento de "ruta lenta", ignore cualquier cosa que no sea el último salto que aparece en esa salida. Van Jacobson dice que los humanos notan una latencia a partir de 400 ms, pero se dan cuenta de que muchas conexiones requieren múltiples intercambios de ida y vuelta, por lo que una latencia de 100 ms puede sumar rápidamente hasta un segundo ...
Desde mi experiencia, la latencia de 250 ms comienza a sentirse como una conexión notablemente lenta. 10 ms o mejor se siente como una conexión ardiente. Realmente depende de lo que estés haciendo.
Sean
fuente
Bueno, los paquetes viajan por el cable lo suficientemente cerca de la velocidad de la luz que el tiempo de transmisión en bruto es insignificante en comparación con otros factores. Lo que importa es la eficiencia del enrutamiento y la rapidez con que los dispositivos de enrutamiento pueden hacer el enrutamiento. Desafortunadamente, eso no se puede determinar únicamente en función de la distancia geográfica. Existe una fuerte correlación entre la distancia y la latencia, pero no hay una regla dura y rápida que yo sepa.
fuente
El número de saltos entre el punto A y el punto B introducirá latencia. Cuente la cantidad de saltos ya que este es su mejor indicador.
Algunas palabras de precaución. Los métodos para evaluar la ruta de red no son consistentes con la forma en que fluirá el paquete real. ICMP puede enrutarse y recibir una QoS de diferencia. Además, traceroute generalmente mira en una dirección, es decir, de origen a destino. Aquí hay algunos trucos útiles.
Para
traceroute
, trate de usar-I
,-U
o-T
para ver cómo varía la trayectoria. También mira-t 16
o-t 8
. traceroutePing es realmente bastante útil.
ping -R
te mostrará el camino que se necesita para volver! Si difiere del camino que sale, vea a dónde va. silbidofuente
Creo que la geografía tendrá mucho que ver con el tiempo de transmisión de paquetes, ya que cuanto más avance, más saltos probablemente agregará afectando la latencia general. Si sus clientes se basarán principalmente en la costa oeste, entonces elegiría el alojamiento de la costa oeste ... Lo mismo en la costa este. Si sus clientes vendrán de todos los EE. UU. O del mundo ... entonces solo tendrá que tomar la difícil decisión de qué lado obtiene la menor latencia.
En nuestro caso, estamos en nuestra propia red (una gran intranet) y podemos permitir que nuestros enrutadores tomen decisiones basadas en OSPF en todo el estado :) Desafortunadamente, cualquier cosa fuera de nuestra red se basa principalmente en el diseño de nuestros ISP.
fuente