¿Se salta una unidad de rack entre servidores?

70

Parece que hay un gran desacuerdo en la mentalidad cuando se trata de instalar servidores de montaje en rack. Ha habido hilos que discuten los brazos de cable y otros accesorios de montaje en bastidor, pero tengo curiosidad:

¿Deja una unidad de rack vacía entre sus servidores cuando los instala? ¿Por qué o por qué no? ¿Tiene alguna evidencia empírica para apoyar sus ideas? ¿Alguien sabe de un estudio que demuestre de manera concluyente si uno es mejor o no?

Matt Simmons
fuente

Respuestas:

81

Si sus servidores usan refrigeración de flujo frontal a posterior, como lo hacen la mayoría de los servidores montados en bastidor, dejar huecos puede dañar la refrigeración. No desea que el aire frío tenga ninguna forma de llegar al pasillo caliente, excepto a través del servidor. Si necesita dejar espacios (por cuestiones de energía, problemas de peso del piso, etc.), debe usar paneles ciegos para que no pueda pasar aire entre los servidores.

jj33
fuente
66
Sí, si deja un espacio, debe llenarlo con un panel para evitarlo.
Thomas
2
= 1. Los servidores de montaje en bastidor y los bastidores están diseñados para el flujo de aire con todos los paneles y biseles encendidos y todos llenos. Al igual que el flujo de aire en una PC está diseñado para tener todas las cubiertas. Eludir el diseño dejando huecos y \ o quitando paneles y cubiertas es probable que haga más daño que bien.
joeqwerty
23

Nunca me he saltado unidades de rack entre dispositivos de montaje en rack en un gabinete. Si un fabricante me indicara que omita las U entre dispositivos, lo haría, pero nunca he visto tal recomendación.

Esperaría que cualquier dispositivo diseñado para montaje en bastidor expulse su calor a través de los paneles frontal o posterior. Se conducirá algo de calor a través de los rieles y la parte superior e inferior del chasis, pero esperaría que fuera muy pequeño en comparación con la radiación de la parte delantera y trasera.

Evan Anderson
fuente
66
De hecho, si está omitiendo unidades de rack, debe usar cubiertas entre cada servidor, de lo contrario obtendrá una mezcla de aire entre sus pasillos altos y fríos.
Doug Luxem
22

En nuestro centro de datos no dejamos huecos. Tenemos aire frío que sale del piso y los huecos causan problemas de flujo de aire. Si tenemos un espacio por alguna razón, lo cubrimos con una placa en blanco. Agregar placas en blanco inmediatamente hizo que la parte superior de nuestros pasillos fríos se volviera más fría y nuestros pasillos calientes más calientes.

Creo que ya no tengo datos o gráficos, pero la diferencia fue muy clara tan pronto como comenzamos a hacer cambios. Los servidores en la parte superior de los bastidores dejaron de sobrecalentarse. Dejamos de cocinar fuentes de alimentación (lo que estábamos haciendo a un ritmo de aproximadamente 1 / semana). Sé que los cambios se iniciaron después de que nuestro gerente del centro de datos regresó de una exposición del centro de datos de Sun Green, donde se sentó en algunos seminarios sobre enfriamiento y similares. Antes de esto, habíamos estado utilizando huecos y bastidores parcialmente llenos y baldosas perforadas en el piso delante y detrás de los bastidores.

Incluso con los brazos de gestión en su lugar, eliminar las brechas ha funcionado mejor. Todas las temperaturas internas de nuestro servidor en todas partes de la sala ahora están dentro de las especificaciones. Este no era el caso antes de estandarizar nuestra gestión de cables y eliminar los huecos, y corregir nuestra colocación de baldosas. Nos gustaría hacer más para dirigir el aire caliente de regreso a las unidades CRAC, pero aún no podemos obtener fondos.

Laura Thomas
fuente
9

No me salteo. Alquilamos y nos cuesta dinero.

No hay razón para el calor en estos días. Todo el aire fresco entra por el frente y sale por la parte de atrás. Ya no hay agujeros de ventilación en la parte superior.

mrdenny
fuente
1
Re: "Nos cuesta dinero". Solía ​​pensar que el espacio era un factor importante en el precio del centro de datos. Luego obtuve un trabajo en el sector de alojamiento, resulta que la mayoría de los costos en un entorno Colo son de circuitos de alimentación y conexiones cruzadas.
JamesBarnett
6

Google no deja U entre servidores, y supongo que están preocupados por la gestión del calor. Siempre es interesante ver cómo los grandes jugadores hacen el trabajo. Aquí hay un video de uno de sus centros de datos: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded

Vaya directamente a 4:21 para ver sus servidores.

Mathieu Chateau
fuente
5

No deje espacio si tiene aire frío proveniente del piso y también use espacios en blanco en el espacio no utilizado. Si solo tiene un sistema de enfriamiento de baja tecnología que utiliza una unidad de aire acondicionado estándar, es mejor dejar espacios en blanco para minimizar los puntos calientes cuando tiene servidores calientes agrupados.


fuente
44
Si sus servidores usan enfriamiento de ventilador de adelante hacia atrás, no es aconsejable dejar huecos, dañará el flujo de aire.
pauska
5

Tenemos un valor de 3 1/2 bastidores de nodos de clúster y su almacenamiento en una instalación de colocación. Los únicos lugares en los que nos hemos saltado las U es donde necesitamos enrutar el cableado de la red al bastidor central donde se encuentra el conmutador central del clúster. Podemos permitirnos hacerlo en cuanto al espacio, ya que los bastidores ya están al máximo en términos de potencia, por lo que no sería posible meter más nodos en ellos :)

Estas máquinas funcionan las 24 horas del día, los 7 días de la semana, al 100% de la CPU, y algunas de ellas tienen hasta 16 núcleos en una caja de 1U (4x Xeons de cuatro núcleos) y aún no he visto ningún efecto negativo de no dejar espacios entre la mayoría de ellas.

Mientras su equipo tenga una ruta de aire bien diseñada, no veo por qué sería importante.

Kamil Kisiel
fuente
5

Tengo grandes huecos sobre mi UPS (para instalar una segunda batería en el futuro) y sobre mi biblioteca de cintas (si necesito otra). Aparte de eso, no tengo espacios, y uso paneles para llenar espacios vacíos para preservar el flujo de aire.

pauska
fuente
3

Cada tercio, pero eso se debe a los brazos de gestión y la necesidad de trabajar en torno a ellos en lugar de calor. El hecho de que esos servidores tengan 6 cables Cat5 cada uno de ellos no ayuda. Hacemos un uso intensivo de paneles ciegos y presas de aire en la parte superior de los bastidores para evitar la recirculación desde el pasillo caliente.

Además, una cosa que no nos falta en nuestro centro de datos es el espacio. Fue diseñado para la expansión cuando los servidores 7-10U eran estándar. Ahora que hemos optado por clústeres ESX de gran densidad, es un pueblo fantasma allí.

sysadmin1138
fuente
OK, 6 cables, veamos ... 2 interfaces de administración, 2 interfaces iscsi y 2 ... dedicadas al administrador de clúster?
Matt Simmons
No use los brazos de administración y no tiene que saltear unidades. :)
Doug Luxem
1
6 cables: 1x tarjeta HP iLO, 1x ESX mgmt LUN, 4x VM Luns. Además, fibras para la SAN. No hemos ido a iSCSI todavía. Si estuviéramos dispuestos a desvestir completamente los servidores antes de sacarlos, definitivamente iríamos sin los brazos.
sysadmin1138
1
Habiendo visto su centro de datos, tengo que preguntarme si configura las cosas en una configuración tradicional de pasillo frío y pasillo frío en lugar de dispersarse por su habitación gigante si obtendría un mejor rendimiento térmico.
Laura Thomas
3

No dejaría espacios entre los servidores, pero lo haré para cosas como los conmutadores LAN: esto me permite colocar algunas barras de administración de cables de 1U arriba y abajo ... pero definitivamente no se hace para enfriar.

Mitch Miller
fuente
2

Sin brechas, excepto cuando hemos sacado un servidor u otra cosa y no nos hemos molestado en reorganizar. Creo que somos un poco más pequeños que muchas personas aquí, con 2 bastidores que solo tienen unos 15 servidores más algunas unidades de cinta y conmutadores y UPS.

Ward
fuente
2

No hay brechas que no sean cuando se planea expandir los sistemas sanitarios o cosas por el estilo. Preferimos colocar gabinetes nuevos cerca de los controladores reales.

Si tiene un enfriamiento adecuado, dejar huecos no será beneficioso a menos que el servidor esté mal construido.

chankster
fuente
2

Tengo la impresión (tal vez erróneamente) de que es una práctica más popular en algunos entornos de telecomunicaciones donde los pasillos fríos / calientes no se usan tanto.

Sin embargo, no es adecuado para un centro de datos de alta densidad y bien administrado.

Dan Carley
fuente
1

Por lo general, dejo un RU en blanco después de alrededor de 5RU de servidores (es decir, 5x1ru o 1x2ru + 1x3ru) y eso dependería de la configuración de enfriamiento en el centro de datos en el que se encuentre. Si tiene enfriamiento enfrente del rack (es decir, una rejilla en frente al bastidor) la idea es que el aire frío se empuja hacia arriba desde el piso y sus servidores absorben el aire frío a través de ellos. en esta circunstancia, normalmente obtendrá una mejor refrigeración al no dejar ranuras en blanco (es decir, use una cubierta RU en blanco. Pero, según mi experiencia, si ha realizado la refrigeración a través del panel de piso en su bastidor, obtendrá una refrigeración más eficiente al romper los servidores de ser apilados uno encima del otro para todo el estante

Brendan
fuente
1

En una situación en la que teníamos nuestro propio centro de datos y el espacio no era un problema, solía omitir una U (con un espaciador para bloquear el flujo de aire) entre áreas lógicas: los servidores web tienen una sección, base de datos, controlador de dominio, correo electrónico, y el servidor de archivos tenía otro, y los firewalls y enrutadores tenían otro. Los interruptores y paneles de conexión para los escritorios periféricos estaban en su propio estante.

Puedo recordar exactamente una ocasión en la que salté una U por razones refrescantes. Esta era una solución de bucle de TV por cable A / V en una escuela secundaria, donde había tres unidades que eran responsables de servir el sistema de televisión por cable a una sección del edificio. Después de que la unidad superior tuvo que ser reemplazada por tercera vez en dos años debido al sobrecalentamiento, realicé una "cirugía" en el estante para hacer agujeros de montaje para poder dejar 1 / 2U de espacio entre cada una de las tres unidades (por un total de 1 U de espacio total).

Esto resolvió el problema. No hace falta decir que esto estaba completamente documentado, y para una medida extra buena, pegué una hoja en la parte superior de uno de ellos en huecos explicando por qué las cosas eran como estaban.

Aquí hay dos lecciones:

  1. Dejar un espacio para el enfriamiento solo se hace en circunstancias excepcionales.
  2. Use un caso de confianza o un proveedor de servidores. Tenga cuidado de comprar equipos que intenten empacar 2U de calor en 1U de espacio. Esto será tentador, porque el sistema 1U puede parecer mucho más barato. Y tenga cuidado de comprar un estuche fuera de marca que no haya explicado adecuadamente el flujo de aire.
Joel Coel
fuente
0

Los tengo apilados en el único estante que tengo. Nunca tuve problemas con él, así que nunca tuve ninguna razón para espaciarlos. Me imagino que la razón principal por la que las personas los espacian es el calor.


fuente
0

He dejado 1/3 de un RU entre dos interruptores antes, principalmente porque tenían 1 1/3 RU de alto cada uno.

Si los hubiera puesto juntos, el equipo más arriba habría estado fuera de posición en 1/3 de una U.

Aparte de eso, nunca he dejado espacio solo para enfriar, solo para el crecimiento futuro.

Criggie
fuente