DestacadosHistórico de la revistaPortada

Electrificación para data centers

Los centros de datos son una realidad para cualquier empresa del mundo. Una buena instalación eléctrica debe permitir que sus servicios se mantengan disponibles de manera continua, pues una breve interrupción puede acarrear pérdidas económicas incalculables. El cálculo y el diseño empleados para el suministro eléctrico están obligados a garantizar eficacia, consistencia y, por supuesto, un consumo energético adecuado.

Por Christopher García.

El auge de este tipo de sitios está íntimamente ligado con el “boom” del internet –finales de la década de 1990–, cuando las compañías de servicios virtuales, correo electrónico y almacenamiento de datos en nubes informáticas comenzaron a posicionarse como un elemento cotidiano de las labores individuales y empresariales.

Conforme las tecnologías se desarrollan y la demanda de servicios informáticos crece, la necesidad de los centros de datos se vuelve más patente. Es prácticamente nula la cantidad de personas que no utilizan servicios electrónicos, en comparación con la que los emplea de manera cotidiana. Por ello, cada día aumenta el número de construcciones de gran tamaño destinadas sólo a albergar servidores y equipos de procesamiento de datos.

Según lo establecido por el estándar TIA-942, de la Asociación para la Industria de las Telecomunicaciones (TIA, por sus siglas en inglés), un centro de datos es todo espacio cuya función primaria es alojar un cuarto de cómputo y sus áreas de soporte. Con esto en mente, se debe considerar que un data center no cuenta con dimensiones definidas, sino que puede ir desde un pequeño cuarto en un edificio, hasta grandes naves que alberguen cientos de servidores trabajando al unísono.

El auge de las telecomunicaciones y los servicios de transferencia de información, como habría de esperarse, ha llevado a las tecnologías especializadas en áreas como climatización, electricidad, seguridad, diseño y automatización a atravesar un proceso de cambio y adaptación para cumplir con las necesidades del sitio cada vez más específicas. Asimismo, los problemas resultantes del cambio climático han obligado a los desarrolladores de data centers a implementar estrategias para reducir consumos y emisión de contaminantes.

Entre los principales aspectos por considerar para conseguir un data center eficiente, rentable y eficaz, se encuentran el tipo de data center por construir; el equipamiento informático por instalar; el cálculo de refrigeración necesaria; el cálculo de potencia requerida; la conectividad; el diseño de espacios requeridos; la ubicación del sitio, y los sistemas de control y seguridad.

Cada uno de estos aspectos se encuentra relacionado entre sí. Es decir, el tipo de data center que se construya y el espacio requerido dependerán del equipamiento informático instalado; a su vez,  la carga de refrigeración responderá a la cantidad de equipos instalados y a las condiciones de temperatura del sitio donde se localice el centro de datos. Luego, los sistemas de control y seguridad, llámese acceso de personal, barreras informáticas o disponibilidad, estarán relacionados con las características con que se diseñe el centro de datos, mientras que la alimentación eléctrica dependerá de la totalidad de sistemas informáticos, de climatización y de seguridad que se decida instalar en el lugar.

En general, los data centers se dividen en cuatro tipos o Tier, según la norma ANSI/TIA-942. Esta norma establece las características y niveles de redundancia que deben poseer los centros de datos, según su clasificación, en aspectos como carga eléctrica, elementos termomecánicos, cableado, entre otros:

Nivel 1: Básico (Tier 1)

  • Disponibilidad: 99.671 %, 28.8 horas de interrupción anual
  • Susceptible a interrupciones, planeadas o no planeadas
  • Ruta única de alimentación eléctrica y distribución de enfriamiento no redundante
  • Puede tener o no tener piso elevado, UPS o generador
  • Debe de ser apagado completamente para labores de mantenimiento

Nivel 2: Componentes Redundantes (Tier 2)

  • Disponibilidad: 99.741 %, 22 horas de interrupción anual
  • Menos susceptible a interrupciones, planeadas o no planeadas
  • Ruta única de alimentación eléctrica y enfriamiento; incluye componentes redundantes
  • Incluye piso elevado, UPS y generador
  • Entre 3 y 6 meses para su implementación

Nivel 3: Mantenimiento concurrente (Tier 3)

  • Disponibilidad: 99.982 %, 1.6 horas de interrupción anual
  • Permite actividades planeadas de mantenimiento sin interrumpir la operación; los eventos imprevisibles pueden causar la interrupción del servicio
  • Existen múltiples rutas de alimentación eléctrica y de enfriamiento, pero con una sola ruta activa; incluye componentes redundantes
  • Entre 15 y 20 meses para su implementación
  • Incluye piso elevado
  • Rutas de distribución múltiples e independientes para la alimentación de los equipos
  • Todos los equipos de TI deben contar con doble alimentación eléctrica y ser compatibles en su totalidad con la arquitectura del sitio
  • Suficiente capacidad para llevar la carga en una ruta de distribución, mientras otra se encuentra en mantenimiento

Nivel 4: Tolerante a fallos (Tier 4)

  • Disponibilidad: 99.995 %, 0.4 horas de interrupción anual
  • Incluye o supera todas las características de las 3 clasificaciones anteriores
  • Actividades planeadas o no planeadas no interrumpen las actividades de cargas críticas
  • Múltiples rutas activas de alimentación eléctrica y de enfriamiento; incluye componentes redundantes
  • Todos los equipos de enfriamiento cuentan con doble ruta de alimentación independiente
  • Infraestructura con sistemas de almacenamiento de energía
  • Entre 15 y 20 meses para su implementación

Un elemento importante, relacionado con el nivel de clasificación de un data center, es el lugar de emplazamiento. La norma ANSI/TIA-942 establece la utilización de un edificio destinado exclusivamente para el data center que esté clasificado como Tier 4. En el caso de un Tier 2 o 3, se establecen distintas normas de seguridad y requerimientos que pueden lograrse en edificios existentes.

La remodelación de un centro de datos en funcionamiento debe evaluarse seriamente para decidir si es más conveniente construir una sala nueva en un lugar diferente, pues las labores de remodelación deberán realizarse sin interrumpir las operaciones, con un rango muy reducido de corte de energía y con el riesgo de interrupciones involuntarias. Esta consideración muchas veces inclina la balanza hacia el desarrollo de un nuevo data center.

Para elegir el lugar que albergará los equipos, es fundamental que cumpla con un rango cercano a los 1 mil 200 kilogramos por metro cuadrado de resistencia que solicita la norma ANSI/TIA-942, pues, en la actualidad, los equipos de UPS, racks de servidores y storage superan los 1 mil kilogramos de peso en la superficie de 0.60 m2 que ocupa un rack.

Proyección y cálculos de refrigeración
El primer paso para la proyección de un centro de datos es definir el equipo informático por instalar, pues la cantidad de racks y su distribución deberán contemplar los equipos iniciales y las posibles expansiones futuras. Debe considerarse el número de servidores, equipos de storage, librerías de backup, interruptores de core, etcétera, así como los espacios para nuevos equipos. Una vez decidido, se proyectarán las necesidades espaciales para contar con un diseño y funcionalidad adecuados.

Cuando se tiene consciencia de la cantidad de sistemas que estarán funcionando, es preciso definir las necesidades de enfriamiento. De acuerdo con Julian Di Nanno, director de DCE ingeniería, “en la actualidad, esta etapa es uno de los pasos más complejos y delicados de diseñar. Equipos con elevados consumos de energía, gran disipación de calor, horas pico de procesamiento y dificultades de instalación de sistemas termomecánicos son algunos de los desafíos a que nos enfrentamos durante el diseño”. Estos desafíos han suscitado el desarrollo de diversos esquemas de enfriamiento para los requerimientos de un centro de datos, que ofrezcan eficiencia en consumo y permitan al sitio trabajar bajo condiciones propicias.

Entre las posibilidades de climatización para un centro de datos, se cuentan los sistemas de refrigeración perimetral, que inyectan aire por debajo del piso falso y se recupera a través del techo; el esquema de refrigeración por hilera, que extrae el calor de los pasillos calientes e inyecta aire frio por delante de los racks, y el esquema de enfriamiento focalizado a filas o gabinetes, que inyectan el aire frio desde la parte superior.

00a000014Esquema de aire acondicionado por filas

Al respecto, el ingeniero José Alberto Llavot, System Engineer, DCCA, para Schneider Electric, menciona que “el esquema de aire acondicionado perimetral es el más utilizado. Ha estado en uso durante 30 años. No obstante, su uso depende mucho de las características del centro de datos. Este esquema se emplea cuando se cuenta con una carga de, cuando menos, 5 kW por gabinete. La elección de otro tipo de esquemas depende de si la densidad en el lugar es media o baja, pues entonces es posible focalizar la carga en gabinetes o filas. En general, el esquema perimetral permite reducir las cargas, aunque en la actualidad la tendencia es híbrida para ofrecer mejores soluciones, tanto de desempeño como de cuidado ambiental”.

Entonces, lo más adecuado es diseñar un sistema flexible y escalable que permita refrigerar las necesidades actuales y soportar las posibles exigencias a futuro. Asimismo, es preciso establecer el nivel de redundancia deseado, según se agregue equipamiento de backup para la inyección de aire bajo piso o si se elige una refrigeración por hilera para las filas más críticas del data center.

Ahora bien, como menciona el ingeniero Llavot, un aspecto importante es ofrecer una solución amigable con el medio, pues no se debe olvidar que los sistemas de refrigeración consumen la mayor parte de la demanda eléctrica en un data center. Resulta entonces relevante el tipo de tecnología seleccionada, ya que esta decisión puede permitir considerables ahorros y optimización del consumo energético.

Cuando se está en posibilidades de diseñar un data center desde cero, las estrategias para minimizar los consumos energéticos son considerables, desde la elección de sistemas que cumplan funciones específicas, esquemas de trabajo con variaciones de carga y de velocidad, o free-cooling, según las necesidades del sitio, sus condiciones de temperatura y en consideración de las horas pico de trabajo; dimensionamiento adecuado de los sistemas, instalación de equipos de última generación con bajo consumo energético, entre otras opciones.

En los casos en que el data center ya existe, no obstante, también es posible eficientar su demanda energética. El ingeniero Humberto Chacón, director General de Energía y Redes, empresa especializada en diseño y construcción de data centers, menciona una serie de estrategias que pueden ponerse en práctica para mejorar la demanda energética de un centro de datos.

Como primera estrategia, menciona el reemplazo de equipos ineficientes por sistemas de última generación, con un mejor diseño interno y que consuma menos energía al cumplir su función. De acuerdo con su experiencia, “los fabricantes proporcionan datos sobre la eficiencia de los equipos de potencia y enfriamiento. En esta información, la eficiencia suele expresarse como un porcentaje de la salida de potencia respecto de la de entrada. Cuando se trata de equipos de enfriamiento, la eficiencia suele expresarse como un parámetro relacionado, que se denomina coeficiente de rendimiento: la relación entre el calor extraído respecto de la potencia eléctrica de entrada. La eficiencia de los componentes, en especial la de las unidades CRAC y los sistemas UPS, se reduce de forma significativa con cargas informáticas menores, y aumenta cuando funcionan a un nivel mayor de carga o a plena carga”. En otras palabras, un esquema de dimensionamiento que considere el trabajo de los sistemas de alimentación eléctrica en concordancia con su punto de eficiencia máximo resultará más redituable que un sistema sobrado, funcionando a cargas parciales.

Por otro lado, el reemplazo de los sistemas también permite reconsiderar el dimensionamiento de la infraestructura física, de manera que sea suficiente para enfriar la carga informática real y evitar excedentes innecesarios. “En el mundo real, la carga de cómputo es considerablemente inferior a la capacidad proyectada para los componentes en el centro de datos. Las investigaciones son claras: un centro de datos promedio funciona a un 65 por ciento por debajo del valor proyectado. Existen en el mercado equipos UPS con eficiencias de hasta 94 por ciento (sin transformadores) y modulares que ayudan a dimensionar de manera más adecuada para mejorar la eficiencia, de modo que los UPS operen a entre 60 y 80 por ciento de su capacidad”, comenta el ingeniero Chacón. Añade, “por otro lado, las unidades de enfriamiento de baja capacidad facilitan el diseño de enfriamiento para mejorar el flujo de aire y la capacidad instalada quede más adecuada a la capacidad requerida por el centro de datos”.

El director de DCE Ingeniería detalla algunos aspectos respecto de esta situación: “Es un error muy común calcular el consumo eléctrico sumando directamente lo que marca el manual de cada equipo e indica el fabricante; en general, estas indicaciones corresponden a la máxima configuración y carga del equipo en sus picos de arranque y en situaciones de extrema exigencia. Si sólo consideramos esto para dimensionar el consumo eléctrico, seguramente sobredimensionaremos la potencia. El paso correcto es medir el consumo eléctrico directamente con una pinza amperométrica en cada rack u obtener este dato si tenemos instalados medidores de consumos en los tableros o en las unidades de distribución de energía individuales, que permitan obtener el consumo real”.

Relacionado con el dimensionamiento correcto, debe considerarse otro punto importante: cuáles equipos verdaderamente requieren enfriamiento y cuáles su temperatura de operación es adecuada. Considerar estas variantes permite ocupar sólo las cargas necesarias y elegir entre diferentes esquemas de refrigeración para emplearlos de manera óptima. “Se ha comprobado que los aislamientos o contenciones, ya sea por fila o por gabinete, pueden mejorar aún más la eficiencia de un centro de datos, ya que la cantidad de volumen de aire por desplazar es menor y se focaliza el flujo de aire. Además, la ASHRAE ha ampliado los rangos recomendados de temperatura y aire para operar un centro de datos, lo que permite ahorrar energía eléctrica”, detalla el ingeniero Chacón.

En este mismo tenor, las empresas fabricantes de equipos para las necesidades de los centros de datos han llevado a cabo investigaciones sobre los mejores esquemas para el enfriamiento de estos sitios, con las que se ha comprobado que en los países cercanos a los polos, el free-cooling o enfriamiento gratuito representa una gran oportunidad de eficiencia y ahorro.

“En algunas ciudades de México –puntualiza el director de Energía y Redes–, el esquema free-cooling representa una interesante opción. De hecho, existen unidades que combinan el enfriamiento tradicional con el free-cooling y, dependiendo de la temperatura exterior y la carga, se ajustan para economizar energía”.

Por otro lado, la evolución de la electrónica ha logrado integrar en los sistemas de climatización dispositivos que permiten modificar su velocidad de operación y reducir la demanda energética, según demandas específicas. “Uno de los principales inventos del siglo XXI son los variadores de velocidad. En el caso de los centros de datos, son aplicables a ventiladores, turbinas, bombas o compresores, y nos ayudan a ajustar la capacidad de la unidad a la capacidad requerida”, comenta al respecto el ingeniero Chacón.

Abunda: “Con la llegada de la vitalización y servidores del tipo blade, se comprueba cada vez más que la carga es dinámica y depende del proceso que se tenga durante el día; la capacidad de enfriamiento varía según horarios y épocas del año. Un diseño eficiente debe considerar el concepto on-demand, en donde el aire acondicionado ajusta su capacidad a la de la carga con sensores de temperatura externos instalados en los gabinetes”.

Al respecto, el ingeniero Di Nanno menciona que “debemos asegurarnos de que los sistemas de refrigeración contemplen un control permanente de la temperatura y la humedad del ambiente, y tengan incorporado ventiladores de velocidad variable que inyecten frio y flujo de aire según las necesidades que se plantean a lo largo del día. Este método nos permitirá optimizar el consumo de energía”.

Cálculo de potencia
Una vez que los principales componentes se han definido –carga informática y sistemas de enfriamiento–, se deben calcular el consumo energético total que requerirá el centro de datos, considerando horarios pico, demanda regular y elementos adicionales. Entre los elementos adicionales, se debe incluir la iluminación, la refrigeración de confort, los sistemas de extracción de aire, las bombas de extracción de agua, en caso de existir, y los sistemas de detección y extinción de incendios.

La planeación energética adecuada para el desarrollo de un centro de datos, se trate de un solo gabinete o de un espacio de grandes dimensiones, debe comenzar con la determinación de la carga crítica por cubrir y proteger. La carga crítica resulta de la totalidad de los componentes de un sistema de TI: servidores, sistemas de almacenamiento, routers, computadoras, equipo de telecomunicación, etcétera, así como de los sistemas de seguridad, contraincendios y de monitoreo que los protegen.

Este proceso comienza con el listado de dichos componentes, con los rangos de energía y requerimientos de voltaje especificados en las placas del fabricante, así como con la consideración de si se trata de equipos monofásicos o trifásicos. Más tarde, la información provista por el fabricante debe ajustarse para que esté en concordancia con la carga real anticipada. Las especificaciones de energía indicados por el fabricante representan las cifras de consumo energético requeridas por UL en los perores escenarios, y en la mayoría de los casos, se encuentran muy por encima del nivel de operación esperado.

Estudios realizados por especialistas en el tema indican que los rangos de placa de la mayoría de los equipos de TI exceden la carga de operación real en al menos 33 por ciento. Los estándares internacionales reconocen este hecho y permiten a los desarrolladores de sistemas ajustar la información de placas para cargas anticipadas mediante su multiplicación por una diversidad de factores, pues se sabe que no todos los equipos trabajan a cargas plenas el cien por ciento de las veces.

Cuando ya se cuenta con una lista de componentes que engloba la carga crítica, tanto la carga base, como la energía requerida para los sistemas contraincendios, de seguridad y monitoreo puede establecerse mediante el siguiente procedimiento:

1. Ajustar la cifra de energía indicada en la placa para cargas anticipadas. Si el wattaje no se incluye en el dispositivo, puede determinarse multiplicando la corriente (amperes) por el voltaje del equipo que recibirá la corriente, el cual se aproxima a la cantidad de watts que consumirá el equipo.
2. Multiplicar la cantidad de corriente anticipada por 0.67 para estimar la energía real, en watts, que representará la carga crítica.
3. Dividir la cantidad obtenida entre 1000 para establecer el nivel de alimentación de la carga crítica anticipada en kilowatts.

Ahora bien, es preciso recordar que los centros de datos no son lugares estáticos ni tampoco lo son las cargas que requieren para operar. Una vez que se encuentra en funcionamiento, el equipo de TI se encontrará en un estado de modificación constante a lo largo de la vida útil del centro de datos. El remozamiento de los equipos de TI debe realizarse, cuando menos, en un periodo de tres años, durante el cual equipos nuevos, más potentes o eficientes se instalarán o reemplazarán a los dispositivos incluidos en el listado inicial. Debe realizarse una evaluación realista del alcance y del tiempo en el que será necesario realizar modificaciones o actualizaciones en la organización del equipo de TI para permitir el dimensionamiento adecuado de los requerimientos energéticos iniciales. Una vez que se ha estimado el nivel de carga futura, se debe añadir a la información de carga base para establecer la cantidad de la carga crítica en kW.

La carga de energía total debe contemplar la ineficiencia de los UPS, así como los requerimientos adicionales para la carga de baterías. La eficiencia de los UPS varía según los modelos, pero con mayor notoriedad según la carga del UPS. En general, los UPS no se emplean bajo las condiciones de operación en que se garantiza su eficiencia. Una valoración realista y suficiente de la eficiencia de un UPS en una instalación típica oscila el 88 por ciento. La carga de baterías representa un consumo energético intermitente, pero muy significativo. En condiciones normales de operación, la carga requerida por una batería cargada es deleznable; no obstante, cuando una batería se ha descargado parcial o totalmente, la energía requerida por la batería puede alcanzar el 20 por ciento de la carga estimada para el UPS. Aunque esto sucede en muy raras ocasiones, la alimentación de entrada y el generador deben dimensionarse considerando estas cargas.

Los cálculos de cargas por iluminación deben considerar la totalidad del área ocupada por el centro de datos en un edificio. Una regla de estimación aproximada para este tipo de carga es considerar 2 watts por pie cuadrado o 21.5 watts por metro cuadrado, según señala Richard Sawyer, ingeniero de Aplicación de Sistemas para APC.

La demanda de consumo base de las cargas presentes en un centro de datos permite establecer el consumo eléctrico para determinar los costos energéticos; no obstante, la totalidad del servicio eléctrico y el generador no pueden dimensionarse a partir del consumo base. Las fuentes de alimentación deben ser dimensionadas para soportar las demandas pico, además de considerar cualquier margen de sobredimensionamiento exigido por los códigos y estándares aplicables. En la práctica, esto provoca que el dimensionamiento del servicio eléctrico y del generador sea considerablemente mayor de lo esperado.

Así pues, el sistema eléctrico para un centro de datos puede calcularse de la siguiente manera:

  • Multiplicar por 125 por ciento la capacidad eléctrica total requerida para cumplir con las exigencias de estándares internacionales
  • Determinar la entrada de energía trifásica en CA que debe suministrar la compañía distribuidora. En general, la carga de entrada es de 230 volts CA en la mayoría de los países
  • Emplear la siguiente fórmula para determinar la carga eléctrica que se debe suministrar al centro de datos, en amperes:

Amperes = (kW x 1000) / (Volts x 1.73)

El resultado ofrece un estimado de la capacidad eléctrica requerida para soportar la carga crítica, las necesidades de enfriamiento y los servicios generales del centro de datos. Es preciso destacar que esto sólo constituye un estimado y que la determinación final del servicio depende en gran medida de la información específica del sitio. Los especialistas recomiendan recurrir a la asesoría de ingenieros consultores profesionales que verifiquen las estimaciones iniciales y desarrollen el diseño eléctrico final del centro de datos.

Elección de un generador
Cuando ya se ha determinado el tamaño de la carga eléctrica necesaria, se debe considerar la selección de un generador de energía de reserva apropiado que pueda brindar corriente eléctrica cuando se presente algún tipo de falla en el suministro, de modo que se incremente la disponibilidad del centro de datos.

Para estimar las dimensiones del generador requerido por las cargas críticas, se deben considerar las características de las cargas que habrá de alimentar. Las cargas mecánicas, por ejemplo, requieren corrientes de arranque elevadas y originan armónicas que obstaculizan el trabajo del generador para suministrar la energía demandada. Los UPS mismos pueden contribuir con este problema si no se encuentra funcionando a cargas plenas y puede provocar que el generador falle si se convierte en el elemento que demande la carga principal.

Por este motivo, menciona el ingeniero Sawyer, “los UPS deben seleccionarse para brindar confiabilidad en todo momento. Un UPS que muestra características capacitivas elevadas bajo condiciones de carga bajas debe evitarse. Las topologías de algunos UPS, como los de conversión delta, son ideales para sistemas alimentados por generadores y no producen las indeseables condiciones de operación que presentan los sistemas de doble conversión convencionales con filtros capacitores de entrada. Este simple aspecto en la elección de un UPS puede modificar bastante las dimensiones requeridas para el generador”.

Entonces, abunda el ingeniero Sawyer, “cuando se elige un generador, se debe basar la decisión en los kilowatts nominales del generador, con propósitos de simplicidad; pero debemos estar conscientes de que los generadores están diseñados para operar cargas con un factor de potencia inferior a 1.0; 0.8, por lo regular. Esto significa que la corriente y el voltaje estarán ligeramente fuera de fase y que el generador deberá soportar esta diferencia. Un generador de 1 mil kilowatts, diseñado para operar cargas con un factor de potencia de 0.8, estará funcionando como un generador de 1 mil 200 kilowatts”.

Finalmente, un aspecto fundamental para el correcto funcionamiento de un centro de datos es establecer el nivel de redundancia eléctrica requerido. El ingeniero Di Nanno menciona que “según se elija un sistema N, N+1 o 2N+1, el sistema eléctrico contará con diferentes elementos y necesidades de alimentación eléctrica. Una vez establecida la potencia total requerida, se debe cotejar la disponibilidad, ya sea dentro del edificio en el cual se emplazará el data center o directamente desde la compañía eléctrica, en el caso de mayores consumos. Por último, el sistema de energía deberá prever la instalación de un grupo generador que actúe en los casos que la compañía eléctrica interrumpa el servicio, el cual deberá posibilitar el cien por ciento de funcionamiento del data center. La norma TIA-942 establece para los data center Tier 4 que la generación de emergencia sea concebida con la instalación de dos grupos generadores y que por sí solo cada uno pueda abastecer el ciento por ciento de la potencia requerida”.
——————————————————————————————————————————————————-

Un centro de datos ¿flotante?
La información contenida en un centro de datos puede ser tan valiosa que los expertos en el tema siempre buscarán los lugares más aislados y seguros para resguardar los datos

La seguridad es tan importante que se tiene registro de centros de datos construidos  bajo búnkers de guerra, minas e incluso sobre centros religiosos. Sin embrago, el mayor asombro sobre este tipo de edificaciones llegó con la posible construcción de un centro de datos sobre el mar;  y es que hace unos meses se registró en la bahía de San Francisco, en Estados Unidos, la construcción de una enorme estructura de varios pisos sobre una plataforma de 80 metros de largo aproximadamente, la cual  está bajo supervisión de Google,  el buscador web más visitado a nivel mundial.

Según el periodista Daniel, del blog tecnológico CNET, Google podría estar trabajando en la construcción de un centro de datos flotante, pues  se sabe que en 2009  la empresa presentó una patente sobre un centro de datos marítimo, el cual genera electricidad gracias a las olas del mar y cuenta con varias computadoras, así como unidades de refrigeración.

Aunque la compañía confirmó que la construcción sí les pertenece pero aún no mencionarán cuál será su uso,  varios medios de comunicación aseguran que sí se trata de un centro de datos y los expertos añaden que aprovechar el agua del mar para enfriar un centro de datos podría ser la razón principal para crear una instalación flotante, además de asegurar el uso de energía limpia, un costo significativamente bajo y mayor seguridad, razones que se suman a la creencia de que sí se trata de un futuro centro flotante.

Por otra parte, los expertos también aseguran que la conectividad, la humedad, la sal, los oleajes y las tormentas podrían ser un factor contraproducente para almacenar información.
——————————————————————————————————————————————————-

Niveles de redundancia eléctrica en UPS
N-Configuración de capacidad. Instalaciones en las que una única o varias UPS juntas proporcionan capacidad equivalente a la carga total de los equipos. Es la configuración más simple, no proporciona redundancia e implica la pérdida de la seguridad del suministro ante cualquier labor de mantenimiento. Adecuada para centros de datos tipo Tier 1, según el estándar TIA-942.

N+1-Redundancia aislada Cuenta con dos UPS capaces de soportar toda la carga del centro de datos, pero únicamente una está activa en el modo de operación estándar; la otra entra en funcionamiento cuando la primera cae. Ofrece la ventaja de que las UPS no requieren sincronización, con las desventajas de ser más ineficiente por tener una UPS sin carga que proteger y la dependencia de los dos bypass estáticos de ambas UPS. Hay un punto de fallo único en la alimentación a los sistemas. No aparece en la descripción de posibles configuraciones redundantes de la TIA-942.

N+1-Redundancia en paralelo Configuración en la que 2 UPS soportan la carga de los sistemas a la vez. Cada una es capaz de soportar toda la carga por completo. Una de las configuraciones más habituales. Requiere que las UPS estén sincronizadas y habitualmente que sean del mismo fabricante. El diseño tiene puntos únicos de fallo, tanto en la alimentación de las UPS, como en la distribución hacia los sistemas; no es tolerante a fallos, aunque esto puede matizarse según la implementación. Adecuada para Tier 2, 3 y 4, según el estándar TIA-942.

2N-Redundancia sistema + sistema El diseño típico de esta configuración puede equivaler a dos sistemas de capacidad N alimentando simultáneamente las Power Distribution Units (PDU); es decir, dos parejas de UPS + generador. Presenta muchas implementaciones en las que es posible eliminar los puntos de fallo, con el consiguiente incremento en costes al redundar cuadros eléctricos, equipos de transferencia, etcétera. Es un diseño tolerante a fallos que, para mayor disponibilidad, suele implementarse como 2 (N+1). Adecuado para Tier 4, según el estándar TIA-942, siempre y cuando se utilicen dos suministradores de energía eléctrica distintos.

2(N+1)-Doble redundancia en paralelo Corresponde a dos configuraciones de redundancia paralelas alimentando simultáneamente el equipamiento crítico. Requiere al menos cuadruplicar la potencia eléctrica necesaria para alimentar los sistemas informáticos, ya que cada una de las cuatro UPS mínimas requeridas debe ser capaz de proteger la carga completa. Precisa dos generadores capaces de soportar independientemente toda la carga de la instalación. Todo el sistema es tolerante a fallos y puede mantenerse sin exponer los sistemas a interrupciones del servicio. Adecuado para Tier 4, según el estándar TIA-942, siempre y cuando se utilicen dos suministradores de energía eléctrica distintos.

2(N+1)-Redundante distribuida Este diseño intenta reducir el número de UPS requerido para soportar una configuración 2(N+1) doblemente redundante. Utiliza Interruptores Estáticos de Transferencia (STS, por sus siglas en inglés) para proporcionar redundancia a partir de un número menor de UPS y grupos electrógenos.
——————————————————————————————————————————————————-

Referencias
1. Walter Navarrete, Data centers: concepto y diseño.
2. Humberto Chacón Cuétara, “Diseño eficiente en centros de datos”.
3. Julián Di Nanno, Diez aspectos fundamentales a tener en cuenta para construir un data center.
4. Richard Sawyer, Calculating Total Power Requirements for Data Centersl, APC, White Paper 3.
5. Neil Rasmussen, Guidelines for Specification of Data Center Power Density, APC, White Paper 130.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba