ProteCompu

  • PROTECOMPU C.A. de Ecuador y ACECO TI de Brasil realizarón el diseño, planificación y construcción del Mega Centro de Datos para la Corporación Nacional de Telecomunicación (CNT EP). Esta mega construcción fue inaugurada el 25 de Febrero del 2016. De esta forma se consolida la plataforma tecnológica en beneficio de todo el Ecuador
  • El moderno Centro de Datos de CNT construido por PROTECOMPU cuenta con la certificación TIER III emitida por el Uptime Institute y con la certificación LEED (Liderazgo en Energía y Diseño Ambiental) para el cuidado del medio ambiente, de esta manera, cumple con los estándares de calidad para la construcción y diseño de centros de datos.

    Fuente: Ministerio de Telecomunicaciones y Sociedad de la Información: http://www.telecomunicaciones.gob.ec/vicepresidente-jorge-glas-inauguro-data-center-de-cnt-ep/ Fuente de Imagenes: http://www.eltelegrafo.com.ec/noticias/economia/8/vicepresidente-inauguro-una-megaconstruccion-de-tics

  • El mega Centro de Datos de CNT construido por PROTECOMPU es 12.000 m² cuenta con una subestación eléctrica de 10 MW, una línea de alta tensión propia, un termogenerador para casos de emergencia y un sistema climatizador.

    Fuente: Diario EL TELÉGRAFO: http://www.eltelegrafo.com.ec/noticias/economia/8/vicepresidente-inauguro-una-megaconstruccion-de-tics

  • La mega Obra de CNT construido por PROTECOMPU cuenta con el respaldo y soporte de modernos equipos y tecnología de punta, de esta manera, brindará servicios de Data Center y Cloud Computing

    Fuente de Imagenes: http://www.eltelegrafo.com.ec/noticias/economia/8/vicepresidente-inauguro-una-megaconstruccion-de-tics

Safe, easy and secure payday loans online application form on bluesealoans.co.uk

 

ACREDITACIONES

ATDyEGBC join

PROTECOMPU C.A. es acreditado como Tier Designer por UPTIME INSTITUTE y es miembro de Ecuador Green Building Council.

Leer más...

Responsabilidad Energética


Conozca donde esta su mayor consumo energético.

Responsabilidad Energética

Nuevas estrategias para reducción de costos de energía en Centros de Cómputo y reforzar la capacidad energética.

Introducción

Cuando el concepto de Energy Logic se introdujo en 2007, la eficiencia energética de los Centros de Cómputo se estaba convirtiendo en un problema grave. El aumento de la densidad y capacidad de los centro de datos generaban altos valores en las facturas de energía, en paralelo se producía una preocupación por el calentamiento global lo que provocó un informe de la EPA en EE.UU. acerca del consumo de energía de los centros de cómputo. Frente a esto la industria respondió con una serie de directrices tácticas, pero ninguna estrategia sólida para optimizar la eficiencia.

El concepto de Energy Logic llena este vacío y rompe paradigmas de la época, donde las soluciones se centraban normalmente en el uso de energía de los sistemas de apoyo a los centros de datos (aires acondicionados, sistemas eléctricos como UPS’s, generadores etc), mientras descuidaban la eficiencia de los sistemas informáticos que consumen más de la mitad de la energía del centro de datos y generan mayores necesidades de refrigeración y otros sistemas de apoyo.

En cambio, Energy Logic tomó un camino inverso, que impulsa la mejora en la eficiencia de los equipos de TI, así como la eficiencia de los sistemas de apoyo. A través de este enfoque más estratégico, Energy Logic fue capaz de aprovechar el efecto cascada que se produce cuando un menor consumo de energía en el componente y nivel de dispositivo produce un efecto incremental de reducción de consumo de energía en los sistemas de apoyo.

 

Energy Logic ha demostrado que 1 Watt que una empresa ahorra a nivel de procesadores de los servidores, produce ahorros de 2,84 Watt’s,a través del efecto cascada, además, las diez estrategias de Energy Logic, trabajando juntas, crearon un 52 por ciento
ahorro en el consumo de energía de un centro de datos, al tiempo que se libera hasta un 65 por ciento del espacio de los centro de datos.


El enfoque de Energy Logic original se centra en la eficiencia energética, pero las mismas estrategias se pueden aplicar para eliminar limitaciones para el crecimiento e incrementar la capacidad de un centro de datos. Para muchas empresas con presupuestos apretados después de la caída económica del 2008, la posibilidad de rentablemente ampliar la capacidad de sus Centros de Datos, fue la fuerza impulsora de muchas organizaciones que buscan mejorar su eficiencia.

Actualizando Energy Logic

Las tecnologías de los centros de datos han evolucionado desde que se introdujo Energy Logic en el 2007, lo que ha creado nuevas oportunidades para optimizar la eficiencia y
capacidad de los centros de datos. Como resultado de esto, Emerson Network Power ha desarrollado Energy Logic 2.0, para incorporar los avances de la tecnología y las nuevas
mejores prácticas, que han surgido en los últimos cinco años.

Mientras que Energy Logic se ha actualizado, los principios básicos no han cambiado:

  • Los más grandes ahorros de energía, se consiguen con un enfoque en el corazón de los sistemas de TI, que son los que generan los mayores consumos de energía de un centro de datos, a través del aprovechamiento del efecto cascada.
  • El centro de datos sólo puede funcionar eficazmente cuando se utiliza la energía adecuada, de acuerdo a la real demanda. Los sistemas que no operan eficientemente, en sus picos de energía generan muchos desperdicios energéticos.
  • Es posible lograr reducciones significativas en el consumo de energía de un centro de datos, sin tener que implantar diseños no probados o utilizar tecnologías que sacrifican el rendimiento de sus centros de datos.

Hay más similitudes que diferencias entre Energy Logic 2.0 y la Energy Logic original. De esto se concluye que el concepto de Energy Logic es supremamente sólido, concluyendo que un data center del 2007 es muy similar a uno de los actuales desde el punto de vista energético.

Los Servidores actuales, por supuesto proporcionan más potencia de procesamiento con mayor eficiencia, lo que resulta en mayores densidades en un rack. Sin embargo, pocos centros de datos están aprovechando los componentes de mayor eficiencia para de manera visible mejorar el rendimiento en tiempo real, limitando la capacidad de los administradores de centros de datos para aprovechar todas las oportunidades de optimización disponibles.
Los incrementos de la potencia de procesamiento de los servidores, se estima que aumentarán el consumo de la energía total para un data center de 5.000 pies cuadrados (464.5 metros cuadrados) establecido en el Energy Logic original, de 1.127 KW a 1.543 KW. Al igual que en el Energy Logic original, más de la mitad de la energía es consumida por los equipos tomando en cuenta un PUE (Power Usage Efectiviness) de 1,91 (figura 1).

 

 

La virtualización es la única área donde el mercado ha avanzado más allá de la visión original de Energy Logic. En el 2007 Energy Logic plantea un Data Center base que no cuenta con virtualización, actualmente el centro de datos optimizado emplea la virtualización, en el 20 por ciento de los servidores. Hoy en día, el nivel promedio de virtualización de servidores supera el 30 por ciento (Figura 2).


 

Las estrategias de Energy Logic 2.0 se han actualizado para reflejar las últimas tecnologías y las mejores prácticas. Adicionalmente dos estrategias se han revisado para reflejar las nuevas tecnologías y las mejores prácticas que no fueron consideradas por el Energy Logic original:

  1. 1.Strategy 4 anteriormente se centraba en los servidores blade y su capacidad para ahorrar energía a través de componentes compartidos. En Logic Energy 2.0, los servidores blade no son considerados aisladamente, en su lugar, la consolidación de servidores, se ha integrado en Energy Logic 2.0 's a través de la virtualización para reflejar mejor el hecho de que la consolidación ocurre generalmente en armonía con la virtualización. Strategy 4 de Energy Logic 2.0 ahora se centra en la arquitectura ICT (Information and Communications Technology), que constituye parte de las “best practices” y que permite un ahorro de energía, optimizando las conexiones IP en el centro de datos.
  2. 2.El otro cambio significativo en Energy Logic 2.0, es el aprovechamiento al máximo de las DCIM (Data Center Infrastructure Management). Esto puede parecer un avance relativamente menor en la actualización de la estrategia final de Energy Logic, pero el monitoreo es uncomponente importante que permite un seguimiento de las capacidades de las infraestructuras, que es un componente de las DCIM. De hecho, la visibilidad y control previstos por las DCIM están integradas en Energy Logic 2.0, ya que no es posible atribuir algún porcentaje de ahorro de forma aislada específicamente a las DCIM. Las DCIM permiten múltiples estrategias en el concepto de Energy Logic.

Calculando el Impacto

Uno de los desafíos que enfrentan las organizaciones en la optimización del rendimiento de los centros de datos, es equilibrar los objetivos que a menudo parecen estar compitiendo: gestionar los costos, satisfacer la creciente demanda de servicios de cómputo y asegurar la disponibilidad. Energy Logic ofrece la flexibilidad para utilizar las mejoras de eficiencia, reduciendo costos o aumentando las capacidades sin comprometer la disponibilidad del centro de datos, lo que permite que los administradores de centros de datos aborden con eficacia el cumplimiento de objetivos sin generar conflictos entre ellos.

El efecto Cascada

El efecto cascada es la pieza clave fundamental en la estrategia de Energy Logic, proporcionando un enfoque claro en las iniciativas de eficiencia del centro de datos. En un Centro de Cómputo con un PUE (Power Usage Effectiveness) de 1,9, por cada Wattio de ahorro en el procesador de un servidor, se crea un ahorro de 2,84 Wattios a nivel general (Figura 3) en mayores índices de PUE el ahorro será mayor.


 

Eficiencia Energética

 

 

Las estrategias de Energy Logic 2.0 pueden reducir el consumo de energía de un típico Centro de Cómputo de 5.000 pies cuadrados hasta en un 74 por ciento. Asumiendo una instalación de carga de 1.543 kW y los costos de energía de $0.08 por kilovatio-hora, los costos anuales de energía se reducirían de $1.081.334 a $285.926 es decir un costo de $0.15 por kilovatio-hora. El ahorro es aún mayor, con una reducción en los costos de energía anuales de $ 2.027.502 a $ 536 112 (Figura 4).



Capacidad

Espacio, refrigeración y energía son los tres obstáculos más comunes para el crecimiento de la capacidad de los Centros de Cómputo. Energy Logic supera estas limitaciones mediante la conversión de una mayor eficiencia en capacidad adicional. Los aumentos en la eficiencia de TI, equivalen a capacidad adicional en UPS´s, mientras que las mejoras de refrigeración permiten una mayor densidad, lo que libera espacio físico. Al aumentar la densidad de los racks de un promedio de 5 kW a 12 kW, con los otros aumentos de eficiencia logrados a través de Energy Logic 2.0, el número de bastidores de servidores se recortó de 161-27, creando el potencial para un 83 por ciento de ahorro en el espacio del centro de datos.

1.    Componentes de Bajo Consumo

El efecto Cascada genera ahorros a nivel de componente, por lo que los componentes de bajo consumo representan el primer paso en Energy Logic 2,0. El Energy Logic original destacó los ahorros que se pueden obtener mediante la mejora de la eficiencia del procesador, y hay todavía importantes posibilidades de mejora en este mismo frente.

La Potencia de diseño térmico (TDP) es el mejor indicador disponible de la eficiencia del procesador. Debido a que la eficiencia de los servidores ha mejorado considerablemente
en los últimos cinco años, ha sido posible un crecimiento constante de la capacidad de cómputo. Por lo tanto, los procesadores de servidor consumen alrededor de la misma potencia que lo hicieron cuando el Energy Logic original fue introducido, que se estimó en el 91 W.


Los fabricantes de procesadores siguen avanzando hacia niveles de excelencia con procesadores de alto rendimiento, que consumen entre 40W y 60 W menos que los procesadores estándar. Estudios independientes de investigación muestran que estos procesadores de bajo consumo ofrecen el mismo rendimiento modelos de mayor potencia (Figura 6).


Si la potencia del procesador se reduce de 91W promedio a 54 W, un 11,2 por ciento (172 kW) se puede lograr un menor consumo de energía en el centro de datos.


Además, RAM’s DDR3 y DDR4 representan alternativas de menor consumo para las memorias tradicionales de los servidores, este ahorro puede ser compensado con incrementos de memoria en los servidores. La sustitución de discos duros mecánicos
por memorias (solid state) también pueden mejorar la eficiencia de los servidores.

2.    Fuentes de energía de Alta Eficiencia

Al igual que otros componentes de los servidores, las fuentes de alimentación usadas actualmente, permanecen por debajo de los niveles de eficiencia que se podrían lograr. A pesar de que la eficiencia de las fuentes de energía ha mejorado desde la aparición del Energy Logic original (79% de eficiencia), se sigue consumiendo más energía de lo que realmente se necesita. La eficiencia media de las fuentes actuales se estima en un 86,6%, muy por debajo del 93 por ciento que es lo tecnológicamente disponible.

Aumentar la eficiencia del 86,6 por ciento al 93 por ciento, reduce el consumo total de energía en un centro de datos en un 7,1 por ciento. Teóricamente en un Centro de Cómputo de 5.000 pies cuadrados, el 7,1% equivale a 110 kW de ahorro total.

Al igual que con otros sistemas del centro de datos, la eficiencia en las fuentes de poder de los servidores varía en función de la carga (Figura 7). Algunas fuentes de alimentación tienen mejores niveles de carga que otros, y esto es particularmente importante en los dispositivos con procesadores Dual-Core donde la utilización de energía de suministro tiene un promedio de 30 por ciento menos. La figura 7 muestra la eficiencia de las 2 modelos de fuentes con cargas diferentes, con una carga del 20 por ciento, el modelo A. tiene una eficiencia de aproximadamente el 88 por ciento, mientras que el modelo B tiene una eficiencia cercana al 82 por ciento.

3.    Administración de la energía de los servidores

La administración de la energía de los servidores, sigue siendo un concepto no aprovechado para la reducción de la utilización de los centros de datos, debido a que raramente funcionan bajo un rendimiento total. Esto realmente es un problema debido a que, una facilidad funcionando al 20 por ciento de capacidad, puede usar 80 por ciento de la energía, es decir la misma energía que si operara al 100 por ciento de su capacidad.

La administración de la energía de los servidores, puede reducir significativamente el consumo energético cuando están en estado de reposo, pero no se utiliza en el centro de datos típico, debido a las preocupaciones acerca del tiempo de respuesta para que se "despierte" un servidor inactivo mediante la administración de energía.


El Green Grid, un consorcio industrial enfocado en la mejora de la eficiencia de los recursos de un centro de datos, ha llevado a cabo una investigación en relación a la administración de la energía de los servidores con el objetivo de poder identificar los
principales obstáculos para la adopción de estas disciplinas y está desarrollando materiales para ayudar a educar a los administradores de los centros de datos y aumentar la utilización de estas tecnologías.


Adicionalmente, la nueva investigación ha revelado que los riesgos de la aplicación de administración de energía en los servidores más antiguos puede ser muy baja, ya que estos servidores contribuyen poco al rendimiento del centro de datos. En una presentación en el AFCOM Data Center World en el 2011, William Carter
y John Kuzma de Intel, presentó un análisis de la utilización de los servidores en un Centro de Datos de una empresa y encontró que los servidores instalados antes del 2008 representaban el 60 por ciento del consumo de energía, pero sólo entregaban el 4 por ciento de la capacidad de eficiencia (Figura 8).

A largo plazo, los servidores antiguos que contribuyen poco al rendimiento de los Centros de Datos, deben identificarse y consolidarse en nuevos servidores, sin embargo, la administración de energía representa una potente solución provisional, al reducir el consumo de energía de los servidores sin hacer inversiones adicionales en tecnología. También representa una estrategia ideal a largo plazo para permitir la adaptación dinámica del consumo de energía de los servidores, a la carga del Centro de Cómputo.

La infraestructura DCIM puede recoger en tiempo real los datos de funcionamiento de los sistemas de distribución de energía de los racks y consolidar estos datos con los datos de utilización de los servidores, proporcionando visibilidad necesaria para identificar la capacidad real y permitir un uso seguro y eficaz de la administración de energía de los servidores.

La implementación de la administración de energía de los servidores en un centro de datos, puede reducir el consumo total de energía en un 10 por ciento, es decir recortando 146kW de 1261kW de carga, después de la aplicación de las estrategias 1 y 2 presentadas.

4.    Arquitectura ICT

Debido a la forma en que han crecido, los centros de datos de hoy por lo general cuentan con una arquitectura tipo silo con la virtualización limitada a la capa de aplicación por línea de negocio. Arquitecturas de red no óptimas contienen activos duplicados y no disponen de seguimiento de los activos coordinados con la red de routers y switches. Esta arquitectura que de manera aislada considera información y comunicación es similar a un disco duro fragmentado en que se ven comprometidos tanto la eficiencia y el rendimiento.


Se puede ganar eficiencia a través de la nueva tecnología de cableado estructural que reduce la carga de calor a través del incremento sustancial de la velocidad de transmisión (Figura 9).

La implementación de una arquitectura ICT, implica el establecimiento de políticas y normas para orientar el diseño e implantación de la infraestructura de la red, asegurando que en todos los sistemas del centro de datos se apliquen las mismas reglas y políticas de gestión. La red está diseñada como un sistema integral que es de propiedad de TI y administrado por ellos como un servicio a la empresa. Los Servidores y el almacenamiento pasan a ser de una propiedad del negocio a una propiedad de TI con contadas excepciones en las aplicaciones HPC y en ciertos requisitos legales. Además, los activos de TI se despliegan de acuerdo con un plan maestro que garantice que el escalamiento de la carga de trabajo en los sistemas minimice el tamaño de la red y los costos, y el aprovechamiento de un control centralizado a través de las DCIM.

5.    Consolidación y virtualización de servidores

La virtualización permite consolidar servidores de mayor consumo de energía en menos hardware. También aumenta la capacidad del personal de TI para responder a las necesidades cambiantes del negocio y nuevos requerimientos de computación. La naturaleza estática del servidor físico hace que sea difícil para IT responder a las cargas de procesamiento variables, el hardware debe ser incrementado para atender los picos de demanda, que ocurren con poca frecuencia. Al ejecutarse varias aplicaciones en el mismo servidor, la capacidad real de procesamiento puede ser dimensionada con mayor precisión en función de las reales necesidades, reduciendo significativamente el número de servidores necesarios para soportar la demanda. De acuerdo con VMware, todos los servidores que se virtualizan ahorran 7,000 kWh de electricidad y cuatro toneladas de emisiones de dióxido de carbono por año.

Actualmente la mayoría de los centros de datos han descubierto los beneficios de la virtualización, pero todavía hay oportunidad de mejorar. Por ejemplo, el aumento de la virtualización de servidores de un 30 a un 60 por ciento, reduce el consumo de energía en un 29% en los Centros de Datos, lo que representa por mucho la mayor contribución de cualquier estrategia de Energy Logic. Esto representa un ahorro de 448 kW en un centro de datos que consume 1.543 kW.

Los DCIM pueden desempeñar un papel importante para ayudar a las organizaciones a aumentar el nivel de la virtualización y a administrar el ambiente virtual. Las DCIM proporcionan visibilidad de como los servidores virtuales se implementan y de la capacidad de la infraestructura que soporta los servidores virtuales. Con DCIM la
capacidad de la infraestructura puede ser utilizada plenamente, sin correr el riesgo de sobre dimensionar las reales necesidades de procesamiento.

6.    La Arquitectura energética

Históricamente los diseñadores y administradores de los centros de datos han tenido que elegir entre la disponibilidad y el manejo eficiente de la energía en los sistemas energéticos de los centros de datos. Los sistemas de doble conversión de los UPS’s proporcionan la más alta disponibilidad, pero no pueden entregar la misma eficacia que los sistemas de UPS’s “line-interactive”. El proceso de conversión en UPS’s asegura un exhaustivo acondicionamiento de potencia y un mejor aislamiento de los componentes electrónicos más sensibles de las fuentes de poder, pero también se producen pérdidas de energía en el proceso.

Actualmente, sin embargo, los avances en la tecnología de doble conversión de los UPS han cerrado la brecha de eficiencia energética respecto a los sistemas de UPS’s “line-interactive” y se han acercado bastante al rendimiento de estos sistemas.

Aproximadamente del 4 al 6 por ciento de la energía que pasa a través de los UPS’s de doble conversión se utiliza para el proceso de conversión; consumo que ha sido tradicionalmente aceptado como un precio razonable a pagar por la protección ofrecida por los sistemas de UPS’s, pero con las nuevas opciones para lograr altos niveles de eficiencia, la doble conversión no se usa, con lo que la eficiencia del consumo energético mejora, esto se puede hacer cuando la criticidad de los Centros de Datos no es alta o cuando el suministro de energía es de la más alta calidad, este “bypass” de la doble conversión se logra mediante la incorporación de un switch estático automático en el UPS. Este switch funciona a las más altas velocidades con la finalidad de lograr una transferencia de carga desde la fuente eléctrica de alimentación principal a la de backup proveyendo una alimentación de energía ininterrumpida en caso de eventos de sobrecarga o pérdida de la energía del bus de alimentación principal. La transferencia de energía se lleva a cabo en alrededor de 4 milisegundos con lo que se impide cualquier interrupción que pueda apagar los equipos informáticos. Usando sistemas de control inteligentes se puede mantener la conversión AC-DC-AC de forma normal, mientras el UPS monitorea la calidad del proceso de bypass de energía.

Cuando los sensores de calidad de energía de los UPS’s fallan es decir funcionan fuera de los rangos de energía aceptada, el bypass se abre y se transfiere la energía a un inversor para que las anomalías se pueden corregir. El inversor debe mantenerse en un estado constante de preparación, para poder aceptar la carga y necesita el control de la energía para que la transferencia ocurra sin interrupciones en el bus energético crítico. Con este proceso, el consumo de energía es inferior al 2 por ciento de la potencia nominal, creando un ahorro entre el 4.1 y 4.5%, que es mejor en comparación con los modos tradicionales de funcionamiento.

Otra nueva característica de funcionamiento de los controles de los UPS’s, “emparalelamiento inteligente”, puede contribuir a ahorros energéticos adicionales. Esta característica mejora la eficiencia de los sistemas redundantes de UPS’s mediante la desactivación de los módulos que no son requeridos para soportar la carga y el aprovechamiento de la mejora de eficiencia inherente a la mejora de la eficiencia disponible en condiciones de alta carga energética. Por ejemplo, el sistema de UPS’s multi-módulo configurado para soportar una carga de 500 kVA usa normalmente 3 módulos de 250 kVA, lo que en cargas reales por debajo de los 250 kVA, puede funcionar con el uso de solo 2 módulos. En este escenario desactivar el módulo redundante mejora la eficiencia de los módulos restantes, ya que estos funcionan bajo condiciones de carga superior (Figura 10).

En los sistemas de distribución energética, transformadores de alta eficiencia pueden reducir al mínimo las pérdidas energéticas, en el trayecto de alimentación entre los UPS’s y los racks. El uso de la alimentación energética con DC es una opción válida para optimizar la arquitectura energética. El uso de DC es tan eficiente como los sistemas de alta eficiencia de AC, estos sistemas DC ofrecen modularidad, redundancias, funcionamiento paralelo (emparalelamiento inteligente) y aislamiento de la red eléctrica en todos los modos de operación estándar.

Las DCIM pueden apoyar el control inteligente del sistema eléctrico, al proporcionar una visión integral del consumo de energía del centro de datos y el uso energético de los servidores con la finalidad de afinar la operación eléctrica en modo de eco o determinar si es necesario utilizar el emparalelamiento inteligente.

 

La implementación de eco-mode en los UPS’s y la optimización energética en la trayectoria de alimentación desde los UPS’s a los servidores y otros equipos, puede reducir el consumo de energía del centro de datos en un 4 por ciento del total, o el 10 por ciento de la carga de 614 kW restantes si se han utilizado todas las otras estrategias presentadas.

7.    La Administración del Flujo del Aire y la Temperatura

El Energy Logic original ha apoyado el uso de arquitecturas con pasillos fríos y calientes aisladas en los centros de datos y ha destacado la importancia de evitar las deficiencias del sellado en el suelo. Además sugirió que se estudiase la posibilidad de enfriar el agua a 50°F (10°C). Esto reduce los costes totales de energía en un 1 por ciento, virtualmente sin la inversión en nuevas tecnologías. Energy Logic 2.0 se basa en las mejores prácticas, que ahora están firmemente establecidas en la mayoría de los centros de datos empresariales, para tomar la temperatura, la humedad y la gestión del flujo de aire a un nivel superior por medio de la contención, controles inteligentes y economización.

Desde el punto de vista de eficiencia, uno de los principales objetivos de evitar que el aire frío y caliente se mezclen, es maximizar la temperatura del aire de retorno a la unidad de enfriamiento. La relación entre la temperatura del aire de retorno y la capacidad de enfriamiento sensible se ilustra en la Figura 11 que muestra que un aumento de 10°F (5,6°C) en el aire de retorno provoca un aumento de potencia de 30 a 38 por ciento en la capacidad del equipo de enfriamiento necesario, esto en función del tipo de sistema. Esta capacidad adicional se traduce en una operación más eficiente en un sistema DX, mediante el funcionamiento de compresores sin carga y en el sistema de agua fría mediante el funcionamiento de los refrigeradores y las bombas sin cargas con un flujo reducido. También puede aumentarse el ra

Green Data Center


Respete el entorno de nuestro planeta, hágalo sostenible en el tiempo.

Green Data Center

Marcas Líderes

Está aquí: Home