DCHW

DCHW

lunes, 9 de septiembre de 2024

La Importancia de la Identificación Precisa en Data Centers: Normas y Mejores Prácticas para Tableros Eléctricos y Cableado Estructurado

 
    Como consultor en Mission Critical y especialista en el diseño de Data Centers, uno de los aspectos más críticos que no puede pasarse por alto es la correcta identificación de los tableros eléctricos y el cableado estructurado. La organización y el etiquetado precisos de estos sistemas son fundamentales para asegurar la continuidad operativa, la seguridad y la eficiencia en entornos críticos.

En este artículo, profundizaremos en cómo el artículo 408.4(A)(5) de la NFPA 70 National Electric Code (NEC) y la norma ANSI/TIA 606 establecen directrices esenciales para la identificación y documentación dentro de las infraestructuras críticas, cada una desde su perspectiva específica pero complementaria.



    La aplicación del contenido relacionado con el artículo 408.4(A)(5) de la NFPA 70 NEC 2023 en los tableros de cargas críticas de un Data Center (ya sea enterprise o colocation) es crucial para asegurar una identificación adecuada de los circuitos, lo que facilita tanto el mantenimiento como la seguridad en entornos altamente sensibles. Aquí te explico cómo este principio puede aplicarse de manera efectiva:

1. Identificación clara de los circuitos en tableros de cargas críticas:

  • 408.4(A)(5) establece que cada circuito derivado y alimentador en los tableros debe ser claramente identificado. En un Data Center, esta identificación es esencial para asegurar la trazabilidad de la energía que alimenta servidores, sistemas de almacenamiento, unidades de refrigeración, y sistemas de alimentación ininterrumpida (UPS). Cada circuito debe estar etiquetado de forma precisa, por ejemplo:
    • UPS Principal - Rack 1
    • Enfriador de Backup - Zona 3
    • Alimentación del Servidor A1
    • Iluminación de pasillo 5
    • Monitoreo ambiental - Sensor Sala B

La etiqueta debe ser lo suficientemente descriptiva para que el personal técnico pueda identificar rápidamente qué dispositivo o equipo está conectado, permitiendo una respuesta más ágil ante cualquier problema y minimizando riesgos de desconexiones erróneas.

2. Tableros de distribución en Data Centers:

Los tableros de distribución en un Data Center manejan la distribución de grandes cargas eléctricas a circuitos secundarios o alimentadores que, a su vez, alimentan áreas específicas del centro de datos. Estos tableros gestionan sistemas críticos como:

  • Servidores y almacenamiento: Donde una falla de energía puede afectar directamente la continuidad de los servicios.
  • Sistemas de refrigeración: Que son vitales para mantener la temperatura adecuada y prevenir fallas por sobrecalentamiento.
  • Sistemas de seguridad: Como CCTV, control de acceso, y alarmas.

La correcta identificación en los tableros de distribución es fundamental para evitar errores durante el mantenimiento o durante maniobras de desconexión. Por ejemplo, si un técnico debe trabajar en la alimentación de un grupo de servidores específicos, podrá desconectar el circuito correcto sin afectar otros sistemas vitales.

3. Paneles de control para cargas críticas:

En cuanto a los paneles de control (o de carga), en los Data Centers suelen estar más orientados a la protección de los circuitos derivados individuales, que pueden alimentar cargas específicas como sistemas de emergencia o equipos de TI de menor consumo. Estos paneles también deben contar con una identificación clara de sus circuitos derivados:

  • Salida UPS Rack 1 - Servidor B
  • Alimentación Controlador de Red

Esta información ayuda a los técnicos a diagnosticar y realizar ajustes sin comprometer la operación continua del Data Center.

4. Diferencia entre tablero de distribución y panel en un Data Center:

  • Tableros de distribución: Se utilizan para manejar y distribuir la alimentación desde una fuente principal (como un generador o UPS) hacia los diferentes subcircuitos críticos en el Data Center. Manejan grandes cargas y son responsables de la alimentación principal.
  • Paneles de carga: Se usan para gestionar circuitos derivados de menor escala, como los sistemas de iluminación, monitores ambientales o pequeños equipos de infraestructura TI. Los paneles son más pequeños y distribuyen la energía dentro de áreas específicas del Data Center.

5. Mantenimiento y actualizaciones en Data Centers:

Dado que los Data Centers experimentan cambios continuos en su infraestructura (por ejemplo, la actualización o reubicación de servidores), es vital que el etiquetado de los circuitos derivados y alimentadores se mantenga actualizado de acuerdo con las modificaciones que se realicen. Esto asegura que cualquier intervención técnica sea precisa y segura.

6. Seguridad y eficiencia operativa:

Una identificación precisa y actualizada facilita que los técnicos puedan realizar mantenimiento preventivo y correctivo, reduciendo el riesgo de errores humanos. Además, incrementa la eficiencia operativa al permitir que los equipos técnicos reaccionen rápidamente ante situaciones de emergencia o fallos.

Ejemplo práctico en un Data Center:

Imagina que un técnico debe trabajar en un panel de control en un Data Center colocation para desactivar un servidor específico. Si todos los circuitos están debidamente etiquetados según el artículo 408.4(A)(5), el técnico podrá desconectar únicamente el servidor afectado sin comprometer el resto de los servidores o sistemas.

En resumen:

    la aplicación del artículo 408.4(A)(5) en tableros de distribución y paneles de carga en un Data Center contribuye directamente a la seguridad, la eficiencia y la continuidad operativa. Esto es fundamental para evitar interrupciones en la operación crítica del centro, garantizando que cada circuito esté claramente identificado y se puedan realizar intervenciones de manera ágil y segura.


Esta revisión de la norma proporciona directrices para:

  1. Identificación y Etiquetado:

    • Establece requisitos para el etiquetado de cables, equipos, paneles de parcheo y otros componentes de la infraestructura de telecomunicaciones. La norma especifica los formatos y métodos para etiquetar y documentar de manera consistente, asegurando que la infraestructura pueda ser gestionada y mantenida de manera efectiva.
  2. Documentación:

    • Detalla los procedimientos para la documentación de la infraestructura de telecomunicaciones, incluyendo esquemas y diagramas que representen la disposición y las conexiones de los cables y equipos. Esta documentación es esencial para la planificación, el mantenimiento y la expansión de las instalaciones.
  3. Clasificación y Categorías:

    • Introduce conceptos y categorías para clasificar los elementos de infraestructura en función de su tipo y propósito. La norma proporciona directrices para la identificación y el manejo de diferentes tipos de cables y componentes.
  4. Requisitos para la Instalación y Mantenimiento:

    • Proporciona directrices para la instalación, mantenimiento y actualización de la infraestructura de telecomunicaciones. Incluye recomendaciones sobre cómo realizar cambios sin interrumpir el funcionamiento del sistema.
  5. Estandarización:

    • Establece estándares para la coherencia en la identificación y documentación a lo largo de las instalaciones, facilitando la comunicación y la gestión entre diferentes partes interesadas y equipos de mantenimiento.
  6. Gestión de Activos:

    • Ofrece lineamientos para la gestión efectiva de los activos de telecomunicaciones, ayudando a mantener un inventario preciso y a planificar la expansión futura.
    La sinergia entre estas normas es evidente en la manera en que contribuyen a una gestión eficiente de las infraestructuras críticas. Mientras que la recomendaciones del articulo 408.4(A)(5)  de la NFPA 70 (Código Eléctrico Nacional Americano ) garantiza una identificación precisa de los circuitos eléctricos, la ANSI/TIA 606 proporciona un marco para la identificación y documentación del cableado estructurado . Juntas, estas recomendaciones aseguran que tanto los sistemas eléctricos como de telecomunicaciones en un Data Center estén organizados de manera que se facilite el mantenimiento, se minimicen los riesgos y se optimice la operatividad. Este enfoque integrado es crucial en entornos de alta disponibilidad y misión crítica, donde la precisión y la disponibilidad continua son esenciales para el éxito.


Por: Carlos Buznego

Consultor en Telecomunicaciones y Mission Critical




jueves, 13 de junio de 2024

Hablemos de Normativas Y Certificaciones Para Data Center:

 




    Las certificaciones de centros de datos TIER, BICSI 002, ICREA y ANSI/TIA-942 proporcionan estándares para evaluar la infraestructura y operaciones de los centros de datos, aunque cada una tiene su enfoque particular y criterios específicos. A continuación, se describen las diferencias clave entre estas certificaciones:





1. Certificación TIER del Uptime Institute

Organización: Uptime Institute

Niveles de Certificación: Tier I, II, III y IV

Enfoque:

  • Disponibilidad y Redundancia: Los niveles TIER se centran en la capacidad de los centros de datos para mantenerse operativos ante fallos de infraestructura.
  • Diseño, Construcción y Operación: Evalúa el diseño, la construcción y las operaciones continuas para garantizar la alta disponibilidad.

Diferencias Clave:

  • Tier I: Capacidad básica, sin redundancia.
  • Tier II: Componentes redundantes.
  • Tier III: Mantenimiento concurrente, sin interrupciones durante el mantenimiento.
  • Tier IV: Tolerancia a fallos, capaz de resistir eventos de fallo sin afectar las operaciones.

Ejemplo: Un centro de datos Tier IV tiene sistemas de energía y enfriamiento completamente redundantes, permitiendo que cualquier componente falle sin interrumpir las operaciones.


2. BICSI 002

Organización: Building Industry Consulting Service International (BICSI)

Enfoque:

  • Buenas Prácticas y Diseño: Proporciona un manual detallado de buenas prácticas para el diseño y operación de centros de datos.
  • Normas de Diseño: Se centra en aspectos como telecomunicaciones, infraestructura física, enfriamiento, y energía.

Diferencias Clave:

  • Integralidad: Aborda una amplia gama de aspectos del diseño de centros de datos, desde la infraestructura de telecomunicaciones hasta la eficiencia energética y la gestión del espacio.
  • Flexibilidad: No tiene niveles como la certificación TIER, sino que proporciona una guía completa de mejores prácticas.

Ejemplo: Un centro de datos diseñado según BICSI 002 tendrá una infraestructura de telecomunicaciones robusta y un diseño de enfriamiento eficiente basado en las mejores prácticas de la industria.








3. Certificación ICREA

Organización: International Computer Room Experts Association (ICREA)

Niveles de Certificación: Nivel I al Nivel V

Enfoque:

  • Normas de Infraestructura: Evalúa la infraestructura física y las condiciones operativas de los centros de datos.
  • Escalabilidad: Los niveles reflejan la capacidad del centro de datos para soportar diferentes cargas y asegurar la continuidad operativa.

Diferencias Clave:

  • Nivel I: Requisitos mínimos básicos.
  • Nivel II: Requisitos mejorados con algunas redundancias.
  • Nivel III: Alta disponibilidad con redundancias importantes.
  • Nivel IV: Capacidad para mantenimiento concurrente.
  • Nivel V: Tolerancia a fallos completa, con alta redundancia y disponibilidad.

Ejemplo: Un centro de datos Nivel V de ICREA tiene una infraestructura robusta que permite el mantenimiento sin tiempo de inactividad y puede manejar múltiples fallos sin afectar la operación.







4. Certificación ANSI/TIA-942

Organización: Telecommunications Industry Association (TIA)

Niveles de Certificación: Rated 1, 2, 3 y 4

Enfoque:

  • Normas de Telecomunicaciones: Proporciona estándares para la infraestructura de telecomunicaciones y tecnología de la información.
  • Diseño y Construcción: Se centra en los aspectos físicos y lógicos del diseño de centros de datos.

Diferencias Clave:

  • Rated 1: Infraestructura básica.
  • Rated 2: Componentes redundantes.
  • Rated 3: Mantenimiento concurrente.
  • Rated 4: Tolerancia a fallos.

Ejemplo: Un centro de datos Rated 4 conforme a ANSI/TIA-942 tendrá rutas de fibra óptica redundantes, sistemas de enfriamiento y energía que garantizan la máxima disponibilidad y seguridad.




Resumen de Diferencias Clave: 

  • TIER del Uptime Institute: Enfocado en la disponibilidad y redundancia, con un sistema de niveles que clasifica la capacidad de un centro de datos para soportar fallos.
  • BICSI 002: Proporciona un manual de buenas prácticas para el diseño y operación integral de centros de datos, sin un sistema de niveles.
  • ICREA: Ofrece una clasificación en niveles desde I hasta V, similar a TIER, pero con un enfoque amplio en la infraestructura física y la capacidad operativa.
  • ANSI/TIA-942: Estándar centrado en la infraestructura de telecomunicaciones y aspectos físicos del diseño, también con una clasificación en niveles.

Cada certificación aporta un enfoque único y especifica distintos criterios que los centros de datos deben cumplir para asegurar la fiabilidad, eficiencia y seguridad de sus operaciones. La elección de una certificación u otra dependerá de las necesidades específicas y prioridades de la organización.


Por: Carlos Buznego

Consultor en Telecomunicaciones y Mission Critical


jueves, 15 de febrero de 2024

"La Importancia Vital del Suministro Eléctrico en Entornos de Mission Crítical: Garantizando La Eficiencia y Fiabilidad"

 

La calidad del suministro eléctrico es fundamental para un sistema de misión critical influyendo en la eficacia y fiabilidad de los procesos.

La excelencia del suministro eléctrico implica la capacidad de la energía proporcionada para satisfacer las necesidades de los dispositivos conectados, asegurando el correcto desempeño de la electrónica y la estabilidad de los procesos en los espacios críticos y de control

Tipos de Problemas

  1. Fluctuaciones de Tensión: Las variaciones en la tensión eléctrica pueden causar daños a los componentes más delicados. Tensiones elevadas o reducidas provocan fallos en los equipos, imprecisiones en las mediciones y pérdida de datos.
  2. Cortes de Energía: Las interrupciones repentinas pueden resultar en pérdida de datos cruciales o daños permanentes a los equipos, potencialmente ocasionando la pérdida de la data en áreas de mission critical, con consecuencias graves.
  3. Armónicos: Los armónicos son corrientes o tensiones con frecuencias múltiplos de la frecuencia fundamental de la red eléctrica. Provocan sobrecalentamiento en los equipos, afectan la precisión de las mediciones y generan interferencias en las comunicaciones.
  4. Distorsión Armónica Total (THD): La THD es una medida que indica la cantidad de distorsión armónica presente en una onda eléctrica. Niveles altos de THD afectan negativamente la eficiencia de los dispositivos y causan problemas de rendimiento.

¿ Por que se debe garantizar de un suministro de calidad ?




  1. Confianza en la Operación: Un suministro estable proporciona una base sólida para una operación continua y confiable. La fiabilidad es esencial, especialmente en entornos críticos como por ejemplo áreas de procesos industriales y centros de datos.
  2. Durabilidad de Equipos: La exposición constante a tensiones inestables o armónicos reduce considerablemente la vida útil de la electrónica. Un suministro eléctrico de calidad aumenta la longevidad y resistencia de los componentes.
  3. Exactitud en las Mediciones: Por ejemplo, en un sistema de control de proceso industrial depende de mediciones precisas; por lo tanto, la calidad eléctrica es esencial. Tensiones estables y libres de armónicos garantizan mayor precisión y resultados confiables.
  4. Reducción de Costos de Mantenimiento: Disminuye la necesidad de mantenimiento frecuente y reemplazo de equipos, lo que lleva a una reducción en el impacto del OPEX de cualquier organización , es decir mitigar el efecto downtime en cualquier proceso.

Retos:




  1. Costo de Implementación: Asegurar una alta calidad implica inversiones a nivel del CAPEX en equipos de protección, filtros y sistemas de respaldo, este factor económico inicial debe evaluarse en relación con los beneficios a largo plazo (fiabilidad y eficiencia).
  2. Supervisión: La monitorización constante de la calidad es compleja, especialmente en la industria, con múltiples cargas y variaciones en la demanda. La implementación de sistemas de monitorización avanzada es esencial.
  3. Concienciación: La falta de concienciación lleva a subestimar la calidad en el diseño de cualquier sistema critico ya sea transmisión de datos o control de proceso . La educación garantiza el uso de prácticas adecuadas.


Por: Carlos Buznego

Consultor en Telecomunicaciones y Mission Critical

martes, 12 de diciembre de 2023

La Vida Util De Los Servidores En Un Data Center

   Los centros de datos representan los puntos clave que sustentan las demandas informáticas globales, las cuales continúan en constante crecimiento. Con la construcción de nuevos centros de datos y la expansión o actualización de instalaciones existentes, resulta valioso comprender la duración esperada de los servidores. En este artículo, exploraremos la expectativa de vida media de los servidores en centros de datos y los factores que pueden incidir en la decisión de su sustitución.

¿Cuál es la vida útil promedio de un servidor de centro de datos?

 En líneas generales, los servidores en centros de datos suelen requerir renovación cada cinco años, aunque esta regla no siempre se cumple.

En algunos estudios se reflejan ciertos porcentajes para el reemplazo de servidores, por ejemplo:

  • 45 % : de 2 o 3 años.
  • 30 % : de 4 o 5 años,
  • 20 % : Anualmente.
  •   5 % : Mas de 6 años.

La variabilidad en las respuestas a la pregunta sobre la duración de un servidor de centro de datos se debe a que la vida útil real de estos dispositivos está sujeta a diversos factores.


¿Qué puede afectar la vida útil de los servidores en los centros de datos?

  • Con respecto a su uso un servidor tiene una clasificación para una duración más prolongada, puede ser necesario sustituirlo anticipadamente según su empleo. La utilización constituye el aspecto principal al momento de establecer la vigencia funcional de un servidor. En términos generales, a mayor procesamiento de datos, mayor desgaste experimentado por los servidores.
  • Cuando hablamos del diseño, no todos los servidores son idénticos; algunos pueden estar concebidos para tener una durabilidad superior a otros. Al igual que sucede con toda la tecnología, los servidores se vuelven más avanzados y competentes con cada enfoque innovador, razón por la cual los modelos más recientes pueden tener una longevidad mayor que sus predecesores. Por ejemplo, Microsoft recientemente prolongó la vida útil de su servidor en la nube de cuatro a seis años.
  • Otro factor hace referencia a los sistemas de control climático o ambientales, las condiciones en las que operan los servidores también pueden ser determinantes. Por lo tanto, es esencial contar con un entorno controlado mediante sistemas de refrigeración y filtración de aire.
  • Los servidores están inevitablemente sujetos a desgaste, pero este desgaste se puede contrarrestar mediante un mantenimiento proactivo. Mantener adecuadamente los servidores y reemplazar los componentes internos que se desgastan puede extender la vida útil de los equipos de TI.
  • Cuando llega el momento de una mejora, en ocasiones, resulta evidente la necesidad de sustituir un servidor, pero en la actualidad, muchos centros de datos eligen mejorar su equipo de TI antes de que llegue al final de su vida útil. Esto no solo posibilita una transición más planificada con un tiempo de actividad ininterrumpido, sino que también brinda la oportunidad de aprovechar las capacidades avanzadas de los sistemas más recientes. Cabe destacar que estos sistemas más modernos ofrecen densidades de energía superiores, lo que podría implicar la necesidad de actualizar la infraestructura de refrigeración.


Visión de futuro - Sumario:




En el siglo XXI, la necesidad de reemplazar o actualizar servidores en los centros de datos, nos pueden llevar a las siguientes resultantes:

Avances Tecnológicos:

  • Innovación Continua: El rápido avance tecnológico lleva a la introducción de servidores más potentes y eficientes con capacidades mejoradas.
  • Nuevas Arquitecturas: Cambios en las arquitecturas de servidores para aprovechar mejoras en rendimiento, eficiencia energética y capacidades de procesamiento.

Rendimiento y Capacidad:

  • Demanda de Procesamiento: A medida que las cargas de trabajo y las demandas de procesamiento de datos aumentan, los servidores más antiguos pueden volverse insuficientes para manejarlas eficientemente.
  • Necesidades de Almacenamiento: El crecimiento exponencial de datos requiere servidores con capacidades de almacenamiento mayores y tecnologías de almacenamiento más avanzadas.

Eficiencia Energética y Sostenibilidad:

  • Mayor Eficiencia Energética: Los nuevos servidores a menudo incorporan tecnologías más eficientes desde el punto de vista energético, lo que puede reducir costos operativos y la huella ambiental.
  • Requisitos de Sostenibilidad: Consideraciones ambientales y la creciente importancia de prácticas sostenibles pueden impulsar actualizaciones para cumplir con estándares más estrictos.

Seguridad y Cumplimiento:

  • Actualizaciones de Seguridad: La obsolescencia de hardware puede conducir a vulnerabilidades de seguridad, lo que hace necesario el reemplazo para mantener la integridad y seguridad de los datos.
  • Requisitos de Cumplimiento: Cambios en regulaciones y estándares de cumplimiento pueden exigir actualizaciones para garantizar el cumplimiento normativo.

Escalabilidad y Flexibilidad:

  • Escalabilidad: La necesidad de escalar rápidamente para satisfacer demandas cambiantes puede requerir servidores más flexibles y fácilmente escalables.
  • Adaptación a Nuevas Tecnologías: La adopción de nuevas tecnologías como la virtualización o la nube puede requerir actualizaciones de hardware para una integración óptima.

Tendencias en la Informática Empresarial:

  • Edge Computing: La expansión de Edge computing puede requerir servidores más potentes y distribuidos para satisfacer las necesidades de procesamiento en ubicaciones remotas.
  • Inteligencia Artificial (IA) y Análisis de Datos: Aplicaciones intensivas en datos, como la IA y el análisis avanzado, pueden necesitar servidores especializados para un rendimiento óptimo.

La evaluación y comprensión de estos factores son esenciales para una estrategia efectiva de gestión y actualización de servidores en el entorno de centros de datos en el siglo XXI.


Por: Carlos Buznego

Consultor en Telecomunicaciones y Mission Critical

domingo, 10 de diciembre de 2023

Que Es La Cultura Laboral China "996"

     





    El término 996 representa la cultura laboral china, que implica trabajar de 9 a.m. a 9 p.m., seis días a la semana que rige la vida laboral de muchos ingenieros, programadores, desarrolladores de videojuegos y otros informáticos en China. Este sistema surgió durante la competencia entre empresas chinas de internet y tecnológicas estadounidenses, pero ha sido criticado por su impacto negativo en la salud y bienestar de los trabajadores. " 

En sus inicios, la cultura laboral '996' en China dio lugar a empresas exitosas como Alibaba, Huawei y ByteDance, elevando la economía china al segundo puesto mundial. Los fundadores, como Jack Ma, elogiaron las largas jornadas laborales. Sin embargo, en 2019, con la desaceleración económica, surgieron críticas de los trabajadores por las extensas horas de trabajo y las dificultades para acceder a vivienda digna. Se evidenciaron problemas de salud y casos de fallecimientos por agotamiento, generando protestas en plataformas como Weibo. 

Jack Ma, fundador de Alibaba, alentó a los empleados a trabajar más horas para lograr un crecimiento rápido en el sector tecnológico. Las empresas tecnológicas fomentan jornadas largas no remuneradas, pero la desaceleración económica ha llevado a la congelación de contrataciones y despidos, lo que aumenta la presión sobre los empleados. Esto generó resentimiento, y algunos desarrolladores expresaron su descontento en Github, enumerando 150 empresas que adoptaron la cultura laboral '996'. Aunque la ley china establece un estándar de 8 horas diarias y 40 horas semanales, algunas empresas incumplen estas normas.

Durante el confinamiento por la pandemia, la demanda de compras en línea aumentó, llevando a cientos de miles de trabajadores chinos a atender pedidos y realizar entregas de alimentos y medicinas, a menudo superando las horas normales de trabajo. Se volvió viral la muerte de una empleada de 22 años de Pinduoduo, una empresa de comercio electrónico, que colapsó después de trabajar largas horas. 

Las autoridades de Shanghai investigaron las condiciones laborales de la empresa, y tras la tragedia, la agencia de noticias Xinhua enfatizó que, aunque se deben perseguir los sueños con esfuerzo, los derechos y los intereses legítimos de los trabajadores no deben ser sacrificados, y el exceso de trabajo que afecta la salud podría infringir la ley.

El Partido Comunista Chino respondió restringiendo las conversaciones sobre el tema en internet y lanzando una campaña mediática para rechazar la idea del estilo de vida "tang ping" (estar tirado).





Por  Carlos Buznego 

Consultor en Telecomunicaciones y Mission Critical

martes, 23 de mayo de 2023

CFD (Computational Fluid Dynamics) Aplicado al Entorno de Centros de Datos (Data Center)

 

Que es La Dinámica de Fluidos Computacional

    (CFD, por sus siglas en inglés Computational Fluid Dynamics) es una rama de la ingeniería que utiliza métodos numéricos y algoritmos computacionales para simular y analizar el comportamiento de los fluidos, como líquidos y gases, así como la interacción de los fluidos con superficies sólidas. 



    CFD se basa en la resolución de ecuaciones matemáticas que describen las leyes de conservación de masa, momento y energía, conocidas como ecuaciones de Navier-Stokes. Estas ecuaciones describen cómo se mueve y cambia el flujo de un fluido en un dominio determinado.

Quienes desarrollaron estas geniales ecuaciones ( Navier-Stoke) que hasta la NASA las utiliza para sus calculos en la ingenieria aeroespacial y que mas adelante veremos como se usa en el modelaje de flujos de aire en data center.


Claude-Louis Navier, Fue un ingeniero y físico francés, desarrolló las ecuaciones fundamentales para el flujo de fluidos viscosos en la década de 1820. Estas ecuaciones describen la conservación de masa y momento lineal en un fluido, teniendo en cuenta la viscosidad.


George Gabriel Stokes, Fue un matemático y físico irlandés, realizó importantes contribuciones en el siglo XIX al estudiar el movimiento de los fluidos viscosos. Formuló ecuaciones que incorporaban la viscosidad en el flujo de fluidos y estableció la teoría de los límites de capa límite en fluidos viscosos.




    Hoy en dia el CFD (Computational Fluid Dynamics) en el mundo de centros de datos se refiere al uso de software especiales basados en algoritmos y modelos matemáticos que permite estudiar y comprender la distribución del flujo de aire y la temperatura dentro de estos espacios criticos.


    En los centros de datos, el rendimiento y la eficiencia son aspectos críticos. El calor generado por los servidores y otros equipos de TI debe ser disipado adecuadamente para evitar problemas como el sobrecalentamiento, que puede provocar fallas en los equipos y tiempo de inactividad.

Foto cortesía de Fluke Corporation: Uso de cámara térmica fluke para verificación de temperatura en los equipos activos de un centro de datos.

    El análisis de rendimiento del centro de datos con CFD implica crear un modelo virtual del centro de datos y utilizar algoritmos matemáticos complejos para simular y predecir cómo el aire se mueve a través del espacio, cómo se distribuye el calor y cómo afecta a la temperatura de los componentes críticos.


    Al realizar simulaciones con CFD, es posible identificar posibles problemas de flujo de aire y temperatura antes de la construcción o remodelación del centro de datos. Esto les permite optimizar el diseño del sistema de enfriamiento, la ubicación de los equipos y la configuración de los conductos de aire para lograr un flujo de aire eficiente y una temperatura adecuada en todas las áreas del centro de datos, también se utiliza para evaluar el impacto de cambios en la infraestructura, como agregar nuevos servidores, modificar la disposición de los equipos o implementar soluciones de enfriamiento más eficientes. Esto permite a los administradores del centro de datos tomar decisiones informadas sobre cómo optimizar el rendimiento y la eficiencia energética del centro de datos.

Foto cortesía de Uptime Institute: Enfriamiento a través de piso técnico

    A continuacion aqui  algunos ejemplos de software de CFD utilizados en el análisis de centros de datos. Cada uno tiene sus propias características, capacidades y enfoques, por lo que la elección del software dependerá de los requisitos específicos del proyecto y las preferencias del usuario. Estos software permiten simular y analizar el flujo de aire, la distribución de temperatura y otros aspectos relacionados con el rendimiento y la eficiencia de los centros de datos.

  • Autodesk CFD Es una herramienta comercial de simulación de fluidos que se utiliza en diversas aplicaciones, incluidos los centros de datos. Permite modelar el flujo de aire, la transferencia de calor y la optimización del diseño del sistema de enfriamiento.
  • ANSYS Fluent Es una de las herramientas de simulación más utilizadas en el campo de la dinámica de fluidos computacional. Ofrece una amplia gama de capacidades para analizar el flujo de aire, la transferencia de calor y otros fenómenos relacionados en los centros de datos.
  • Open Foam Es un software de CFD de código abierto y gratuito que proporciona una plataforma flexible para simular y analizar flujos de fluidos. OpenFOAM cuenta con una comunidad activa de usuarios y ofrece una amplia gama de características y modelos para el análisis en centros de datos.

  • SimScale Plataforma basada en la nube que ofrece simulaciones de dinámica de fluidos, entre otras capacidades de análisis de ingeniería. Permite realizar análisis CFD en centros de datos para evaluar el rendimiento térmico y la eficiencia energética.


    En resumen, el uso de CFD en el análisis de rendimiento de centros de datos permite a los ingenieros y administradores comprender mejor el flujo de aire y la temperatura dentro del centro de datos como, por ejemplo:

  1. Ayuda a optimizar el diseño y la operación del sistema de enfriamiento para garantizar un rendimiento eficiente y confiable.
  2. Analizar la efectividad de enfriamiento en el gabinete. (exceso de demanda, falta de suministro).
  3. Identificar puntos calientes potenciales y áreas de recirculación en la etapa temprana del diseño para dar la oportunidad de resolverlos antes de la ejecución.
  4. Mostrar la distribución de la temperatura en a lo largo de los gabinetes con equipos activos.
  5. Mostrar el rendimiento general de refrigeración para la sala de datos en caso de que una unidad de refrigeración se apague en caso de falla o se reemplace la unidad de refrigeración (que es un requisito obligatorio para lograr el principio de mantenimiento concurrente)
  6. Asegurar la colocación adecuada de las baldosas del piso falso.



Ejemplo CFD (Computational Fluid Dynamics) en modelaje del comportamiento del flujo de aire desde una unidad de enfriamiento CRAC  a través del piso técnico (piso falso), gabinetes de equipos  y el área del centro de datos



Carlos Buznego Niochet

Consultor en Telecomunicaciones y Mission Critical

jueves, 8 de diciembre de 2022

Noticias de la Industria del Cable : Se proyecta que el mercado de alambres y cables de $ 285 mil millones se expanda a una tasa de crecimiento anual compuesto ( CAGR Compound Annual Growth Rate ) del 5.3% hasta 2031

    Se proyecta que el mercado de alambres y cables de $ 285 mil millones se expanda a una tasa de crecimiento anual compuesto  ( CAGR Compound Annual Growth Rate ) del 5.3% hasta 2031

    El mercado mundial de cables y alambres para cables se valoró en $150 mil millones al cierre del 2020. Según en nuevo informe de la consultora Transparency Market Research revela que un aumento en las tendencias de digitalización y electrificación en todo el mundo está impulsando el crecimiento del mercado.


    Este nuevo informe de Transparency Market Research , se prevé que el mercado mundial de cables y alambres para cables de US$ 285,050 millones registre una CAGR del 5,3 % durante el período de 2021 a 2031. La investigación revela que un aumento en la tendencia de la digitalización y la electrificación en todo el mundo está impulsando el crecimiento del mercado y se espera que lo haga en los próximos años. Los proyectos que podrian aumentar la demanda estan los proyectos de calefacción de edificios eficientes , y un aumento en la necesidad de cableado confiable en el sector del transporte, son algunos de los principales factores que se prevé que impulsarán el crecimiento del mercado. Otro factor de este crecimiento esta en la  construcción de nuevas autopistas, vías férreas y proyectos de metro en todo el mundo



Desde el punto de la segmentacion del mercado a nivel mundial donde habran estos crecimientos en cables por tipo para: 
  • Baja tensión (LV); 
  • Media y alta tensión (MT y HV); 
  • Cable de fibra óptica. 
Por materia prima:
  • Cobre
  • Aluminio
  • Vidrios.

Por industria de uso final, la investigación segmenta el mercado  por: 

  • Aeroespacial y defensa; 
  • Construcción;
  • TI y Telecomunicaciones; 
  • Energía y servicios Públicos;
  • Petróleo y gas; 
  • Electrónica de consumo;
  • Automotriz.

Por región, 

  • América del Norte;
  • Europa
  • Asia Pacífico
  • Medio Oriente y África
  • América del Sur.

Aumento de la preferencia por los metales de alta calidad

    La investigación sostiene que los fabricantes que operan en la industria mundial de  cables y alambres para cables se están enfocando en expandir sus inventarios de productos mediante el lanzamiento de productos nuevos y tecnológicamente avanzados. En línea con este objetivo, las empresas están utilizando metales de la mejor calidad como plata, aluminio, cobre y oro.

Estos metales preciosos y de alta calidad se utilizan para diseñar y fabricar componentes específicos en diversos equipos, soluciones y sistemas electrónicos. Se presume que  las empresas evaluadas en el informe de mercado están adoptando las últimas técnicas de investigación de datos y análisis predictivo para protegerse contra la constante volatilidad en los precios de estos metales.


Carlos Buznego Niochet

Consultor en Telecomunicaciones y Mission Critical