DCHW

DCHW

jueves, 13 de junio de 2024

Hablemos de Normativas Y Certificaciones Para Data Center:

 




    Las certificaciones de centros de datos TIER, BICSI 002, ICREA y ANSI/TIA-942 proporcionan estándares para evaluar la infraestructura y operaciones de los centros de datos, aunque cada una tiene su enfoque particular y criterios específicos. A continuación, se describen las diferencias clave entre estas certificaciones:





1. Certificación TIER del Uptime Institute

Organización: Uptime Institute

Niveles de Certificación: Tier I, II, III y IV

Enfoque:

  • Disponibilidad y Redundancia: Los niveles TIER se centran en la capacidad de los centros de datos para mantenerse operativos ante fallos de infraestructura.
  • Diseño, Construcción y Operación: Evalúa el diseño, la construcción y las operaciones continuas para garantizar la alta disponibilidad.

Diferencias Clave:

  • Tier I: Capacidad básica, sin redundancia.
  • Tier II: Componentes redundantes.
  • Tier III: Mantenimiento concurrente, sin interrupciones durante el mantenimiento.
  • Tier IV: Tolerancia a fallos, capaz de resistir eventos de fallo sin afectar las operaciones.

Ejemplo: Un centro de datos Tier IV tiene sistemas de energía y enfriamiento completamente redundantes, permitiendo que cualquier componente falle sin interrumpir las operaciones.


2. BICSI 002

Organización: Building Industry Consulting Service International (BICSI)

Enfoque:

  • Buenas Prácticas y Diseño: Proporciona un manual detallado de buenas prácticas para el diseño y operación de centros de datos.
  • Normas de Diseño: Se centra en aspectos como telecomunicaciones, infraestructura física, enfriamiento, y energía.

Diferencias Clave:

  • Integralidad: Aborda una amplia gama de aspectos del diseño de centros de datos, desde la infraestructura de telecomunicaciones hasta la eficiencia energética y la gestión del espacio.
  • Flexibilidad: No tiene niveles como la certificación TIER, sino que proporciona una guía completa de mejores prácticas.

Ejemplo: Un centro de datos diseñado según BICSI 002 tendrá una infraestructura de telecomunicaciones robusta y un diseño de enfriamiento eficiente basado en las mejores prácticas de la industria.








3. Certificación ICREA

Organización: International Computer Room Experts Association (ICREA)

Niveles de Certificación: Nivel I al Nivel V

Enfoque:

  • Normas de Infraestructura: Evalúa la infraestructura física y las condiciones operativas de los centros de datos.
  • Escalabilidad: Los niveles reflejan la capacidad del centro de datos para soportar diferentes cargas y asegurar la continuidad operativa.

Diferencias Clave:

  • Nivel I: Requisitos mínimos básicos.
  • Nivel II: Requisitos mejorados con algunas redundancias.
  • Nivel III: Alta disponibilidad con redundancias importantes.
  • Nivel IV: Capacidad para mantenimiento concurrente.
  • Nivel V: Tolerancia a fallos completa, con alta redundancia y disponibilidad.

Ejemplo: Un centro de datos Nivel V de ICREA tiene una infraestructura robusta que permite el mantenimiento sin tiempo de inactividad y puede manejar múltiples fallos sin afectar la operación.







4. Certificación ANSI/TIA-942

Organización: Telecommunications Industry Association (TIA)

Niveles de Certificación: Rated 1, 2, 3 y 4

Enfoque:

  • Normas de Telecomunicaciones: Proporciona estándares para la infraestructura de telecomunicaciones y tecnología de la información.
  • Diseño y Construcción: Se centra en los aspectos físicos y lógicos del diseño de centros de datos.

Diferencias Clave:

  • Rated 1: Infraestructura básica.
  • Rated 2: Componentes redundantes.
  • Rated 3: Mantenimiento concurrente.
  • Rated 4: Tolerancia a fallos.

Ejemplo: Un centro de datos Rated 4 conforme a ANSI/TIA-942 tendrá rutas de fibra óptica redundantes, sistemas de enfriamiento y energía que garantizan la máxima disponibilidad y seguridad.




Resumen de Diferencias Clave: 

  • TIER del Uptime Institute: Enfocado en la disponibilidad y redundancia, con un sistema de niveles que clasifica la capacidad de un centro de datos para soportar fallos.
  • BICSI 002: Proporciona un manual de buenas prácticas para el diseño y operación integral de centros de datos, sin un sistema de niveles.
  • ICREA: Ofrece una clasificación en niveles desde I hasta V, similar a TIER, pero con un enfoque amplio en la infraestructura física y la capacidad operativa.
  • ANSI/TIA-942: Estándar centrado en la infraestructura de telecomunicaciones y aspectos físicos del diseño, también con una clasificación en niveles.

Cada certificación aporta un enfoque único y especifica distintos criterios que los centros de datos deben cumplir para asegurar la fiabilidad, eficiencia y seguridad de sus operaciones. La elección de una certificación u otra dependerá de las necesidades específicas y prioridades de la organización.


Por: Carlos Buznego

Consultor en Telecomunicaciones y Mission Critical


jueves, 15 de febrero de 2024

"La Importancia Vital del Suministro Eléctrico en Entornos de Mission Crítical: Garantizando La Eficiencia y Fiabilidad"

 

La calidad del suministro eléctrico es fundamental para un sistema de misión critical influyendo en la eficacia y fiabilidad de los procesos.

La excelencia del suministro eléctrico implica la capacidad de la energía proporcionada para satisfacer las necesidades de los dispositivos conectados, asegurando el correcto desempeño de la electrónica y la estabilidad de los procesos en los espacios críticos y de control

Tipos de Problemas

  1. Fluctuaciones de Tensión: Las variaciones en la tensión eléctrica pueden causar daños a los componentes más delicados. Tensiones elevadas o reducidas provocan fallos en los equipos, imprecisiones en las mediciones y pérdida de datos.
  2. Cortes de Energía: Las interrupciones repentinas pueden resultar en pérdida de datos cruciales o daños permanentes a los equipos, potencialmente ocasionando la pérdida de la data en áreas de mission critical, con consecuencias graves.
  3. Armónicos: Los armónicos son corrientes o tensiones con frecuencias múltiplos de la frecuencia fundamental de la red eléctrica. Provocan sobrecalentamiento en los equipos, afectan la precisión de las mediciones y generan interferencias en las comunicaciones.
  4. Distorsión Armónica Total (THD): La THD es una medida que indica la cantidad de distorsión armónica presente en una onda eléctrica. Niveles altos de THD afectan negativamente la eficiencia de los dispositivos y causan problemas de rendimiento.

¿ Por que se debe garantizar de un suministro de calidad ?




  1. Confianza en la Operación: Un suministro estable proporciona una base sólida para una operación continua y confiable. La fiabilidad es esencial, especialmente en entornos críticos como por ejemplo áreas de procesos industriales y centros de datos.
  2. Durabilidad de Equipos: La exposición constante a tensiones inestables o armónicos reduce considerablemente la vida útil de la electrónica. Un suministro eléctrico de calidad aumenta la longevidad y resistencia de los componentes.
  3. Exactitud en las Mediciones: Por ejemplo, en un sistema de control de proceso industrial depende de mediciones precisas; por lo tanto, la calidad eléctrica es esencial. Tensiones estables y libres de armónicos garantizan mayor precisión y resultados confiables.
  4. Reducción de Costos de Mantenimiento: Disminuye la necesidad de mantenimiento frecuente y reemplazo de equipos, lo que lleva a una reducción en el impacto del OPEX de cualquier organización , es decir mitigar el efecto downtime en cualquier proceso.

Retos:




  1. Costo de Implementación: Asegurar una alta calidad implica inversiones a nivel del CAPEX en equipos de protección, filtros y sistemas de respaldo, este factor económico inicial debe evaluarse en relación con los beneficios a largo plazo (fiabilidad y eficiencia).
  2. Supervisión: La monitorización constante de la calidad es compleja, especialmente en la industria, con múltiples cargas y variaciones en la demanda. La implementación de sistemas de monitorización avanzada es esencial.
  3. Concienciación: La falta de concienciación lleva a subestimar la calidad en el diseño de cualquier sistema critico ya sea transmisión de datos o control de proceso . La educación garantiza el uso de prácticas adecuadas.


Por: Carlos Buznego

Consultor en Telecomunicaciones y Mission Critical

martes, 12 de diciembre de 2023

La Vida Util De Los Servidores En Un Data Center

   Los centros de datos representan los puntos clave que sustentan las demandas informáticas globales, las cuales continúan en constante crecimiento. Con la construcción de nuevos centros de datos y la expansión o actualización de instalaciones existentes, resulta valioso comprender la duración esperada de los servidores. En este artículo, exploraremos la expectativa de vida media de los servidores en centros de datos y los factores que pueden incidir en la decisión de su sustitución.

¿Cuál es la vida útil promedio de un servidor de centro de datos?

 En líneas generales, los servidores en centros de datos suelen requerir renovación cada cinco años, aunque esta regla no siempre se cumple.

En algunos estudios se reflejan ciertos porcentajes para el reemplazo de servidores, por ejemplo:

  • 45 % : de 2 o 3 años.
  • 30 % : de 4 o 5 años,
  • 20 % : Anualmente.
  •   5 % : Mas de 6 años.

La variabilidad en las respuestas a la pregunta sobre la duración de un servidor de centro de datos se debe a que la vida útil real de estos dispositivos está sujeta a diversos factores.


¿Qué puede afectar la vida útil de los servidores en los centros de datos?

  • Con respecto a su uso un servidor tiene una clasificación para una duración más prolongada, puede ser necesario sustituirlo anticipadamente según su empleo. La utilización constituye el aspecto principal al momento de establecer la vigencia funcional de un servidor. En términos generales, a mayor procesamiento de datos, mayor desgaste experimentado por los servidores.
  • Cuando hablamos del diseño, no todos los servidores son idénticos; algunos pueden estar concebidos para tener una durabilidad superior a otros. Al igual que sucede con toda la tecnología, los servidores se vuelven más avanzados y competentes con cada enfoque innovador, razón por la cual los modelos más recientes pueden tener una longevidad mayor que sus predecesores. Por ejemplo, Microsoft recientemente prolongó la vida útil de su servidor en la nube de cuatro a seis años.
  • Otro factor hace referencia a los sistemas de control climático o ambientales, las condiciones en las que operan los servidores también pueden ser determinantes. Por lo tanto, es esencial contar con un entorno controlado mediante sistemas de refrigeración y filtración de aire.
  • Los servidores están inevitablemente sujetos a desgaste, pero este desgaste se puede contrarrestar mediante un mantenimiento proactivo. Mantener adecuadamente los servidores y reemplazar los componentes internos que se desgastan puede extender la vida útil de los equipos de TI.
  • Cuando llega el momento de una mejora, en ocasiones, resulta evidente la necesidad de sustituir un servidor, pero en la actualidad, muchos centros de datos eligen mejorar su equipo de TI antes de que llegue al final de su vida útil. Esto no solo posibilita una transición más planificada con un tiempo de actividad ininterrumpido, sino que también brinda la oportunidad de aprovechar las capacidades avanzadas de los sistemas más recientes. Cabe destacar que estos sistemas más modernos ofrecen densidades de energía superiores, lo que podría implicar la necesidad de actualizar la infraestructura de refrigeración.


Visión de futuro - Sumario:




En el siglo XXI, la necesidad de reemplazar o actualizar servidores en los centros de datos, nos pueden llevar a las siguientes resultantes:

Avances Tecnológicos:

  • Innovación Continua: El rápido avance tecnológico lleva a la introducción de servidores más potentes y eficientes con capacidades mejoradas.
  • Nuevas Arquitecturas: Cambios en las arquitecturas de servidores para aprovechar mejoras en rendimiento, eficiencia energética y capacidades de procesamiento.

Rendimiento y Capacidad:

  • Demanda de Procesamiento: A medida que las cargas de trabajo y las demandas de procesamiento de datos aumentan, los servidores más antiguos pueden volverse insuficientes para manejarlas eficientemente.
  • Necesidades de Almacenamiento: El crecimiento exponencial de datos requiere servidores con capacidades de almacenamiento mayores y tecnologías de almacenamiento más avanzadas.

Eficiencia Energética y Sostenibilidad:

  • Mayor Eficiencia Energética: Los nuevos servidores a menudo incorporan tecnologías más eficientes desde el punto de vista energético, lo que puede reducir costos operativos y la huella ambiental.
  • Requisitos de Sostenibilidad: Consideraciones ambientales y la creciente importancia de prácticas sostenibles pueden impulsar actualizaciones para cumplir con estándares más estrictos.

Seguridad y Cumplimiento:

  • Actualizaciones de Seguridad: La obsolescencia de hardware puede conducir a vulnerabilidades de seguridad, lo que hace necesario el reemplazo para mantener la integridad y seguridad de los datos.
  • Requisitos de Cumplimiento: Cambios en regulaciones y estándares de cumplimiento pueden exigir actualizaciones para garantizar el cumplimiento normativo.

Escalabilidad y Flexibilidad:

  • Escalabilidad: La necesidad de escalar rápidamente para satisfacer demandas cambiantes puede requerir servidores más flexibles y fácilmente escalables.
  • Adaptación a Nuevas Tecnologías: La adopción de nuevas tecnologías como la virtualización o la nube puede requerir actualizaciones de hardware para una integración óptima.

Tendencias en la Informática Empresarial:

  • Edge Computing: La expansión de Edge computing puede requerir servidores más potentes y distribuidos para satisfacer las necesidades de procesamiento en ubicaciones remotas.
  • Inteligencia Artificial (IA) y Análisis de Datos: Aplicaciones intensivas en datos, como la IA y el análisis avanzado, pueden necesitar servidores especializados para un rendimiento óptimo.

La evaluación y comprensión de estos factores son esenciales para una estrategia efectiva de gestión y actualización de servidores en el entorno de centros de datos en el siglo XXI.


Por: Carlos Buznego

Consultor en Telecomunicaciones y Mission Critical

domingo, 10 de diciembre de 2023

Que Es La Cultura Laboral China "996"

     





    El término 996 representa la cultura laboral china, que implica trabajar de 9 a.m. a 9 p.m., seis días a la semana que rige la vida laboral de muchos ingenieros, programadores, desarrolladores de videojuegos y otros informáticos en China. Este sistema surgió durante la competencia entre empresas chinas de internet y tecnológicas estadounidenses, pero ha sido criticado por su impacto negativo en la salud y bienestar de los trabajadores. " 

En sus inicios, la cultura laboral '996' en China dio lugar a empresas exitosas como Alibaba, Huawei y ByteDance, elevando la economía china al segundo puesto mundial. Los fundadores, como Jack Ma, elogiaron las largas jornadas laborales. Sin embargo, en 2019, con la desaceleración económica, surgieron críticas de los trabajadores por las extensas horas de trabajo y las dificultades para acceder a vivienda digna. Se evidenciaron problemas de salud y casos de fallecimientos por agotamiento, generando protestas en plataformas como Weibo. 

Jack Ma, fundador de Alibaba, alentó a los empleados a trabajar más horas para lograr un crecimiento rápido en el sector tecnológico. Las empresas tecnológicas fomentan jornadas largas no remuneradas, pero la desaceleración económica ha llevado a la congelación de contrataciones y despidos, lo que aumenta la presión sobre los empleados. Esto generó resentimiento, y algunos desarrolladores expresaron su descontento en Github, enumerando 150 empresas que adoptaron la cultura laboral '996'. Aunque la ley china establece un estándar de 8 horas diarias y 40 horas semanales, algunas empresas incumplen estas normas.

Durante el confinamiento por la pandemia, la demanda de compras en línea aumentó, llevando a cientos de miles de trabajadores chinos a atender pedidos y realizar entregas de alimentos y medicinas, a menudo superando las horas normales de trabajo. Se volvió viral la muerte de una empleada de 22 años de Pinduoduo, una empresa de comercio electrónico, que colapsó después de trabajar largas horas. 

Las autoridades de Shanghai investigaron las condiciones laborales de la empresa, y tras la tragedia, la agencia de noticias Xinhua enfatizó que, aunque se deben perseguir los sueños con esfuerzo, los derechos y los intereses legítimos de los trabajadores no deben ser sacrificados, y el exceso de trabajo que afecta la salud podría infringir la ley.

El Partido Comunista Chino respondió restringiendo las conversaciones sobre el tema en internet y lanzando una campaña mediática para rechazar la idea del estilo de vida "tang ping" (estar tirado).





Por  Carlos Buznego 

Consultor en Telecomunicaciones y Mission Critical

martes, 23 de mayo de 2023

CFD (Computational Fluid Dynamics) Aplicado al Entorno de Centros de Datos (Data Center)

 

Que es La Dinámica de Fluidos Computacional

    (CFD, por sus siglas en inglés Computational Fluid Dynamics) es una rama de la ingeniería que utiliza métodos numéricos y algoritmos computacionales para simular y analizar el comportamiento de los fluidos, como líquidos y gases, así como la interacción de los fluidos con superficies sólidas. 



    CFD se basa en la resolución de ecuaciones matemáticas que describen las leyes de conservación de masa, momento y energía, conocidas como ecuaciones de Navier-Stokes. Estas ecuaciones describen cómo se mueve y cambia el flujo de un fluido en un dominio determinado.

Quienes desarrollaron estas geniales ecuaciones ( Navier-Stoke) que hasta la NASA las utiliza para sus calculos en la ingenieria aeroespacial y que mas adelante veremos como se usa en el modelaje de flujos de aire en data center.


Claude-Louis Navier, Fue un ingeniero y físico francés, desarrolló las ecuaciones fundamentales para el flujo de fluidos viscosos en la década de 1820. Estas ecuaciones describen la conservación de masa y momento lineal en un fluido, teniendo en cuenta la viscosidad.


George Gabriel Stokes, Fue un matemático y físico irlandés, realizó importantes contribuciones en el siglo XIX al estudiar el movimiento de los fluidos viscosos. Formuló ecuaciones que incorporaban la viscosidad en el flujo de fluidos y estableció la teoría de los límites de capa límite en fluidos viscosos.




    Hoy en dia el CFD (Computational Fluid Dynamics) en el mundo de centros de datos se refiere al uso de software especiales basados en algoritmos y modelos matemáticos que permite estudiar y comprender la distribución del flujo de aire y la temperatura dentro de estos espacios criticos.


    En los centros de datos, el rendimiento y la eficiencia son aspectos críticos. El calor generado por los servidores y otros equipos de TI debe ser disipado adecuadamente para evitar problemas como el sobrecalentamiento, que puede provocar fallas en los equipos y tiempo de inactividad.

Foto cortesía de Fluke Corporation: Uso de cámara térmica fluke para verificación de temperatura en los equipos activos de un centro de datos.

    El análisis de rendimiento del centro de datos con CFD implica crear un modelo virtual del centro de datos y utilizar algoritmos matemáticos complejos para simular y predecir cómo el aire se mueve a través del espacio, cómo se distribuye el calor y cómo afecta a la temperatura de los componentes críticos.


    Al realizar simulaciones con CFD, es posible identificar posibles problemas de flujo de aire y temperatura antes de la construcción o remodelación del centro de datos. Esto les permite optimizar el diseño del sistema de enfriamiento, la ubicación de los equipos y la configuración de los conductos de aire para lograr un flujo de aire eficiente y una temperatura adecuada en todas las áreas del centro de datos, también se utiliza para evaluar el impacto de cambios en la infraestructura, como agregar nuevos servidores, modificar la disposición de los equipos o implementar soluciones de enfriamiento más eficientes. Esto permite a los administradores del centro de datos tomar decisiones informadas sobre cómo optimizar el rendimiento y la eficiencia energética del centro de datos.

Foto cortesía de Uptime Institute: Enfriamiento a través de piso técnico

    A continuacion aqui  algunos ejemplos de software de CFD utilizados en el análisis de centros de datos. Cada uno tiene sus propias características, capacidades y enfoques, por lo que la elección del software dependerá de los requisitos específicos del proyecto y las preferencias del usuario. Estos software permiten simular y analizar el flujo de aire, la distribución de temperatura y otros aspectos relacionados con el rendimiento y la eficiencia de los centros de datos.

  • Autodesk CFD Es una herramienta comercial de simulación de fluidos que se utiliza en diversas aplicaciones, incluidos los centros de datos. Permite modelar el flujo de aire, la transferencia de calor y la optimización del diseño del sistema de enfriamiento.
  • ANSYS Fluent Es una de las herramientas de simulación más utilizadas en el campo de la dinámica de fluidos computacional. Ofrece una amplia gama de capacidades para analizar el flujo de aire, la transferencia de calor y otros fenómenos relacionados en los centros de datos.
  • Open Foam Es un software de CFD de código abierto y gratuito que proporciona una plataforma flexible para simular y analizar flujos de fluidos. OpenFOAM cuenta con una comunidad activa de usuarios y ofrece una amplia gama de características y modelos para el análisis en centros de datos.

  • SimScale Plataforma basada en la nube que ofrece simulaciones de dinámica de fluidos, entre otras capacidades de análisis de ingeniería. Permite realizar análisis CFD en centros de datos para evaluar el rendimiento térmico y la eficiencia energética.


    En resumen, el uso de CFD en el análisis de rendimiento de centros de datos permite a los ingenieros y administradores comprender mejor el flujo de aire y la temperatura dentro del centro de datos como, por ejemplo:

  1. Ayuda a optimizar el diseño y la operación del sistema de enfriamiento para garantizar un rendimiento eficiente y confiable.
  2. Analizar la efectividad de enfriamiento en el gabinete. (exceso de demanda, falta de suministro).
  3. Identificar puntos calientes potenciales y áreas de recirculación en la etapa temprana del diseño para dar la oportunidad de resolverlos antes de la ejecución.
  4. Mostrar la distribución de la temperatura en a lo largo de los gabinetes con equipos activos.
  5. Mostrar el rendimiento general de refrigeración para la sala de datos en caso de que una unidad de refrigeración se apague en caso de falla o se reemplace la unidad de refrigeración (que es un requisito obligatorio para lograr el principio de mantenimiento concurrente)
  6. Asegurar la colocación adecuada de las baldosas del piso falso.



Ejemplo CFD (Computational Fluid Dynamics) en modelaje del comportamiento del flujo de aire desde una unidad de enfriamiento CRAC  a través del piso técnico (piso falso), gabinetes de equipos  y el área del centro de datos



Carlos Buznego Niochet

Consultor en Telecomunicaciones y Mission Critical

jueves, 8 de diciembre de 2022

Noticias de la Industria del Cable : Se proyecta que el mercado de alambres y cables de $ 285 mil millones se expanda a una tasa de crecimiento anual compuesto ( CAGR Compound Annual Growth Rate ) del 5.3% hasta 2031

    Se proyecta que el mercado de alambres y cables de $ 285 mil millones se expanda a una tasa de crecimiento anual compuesto  ( CAGR Compound Annual Growth Rate ) del 5.3% hasta 2031

    El mercado mundial de cables y alambres para cables se valoró en $150 mil millones al cierre del 2020. Según en nuevo informe de la consultora Transparency Market Research revela que un aumento en las tendencias de digitalización y electrificación en todo el mundo está impulsando el crecimiento del mercado.


    Este nuevo informe de Transparency Market Research , se prevé que el mercado mundial de cables y alambres para cables de US$ 285,050 millones registre una CAGR del 5,3 % durante el período de 2021 a 2031. La investigación revela que un aumento en la tendencia de la digitalización y la electrificación en todo el mundo está impulsando el crecimiento del mercado y se espera que lo haga en los próximos años. Los proyectos que podrian aumentar la demanda estan los proyectos de calefacción de edificios eficientes , y un aumento en la necesidad de cableado confiable en el sector del transporte, son algunos de los principales factores que se prevé que impulsarán el crecimiento del mercado. Otro factor de este crecimiento esta en la  construcción de nuevas autopistas, vías férreas y proyectos de metro en todo el mundo



Desde el punto de la segmentacion del mercado a nivel mundial donde habran estos crecimientos en cables por tipo para: 
  • Baja tensión (LV); 
  • Media y alta tensión (MT y HV); 
  • Cable de fibra óptica. 
Por materia prima:
  • Cobre
  • Aluminio
  • Vidrios.

Por industria de uso final, la investigación segmenta el mercado  por: 

  • Aeroespacial y defensa; 
  • Construcción;
  • TI y Telecomunicaciones; 
  • Energía y servicios Públicos;
  • Petróleo y gas; 
  • Electrónica de consumo;
  • Automotriz.

Por región, 

  • América del Norte;
  • Europa
  • Asia Pacífico
  • Medio Oriente y África
  • América del Sur.

Aumento de la preferencia por los metales de alta calidad

    La investigación sostiene que los fabricantes que operan en la industria mundial de  cables y alambres para cables se están enfocando en expandir sus inventarios de productos mediante el lanzamiento de productos nuevos y tecnológicamente avanzados. En línea con este objetivo, las empresas están utilizando metales de la mejor calidad como plata, aluminio, cobre y oro.

Estos metales preciosos y de alta calidad se utilizan para diseñar y fabricar componentes específicos en diversos equipos, soluciones y sistemas electrónicos. Se presume que  las empresas evaluadas en el informe de mercado están adoptando las últimas técnicas de investigación de datos y análisis predictivo para protegerse contra la constante volatilidad en los precios de estos metales.


Carlos Buznego Niochet

Consultor en Telecomunicaciones y Mission Critical




lunes, 19 de septiembre de 2022

El Pronóstico Al Cierre Del 2022 En La Fabricación De Semiconductores

 

    El economista Tony Phoo, del Standard Chartered Bank, hace referencia sobre Taiwán como una de la potencia más relevante en la fabricación de semiconductores en el mundo, donde Taiwán lanzó su sector tecnológico en la década de 1980 y se especializa en trabajos por contrato para el sector de la telefonia, computadores personales y servidores, tomado la delantera en semiconductores a lo largo de los años con un considerable know how , creando una industria que es mucho más madura que en la mayoría de otros mercados. Los semiconductores de Taiwán definitivamente están desempeñando un papel cada vez más importante en el mercado global, y Taiwán continúa liderando los tipos más avanzados de producción de semiconductores.

La producción de semiconductores de Taiwán, se estima que se expandirá este año debido a la demanda restante de productos electrónicos de consumo debido al impacto colateral del coronavirus y en medio de la creciente preocupación mundial sobre la estabilidad de las cadenas de suministro de chips de computadora.

" Taiwán, es el mayor exportador de semiconductores del mundo, representa más del 60 % de todos los pedidos mundiales de chips de computadora, El valor de producción  se estima que pueda llegar a unos $157,300 millones USD en el 2022 "


Según la organización Semi Taiwan pronostica lo siguiente:

  • Taiwán será el principal comprador mundial de materias primas de semiconductores por segundo año consecutivo, ampliando su participación ligeramente al 23 % en 2022, un 0,1 % más que en el 2021. 
  • China continental se perfila como el comprador número 2 , con un  19 %, frente al 18,6 % en el 2021. 
  • Y se espera que América del Norte alcance el 6,4 %, frente al 6 % del año 2021.

" Los chips comenzaron a escasear entre el periodo 2020-2021 debido a la avalancha de pedidos de componentes para la fabricación de computadores y teléfonos móviles para trabajar desde casa."

    Los temores globales de un déficit de semiconductores han ejercido una nueva presión sobre la producción de chips de Taiwán para cumplir con los pedidos del extranjero, por esta razon, el fabricante de chips más icónico de la isla Taiwan Semiconductor Manufacturing Company (TSMC), fabrica la mayoría de los chips mas avanzados del mundo, es decir, aquellos que funcionan rápido con un minimo consumo de potencia. 



" La escasez, agravada por fallas en la cadena de suministro, tiene a los gobiernos preocupados por si pueden obtener suficientes chips a corto plazo para electrónica crítica, aplicaciones militares y equipos médicos."



" Los temores globales de escasez de semiconductores ejercen presión sobre la producción de chips de Taiwán para cumplir con los pedidos del extranjero, mientras que los temores de un enfrentamiento militar con China continental pesan sobre la industria."



Mientras tanto, el espectro del conflicto armado entre Taiwán y China continental ha planteado nuevas preguntas sobre cómo Taiwán exportaría chips.

Los ejercicios militares aéreos y marítimos del continente en aguas alrededor de Taiwán el mes pasado, cuando la presidenta de la Cámara de Representantes de Estados Unidos, Nancy Pelosi, visitó la isla, fueron vistos como un bloqueo simulado. Beijing ve a Taiwán autogobernado como parte de su territorio y resiente la influencia de Estados Unidos.

Los países que tienen vínculos diplomáticos con Beijing, incluido Estados Unidos, reconocen la existencia del principio de una sola China, que establece que Taiwán es parte de China. Pero es posible que no estén explícitamente de acuerdo con ello. Washington no toma posición sobre el estatus de Taiwán, aunque se opone a cualquier intento de tomar la isla por la fuerza.

Una invasión de Taiwán tendría graves implicaciones para la disponibilidad mundial de semiconductores. Sin embargo, Corea del Sur, Japón, la Unión Europea y los EE. UU. representan una pluralidad de la fabricación de productos electrónicos, especialmente cuando dejas de mirar a los procesadores de última generación. Si China invadiera Taiwán, probablemente abandonaría a los proveedores de herramientas vitales que hacen posible TSMC: AMAT, KLA, ASML, etc., todos tienen su sede en la UE o EE. UU. Sin mencionar que el golpe a la cadena de suministro de China por la ausencia total de otros componentes electrónicos como memoria, HDD y ARM IP podría ser paralizante.

En agosto, el presidente de EE. UU., Joe Biden , promulgó la Ley de chips y ciencia , que exige más investigación y desarrollo tecnológico en interés de la seguridad nacional. La Comisión Europea también propuso su Ley Europea de Chips en abril para impulsar su propia investigación y desarrollo

Infineon, por su parte, invirtió 1.600 millones de dólares en su planta europea de chips (pero mantendrá la producción en masa en Malasia). Intel invierte $ 95.000 millones de dólares en instalaciones europeas.  La fabricación en Europa es demasiado cara (mano de obra, materias primas, cuestiones medioambientales...) para ser económicamente competitiva.

“Los semiconductores tienen un ciclo, pero la duración no es regular y es posible que no haya llegado al fondo”, 


En Resumen:

" Se estima que la producción de semiconductores de Taiwán crecerá un 20 %  este año debido a la alta demanda  de los chips para el consumo electronico "



Carlos Buznego Niochet

Consultor en Telecomunicaciones y Mission Critical