Huawei lanza software para mejorar el rendimiento de los chips de IA.
Esta herramienta de código abierto busca aumentar la eficiencia de las GPU y las NPU y refuerza la autonomía china en el sector de la inteligencia artificial.
247 - Huawei ha presentado una nueva plataforma de código abierto destinada a optimizar el uso de procesadores para inteligencia artificial. Esta iniciativa, anunciada durante un evento de la compañía en Shanghái, forma parte del esfuerzo de China por ampliar su autonomía tecnológica ante las restricciones de acceso a los chips más avanzados del mercado.
Según el South China Morning Post, la compañía afirmó que el software, llamado Flex:ai, puede aumentar la tasa de utilización de los chips de IA en aproximadamente un 30%, al permitir la gestión inteligente de diferentes tipos de aceleradores. La herramienta estará disponible a través de la comunidad ModelEngine de Huawei.
Basada en la plataforma abierta Kubernetes, la solución funciona como un sistema de orquestación capaz de integrar GPU, NPU y otros aceleradores de distintos fabricantes. Entre sus características, Flex:ai permite dividir una sola placa en múltiples unidades virtualizadas, lo que posibilita la ejecución simultánea de diversas cargas de trabajo de IA.
Según Huawei, el software también incluye un planificador inteligente, el Hi Scheduler, responsable de distribuir las tareas y reasignar los recursos ociosos entre diferentes nodos para acelerar los procesos de entrenamiento e inferencia.
Zhou Yuefeng, vicepresidente y director de la división de almacenamiento de datos de la compañía, explicó que la herramienta responde a la creciente demanda de eficiencia en grandes clústeres de procesamiento. "Las tareas más pequeñas rara vez utilizan toda la capacidad de una placa, mientras que las más grandes no pueden ser procesadas por una sola", afirmó. Añadió que el reto de implementar modelos de IA en la práctica requiere soluciones abiertas y colaborativas: "Lograr que la IA funcione en situaciones reales es difícil. Los ingenieros de Huawei no pueden hacerlo solos".
La nueva solución se desarrolló en colaboración con investigadores de la Universidad Jiaotong de Shanghái, la Universidad Jiaotong de Xi'an y la Universidad de Xiamen. Llega en un momento de fuerte inversión por parte de las empresas chinas en la optimización de software para compensar las limitaciones en el suministro de chips de última generación, mientras que la escala de los clústeres utilizados en proyectos de IA aumenta.
La propuesta de Huawei guarda similitudes con las herramientas desarrolladas por la empresa israelí Run:AI, adquirida por Nvidia en 2024, que también gestionan cargas de trabajo distribuidas en grandes granjas de GPU.
Por otro lado, la empresa china ya había presentado, en agosto, el Administrador Unificado de Caché (UCM), un software diseñado para acelerar los procesos de inferencia mediante la organización de los datos en diferentes capas de memoria según las necesidades de latencia. Esta tecnología busca reducir la dependencia de componentes importados de alto ancho de banda, reforzando así la estrategia de autonomía en el ecosistema de la IA.


