SANTA CLARA, Calif. —16 de marzo de 2017— Recientemente, NVIDIA y Microsoft mostraron los planos para un nuevo acelerador de GPU con hiperescalabilidad para impulsar la computación de la nube con inteligencia artificial.
El nuevo acelerador de GPU con hiperescalabilidad HGX-1 proporciona a los centros de datos un camino rápido y flexible hacia la inteligencia artificial. Además, presenta un diseño de código abierto y se presentó junto al proyecto Olympus de Microsoft.
El impacto de HGX-1 en las cargas de trabajo de inteligencia artificial basadas en la nube es comparable con la forma en que ATX (Advanced Technology extended) revolucionó a las placas base de PC, cuando se presentó hace más de dos décadas. Establece un estándar para la industria que se puede adoptar de forma rápida y eficiente para cumplir con las demandas de un mercado emergente.
La nueva arquitectura se diseñó para hacer frente a la creciente demanda de computación de inteligencia artificial en la nube, en campos como la conducción autónoma, la atención de la salud personalizada, el reconocimiento de voz sobrehumano, el análisis de videos y datos, y las simulaciones moleculares.
“La inteligencia artificial es un nuevo modelo computacional que requiere una nueva arquitectura”, dijo Jen-Hsun Huang, fundador y director ejecutivo de NVIDIA. “La implementación del acelerador de GPU con hiperescalabilidad HGX-1 en la computación de la nube con inteligencia artificial será equiparable al efecto del estándar ATX para lograr la propagación de las PC al día de hoy. Les permitirá a los proveedores de servicios de nube adoptar fácilmente las GPU de NVIDIA para cumplir con la creciente demanda de computación de inteligencia artificial.”
“El acelerador de inteligencia artificial HGX-1 proporciona una escalabilidad de rendimiento extrema para cumplir con las exigentes demandas de las crecientes cargas de trabajo para el aprendizaje de máquinas. Además, su diseño único le permite adaptarse rápidamente a todos los centros de datos existentes del mundo”, escribió Kushagra Vaid, gerente general e ingeniero distinguido de Infraestructura de Hardware de Azure, Microsoft, en una publicación del blog.
Para las miles de compañías y empresas emergentes en todo el mundo que invierten en la inteligencia artificial y adoptan estrategias basadas en esta tecnología, la arquitectura de HGX-1 proporciona una configurabilidad y un rendimiento sin precedentes en la nube.
Con la tecnología de ocho GPU NVIDIA® Tesla® P100 en cada carcasa, con un diseño de intercambio innovador basado en la tecnología de interconexión NVIDIA NVLink™ y la norma PCIe, lo que permite a una CPU conectarse de forma dinámica con diferentes GPU. Esto les permite a los proveedores de servicios de nube usar de forma estandarizada la infraestructura de HGX-1 para ofrecer a los clientes una gran variedad de configuraciones de instancias de CPU y GPU.
Hoy en día, las cargas de trabajo en la nube son más diversas y complejas que nunca. La capacitación de inteligencia artificial, las inferencias y las cargas de trabajo HPC se ejecutan de forma óptima en diferentes configuraciones de sistemas, con una CPU conectada a diferentes GPU. El diseño altamente modular del HGX-1 permite un rendimiento óptimo independientemente de la carga de trabajo. Proporciona un rendimiento de aprendizaje profundo hasta 100 veces más rápido, en comparación con los servidores basados en CPU heredados. Además, según las estimaciones, el costo de la capacitación de inteligencia artificial se reduce hasta 5 veces; el de la inferencia de inteligencia artificial, hasta 10 veces.
Gracias a su flexibilidad para trabajar con los centros de datos de todo el mundo, HGX-1 ofrece a los centros de datos de hiperescalabilidad existentes, un camino rápido y sencillo hacia la inteligencia artificial.
Trabajo en conjunto para llevar un estándar para la industria a la hiperescalabilidad
Microsoft, NVIDIA y Ingrasys (una empresa subsidiaria de Foxconn) colaboraron para diseñar y desarrollar la plataforma HGX-1. Las empresas la distribuyen como parte de la contribución del proyecto Olympus de Microsoft al proyecto Open Compute, cuya misión es aplicar los beneficios del código abierto al hardware e incrementar rápidamente el ritmo de la innovación en los centros de datos y más.
Compartir el diseño de referencia con la vasta comunidad del proyecto Open Compute, significa que los empresarios pueden comprar e implementar fácilmente el mismo diseño en sus propios centros de datos.
NVIDIA se une al proyecto Open Compute
NVIDIA se une al proyecto Open Compute para ayudar a impulsar la inteligencia artificial y la innovación en el centro de datos. La empresa planea continuar trabajando con Microsoft, Ingrasys y otros miembros para avanzar en las plataformas de computación listas para inteligencia artificial para los proveedores de servicios de nube y otros clientes de centros de datos.
Por: Redacción NVIDIA
0 Comentarios
Deje su comentario