Intel presenta la Unidad de Procesamiento de Infraestructura (IPU)

La unidad de procesamiento de infraestructura (IPU por sus siglas en inglés) de Intel mejora la eficiencia y la capacidad de administración del centro de datos, y es la única construida en colaboración con socios de nube de hiperescala.

En el discurso inaugural en la conferencia Six Five Summit, Navin Shenoy, vicepresidente ejecutivo y gerente general del Grupo de Plataformas de Datos de Intel Corporation, dio a conocer la visón de Intel con respecto a la IPU, un dispositivo de red programable, diseñado para permitir que los proveedores de servicios de nube y de comunicaciones reduzcan la sobrecarga y liberen el rendimiento en las unidades de procesamiento central (CPU). Con una IPU, los clientes utilizarán mejor los recursos con una solución segura, programable y estable que les permite equilibrar el procesamiento y el almacenamiento.

“La IPU es una nueva categoría de tecnologías y uno de los pilares fundamentales de nuestra estrategia de nube. Amplía nuestras capacidades de SmartNIC y está diseñada para abordar la complejidad y las ineficiencias del centro de datos moderno. En Intel creamos soluciones e innovamos junto a nuestros clientes y socios — la IPU ejemplifica esta colaboración.”

– Guido Appenzeller, director de tecnología del Grupo de Plataformas de Datos de Intel

La IPU es un dispositivo de red programable que maneja de manera inteligente los recursos de infraestructura a nivel del sistema, acelerando con seguridad esas funciones en el centro de datos.

Permite que los operadores de la nube cambien a una arquitectura de almacenamiento y red totalmente virtualizados, y a la vez mantengan un alto rendimiento y previsibilidad, así como un alto grado de control.

La IPU cuenta con funcionalidad dedicada para acelerar aplicaciones modernas que se construyen usando una arquitectura basada en microservicios en el centro de datos. Investigaciones de Google y Facebook han demostrado que la sobrecarga de la comunicación de microservicios puede consumir entre el 22%1 al 80%2 de los ciclos de CPU.

Con la IPU, un proveedor de nube puede manejar de manera segura las funciones de infraestructura, al mismo tiempo que permiten que el cliente controle íntegramente las funciones de la CPU y la memoria del sistema.

Algunas de las principales ventajas de la IPU son:

• Acelera las funciones de infraestructura, incluyendo la virtualización del almacenamiento y la red, así como la seguridad con aceleradores de protocolo dedicados.

• Libera los núcleos de la CPU trasladando a la IPU las funciones de virtualización de almacenamiento y red que anteriormente se llevaban a cabo en el software de la CPU.

• Mejora el uso del centro de datos permitiendo una colocación más flexible de las cargas de trabajo.

• Permite que los prestadores de servicio de nube personalicen la implementación de la función de infraestructura a la velocidad del software.

“Como resultado de la colaboración de Intel con la mayoría de los hiperescaladores, Intel ya es el líder en volumen del mercado de las IPU con nuestros componentes Xeon-D, FPGA y Ethernet”, señaló Patty Kummrow, vicepresidenta del Grupo de Plataformas de Datos y gerente general del Grupo de Productos Ethernet en Intel. “Las primeras plataformas IPU basadas en FPGA de Intel están implementadas con muchos proveedores de servicios de nube y nuestra primera IPU ASIC está en fase de pruebas”.

Intel lanzará más plataformas IPU basadas en FPGA y ASIC dedicados. Estas soluciones estarán habilitadas por una potente base de software que les permite a los clientes construir un software de orquestación de nube de vanguardia.

Los centros de datos en evolución necesitarán una nueva arquitectura inteligente en la que la computación heterogénea, distribuida y a gran escala, trabaje en conjunto y esté conectada a la perfección, para aparecer como una sola plataforma de computación. Esta nueva arquitectura resolverá los desafíos actuales de recursos varados, flujos de datos congestionados y seguridad de la plataforma incompatible.

Esta arquitectura del centro de datos inteligente tendrá tres categorías de computación: CPU para computación de propósito general, XPU para aceleración específica de aplicaciones o cargas de trabajo, e IPU para la aceleración de la infraestructura, que estarán conectadas a través de redes programables para utilizar eficientemente los recursos del centro de datos.