Los edge data centers reducen la latencia y mejoran el rendimiento de los servicios críticos en tiempo real, además de simplificar las estructuras de cómputo
Por: Flávio R. Marques, Ingeniería de Aplicaciones en Furukawa Electric LatAm
Desde sus inicios, los Edge data centers tuvieron un alto crecimiento, dado que resuelven problemas inherentes a la computación en la nube y simplifican varios procesos. Así mismo, reduce la latencia y mejora el rendimiento de los servicios críticos en tiempo real, acerca el contenido a los consumidores mejorando la experiencia y reduciendo los costos de transporte, y simplifica las estructuras informáticas. Como parte integral de la nube, estos centros de datos también ayudan en la organización puesto que mantiene a este ecosistema funcionando correctamente.
Las características de reducción de latencia y alta densidad son las mismas que las requeridas por la quinta generación de movilidad, el 5G. Por esta razón, es común que estas dos tecnologías se mencionen juntas. Los data centers Edge son cruciales para el 5G, ya que contribuyen a su disponibilidad y a una adopción más rápida por todos.
El concepto de centro de datos surgió durante la transición de las estaciones telefónicas a los centros de datos bajo el concepto de CORD – Oficina Central Rediseñada como Centro de Datos. La transformación de las estaciones telefónicas en centros de datos fue un evento natural, puesto que todos los servicios, incluida la voz, se convirtieron a IP. Pero esto por sí solo no garantiza que estos servicios estén optimizados con respecto a la reducción de la latencia y la disponibilidad.
La cantidad de estaciones telefónicas convertidas en centros de datos es pequeña en comparación con las necesidades de la computación de borde (edge computing), especialmente en las regiones de América Latina. La primera a mencionar es la iniciativa de los grandes operadores que, conscientes de esta demanda y utilizando su capacidad de inversión, están ampliando el número de centros de datos en sus áreas de cobertura.
La contribución de los operadores a la computación de borde va más allá de aumentar el número de centros de datos, sino que también están acercando su red troncal de alta velocidad a clientes corporativos e ISPs – Internet Service Providers (proveedores de servicios de Internet) que atienden a suscriptores empresariales o residenciales. Esta característica no solo reduce la latencia, sino que también aumenta la velocidad disponible, contribuyendo directamente al rendimiento de las aplicaciones.
Otra forma de llenar el vacío en las estructuras técnicas son las redes extremadamente flexibles que están construyendo los operadores neutrales. Estos lugares donde se están instalando sitios para redes móviles o equipos para redes de transporte y acceso, también se están considerando para el alojamiento de instalaciones para centro de datos Edge.
El suministro de un local para acomodación de racks, con disponibilidad de energía y aire condicionado además de la conectividad, hace de los operadores neutrales alternativas rápidas para activación de data centers edge. La tercera forma de aumentar la granularidad y el alcance del centro de datos edge es a través de los proveedores de servicios de Internet (ISPs). En Brasil, por ejemplo, los ISPs superaron a los grandes operadores en número de suscriptores y hoy llegan a muchas regiones antes olvidadas, ya sea por tamaño o por potencial económico.
Los ISPs tienen perfiles muy distintos y pueden ser clasificados de diversas formas – por la cantidad de abonados, cubrimiento de servicio, perfil de clientes atendidos, inclusive por la capacidad financiera. Teniendo en cuenta esta realidad, es importante tener en cuenta algunos requisitos para que los ISPs, independientemente de su perfil, contribuyan definitivamente con el borde de la nube, donde se ubica el Edge.
Una de las perspectivas de la infraestructura considera que la nube está compuesta por centros de datos de varios tipos y tamaños interconectados, haciendo una especie de virtualización global. Es importante que estos requisitos técnicos no sufran degradación durante su recorrido desde el “centro” de la nube, formado por grandes centros de datos en la nube (cloud) o de hiperescala (hyperscale), hasta los bordes, donde se ubican los Centros de Datos Edge y las instalaciones de acceso.
Además, la red óptica de transporte configurada para la interconexión debe poder cumplir con diferentes servicios, operaciones y también ser flexible para permitir cambios rápidos y acomodación de diferentes soluciones.
La opticalización contribuye en gran medida a la reducción de la latencia y al aumento de la velocidad en las conexiones intra e inter data centers, pero solo el uso de las fibras ópticas no puede garantizar estas características. Cuando se combina con sistemas y planificación adecuados, la fibra óptica es un componente muy fuerte del sistema integrado y sincronizado.
Otro requisito importante es que, en la planificación y construcción de cualquier centro de datos, independientemente de su tamaño, se debe contar con requisitos estandarizados y un diseño adecuado para las tareas que realizará.
Las mismas características de infraestructura pueden ser observadas en los data centers hyperscale, edge o inclusive dentro de un ISP. Esto permite que no ocurra una “desaceleración” de desempeño dentro de estas estructuras, manteniendo las tres características mencionadas (velocidad, disponibilidad y latencia) en alto nivel hasta los clientes, bien como el camino inverso hasta el centro.
Una de las tareas del data center edge es mantener el contenido más cerca del usuario en las redes de acceso. Esta arquitectura ofrece varias ventajas, como la reducción del consumo de ancho de banda del backbone, además de reducir el tiempo de acceso al contenido por parte del consumidor, ya que es alojado en el propio proveedor de acceso.
Es evidente la importancia de una infraestructura capaz de satisfacer las necesidades de conectividad, energía y disponibilidad que sea lo suficientemente elástica para permitir el aumento o la disminución bajo demanda. Es esencial que los ISPs consideren que sus instalaciones son de misión crítica, porque el éxito de la arquitectura de borde (edge) depende de ellos. Igualmente, deben tener en cuenta y satisfacer estas demandas, puesto que les da una importante ventaja competitiva en la carrera por un lugar en la nube.