El edge computing pone de cabeza el concepto del cloud computing. En tanto las implementaciones de nube “tradicionales” se centralizan en una única infraestructura capaz de ampliarse verticalmente en función de las necesidades del negocio, el edge se concentra en el “escalamiento horizontal” y geográfico.
El año pasado fui testigo del surgimiento de las aplicaciones que empujan a la TI empresarial hasta el borde o Edge, desde el uso de vehículos autónomos operados por la inteligencia artificial (AI) hasta las vastas redes de sensores que dependen de la tecnología 5G para lograr conectividad instantánea y tiempos de reacción de emergencia. Ya se trate del Internet de las Cosas (IoT), el fog computing o el edge computing, el propósito es acercar los recursos informáticos —como la potencia de procesamiento y el almacenamiento— al usuario final o a la fuente de datos a fin de mejorar la capacidad de escalamiento, de respuesta y la experiencia de servicio global.
Podríamos considerar el borde o el edge como la nueva huella informática, una extensión del centro de datos, como lo son el bare metal, los entornos virtuales, la nube privada y la pública. En cierto modo, el edge computing es la conjugación de las otras cuatro huellas. Mezcla componentes de cada una de ellas para crear una infraestructura específicamente pensada para cubrir las demandas del cliente que los modelos de TI tradicionales no pueden atender. Pero, a diferencia de otras huellas, el edge computing posee dos factores clave bien definidos:
● Simplemente no existe sin la nube híbrida.
● La base del edge computing debe ser abierta o FRACASARÁ.
¿Serán muy osadas estas afirmaciones? Seguramente, pero desde mi punto de vista son completamente precisas. Si el edge computing va a ser un futuro realista de la TI empresarial, requiere de la nube híbrida y del código abierto para prosperar.
¿Por qué el edge computing es “o híbrido o nada”?
El edge computing pone de cabeza el concepto del cloud computing. En tanto las implementaciones de nube “tradicionales” se centralizan en una única infraestructura capaz de ampliarse verticalmente en función de las necesidades del negocio, el edge se concentra en el “escalamiento horizontal” y geográfico.
Puede tratarse de servidores de formato pequeño en torres de telecomunicaciones, sensores que monitorean una red global de energía o sistemas de automatización de fábricas de próxima generación que predicen las necesidades de mantenimiento. Cualquiera sea la carga de trabajo específica del edge, la necesidad es la misma: respuestas más rápidas para lograr servicios más oportunos, independientemente de qué tipo sean. eBay, por ejemplo, está adoptando el edge computing y descentralizando sus centros de datos con el propósito de crear una experiencia de usuario más veloz y uniforme acercando los datos y los servicios en línea a los usuarios.
Dada la naturaleza diversa del edge computing, la uniformidad es un factor clave. Una implementación edge podría, en teoría, consistir de cientos de miles de diminutos sensores conectados a un nivel de agregación de datos que ayuden a dar feedback en tiempo real a lo que los sensores estén monitoreando. Es básicamente imposible administrar cada una de estas implementaciones si no comparten un plano de control más seguro a través de la automatización, la gestión y la orquestación.
Esta uniformidad se logra con la nube híbrida. Desde los dispositivos edge y la red hasta el centro de datos centralizado, la implementación de una nube híbrida aporta cordura a lo que de lo contrario sería una completa locura en un ecosistema tecnológico. Proporciona a todos estos componentes distintos una base común sobre la cual descansar, ya se trate de Linux, Kubernetes o Ansible, y permite a los equipos de TI gestionar decenas de miles de dispositivos conectados al igual que gestionarían su TI centralizada.
Abierto, no cerrado: se cumple en el centro de datos y también en el edge
La innovación puede verse fácilmente coartada por la fragmentación y, lo que es peor, por la introducción de modelos “propietarios” o de núcleo abierto. La introducción de Linux de grado empresarial puso fin a este esquema y dio inicio al ciclo de innovación que luego derivó en la virtualización, el cloud computing, los contenedores, Kubernetes y, hoy, el edge.
Si esta innovación estuviera encadenada a través de tecnologías formadas por “ediciones del edge” en lugar de ser impulsadas por estándares abiertos y comunes del sector, la fragmentación entraría nuevamente en escena. Entonces Red Hat con sus partners de la industria, dan impulso al edge: a través de la creación de estos estándares en las comunidades de desarrollo y en los grupos de trabajo del sector, como el LF Edge, Kubernetes Edge & IoT Working Group, el OpenStack Edge Working Group, Akraino Edge Stack y OPNFV, entre otros.
La visión de Red Hat para el edge: innovador, híbrido y abierto
Red Hat ayudó a impulsar los primeros estándares en torno al Linux empresarial, que ha definido la plataforma como el caballo de batalla del centro de datos para la innovación y las cargas de trabajo de producción. Hemos contribuido a promover la adopción de Kernel-based Virtual Machine (KVM) como la plataforma de virtualización abierta predilecta para la computación empresarial y hemos jugado un papel fundamental en convertir a Kubernetes en la fuerza arrolladora de orquestación de contenedores que es actualmente.
Hoy, a medida que nosotros y el mundo empresarial en su conjunto dirigimos la atención al borde de la red, observamos una nueva ola de innovación incipiente. La promesa y el poder que encierra el edge computing son muy reales y la intención de Red Hat, junto con las comunidades de código abierto y nuestro ecosistema de partners, es ayudar a las organizaciones a capitalizar estos beneficios sin temor a la fragmentación o la cautividad.
El edge es abierto, híbrido y está impulsado por Red Hat.