Desde la introducción del mainframe, la computación empresarial se puede resumir como la lucha entre dos fuerzas antagónicas: el poder del procesamiento central frente a la utilidad de poner el cálculo cerca de donde se generan los datos, es decir, en el límite. Resultado de esta lucha son las computadoras de escritorio, laptops, teléfonos inteligentes y otras innovaciones que se extendieron hasta las redes de área local, internet y Nubes públicas. Solo que en este momento ocurre algo que podría cambiar irreversiblemente la dinámica entre la computación centralizada y la distribuida: los sensores inteligentes.
Incorporamos sistemas a medida que conectamos más al mundo, ya sea en la empresa, la industrial o en la vida personal y a la par se crean modelos de negocios que no existían antes.
Hoy se produce y procesa alrededor del 20% de los datos empresariales fuera de los Centros de Datos centralizados, pero para 2025 se espera que aumente a 75% y podría alcanzar el 90%, y no hay razón para suponer que la tendencia disminuirá.
De hecho, tendencias como el Internet de las Cosas o la Realidad aumentada plantean nuevos retos en la arquitectura. Los datos y su procesamiento, y las aplicaciones detrás de todo, se dispersan ampliamente, lo que da como resultado diferentes demandas de gravedad, latencia y tráfico de datos. La respuesta del mercado tecnológico fue la generación de una nueva categoría de infraestructura llamada computación perimetral y estos son los factores que impulsan su explosión.
“De lo que se trata es de entender que Edge Computing no debe verse como una tecnología para comprar, sino como un nuevo paradigma de cálculo.” Brian Hopkinz, VP, Principal Analyst Serving Cio Professionals, Forrester
Varias tendencias marcan los primeros años del siglo XXI: la computación en la Nube, centralizando la TI para impulsar economías masivas de escala y aprovisionamiento ágil; Internet de las cosas (IoT), donde los aparatos se están conectando y enviando gran cantidad de datos; el aprendizaje automático, que toma la data generada, mejora el procesamiento y las predicciones, así como la realidad aumentada o virtual que, incluso, permiten a la gente interactuar con otras personas y cosas tanto en el mundo físico como en el virtual; además de la evolución hacia el mundo o la empresa digital, donde las conexiones entre las cosas y las personas nos incitan tanto a interacciones como a decisiones cada vez más en tiempo real.
En este contexto, la agilidad de la computación en la Nube es excelente, pero ya no es suficiente. La centralización masiva, las economías de escala, el autoservicio y la automatización total nos allanan el camino, pero no superan la física: el peso de los datos, la velocidad de la luz. Y como las personas necesitan interactuar con sus realidades asistidas digitalmente en tiempo real, esperar en un centro de datos a decenas o centenas de kilómetros de distancia no funciona. La latencia importa y si no lo crees así, imagina que Waze te instruye dar una vuelta metros después de haberla pasado o que tu reloj inteligente no te informe el número de pasos que has dado en la última semana, cuando tú lo requieras.
Una cosa es tener un procesamiento local al lado de una serie de dispositivos fijos que, por ejemplo, monitoreen la presión de una tubería, y otra cosa cuando los sensores se colocan en un dron que lleva un paquete de una compañía de mensajería.
Stephan Biller, Vicepresidente de gestión de ofertas en IBM Watson IoT, afirma que la latencia y los problemas de costos asociados con la Nube están impulsando la computación al borde. Pero advierte que los beneficios de una estrategia híbrida de borde y Nube se extienden más allá de reducir la mano de obra y mejorar la precisión. Los "aprendizajes" del software en una planta, aunque son únicos en algunos aspectos de esa instalación, pueden transferirse a las otras instalaciones de la compañía, lo que permite un "intercambio de conocimientos ", asevera.
Edge completa la Nube. La distancia entre el centro de datos centralizado, los sensores y otros dispositivos en el borde no es una línea recta, sino un ecosistema de múltiples niveles de Centros de Datos regionales, centros de microdatos, cloudlets, servidores de borde, asistentes personales e inteligencia artificial integrada.
Lo complicado es diseñar una solución que utilice los recursos de tu empresa de la mejor manera y para ello no estás solo. En KIO Networks ofrecemos más de 40 robustos y confiables Data Centers ubicados estratégicamente: 29 CORE (CDMX, Querétaro, Monterrey, Panamá, Guatemala, República Dominicana y España) y 11 EDGE (Hermosillo, Guadalajara, Cuernavaca, Tuxtla Gutiérrez, Mérida, Villahermosa, Veracruz, Xalapa, Puebla y San Luis Potosí.
Todos ellos están equipados con las más altas características de operación y seguridad física, incluyendo energía ininterrumpida y sistemas de enfriamiento para control de temperatura y humedad con los más altos estándares de la industria.
Nuestros Data Centers cuentan con características Tier III y Tier IV, lo cual implica una disponibilidad del 99.8% y redundancia operativa que aseguran la continuidad del negocio.
Entre los servicios que nos diferencian se encuentran las distintas opciones que ponemos a disposición de nuestros clientes, como el Servicio de Cross Conexión entre racks pertenecientes a un mismo cliente, a diferentes clientes o conexiones hacia los Carriers, Cloud Providers o Content Providers.
También destaca nuestra fibra óptica de 24 hilos al interior del Centro de Datos; la red de Fibra Óptica Oscura entre los Data Centers Core; conectividad privada de alta velocidad que brinda acceso directo a los principales proveedores de Nube Pública en Estados Unidos, y servicios de baja latencia para operadores Bursátiles, además de conexiones locales seguras dentro del ecosistema de KIO.
En KIO Networks vamos al futuro, y tú también puedes formar parte de este viaje al mañana.