¿Qué son los Edge Data Centers y cómo nos benefician?

¿Qué son los Edge Data Centers y cómo nos benefician?

Casi extraídos de una película de ciencia ficción, la tecnología corporativa ha comenzado la implementación de lo que se conoce como una nueva generación de centros de cómputo móviles, herramientas que seguirán cambiando a las sociedades, y que son una de las claves para el desarrollo de las ciudades digitales.

Vamos por el principio. ¿Qué son y para qué sirven estos nuevos centros de datos de borde, o Edge Data Centers?

Estas nuevas herramientas proporcionan los mismos recursos de cómputo que se encuentran en los centros de datos tradicionales soportados en grandes edificios. Pero este nuevo tipo de Data Centers suelen denominarse perimetrales, pues se instalan en el terreno en donde se necesita procesamiento de datos, análisis y toma de decisiones / acciones en tiempo real; evitando así enviar el dato digital hacia los grandes Data Centers tradicionales, que suelen estar bastante alejados del lugar en que los dispositivos de los usuarios finales generan la información.

Con estos sistemas, los centros de datos perimetrales pueden entregar contenido en caché y recursos de computación en la Nube a cualquier dispositivo móvil en tiempo real. El concepto funciona fuera de la informática tradicional, ya que ahora estamos frente a una arquitectura de TI con capacidades de cómputo distribuido, donde los datos del cliente se procesan lo más cerca posible de la fuente de origen.

Debido a que los centros de datos Edge son más pequeños y están ubicados cerca de los usuarios finales, se utilizan con la ventaja de brindar servicios más rápidos con una latencia mínima, porque al poder procesarlos en el mismo momento en que los capturan, evitan el “viaje de los datos” hacia los grandes Data Centers para obtener capacidades de cómputo que se traduzcan en una acción inmediata, por ejemplo, sobre los consumidores en un determinado lugar geográfico.

Otra característica es que los datos cuyo valor es menos sensible al tiempo de respuesta (delay), se pueden enviar a los grandes centros de datos tradicionales, que son infraestructura e instalaciones fijas, para el análisis histórico, big data y el almacenamiento a largo plazo.

Los denominados centros de datos perimetrales (o de borde) deben ser de fácil implementación y eliminación, pensados en responder a necesidades y acciones temporales, y son mucho más pequeños que un contenedor de transporte de mercancías.

La pregunta del millón: ¿Los centros de datos Edge reemplazarán a los grandes Data Centers tradicionales soportados en edificios? La respuesta es no, debido a que cumplen distintas funciones.

El primero (perimetral o de borde) viene a responder y satisfacer a necesidades de cómputo muy específicas, en un tiempo y lugar acotados. Mientras que los segundos son una especie de “buque madre o nave nodriza”, y seguirán siendo la infraestructura de base con mayor capacidad de almacenamiento y cómputo de datos digitales, y con los mayores estándares de seguridad física y digital. 

Futuro a la vuelta de la esquina

Tras el impacto de la pandemia en la región, hoy es un hecho el asegurar que en América Latina se ha impulsado de manera exponencial el consumo de información digital, y que se requieren más datos, algo que impacta al Edge.

Según un reporte de Americas Market Intelligence [1](AMI) el consumo de información digital ha ido solo creciendo. Por ejemplo, con una penetración de Internet promedio del 73 %, Latinoamérica va rumbo al apogeo digital. Argentina lidera la región en penetración de Internet. Pero, sin duda, Brasil es el mercado de mayor interés, por su envergadura poblacional y geográfica.

Entonces, si tenemos en cuenta que las inversiones en infraestructura Edge van de la mano de las redes de comunicaciones adecuadas y que el despliegue del 5G necesita más puntos de presencia distribuidos para poder repartir el contenido, los Edge Data Centers pronto pasarán a obtener un importante protagonismo.

Los Edge Data Centers, tienen y pueden colaborar en la implementación de una serie de cambios, que van a moldear una serie transformaciones en nuestras sociedades. Por ejemplo:

1- 5G: Donde una red celular descentralizada hecha de centros de datos de borde puede ayudar a proporcionar baja latencia para 5G en casos de uso con alta densidad de dispositivos.

2-Empresas de telecomunicaciones: Con los centros de datos de borde de torre celular, las empresas de telecomunicaciones pueden obtener una mejor proximidad con los usuarios finales mediante la conexión de teléfonos móviles y sensores inalámbricos.

3-Internet de las Cosas: Los centros de datos perimetrales se pueden utilizar para datos generados por dispositivos IoT. Se usaría un centro de datos de borde si los datos generados por los dispositivos necesitan más procesamiento.

4-Cuidado de la salud. Algunos equipos médicos, como los que se utilizan para cirugías robóticas, requerirían una latencia extremadamente baja y consistencia de red, de lo cual pueden proporcionar los centros de datos Edge.

5-Vehículos autónomos: se pueden utilizar para ayudar a recopilar, procesar y compartir datos entre vehículos y otras redes, lo que también depende de la baja latencia.

5-Fábricas inteligentes: su utilidad la encontramos en el mantenimiento predictivo de máquinas, así como para la gestión de calidad predictiva. También se puede utilizar para la eficiencia con respecto a la robótica utilizada en la gestión de inventario.

La consultora Gartner[2] predice que el 75% de los datos empresariales se crearán y procesarán en el Edge para 2025. Entonces, nos encontramos frente a un escenario donde esta tendencia tecnológica producirá un crecimiento exponencial del número de Edge Data Centers en el mundo y la región. ¿Estaremos preparados?

[1] https://americasmi.com/insights/consumo-de-medios-en-america-latina-cambios-marketing-publicidad-digital/

[2] https://www.gartner.com/smarterwithgartner/what-edge-computing-means-for-infrastructure-and-operations-leaders

Jon Paul "JP" McLeary

Autor:
Pablo García
Gerente Senior Soporte de Ventas, Data Center y Seguridad
Cirion Technologies en Chile

Colocation: un puente entre el pasado y el futuro para los sistemas heredados

Colocation: un puente entre el pasado y el futuro para los sistemas heredados

La transformación digital avanza a toda velocidad, pero muchas veces, en especial en industrias altamente reguladas o que tienen una amplísima trayectoria, se choca con un obstáculo muy potente: el de los sistemas heredados que aun cuando se ubican en el límite de la ineficiencia y de la obsolescencia tecnológica, continúan prestando un servicio robusto y confiable.

Muchas veces porque los proyectos son de enorme magnitud, muchas otras por los costos asociados, en ocasiones por los riesgos que ello implica, sin destacar que suele suceder que la inversión en tecnología haya sido excesiva en los años previos y que se busque avanzar con la amortización, no siempre las empresas están del todo listas para modernizar o reemplazar estas aplicaciones. Del mismo modo, persisten barreras culturales por las cuales una compañía, aún en estos tiempos de masificación del uso de la nube, prefiere mantener un determinado sistema crítico bajo su órbita.

En estos casos particulares, pueden apelar a los servicios de colocation para ganar agilidad y crear una perspectiva de cara al futuro. Entre las industrias que entran en estas características destacan banca y servicios financieros, petróleo y gas, minería, salud, empresas manufactureras y servicios públicos.

El paso intermedio

Recordemos que la colocación permite a una organización alojar sus equipamientos de misión crítica en un data center de alta disponibilidad. Dar ese solo paso representa de por sí numerosos beneficios: bajan los costos de mantenimiento, se reduce la necesidad de contar con recursos específicos que gestionen la infraestructura de manera interna, disminuyen los riesgos de no satisfacer el cumplimiento de normativas relacionadas con la seguridad y el consumo energético y hasta se garantiza la continuidad del negocio ante un desastre natural o una situación inesperada.

Sin embargo, para las empresas esto podría ser también un puente entre el pasado y el futuro de sus estrategias de IT, un punto de inflexión entre las infraestructuras propias y los entornos de nube híbrida, un paso intermedio en el trayecto hacia la transformación.

Porque el servicio de colocation representa en muchos casos el primer paso del proyecto de transformación y modernización.

Migración más fluida

Por lo tanto, cuando la migración sea inevitable porque la obsolescencia ya hizo su trabajo o porque el mercado empujó con nuevas demandas y necesidades que el antiguo sistema ya no puede resolver, la conexión directa con los proveedores de nube ya estará establecida y el traspaso será más fluido y con menos tiempo de inactividad.

El mercado de colocation a nivel mundial, adaptado a las nuevas necesidades de las empresas y entendido como un escalón necesario hacia la nube, está ganando mercado: según el portal de estadísticas Statista, el negocio movió poco más de US$50.000 millones en 2021 y tiende a generar algo más de US$136.000 millones para 2028.

La transformación digital avanza a toda velocidad. Y contar con herramientas como el servicio de colocation para remover los obstáculos que se presenten en su camino es esencial para que las empresas puedan mantenerse competitivas de cara al futuro.

Jon Paul "JP" McLeary

Autor:
Gabriel del Campo
Vicepresidente de Data Center, Cloud y Seguridad
Cirion Technologies

Despejando la incógnita: la mejor solución para la ecuación “nube híbrida”

Despejando la incógnita: la mejor solución para la ecuación “nube híbrida”

La nube híbrida continúa imponiéndose en el mercado: la consultora IDC predice que, para fines de este año, estará presente en al menos el 90% de las organizaciones de todo el mundo. Una tendencia que se explica por la centralidad que el cloud tiene en las estrategias de transformación digital y por los niveles de fluidez y flexibilidad que propone este modelo.

Llamamos “nube híbrida” a un panorama tecnológico que incluye cierta presencia local o infraestructura propia (nube privada) y un conjunto de aplicaciones, datos y procesos migrados a una nube pública. Entre sus características, destaca el hecho de que las cargas de trabajo se mueven de manera fluida, transparente y automatizada entre los diferentes entornos de acuerdo a las necesidades. 

No se trata de una solución llave en mano que puede replicarse en todas las empresas para obtener el mismo resultado, sino de una verdadera ecuación que plantea nuevas incógnitas en cada caso en particular. Despejarlas es la clave para alcanzar todos los beneficios que potencialmente brindan este tipo de arquitecturas. 

Entre las variables que entran en juego destacan la velocidad de la red, la capacidad de procesamiento, la optimización de la arquitectura, la latencia que se logra, el control de los costos y el governance del conjunto.

Experiencia del usuario

Para encontrar el camino, el foco debe estar puesto en la experiencia del usuario. Debe ser la que satisfaga la expectativa del usuario sin que importe si está comprando un producto online, generando una transacción financiera, completando el trabajo de la oficina, estudiando o incluso jugando o comunicándose con amigos, en cualquiera de los casos. Tampoco es relevante su ubicación geográfica ni el dispositivo del que accede: la experiencia debe ser homogénea independientemente de esos factores.

Por eso, es necesario analizar dónde se procesa la información y con qué inmediatez se requiere la respuesta. Cuando se trata de cargas de trabajo que exigen una devolución inmediata, entonces resulta clave reducir el tiempo de transporte de los datos hacia el punto de procesamiento. Por otro lado, hay cargas de trabajo que por su dinámica o funcionalidad resulta más adecuado ubicarlas en algún data center central. El armado de la arquitectura y la decisión de dónde se procesa cada carga, por lo tanto, resulta fundamental para alcanzar una mayor performance.

La conectividad entre esos puntos resulta igual de clave. En un juego de equilibrios habrá que explorar la multiplicidad de alternativas para identificar los proveedores de internet que ofrezcan buena interconexión con sus pares -para garantizar el correcto desempeño de la arquitectura de punta a punta, concatenando de manera óptima todos los eslabones que conforman la nube híbrida- y, al mismo tiempo, que habiliten eficiencia en costos.

Con la mira en la latencia

En todo este camino, el ojo estará puesto en la latencia: los retardos en la transferencia de datos deben ser mínimos y el desempeño, alcanzar el máximo de su potencial, aun cuando se trate de aplicaciones exigentes como video, realidad virtual o juegos.

El governance, por su parte, es lo que permite dar al proyecto una dirección estratégica alineada con el propósito del negocio, garantizar el cumplimiento de los marcos normativos y de las políticas organizacionales, analizar y monitorear el rendimiento, asignar los recursos de manera adecuada y establecer criterios de mejora continua, no solo desde la tecnología, sino también desde otras dos perspectivas, las personas y los procesos. 

En el largo plazo, la nube híbrida es la que permite el mejor aprovechamiento de los servicios y el mayor ahorro de costos. Pero no son beneficios mágicos: es fundamental para desentrañar esa ecuación haber entendido bien el modelo, haber implementado correctamente el governance y, por supuesto, haber sido muy riguroso a la hora de hacer las cuentas.

Jon Paul "JP" McLeary

Autor:
Gabriel del Campo
Vicepresidente de Data Center, Cloud y Seguridad
Cirion Technologies

Cirion prevé un crecimiento notable de Edge Computing en Latinoamérica

Cirion prevé un crecimiento notable de Edge Computing en Latinoamérica

Nuevas necesidades corporativas y un mayor despliegue de 5G podrían ser claves para una adopción a escala masiva de este modelo de infraestructura en la región. 

En un contexto de aceleración de la transformación digital en que las aplicaciones son cada vez más demandantes en términos de poder computacional y de velocidad, la propuesta de la arquitectura Edge Computing evita los largos viajes de los datos hacia los centros de datos principales para que se procesen allí y vuelvan hasta el dispositivo que los necesita. A cambio, lleva la inteligencia más cerca del lugar en que se procesan. Así, cuando es imprescindible que una aplicación interprete algo, acceda a una información o entregue una respuesta en menos de milisegundos, Edge Computing será la solución. 

Aplicaciones como el reconocimiento facial en los aeropuertos para controlar que los pasajeros no tengan ningún problema judicial, el análisis del perfil de los consumidores que ocupan un ascensor en un momento determinado para mostrar en las pantallas de esta publicidad relevante y alineada con los intereses de los pasajeros, son apenas algunos ejemplos de cuando el tiempo es una variable clave y no se puede esperar. En todos esos casos, la respuesta es el Edge Computing

Diversos factores impulsan el crecimiento de Edge Computing en la región. Por un lado, la adopción incremental de soluciones de video, realidad aumentada o realidad virtual, industria 4.0 y hasta inteligencia artificial que fuerzan a obtener respuestas en tiempo real. El estudio Informe de Tendencias Globales: cómo la Cuarta Revolución Industrial está cambiando la TI, las empresas y el mundo de Cirion ya había detectado que el 60% de los tomadores de decisiones de IT globales necesitan una latencia menor a 10 milisegundos para sus aplicaciones, cifra que cae a 5 milisegundos para el 20% de ellos. 

Por otra parte, la aparición de plataformas interoperables que permiten a los clientes utilizar Edge Computing adaptado a sus necesidades y sus casos de uso de manera ágil e integral. Y, por supuesto, la evolución de la tecnología de telecomunicaciones 5G, que parece desarrollada a medida para Edge Computing. En efecto, la aparición de 5G multiplica las oportunidades, ya que como una de sus características es la baja latencia, en especial entre las estaciones repetidoras de señales y los dispositivos, permitirá incrementar de manera notable los casos de uso. Se estima que las conexiones 5G en la región pasarán de ser las 300.000 de 2020 a 61,9 millones en 2025, de acuerdo a datos de Statista

“Los dos grandes beneficios de Edge Computing son la posibilidad de entregar la mejor experiencia del usuario y hacer posible prácticamente cualquier solución tecnológica, sin que importe cuán intensivo sea su procesamiento o que tan sensible sea a la latencia”, señala Fernando Zangrande, Director de Operaciones de Data Center de Cirion LATAM. 

Edge Computing: Construyendo redes más rápidas e inteligentes

Edge Computing: Construyendo redes más rápidas e inteligentes

Es fundamental para las compañías de cualquier industria que la computación sea lo más distribuida posible, esto es, que se puedan procesar los datos lo más cerca de los puntos donde son adquiridos, para así poder tomar las decisiones más rápidas e inteligentes sobre los mismos. 

Un análisis realizado por la consultora Grand View Research estima que el mercado global del edge computing alcanzará los US$ 43.400 millones en 2027[1]. Junto con ello, las proyecciones de Gartner indican que para el año 2025, el 75% de los datos empresariales se procesarán fuera de los data centers convencionales o de la nube[2].

Ambas cifras reafirman una tendencia clara, la consolidación de las soluciones y plataformas basadas en edge.

Hace años que estamos observando una mayor inversión en conectividad en Latinoamérica, pero lo importante no es sólo llegar a los principales centros, sino hacer que toda esa infraestructura que se esté desarrollando sea lo más ubicua posible, para así llegar hasta los últimos rincones donde las empresas y las personas necesitan esa conectividad.

Por lo tanto, además de mejorar la conectividad, es fundamental que la computación sea lo más distribuida posible, esto es, que las empresas puedan procesar los datos lo más cerca de los puntos donde se captan, para así poder actuar rápidamente sobre los mismos. Esto implica construir redes más inteligentes, con capacidad de procesamiento y, desde la perspectiva de los clientes, la posibilidad de que puedan, no solamente conectarse de diferentes maneras a esos centros, sino también tener la capacidad de correr las aplicaciones en la plataforma más adecuada (servidores físicos, máquinas virtuales, contenedores)

De esta manera, para cualquier aplicación, sea de negocios, entretenimiento, o personal, la latencia pasa a ser un elemento crítico en la definición del tiempo de respuesta, ya que, cuanto menor sea, se incrementa la capacidad de ofrecer mejores servicios y una mejor experiencia de usuario.

Ahora bien, el diseño de dichas aplicaciones que se desplegarán en soluciones edge es clave, ya que debe considerar desde su génesis el punto donde vamos a buscar los datos, hasta donde se procesan. Esto va más allá de la tecnología básica de hardware, ya que implica una integración sinérgica de las arquitecturas implicadas. Junto con ello, no debemos olvidar que estos conjuntos de sistemas requieren de recursos humanos muy capacitados, entonces es crítico contar con el capital humano preparado y que cuente con la habilidades requeridas en este tipo de industria.

Por último, es fundamental tener todos los procesos internos necesarios para asegurar la mayor disponibilidad posible. La alta disponibilidad es un elemento crítico cuando pensamos en este tipo de experiencias de usuario. Se debe contar con los sistemas necesarios como para que nada impacte el servicio hacia el cliente final.

Considerando lo anterior, una solución basada en Edge debe garantizar que cualquier aplicación y transacción se desarrolle en óptimas condiciones, especialmente porque están los datos que son críticos para nuestros clientes y para las personas, así que desde el punto de vista del operador, la implementación de esta tecnología debe realizarse bajo la premisa de “cada vez más cerca, cada vez más rápido, y también cada vez más seguro”.

Como actores de esta industria, estamos viendo una fuerte y rápida adopción de soluciones basadas en edge, tanto porque la oferta es cada vez mayor y los proveedores están impulsando fuertemente el desarrollo, mientras que la demanda de los clientes también se está incrementando.

De esta manera, se configura una combinación perfecta donde observamos cada vez más adopción y casos concretos que ayudarán a transformar en una realidad soluciones que quizás hoy ni siquiera estamos imaginando, y que en definitiva, cambiarán la forma en que vamos a vivir y trabajar en el futuro.

[1] https://www.grandviewresearch.com/industry-analysis/edge-computing-market 

[2] https://www.gartner.com/en/research/methodologies/magic-quadrants-research 

Jon Paul "JP" McLeary

Autor:
Gabriel del Campo
Vicepresidente Regional de servicios de Data Center, Cloud & Seguridad
Lumen, LATAM

Qué es el modelo cloud-smart y qué deben hacer las empresas para alcanzarlo

Qué es el modelo cloud-smart y qué deben hacer las empresas para alcanzarlo

Luego de un año en el que la adopción de la nube alcanzó incrementos exponenciales, las empresas que quieran seguir aprovechando esta tecnología para sostener un diferencial competitivo deben ampliar la mirada y volcarse hacia un modelo cloud-smart: un corolario natural y necesario al proceso de migración masiva hacia la nube acelerado por la pandemia. 

En efecto, el COVID-19 permitió a muchas empresas corroborar los beneficios que la nube llevaba prometiendo desde hacía años: control de costos, escalabilidad y flexibilidad sin límites, la posibilidad de acceder a los datos y las aplicaciones en cualquier momento, desde cualquier lugar y con cualquier dispositivo, una latencia cada vez más baja gracias a la evolución de las tecnologías de conectividad y a un despliegue cada vez mayor y, lo fundamental, la agilidad clave para garantizar la continuidad del negocio bajo cualquier circunstancia (incluso, como quedó a la vista, las más complejas). 

Si bien muchas empresas debieron apelar a la nube por necesidad o por obligación, la persistencia de los buenos resultados fue clave para que se decidieran a desarrollar una visión estratégica: por eso no llama la atención que la consultora de mercado IDC haya detectado que en el mundo pospandemia el 90% de las organizaciones funcionará bajo un esquema cloud-first. Esto significa que ya no se evalúa qué se sube y qué no a la nube, sino que el negocio mismo se fundamenta sobre esta tecnología. La misma consultora determinó que solo en Latinoamérica el crecimiento de la infraestructura en la nube se verá en todos los segmentos para este año: 29,4% en infraestructura como servicio, 36,9% en plataforma como servicio y 19.9% en software como servicio. 

En este incremento de madurez, la idea de multicloud gana cada vez más fuerza: ¿Por qué limitarse a tener todo en una única nube privada o contratar una nube pública si es posible seleccionar múltiples nubes, cada una de acuerdo a su área de mayor experiencia o de mejor desempeño? Así, si un proveedor de nube está especializado en almacenamiento y otro en la performance de las aplicaciones, se puede obtener lo mejor de cada uno. Una estrategia multicloud aporta numerosos beneficios: desde una flexibilidad absoluta hasta una optimización total de las cargas de trabajo, pasando por la optimización de la ecuación costo-beneficio. 

Una consideración aplicable a cualquier migración de datos a la nube es asegurarse de que se consideren las necesidades del negocio a largo plazo. No tiene sentido limitar el crecimiento por estancamiento debido a una mala elección de proveedor cloud. Las organizaciones pueden llevar cargas de trabajo específicas a una plataforma o moverlas a donde puedan aprovechar los mejores precios y términos negociados para los requisitos dados. Además, un enfoque que permite el acceso simultáneo a otras nubes también facilita una transferencia sencilla y un cambio casi instantáneo entre clouds en caso de que sea necesario, por la razón que fuera, cambiar de proveedor. 

Las empresas se encuentran ahora ante esta posibilidad de escalar hacia un nuevo nivel y aprovechar la nube para diferenciarse en el mercado. En ese camino, es fundamental contar con un acompañamiento especializado que sepa analizar las oportunidades, dividir las necesidades, evaluar el retorno de la inversión (ROI) y elegir las mejores formas de implementación para garantizar que los servicios se ejecutarán de forma óptima, sin gastos ni contrataciones innecesarias. Así, se habrá subido un nuevo peldaño: el de ser una empresa cloud-smart.

 

Jon Paul "JP" McLeary

Autor:
Marcela Cueli
Directora de Producto
Lumen LATAM