El futuro de Internet

En términos históricos, no hace mucho tiempo atrás que dependíamos de un modem de marcación telefónica para conectarnos a una Internet recién nacida.

Así las cosas, o estábamos hablando por teléfono, o bien podíamos navegar la web, pero jamás las dos cosas a la vez. Si pasaste por ese primer tranco, seguro recordarás muchas anécdotas relacionadas a esta primera tecnología relativamente masiva.

En aquel contexto, pensar en “velocidad de acceso” no era una cuestión puesta sobre la mesa. O se tenía internet, que era un privilegio de verdad (comparable en su momento a tener una T.V. color) o no se la tenía (y se debía acudir a un amigo o salón de internet público). Los sitios web nos parecerían todos bonitos, llamativos (léase “novedosos”), aunque, vistos al día de hoy, nos harían sangrar los ojos. HTML, el lenguaje de las páginas web, alcanzó a fines de la década del noventa su versión 4, y dejó de evolucionar durante muchos años (de hecho, hasta Octubre del 2014). En su primera versión, HTML/1, agradecemos que los textos pudieran cambiar de tamaño y color, y además fuese posible añadir imágenes (CSS, las librerías de estilo modernas en todo sitio web, recién se implementaron efectivamente a partir del año 2000). Al ser nuevo, rápido o lento, todo era maravilloso por igual.

En la primera internet, depender de un módem de marcación era arduo: el aparato hacía un ruido atroz, no siempre conectaba al proveedor de Internet, se desconectaba ante cualquier ruido de línea, y las páginas se cargaban con una lentitud hoy impensable, pues en toda la década del noventa, el promedio de la gente que accedía a internet lo hacía con un modem de 28.8k (es decir que navegaba a 3,6kb por segundo). Hoy, una conexión estándar de 10 megas nos permite descargar 1024kb por segundo (un 28.500% más rápido).

Alimentando a la bestia

Era de suponer que, en la medida en que la velocidad de acceso creció exponencialmente en el actual milenio, el ser humano cambió. Y cambió de verdad.

Más allá de globalizaciones, redes sociales, streaming de audio, video y proliferación de blogs, en el siglo 21 nos volvimos impacientes. Los estudios de campo demuestran que hoy, si un sitio web llega a su quinto segundo sin terminar de cargarse por completo, el 40% de las visitas se van a otra parte. Es prácticamente perder la mitad del tráfico en cinco segundos; y, en la medida en que se acumulan unos segundos más, el grueso del tráfico huirá despavorido. Pero la tecnología está de nuestro lado, una vez más, para que todo sea más rápido y nuestra impaciencia tenga corto tranco… La tecnología, sí, pero sobre todo los intereses comerciales.

Dame velocidad (y más dinero)

El primer y más rotundo estudio del comportamiento de las visitas, en relación con la velocidad de tiempo de carga lo realizó Walmart. La cadena internacional de supermercados pagó una auditoría informática para medir la conversión (compras reales) en su sitio de ventas online. Resultó que, en la carga de la página, por cada 100 milisegundos menos de tiempo, la empresa percibía un 1% más de ganancias. Conclusión: una internet lenta equivale a pérdidas para cualquier propósito comercial (en muchos casos pérdidas millonarias).

Cuando esta olla se destapó, empresas de todo el mundo clonaron el estudio en sus propios negocios online, y más de uno habrá sufrido un infarto. De más está decir que las inversiones que se realizaron a partir de entonces en conectividad y sitios más rápidos suman millones de millones de dólares (dinero que se recuperó luego porque la regla de cien milisegundos menos, un uno por ciento más de ganancias, se cumple a rajatabla). En primera medida, al menos, los usuarios fuimos y seguimos siendo cada vez más beneficiados. Porque el tiempo es oro, claro.

El actor principal

No perdamos de vista ni por un segundo a uno de los actores más importantes en la morfología de internet: Google. Maneja el 90% del tráfico en búsquedas globales en internet, y esto lo “autoriza” a dar unos cuantos golpes de timón en el destino de la web. Por un lado, hace años que la empresa con sede en Mountain View concede a los sitios más livianos lugares de privilegio en sus resultados de búsqueda (da lo mismo decir que castiga a los sitios lentos). De hecho, Google invirtió en el desarrollo de protocolos de navegación más rápidos y eficientes, alcanzando así su patente SPDY (léase “speedy”, por veloz). Si bien al comienzo todos corrimos para tener dicha tecnología en nuestros sitios (puesto que Chrome y Firefox no tardaron en ser compatibles con la misma), el desarrollo de SPDY finalmente se disolvió en el protocolo HTTP/2 (año 2016). Y sí, HTTP/2 está basado en SPDY de Google. Aunque ya no exista soporte para el obsoleto SPDY hoy día, su parte en la historia es una evidencia precisa y adicional sobre qué tan interesado está Google en que todos tengamos una internet más rápida y segura.

HTTP/2… HTTP/3… ¿HTTP/4?

Ya que lo mencionamos, repasemos que HTTP quiere decir Hyper-Text Transfer Protocol, el protocolo (idioma) con que se codifica la comunicación entre tu ordenador o celular y un servidor. Cuando mencionamos recién que SPDY se fundió dentro del (en ese momento nuevo) HTTP/2, estamos hablando de una mejora en la velocidad de conexión de hasta un 40%. Una barbaridad, y sólo con mejorar el “idioma” o protocolo de conexiones. Esta es una muestra perfecta de que el software es igual o incluso más importante que el hardware de un servidor. Mientras quizás naveguemos por internet indiferentes a la versión de HTTP o qué cuernos significa, cierto es que HTTP/2 permitió la creación de webs más complejas, con más elementos y llamadas al servidor sin que esto sea un detrimento en la velocidad. Lo que nos trae al nuevo, fresco y brillante «Protocolo de Transferencia de Hipertexto sobre QUIC», finalmente nombrado HTTP/3.

QUIC es un protocolo de red perteneciente a la capa de transporte cuyo desarrollo tiene (otra vez) un actor conocido: Google… Qué “raro” verte por acá.

HTTP/3 ya es soportado por las recientes versiones de Chrome, Firefox, Edge y Safari, y en Duplika está incorporado a en todos nuestros planes de hosting (para que estés a la vanguardia, obvio).

Si bien HTTP/3 es más rápido que su predecesor (básicamente porque maneja múltiples transferencias independientes una de otra), también es más seguro: en HTTP/2, las conexiones son cifradas si así lo desea el desarrollador de un sitio, pero con HTTP/3 los datos se cifran de manera obligada, sin excepción. Este es un clarísimo avance en la seguridad de la web para todos, porque, claro, no todo es velocidad.

Pero mantengamos el oxígeno: la inserción completa de HTTP/3 será lenta, aún está bajo la lupa, y los servidores que la promueven (o los sitios que la usan) son casi exclusivos. Pensemos que abrazar un protocolo implica cambios en los servidores, reconfiguraciones, pruebas, optimizaciones finas… Cloudflare, la mega empresa más popular de CDN (Content Delivery Network), cuenta el costo de desarrollo que le implicó incorporar HTTP/3 aquí.

Y otra reflexión con miras a un eventual HTTP/4: HTTP es un protocolo creado en un momento en que pocos podrían tener en cuenta el crecimiento explosivo que tuvo el tráfico web con el correr de los años. En otras palabras, HTTP fue concebido en un momento de la historia donde el tráfico que ingresaba a un servidor de hosting era mínimo, controlable. HTTP/3, con todo el avance que significa, no deja de ser una mejora de un protocolo “añejo”, y va a llegar el momento en que debamos repensar la conectividad entre un servidor y un explorador web bajo una luz nueva, necesaria. Sí, aunque el costo de implementación sea altísimo. Con los años veremos si un eventual HTTP/4 es una realidad, o surge un protocolo completamente nuevo (un problema grande a resolver sería la retrocompatibilidad, pero veremos cómo se dan las cosas).

De los juegos, con amor

Hay un elemento de hardware que llegó para quedarse, y son los procesadores GPU, más conocidos en la jerga como “placas de video”. Si fuiste o eres aficionado a los videojuegos, sabrás exactamente de qué estoy hablando. Si no, te cuento que un GPU es un circuito electrónico diseñado para acelerar la creación de imágenes en cualquier dispositivo, ya sea PC, MAC de escritorio, e incluso tabletas y celulares. Una GPU mejora la nitidez de un video de YouTube, renderiza muchos cuadros por segundo (iluminación, sombras, perspectiva) a partir de modelos 3D, acelera la edición de video y fotografía, entre muchas otras cosas. Y entre esas “muchas cosas” hay una en particular relacionada al motivo de esta nota.

El desarrollo de GPUs ha sido favorecido con inversiones cuantiosas de dinero, sobre todo desde el momento en que todo el mundo tiene un teléfono móvil, y la mayoría de nosotros jugamos videojuegos con él (aunque sea un Candy Crush). Profundicemos: un CPU normal, Intel o AMD, puede tener 4 o 6 núcleos físicos. Lo mismo en tu celular; por ejemplo, un iPhoneX tiene seis núcleos, pero además posee tres núcleos adicionales, dedicados para aceleración de gráficos. En PC y MAC, una placa de video actual, ya sea de nVidia o AMD, no tiene menos de 4000 procesadores dentro de su GPU. ¿Sorprendido?

Era sólo cuestión de tiempo para que este potencial tuviera otras vertientes.

En estos días, los contextos en donde se emplea el poder de los GPU crece exponencialmente, y una muy buena muestra de esto es el caso de Apache Spark. Apache Spark, el motor de análisis unificado para el procesamiento de megadatos (con módulos integrados para streaming, SQL y aprendizaje inteligente) emplea hoy GPUs de la firma nVidia (pueden echar un vistazo a la inclusión de GPUs en servidores aquí).

Hay varias cosas novedosas en todo esto, y ya no se trata de videojuegos: los navegadores de internet comenzaron a aprovechar los GPUs de móviles y escritorio para depurar el código HTML y así presentar en pantalla un sitio web con mucha mayor velocidad. Más allá de la conectividad entre cliente y servidor, la combinación de CPUs y GPUs en nuestros celulares y computadoras reduce la velocidad de carga de un sitio en nuestras pantallas, y por mucho. Como vemos, el desarrollo acelerado que están teniendo los GPUs, incluso en comparación con los CPUs, es algo que nos beneficia al momento de navegar, y lo hará cada vez más. Por si fuera poco, servidores equipados con GPUs permiten ya millones de cálculos adicionales por milisegundo, y las puertas que conducen a un mundo íntegramente acelerado por GPUs recién comenzaron a abrirse.

Cloud: nubes, pero no de tormenta

El concepto de cloud implica la disponibilidad, a través de solicitudes, de los recursos de un sistema informático remoto, especialmente el almacenamiento de datos (almacenamiento en la nube) y la potencia informática, sin la gestión activa directa por parte del usuario. El término se utiliza generalmente para describir los centros de datos disponibles para los usuarios a través de Internet.

Con “almacenamiento de datos” podemos pensar en una cuenta de correo de Google: los correos están en la nube, y podemos acceder a ellos desde cualquier parte y con cualquier dispositivo. Pero también son ejemplos válidos nuestra cuenta en Netflix, en nuestra consola o servicio de venta de juegos preferido, en Chrome o Firefox, etc. La idea es que nuestra información, configuración, preferencias y demás datos estén presentes en cualquier dispositivo conectado a internet. Basta loguearse a nuestra cuenta de Firefox en nuestro nuevo celular para que estén presentes nuestras páginas marcadas como favoritas, el historial de navegación, los formularios que hemos llenado, los componentes que empleamos y demás. Con el servicio de PlayStation®Plus, se nos permite subir nuestro progreso en cualquier juego para descargarlo en una PS4 diferente. Del mismo modo, si nos conectamos a WhatsApp en un teléfono nuevo, todos los grupos y contactos se descargarán, incluyendo los chats. Todo esto es Cloud…

…Y es mucho más. El futuro nada lejano de internet será mayormente Cloud, una red de servidores conectados entre sí, dispersados geográficamente a lo largo y ancho del planeta. ¿Para qué? Bueno, por un lado, los datos que componen un sitio web estarán clonados en múltiples servidores, garantizando su seguridad. Por otro, nuestro celular o computadora de escritorio se conectará automáticamente al servidor más próximo para descargar un sitio, estemos en el país donde estemos.

El entretejido de servidores de la Nube identifica el origen de la solicitud (nosotros entrando a Google.com) y delega la descarga de datos al datacenter más próximo. Hoy esto es ya una realidad con Google Cloud, con los servicios de CDN y con varios servicios de cuentas, como Steam, Netflix, Adobe, Apple TV, Spotify (emplea Google Cloud) y un gigantesco etcétera. En la medida en que la velocidad de internet se duplique, una de las cosas que sucederán es que ya no necesitaremos tener procesadores en nuestros dispositivos, discos rígidos, ni siquiera aceleradores GPU. Una PC o un teléfono móvil tendrán una pantalla, una batería y un modem para conectarse a internet, permitiendo transmitir nuestras solicitudes y recibir una respuesta a la velocidad de la luz. Nuestras aplicaciones, correos, información, juegos, todo estará en la nube, pero la velocidad que permitirá una internet nada lejana nos hará creer que todos los datos estarán dentro de nuestro aparato. Como en los viejos tiempos.

Hosting Cloud

Cloud marcará muy bien la diferencia entre un hosting de calidad de otro mediocre. El soporte técnico de un servicio de hosting, más que nunca, será la vara con que se podrá medir la eficiencia de una empresa al momento en el que un cliente necesite escalar, resolver conflictos e implementar sus apps mobile para que funcionen sin problemas. En Duplika nos capacitamos todo el tiempo, así que estamos preparados para recibir el futuro con los brazos abiertos.

Puede interesarte evaluar nuestro plan profesional de Cloud Hosting para clientes exigentes. Te brindamos todo el poder de la Nube para que goces de sus poderosos (y seguros) beneficios.

Inmediatez completa

No es difícil suponer que la verdadera velocidad de internet llegará cuando los sitios y apps no tarden en cargar más que milisegundos. ¿Falta mucho para eso? No, pero hace falta una especie de movimiento conjunto entre tecnologías, servidores y dispositivos para que eso ocurra. Pongamos el ejemplo del 5G, la quinta generación de conectividad de telefonía móvil. Esta tecnología permitirá velocidades, en principio, de 1250 MB por segundo con una latencia de 4ms. Eventualmente, y tras muchos años de inversión y desarrollo, se vaticina que podría alcanzar los 20 gigas por segundo. Sin embargo, cachetazo: las generaciones venideras este 2020 en materia de smartphones no contarán con soporte 5G.

Y tienen un punto, pues falta mucho aún para que 5G se implemente en las grandes ciudades, ni hablar de asentamientos más modestos. El mundo del 5G promete autos que se conducen solos, maquinaria que trabaja sin la necesidad de operarios, señalización pública sistematizada, electrodomésticos interconectados, casas inteligentes, realidad virtual como nunca la hemos visto y hasta redes de energía automatizada. Todo suena muy bien, pero hasta que redes de conectividad 5G no se implanten en las regiones del mundo, su verdadero alcance será una promesa. 4G, la generación de conectividad móvil imperante hoy día, no se terminó de implementar en todos los rincones del mundo, y allí donde sí lo hizo tampoco necesariamente brinda a tu celular los entre 20 y 100 Mbps que promete (el asunto tiene más detalles de los que mencionamos, pero ya se pueden dar una idea). Que una tecnología tenga la capacidad de permitir una velocidad cualquiera de descarga no significa que las empresas lo provean desde su cuartel general. En suma, que hay mucho ruido en torno a esto pero pocas nueces. A pesar de que internet y el tráfico global ha crecido, como dijimos, exponencialmente, ciertos cambios no son tan rápidos como quisiéramos (aún esperamos que los autos vuelen).

El futuro que ya llegó

Del lado del servidor, el futuro nos depara computadoras súper rápidas que podrán atender más solicitudes al mismo tiempo, y albergar sitios y apps sin ninguna limitación de procesamiento. No solamente los procesadores poseen cada vez más núcleos, sino que a esto se está añadiendo el poder de las GPUs, y la tecnología cuántica llegó para superar el obstáculo nanométrico. El software es cada vez más eficiente, seguro y rápido, y si a la vez añadimos el avance de los sistemas de aprendizaje inteligente, obtendremos computadoras que manejarán con respuesta predictiva el caudal del tráfico y el uso de los recursos con precisión asombrosa (incluso deteniendo ataques antes de que el caos se produzca).

Del lado de la conectividad, las limitaciones de una banda ancha por cable coaxial, y el costo que tiene instalar una fibra óptica hogareña (siempre y cuando encontremos empresas que ofrezcan esto —y Google lleva la delantera, otra vez), son asuntos que quedarán relegados a un costado de la historia en el momento en que internet sea tan común y accesible como el aire que respiramos. Si las empresas y Estados del mundo invierten en tecnologías como el 5G, necesitar cableado específico hogareño para conectarnos a la web se convertirá en algo medieval. Y todo indica que esta es una realidad probable. Por otro lado, el día en que las conexiones sean lo suficientemente rápidas (y accesibles para todos), los dispositivos con los que navegamos no requerirán más que de un modem que acceda a Nubes (Cloud Computing), donde se realizarán todos los cálculos de manera remota devolviéndonos lo único que hace falta: la información a presentar en nuestras pantallas. Hojas de cálculo, correos, apps, páginas web, juegos… Todo. Nuestros dispositivos podrán pensarse como un mero monitor conectado a un servidor (una mega computadora, en verdad) a través de un cable muy largo. Y todo lo que vemos en pantalla estará ocurriendo en “La Nube”.

La tecnología está lista; deberemos aguardar a su implementación. Mientras tanto, recordemos que veinte años atrás estaríamos leyendo esta nota impresa en una revista.

Gracias por leer.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *