Casi todas las principales plataformas de redes sociales, excepto quizás Pinterest, ahora tienen streaming en vivo integrado.
La transmisión en vivo está en todas partes, desde deportes electrónicos hasta deportes reales y lanzamientos de SpaceX, y más niños quieren crecer y convertirse en transmisores en vivo profesionales que en astronautas. En el aspecto técnico, las plataformas están ahora en una carrera armamentista para proporcionar streaming en vivo de baja latencia a sus usuarios.
Puede que sea fácil ir en vivo hoy en día, pero afectar esa maravilla técnica detrás de escena es cualquier cosa menos simple. Dado que el streaming en vivo es una apuesta de mesa para su plataforma, la solución que puede ofrecer la más amplia gama de capacidades de streaming de baja latencia competirá con el resto. No todas las aplicaciones de streaming en vivo requieren la latencia más baja posible. Varios factores determinan qué solución es la mejor para una aplicación determinada. Los streamers de renombre acudirán en masa a la plataforma que ofrece la solución de latencia de video más adecuada porque esa plataforma proporcionará la mejor experiencia de visualización para su audiencia. [KC1]
El streaming de baja latencia es un problema multidimensional
La latencia en el vídeo no es lo mismo que la latencia en otras formas de medios de Internet. En este último, la latencia es el tiempo que tarda un servidor en recuperar contenido y enviarlo a su navegador. La latencia de vídeo, por otro lado, representa el retraso entre el momento en que se captura un fotograma y el momento en que aparece en su monitor.
Como tal, la latencia de video puede ser un problema multidimensional. Por ejemplo, imagina que estás transmitiendo una competición de e-sports en la que dos jugadores conocidos compiten entre sí. La transmisión no incluye solo la acción del videojuego, sino que también incluye tomas de cámara de la cara de cada jugador, además de una entrada de vídeo adicional con un comentarista en vivo.
Para presentar una experiencia óptima, cuatro secuencias de vídeo (el juego, los dos jugadores y el comentarista) deben transmitirse simultáneamente a una gran audiencia. (A modo de comparación, el reciente evento de Twitch de la congresista Alexandra Ocasio-Cortez alcanzó una audiencia de 430.000 espectadores). Si una secuencia tiene una latencia más alta que las otras, toda la presentación sufre — podrías encontrar al comentarista comentando sobre una acción que tardó hasta 30 segundos en el pasado, por ejemplo.
A medida que la audiencia de streaming madura, están empezando a demandar eventos de streaming altamente interactivos y técnicamente sofisticados. La interactividad requiere la latencia más baja, idealmente sub-segundo, para proporcionar la mejor experiencia al espectador. Las audiencias de hoy también quieren una calidad de imagen similar a la transmisión de alta calidad. [KC2] Es casi un hecho que un streamer exitoso tendrá una conexión a Internet de fibra de ancho de banda alto, y elegirá el formato de video y el protocolo de codificación que puede entregar sus transmisiones con la latencia requerida.
El streaming de chunk basado en HTTP funciona contra baja latencia
AWS define la latencia ultrabaja como una latencia de 2 a 0,2 segundos y una latencia baja de 6 segundos y dos segundos. La latencia predeterminada para entregar formatos de vídeo HLS y DASH comunes puede ser de treinta a sesenta segundos. Con esta alta latencia, es imposible ofrecer la interactividad que las audiencias desean.
El culpable detrás de esta alta latencia es lo que se conoce como streaming de chunk basado en HTTP. Los formatos de transmisión HTTP como MPEG-DASH y HLS dividen el vídeo en pequeños segmentos o fragmentos que deben almacenarse en búfer antes de la reproducción. Si bien es posible reducir el tamaño de los fragmentos para proporcionar baja latencia, hacerlos demasiado pequeños aumenta la probabilidad de que los espectadores experimenten el rebúfer de vídeo y otros problemas de reproducción.
Para complicar el flujo de trabajo de entrega de videos, las audiencias ven videos en streaming en televisores, teléfonos, computadoras portátiles, tabletas y más. Cada uno de estos dispositivos puede utilizar un formato de vídeo diferente. Esto significa que una emisora debe tomar cada flujo de video y transmutarlo en formatos de video populares como HLS y DASH antes de enviarlo. Además, cada transmisión puede requerir configuraciones para optimizar la entrega para obtener la mejor calidad de imagen posible para la condición de conexión a Internet del espectador. [KC3]
Conclusión: Limelight Networks ofrece latencia de sub-segundo con su solución Realtime Streaming
[KC4] El
streaming en tiempo real de Edgio utiliza la tecnología WebRTC (Web Realtime Communication). Este estándar de código abierto puede ofrecer flujos con menos de un segundo de latencia y es muy adecuado para aplicaciones interactivas. Las soluciones bien implementadas pueden ofrecer transmisión de video en tiempo real confiable, de calidad de transmisión a escala. Esta ha sido un área importante de desarrollo en 2020 para la solución de transmisión en tiempo real de próxima generación de Limelight (ahora Edgio) que está integrada con la escala y el alcance de la capacidad CDN global.
Al habilitar la latencia de sub-segundo, la transmisión en tiempo real también incorpora el intercambio de datos que se pueden utilizar para crear servicios interactivos. Estamos viendo cómo surgen en nuevas aplicaciones para streaming de video en vivo, incluyendo casinos en línea, subastas, aprendizaje y apuestas deportivas en eventos. Esperamos ver a WebRTC emerger como la opción líder para escalar la entrega de contenido en vivo incorporado en la experiencia de la audiencia social.
En resumen, el lado técnico de la transmisión en vivo importa casi tanto como el talento en pantalla. Aproveche al máximo su implementación de
streaming en vivo con Limelight, ahora Edgio — ¡
contáctenos hoy!