Hoy quiero compartirles un tutorial/experimento que he realizado con Canvas + getUsermedia. La finalidad de esto es trasmitir lo que mi cámara web vé al resto del mundo, sin la necesidad de Flash.
Es lógico que en algún momento será posible trasmitir video y audio, en vivo, sin la necesidad de Flash, como yo lo veo tal vez éste esfuerzo nos dé una idea al respecto.
El primer regalo de WebRTC ha sido el acceso a la cámara y el micrófono de nuestra computadora para nuestro navegador, ello a través de la función getUserMedia, sin embargo la comunicación real-time todavía no está lista y quién sabe cuánto tengamos que esperar para que sea viable a niveles de producción.
Hoy, puedo mostrarles éste ejemplo que he creado utilizando Canvas y getUserMedia para trasmitir y la etiqueta img para que las personas accedan al streaming. La limitante para poder entrar al streaming sería entonces que tu navegador soporte Socket.io.
El resultado de ésto puede verse desde dos puntos de vista, el primero es que de manera local (como se ve en el video) las cosas funcionan bastante bien.
Sin embargo cuando se trata de correrlo online va algo lento, ésto puede ser porque lo he probado en un VPS con únicamente 500mb de RAM, no soy un experto en streaming pero puede que un servidor más poderoso y posiblemente una conexión más rápida que mis 2mb hagan ésto más viable.
¿Cómo funciona el streaming?
Las cosas son bastantes simples:
- Accedemos a la cámara con getUserMedia.
- Pasamos la información de la cámara a una etiqueta video.
- Usamos requestAnimationFrame para dibujar cada Frame del video dentro de Canvas.
- Con el método toDataURL obtenemos la información de Canvas en una imagen.
- Mandamos las imágenes vía socket.io a un servidor (bastante sencillo) con Node.js
- En el server mandamos la imagen a laws sockets conectadas.
- Las sockets colocan la imagen en el atributo src de una imagen y listo :O
Como las imágenes se envían en cada Frame del video, lo que tendremos en las sockets es el video reconstruido vía imágenes. Es sólo una idea, me gustaría saber qué opinan los expertos, les dejo el tutorial completo para aquellos que quieran seguirlo.
Y el repositorio en github, por si alguien quiere sólo trabajar en el código.
Por último, tal vez ésto te interese:
Por juantjeda el 24 de Agosto de 2012
Por dxvtuts el 24 de Agosto de 2012
Por leo_py el 24 de Agosto de 2012
Por dxvtuts el 25 de Agosto de 2012
Por Freddie el 25 de Agosto de 2012
Por dxvtuts el 26 de Agosto de 2012
Por Giordhano el 26 de Agosto de 2012
Por nando el 27 de Agosto de 2012
Saludos.
Por dxvtuts el 27 de Agosto de 2012
Por Kinduff el 27 de Agosto de 2012
Me encantaría ver una solución parecida para el audio.
Por dxvtuts el 27 de Agosto de 2012
Lo que sí se puede es hacer streaming de audio ya grabado, no en vivo, y para ello se usa web audio API, separas la canción en dos canales y luego lo mandas por partes para en el cliente juntarlo e ir formando la canción.
Por Ani el 28 de Agosto de 2012
Por oscar el 22 de Noviembre de 2012
Por Jesus hernandez garc el 11 de Abril de 2016