nodejs到<video>使用WebRTCstream式传输

我目前使用nodejs和expressionstreamvideo标签简单地等待app.getvideo标签的src地址,然后使用res.writeHead和res.write提供的数据。

我希望能够使用WebRTC做类似的事情,但延迟更低。 但是,如何做到这一点,并没有真正find好的信息资源,我有点困惑。

任何人都可以推荐任何好的例子,nodejs软件包等…可能有帮助吗?

我希望做一些事情:

// Nodejs Server rtcServer.on('connection', function(connection) { var videoSource = getVideoDataSource(); videoSource.on('data', function(data) { connection.write(data); }); }); rtcServer.listen(8000); 

 // HTML Client <video src="???:8000"/> 

你可能想看看这篇文章。 没有audio支持,但会让你“几乎”你想要的。 你将需要github上的jsmpeg脚本和服务器上的ffmpeg。

http://phoboslab.org/log/2013/09/html5-live-video-streaming-via-websockets

这个例子成功运行audio和video,你可以select代码来禁用它们中的任何一个。 确保在编译和运行示例时使用节点<版本6。 您可以使用nvm在不同的节点版本之间切换。