从浏览器到服务器stream录制audio

我希望将来自浏览器的录制audio直播到服务器并播放。 服务器将最终成为播放这些audiostream的embedded式设备。

到目前为止,我已经成功录制了audio,并将其编码成WAVE文件,并使用networkingaudioAPI在浏览器上播放,并遵循本教程 。

现在我有一个.WAV编码的blobstream。 我试图find方法将这些stream与一个web套接字连接stream到一个nodejs后端,并使用npm模块播放它们。 但我没有运气。

有谁知道我应该遵循的任何资源或模块? 也许我应该尝试一种不同的方法? 自从在浏览器上logging以后,audio需要在服务器上相对快速地播放。

目前我正在使用一些允许通过networking浏览器传输到互联网广播服务器的软件。

我使用WebAudio API和getUserMedia从声音设备获取实时PCMaudio数据。 从那里,我根据可用的带宽量将这些数据从32位浮点数据转换为16,12或8位数据。 这个转换后的int采样被写入到BinaryJS的stream设置中,该stream包装了Node.js和客户端上的stream。 作为BinaryJS的一个附加function,您可以根据需要打开多个stream,因此我使用同一WebSocket连接上的第二个stream来控制数据。

http://demo.audiopump.co:3000/