Tag: getusermedia

从nodejs录制audio和stream媒体到客户端

我需要采取录制audio(我相信使用getUserMedia()函数),并将其stream从连接客户端的浏览器从一个nodejs服务器。 我已经环顾了一些例子,没有什么明确的,有不同的方法。 我不能使用webrtc。 它必须使用服务器向客户端发送stream。 然而,我可以使用getUserMedia() (我相信它是webrtc的一部分)来loggingaudio并将其发送到nodejs服务器。 有没有任何资源或例子显示这样的工作?

通过socketio发送webRTC getUserMedia webCamstream

我有这段代码: navigator.mediaDevices.getUserMedia(param) .then(function(stream) { video.srcObject = stream; video.play(); } }) .catch(function (err) {}); 在这个代码中,我想通过socketio发送这个stream到nodejs服务器,这样我就可以在接收端使用它来显示video元素。 我怎样才能做到这一点?

广播现场摄像头stream

我想logging我的摄像头,并实时向其他客户端广播stream。 我可以很容易地在同一页面的video标签中显示我的摄像头: function initialize() { video = $("#v")[0]; width = video.width; height = video.height; var canvas = $("#c")[0]; context = canvas.getContext("2d"); nav.getUserMedia({video: true}, startStream, function () {}); } function startStream(stream) { video.src = URL.createObjectURL(stream); video.play(); requestAnimationFrame(draw); } function draw() { var frame = readFrame(); if (frame) { replaceGreen(frame.data); context.putImageData(frame, 0, 0); } requestAnimationFrame(draw); } function […]

在node.js中使用socket.io通过webrtc广播现场audio

我试图通过getUserMedia()使用webrtc并使用socket.io将audio发送到服务器(socket.io支持audio,video,二进制数据),然后服务器将其广播到所有连接的客户端。 问题是当stream到达连接的客户端时,它被转换成JSON对象而不是媒体stream对象。 所以我无法发送audio我也试过socket.iostream模块,但我没有succesfull。 你能帮我把audiostream正确地捕获并发送给所有连接的客户端。 这里是发送数据的客户端代码 navigator.getUserMedia({audio: true, video: false}, function(stream) { video.src = window.URL.createObjectURL(stream); webcamstream = stream; media = stream; /// here the datatype of media is mediaStream object socket.emit("sendaudio", media); }, function(e){ console.log(error); }); 在接收客户端的代码如下 socket.on('receiveaudio' , function(media) { console.log(media); //but here i am receiving it as a simple object other.src= media; });

现在是否可以使用GetUserMedia API从networking摄像机读取videostream,并直接发送到服务器进行进一步的广播?

我需要build立一个Web应用程序,使用WebRTC获取networking摄像机videostream和麦克风audiostream,并立即将其转换到服务器进一步广播到多个客户端。 该应用程序必须在全双工实时进行。 我的意思是这将是一种实时video聊天。 这将是某种教育应用程序。 所以问题是:现在有可能吗? 我应该使用哪些技术? 我应该在后端使用带有WebSocket和Node.js的WebRTC吗? 或者我可以使用PHP而不是节点? 我可以使用Socket.io吗? 有没有其他方法来实现这一目标? 可能是闪光?

将getUserMediastream式传输到服务器

我是二进制数据和getUserMedia的新手,如何将getUserMedia(video/audio)stream式传输到服务器,然后为其他连接准备stream(video/audio)? 我最初的想法是通过websockets发送数据,然后将数据写入文件(mp4),如下所示: getUserMedia –>(websockets)–> server –>(file.mp4)–> video.src 。 我一直在看MediaStreamRecorder ,我可以像这样发送一个缓冲区: multiStreamRecorder.ondataavailable = function (blobs) { socket.emit('blobs', blobs) }; 在我得到的服务器上 { audio: <Buffer 52 49 46 46 2c 10 04 00 57 41 56 45 66 6d 74 20 10 00 00 00 01 00 01 00 44 ac 00 00 10 b1 02 00 02 […]