Tag: videostream

来自JavaScript blob的video源

我想要显示一个videostream; 我有一个nodeJS服务器发送一个oggvideostream到一个websocket端口,当一个客户端连接到该端口,它开始接收videostream数据,但下面的方法似乎没有正确理解video数据… 在下面的上下文中,“camera”是一个html5video标签id: function connectWS() { var client = new BinaryClient('ws://192.168.161.193:8088'); client.on('stream', function(stream, meta) { stream.on('data', function(data) { var arrayBuffer = []; arrayBuffer.push(data); var video = new Blob([new Uint8Array(arrayBuffer)], { type: "video/ogg" }); document.getElementById('camera').src = (window.URL || window.webkitURL).createObjectURL(video); }); }); } 有人似乎已经有videoblob工作,但我无法find如何… 从Blob Javascript显示video 谢谢!

NodeJS,OpenCV和stream媒体图像使用networking套接字

我的最终目标是将video从笔记本电脑传输到服务器。 我试图通过在笔记本电脑和服务器上使用NodeJs来实现这一点。 我使用OpenCV库来捕获笔记本电脑上的video,并将其保存为jpg文件。 然后我读取文件并将其转换为base64,以便我可以使用Node中的Net.socket模块来传输它。 这是一个连续的过程:捕获,编码和发送。 这里是传输一个jpg文件的服务器代码: var cv = require('opencv'); var fs = require('fs'); var net = require('net'); var camera = new cv.VideoCapture(0); var server = net.createServer(); server.listen('50007', '127.0.0.1'); server.on('connection', function(socket){ camera.read(function(image){ image.save('original.jpg'); fs.readFile('original.jpg', 'base64', function(err, image){ socket.write(image, 'base64', function(){ socket.end(); }); }); }); }); 在客户端循环,直到从服务器接收到FIN。 这里是客户端代码: var net = require('net'); var fs = require('fs'); […]

如何监控/计算NodeJS服务器的带宽使用情况?

好吧,所以在一些业余时间,我已经开发了一个nodejs / socketio应用程序streamvideo,但我想知道它运行在什么样的状态,我有我的活动监视器运行,目前有2个用户发送对方的数据stream和统计如下面所述: %CPU: 6.0 Threads: 5 Real Memory: 59.6mb 我如何计算在服务器上发送的数据的总MB / GB?

是否有可能从单个stream式字节范围块创build新的mp4文件?

如果我在支持字节范围的服务器上有远程mp4文件,是否可以检索单个字节范围并从该范围数据创build新的/自包含的mp4? 如果我尝试使用fs.createWriteStream(remoteFilename)将返回的字节范围数据直接写入mp4文件,则不会获取需要播放的video元数据(持续时间,维度等)。 当我得到一个字节范围,从0开始,以XX结束时,输出mp4是可播放的,但是会有整个video长度的持续时间元数据,并且当字节范围在剩余时间内完成时将冻结屏幕时间。 还有什么我可以采取一个字节范围,并从该stream对象创build一个独立的.mp4文件? 整个过程就是避免下载整个10分钟的文件,然后才能使用ffmpeg制作5秒的剪辑。 如果我可以计算和下载字节范围,应该有办法将它写入独立的MP4文件。 预先感谢您提供的任何帮助。

如何使用套接字(.io)将audio/video从node.js服务器stream式传输到html5页面

我需要从一个node.js服务器stream式传输mp3或mp4,并在html5页面上观看。 我正在尝试使用socket.io来加速通信,我希望它会降低我使用简单的http的延迟。 我在我的项目中设置了socket.io,无论是在客户端(移动web应用程序)和服务器上,但我找不到,也找不到在networking上如何正确发送数据,并将其引导到一个标签。

将getUserMediastream式传输到服务器

我是二进制数据和getUserMedia的新手,如何将getUserMedia(video/audio)stream式传输到服务器,然后为其他连接准备stream(video/audio)? 我最初的想法是通过websockets发送数据,然后将数据写入文件(mp4),如下所示: getUserMedia –>(websockets)–> server –>(file.mp4)–> video.src 。 我一直在看MediaStreamRecorder ,我可以像这样发送一个缓冲区: multiStreamRecorder.ondataavailable = function (blobs) { socket.emit('blobs', blobs) }; 在我得到的服务器上 { audio: <Buffer 52 49 46 46 2c 10 04 00 57 41 56 45 66 6d 74 20 10 00 00 00 01 00 01 00 44 ac 00 00 10 b1 02 00 02 […]

在nodejs中stream式传输video

我试图从我的服务器streamvideo,但它不起作用,或者我可能做错了: 我的路线定义如下: var fs = require('fs'); router.get('/', function(req, res) { fs.readdir(__dirname + '/../public/videos', function(err, data){ res.render('videos', {files: data}); }); }); router.get('/:file', function(req, res) { res.render('videofile', {file: req.params.file}); }); 在我的模板文件中我有video.jade: ul for file in files li p a(href=file)= file 其实它列出了我的video剧目中的所有video。 然后为videofile.jade video source(src=file type="video/webm") 我希望它能在我的iOS设备上工作,但不会(它保持在同一页面上)