Tag: video

投射mp2tstream到Chromecast

我正在开发一个项目,我从一个node.js应用程序中的外部mp2tstream接收数据,我试图把它转换成chromecast设备使用castv2-client包设置contentType属性为“video / mp2t”,但它不工作。 如果我使用ffmpeg将stream转换为mp4文件,则可以投射video,但由于在每个接收到的video块上都必须转换,所以会造成很多结尾。 有什么办法,我可以直接施放mp2tvideo,因为我收到它?

Twilio不发送状态callback

我试图得到各种房间事件的状态callback,但Twilio没有发送任何事件到我的callbackURL,我用下面的代码来创build一个房间,使用我在这里find的文档 app.get('/createRoom', function (req, res) { var client = new Twilio(twilioApiKey, twilioApiSecret, { accountSid: twilioAccountSid }); client.video.rooms.create({ uniqueName: myRoomName, statusCallback: 'myCallbackURL' }).then((room) => { // }); });

WebRTC服务器PeerJS获取数据stream

我想在Node.js中使用videostream进行服务器端工作的同时设置video通话服务。 兼容性不是我的项目的问题,所以WebRTC似乎是一个明显的select。 我发现PeerJS,它允许真正简单的使用WebRTC。 Wh服务器可以在Node.js脚本中启动。 我想采取这个videostream,并在服务器上使用OpenCV做一些计算。 我考虑使用类似Binary.js来传输video数据,但这会慢得多。 我怎样才能得到我的Node.js服务器上的WebRTCvideostream? 像下面这样 var PeerServer = require('peer').PeerServer; var server = new PeerServer({ port: 9000 }); server.on('data', function (data) { do_something_with_open_cv(data); }); 显然这需要video块是完整的帧。 我能以这种方式访问​​这个stream吗?

HTML 5video播放器使用emulater而不是实际的设备

好吧,过去几天我一直试图在我的angular度应用程序上实现video。 以下是自己的video的一些事实: 所有video都是MP4文件 video正在使用节点js进行stream式传输 使用谷歌浏览器设备模拟器来testing这个即时通讯 现在到实际的代码: 首先在我的node.js应用程序,我有以下代码来获取video: router.route('/resource/:encodedString') .all(function (req, res) { var decoded = jwt.decode(req.params.encodedString, require('../secret')()); var mediaObject = decoded.mediaObject; if (mediaObject.file.extension == 'pdf') { res.set('Content-Type', 'application/pdf'); } else { res.set('Content-Type', 'application/octet-stream'); } res.header('mimetype', mediaObject.file.mimetype); res.header('content-disposition', 'filename=' + mediaObject.file.originalname); // res.header('content-disposition', 'filename=' + mediaObject.file.originalname); var stream = fs.createReadStream(mediaObject.targetDir + mediaObject.file.originalname); stream.pipe(res); stream.on('end', function () […]

在Google Compute Engine上自动安装FFMPEG(Debian Wheezy 7.8)

我有一个Google云计算引擎项目,并希望在所有实例上自动安装FFMPEG。 我使用node.js模块https://github.com/fluent-ffmpeg/node-fluent-ffmpeg为上传到服务器的video添加水印并生成缩略图。 在本地安装了ffmpeg的机器上工作得很好。 但是,如何安装/自动安装在谷歌云项目中的所有虚拟机实例ffmpeg?

如何通过Node JS在ffmpeg中获取特定的开始和结束时间?

我想在特定的开始和结束时间剪切video并保存。 我不能理解如何减less节点JS的video的具体时间。 video复制代码: return new Promise(function(resolve ,reject){ var ffmpeg = require('fluent-ffmpeg'); ffmpeg(fs.createReadStream(path.join(__dirname,'..','..','/video.mp4'))) .seekInput('01:00') .duration('02:00') .outputOptions('-strict experimental') .on('start', function(commandLine) { console.log('Spawned Ffmpeg with command: ' + commandLine); }).on('end', function(err) { if (!err) { console.log('conversion Done'); //res.send("conversion Done"); resolve(); } }).on('error', function(err) { console.log('error: ', +err); reject(err); }).save(path.join(__dirname,'..','..','/test.mp4')); });

video到audio文件通过FFMPEG节点js转换和保存

我正在研究节点js上的FFMPEG。 我想使用节点js从video文件中检索音轨。 我也想保存这样的文件,但我不知道如何。 我虽然这行代码会帮助我: ffmpeg('/path/to/file.avi').noVideo(); 我在npm包里有这个。 我不太明白如何处理这个问题,以及如何保存audio文件。 其他一些代码: try { var process = new ffmpeg('/path/to/your_movie.avi'); process.then(function (video) { // Callback mode video.fnExtractSoundToMP3('/path/to/your_audio_file.mp3', function (error, file) { if (!error) console.log('Audio file: ' + file); }); }, function (err) { console.log('Error: ' + err); }); } catch (e) { console.log(e.code); console.log(e.msg); } 我的问题是: 如何从FFMPEGvideo中检索audio? 我如何保存它?

meteor:通过API下载video文件并保存到磁盘

我试图达到以下目的: 通过API从另一台服务器下载video 将video保存到磁盘以便在<video>标记中提供 但我无能为力 – 我试图下载的video总是无效的(而且尺寸错误)。 这是我的服务器方法: getVideo: function() { var fs = Npm.require('fs'); var response = HTTP.get('http://webserver.com/getvideo'); fs.writeFile('file.mp4',response.content, function (err) { if (err) throw err; console.log('It\'s saved!'); }); } 其他的东西,我已经尝试和呈现基本相同的结果: 使用createWriteStream: var file = fs.createWriteStream('file.mp4'); var response = HTTP.get('http://webserver.com/getvideo'); response.content.pipe(file); 与缓冲区(): var buffer = new Buffer(response.content) fs.writeFile('file.mp4', buffer) 还有不同的编码: base64, binary networking服务器(写在烧瓶)响应这样的: { content: […]

Node.js EasyRTCvideologging

我为node.js使用easyrtc框架来为网站提供video聊天。 我需要logging来自每个聊天会话的video。 不幸的是easyrtc没有这个选项。 我想这是因为节点服务器扮演“信令”服务器的angular色。 有谁知道这个问题的解决scheme是否存在? 也许我应该从客户端dynamic发送video回服务器或其他东西? 我将不胜感激您的build议!

Node.jsvideo上传获取编解码器

我的用户可以上传video到我的网站。 然而,问题出现了,一些video文件有一个浏览器(YUV)不支持的编解码器。 所以我想看看我可以看到编解码器。 此刻我使用multer来处理我的文件: app.use(multer({ dest: './uploads/', rename: function (fieldname, filename) { return filename + Date.now(); }, onFileUploadStart: function (file) { var i = 0; }, onFileUploadComplete: function (file) { //Redirects request to path var i = 0; } })); 设置断点和检查文件我得到的唯一信息: 所以我的问题是: 无论如何看到上传文件的编解码器?