Tag: 亚马逊 s3

使用node.js快速裁剪和调整图像大小

我在Amazon EC2上运行node.js服务器。 我得到一个巨大的csv文件,数据包含远程主机上产品图像的链接。 我想在Amazon S3上裁剪和存储不同大小的图像。 这怎么可能完成,最好是只用stream,而不用保存任何东西到光盘?

从AngularJS发布到Amazon S3时发生错误

我在MEAN(MongoDB,Express,AngularJS,node.js)堆栈上构build一个应用程序,需要将图像file upload到Amazon S3。 我正在以如下方式进行: 首先,http get被发送到我的API,它指定交互的“策略文档”并将其返回给AngularJS前端。 后端代码如下所示(填充variables): exports.S3Signing = function(req, res) { var bucket = "MY_BUCKET_NAME", awsKey = "MY_AWS_KEY", secret = "MY_SECRET", fileName = req.params.userId, expiration = new Date(new Date().getTime() + 1000 * 60 * 5).toISOString(); var policy = { "expiration": expiration, "conditions": [ {"bucket": bucket}, {"key": fileName}, {"acl": 'public-read'}, ["starts-with", "$Content-Type", ""], ["content-length-range", 0, […]

如何在aws S3 javascript SDK中configurationinterval和max_attempts

我正在使用aws S3 nodejs sdk,我需要尽快检查文件是否存在于我的存储桶中。 AWS.S3.waitFor()方法的默认参数每5秒检查一次对象是否存在,最多20次尝试。 如果可能的话,我需要每2秒检查一次。 我可以更改configuration文件(s3-2006-03-01.waiters.json)来实现,但我正在寻找一种编程方式来做到这一点。 有什么办法可以实现吗? 我的代码现在看起来像这样: s3.waitFor('objectExists',{ Bucket : 'XXXXX', Key : _Key, },function (err){ if(err){ return _callback(err); } return _callback(false); });

将文件从一个文件夹复制到同一个桶的s3中的另一个文件夹NODE JS

我试图从一个文件夹复制到另一个文件夹在同一个桶中,但我gettnin访问denined错误。 但是,如果我试图在两个不同的桶上做到这一点,就意味着它的罚款。 请在下面find我所尝试的: var AWS = require('aws-sdk'); AWS.config.update({ accessKeyId: 'xxx', secretAccessKey: 'xxx' }); var s3 = new AWS.S3(); var params = { Bucket : 'bucketname', /* Another bucket working fine */ CopySource : 'bucketname/externall/1.txt', /* required */ Key : "1.txt", /* required */ ACL : 'public-read', }; s3.copyObject(params, function(err, data) { if (err) console.log(err, err); […]

SignatureDoesNotMatch $ cordovaFileTransfer

我试图上传一个video到以前用$cordovaCapture录制的Amazon s3 。 捕获进程正常工作,作为响应,我得到的object : [MediaFile] 0: MediaFileend: 0 fullPath: "file:/storage/sdcard/DCIM/Camera/VID_20160919_144041.mp4" lastModified: null lastModifiedDate: 1474288843000 localURL: "cdvfile://localhost/persistent/DCIM/Camera/VID_20160919_144041.mp4" name: "VID_20160919_144041.mp4" size: 17098 start: 0 type: "video/mp4" __proto__: utils.extend.F length: 1 __proto__: Array[0] 然后,在我上传video之前,我向服务器请求身份validationURL ,如下所示: 的NodeJS getSignedUrl: function (filename, type, callback) { if (filename) { AWS.config.update({ accessKeyId: 'my_access_key', secretAccessKey: 'my_secret_access_key', region: 'my_region' }); var s3 = new […]

S3的Node.js / Awssum

您好:我想知道是否有人知道一个方法列出S3节点的所有文件与node.js和Awssum,从最近的文件开始。 默认情况下,我的代码采用第一个创build的文件。 function getFileList(callback){ s3.ListObjects(coldBucket, function(err, data) { var fileList = getFilenames(data, coldBucketPath); callback(fileList); }); }; 任何帮助深表感谢! 谢谢。

如何修改node.jsstream

我正在从S3stream式传输一个xml文件。 我需要为sphinxsearch引擎build立一个不同结构的新xml文件。 我已经从S3stream式传输文件,将其传送到SAXparsing器中,但是现在我需要弄清楚如何修改stream(在SAXparsing器之后)并上传到S3。 parser.on('startElement', function(name, attrs) { // Do something }); 我发现什么似乎是一个伟大的S3库stream称为诺克斯 ,所以我目前正在使用该库。 我没有卡在这个图书馆,只是我发现,似乎是体面的。 在这个例子中,他们必须将数据stream传输到S3的代码只能来自HTTP请求。 我比较新的stream,因为我有一个PHP的背景。 Knox示例stream: http.get('http://google.com/doodle.png', function(res){ var headers = { 'Content-Length': res.headers['content-length'] , 'Content-Type': res.headers['content-type'] }; client.putStream(res, '/doodle.png', headers, function(err, res){ // Logic }); }); 我想我需要做一些这方面的事情。 parser.on('startElement', function(name, attrs) { var headers = { 'Content-Length': res.headers['content-length'] , 'Content-Type': res.headers['content-type'] }; client.putStream(res, '/doodle.png', […]

AngularJs图片上传到S3

我是: – 创build一个Web应用程序 – AngularJS前端与ngfile upload( https://github.com/danialfarid/ng-file-upload ) – Node.js后端 – 希望能够将图像上传到我的Amazon S3存储桶 我试图按照这个教程: https : //github.com/danialfarid/ng-file-upload/wiki/Direct-S3-upload-and-Node-signing-example 本质上,程序stream程是select文件,单击button,请求从后端签名,然后上传到S3。 我使用代码200从后端接收签名,但是当前端尝试上载图像时,我在开发人员菜单中看到了这一点: OPTIONS https://mybucket.name.s3-us-east-1.amazonaws.com/ net::ERR_NAME_NOT_RESOLVED 是我的代码是问题还是我设置我的桶的方式? 根据需要添加代码: 我的S3桶上的CORS <?xml version="1.0" encoding="UTF-8"?> <CORSConfiguration xmlns="http://s3.amazonaws.com/doc/2006-03-01/"> <CORSRule> <AllowedOrigin>*</AllowedOrigin> <AllowedMethod>GET</AllowedMethod> <MaxAgeSeconds>3000</MaxAgeSeconds> <AllowedHeader>Authorization</AllowedHeader> </CORSRule> <CORSRule> <AllowedOrigin>my.computers.IP.Address</AllowedOrigin> <AllowedMethod>PUT</AllowedMethod> <AllowedMethod>POST</AllowedMethod> <AllowedMethod>DELETE</AllowedMethod> <AllowedHeader>*</AllowedHeader> </CORSRule> </CORSConfiguration> Node.js后端代码 app.post('/signing', function(req, res) { var request = req.body; var fileName […]

无法获取在amazon ec2实例上工作的nodejs

我正在尝试在亚马逊微实例上运行nodejs服务器过去的3-4天,但没有成功。 我跟着这么多的教程,我不能使服务器的工作(所以当它在浏览器中访问或curl在PowerShell中,看到简单的Hello世界)。 这里是我试过的最后3个教程: http://iconof.com/blog/how-to-install-setup-node-js-on-amazon-aws-ec2-complete-guide/ http://techprd.com/setup-node-js-web- server-on-amazon-ec2 / http://devblog.daniel.gs/2014/01/deploying-node-apps-on-aws-ec2-with.html 我试过Ubuntu /亚马逊Linux。 我也遵循http://docs.aws.amazon.com/AWSEC2/latest/UserGuide/install-LAMP.html只是看看一般过程是如何工作的,而且工作正常。 我到了这样的地步: sudo node filename.js和服务器运行。 但是,当我尝试访问或curl它。 它不工作。 当我平了,它很好。 在亚马逊我设置安全组基本上允许一切如此: 在Linux自我我遵循: https : //help.ubuntu.com/community/IptablesHowTo?action=show&redirect=Iptables打开端口,我试图听,什么都没有。 当我键入: sudo service iptables status我得到: 1 ACCEPT tcp — 0.0.0.0/0 0.0.0.0/0 tcp dpts:1337:1347 2 ACCEPT tcp — 0.0.0.0/0 0.0.0.0/0 tcp dpts:1338:1348 3 ACCEPT tcp — 0.0.0.0/0 0.0.0.0/0 tcp dpt:10000 请记住,我不是一个服务器精明的家伙。 任何帮助将不胜感激。 更新:要启动我的节点服务器,我使用nodejs.org中find的基本代码: […]

亚马逊S3和节点jsvideostream和缩略图?

我在一个node.js项目中工作,我需要将.mp4file upload到amazon s3。 我有两个问题: 问题1:我已经把mp4file upload到一个私人types的桶中,可以说桶的名字是'videobucket'。 要在浏览器中查看video,我创build了它的签名URL。 我的问题是: 是正在获得签名的ULR,与STREAMED URL不同。 如果是,我应该执行哪些步骤来生成stream式传输的URL? 问题2:我需要创build我要上传到亚马逊S3的video的缩略图。 我怎么能在node.js中做到这一点? 我在亚马逊和节点新手。 谢谢大家! 我写的上传文件的代码如下: var file = req.files.video; var fileName = new Date().getTime() + "_" + file.originalname; fs.readFile(file.path, function(err, data) { if (err) throw err; var s3bucket = new AWS.S3({ params: { Bucket: 'myvideos' } }); s3bucket.createBucket(function() { var params = { Key: […]