我正面临这个问题,我希望让用户将他们的文件直接上传到我在 Amazon S3 上的存储桶中。这一步可以很容易地完成,就像这里描述的那样。
但是如果我需要用 编辑每个文件FFMPEG
怎么办?
例如。
shell_exec('ffmpeg -i /sample.wav -acodec libmp3lame /sample.mp3');
目前我首先将文件存储到我的服务器,运行 shell 命令,然后我putObject
将它们发送到 S3,但是有没有更好的方法来完成这个,让我的服务器保持安静?
我的规格:
- EC2 与 LAMP 安装运行 Ubuntu 14.04
- AWS 开发工具包 PHP
我对您的解决方案的理解使我认为您希望使用相同的 ubuntu 服务器来执行上传的媒体文件的转码。
问题是存储在 S3 中的对象无法像普通文件系统上的文件那样访问,您可以从 S3 下载文件并在 Web 服务器实例上处理它,但这将是一个复杂且可能效率低下的设置。
最好将转码过程与您的 ubuntu 服务器分离,让它以真正的云方式发生。最好的解决方案是 S3 事件和 Lambda。
因此,根据我对您的用例的理解,我会为您的解决方案推荐以下内容:
关于实例的 UserData,您可能希望它执行以下步骤:
您最好创建一个已经安装了 ffmpeg 的 AMI,但您需要决定花 5 分钟系统准备每个实例或支付 AMI 以使其始终可用是否更便宜。我想说的是,除非您的处理时间超过一个小时,或者您的用例需要尽快返回文件,否则您最好每次安装 ffmpeg,因为 AWS 会按整小时计费,即使您只使用 15 分钟。
对这种方法的建议:
您可能希望在创建新处理的文件时进行进一步的活动,那么为什么不使用 s3 事件来触发另一个 Lambda 进程呢?:)
此外,为了帮助保持清洁,如果您的解决方案允许,请尝试将您创建的文件上传到 s3 下的不同密钥路径下,以放置上传的文件。
备用选项:使用 Elastic Transcoder
另一种选择是使用 AWS Elastic Transcoder 服务。您可以通过在更新 S3 存储桶时触发 lambda 并让它处理该存储桶中的文件,以相同的方式将作业发送到转码器。然后,Elastic Transcoder 可以通知 SNS 队列,然后该队列可以触发电子邮件或另一个 Lambda 查询来处理创建的文件。
Elastic Transcoder 将是一种更酷且可能更好的方法,但它需要更多的工作。
Elastic Transcoder 要求您创建一个管道,然后使用该管道创建一个作业。我将为您链接每个 JavaScript SDK。
CreatePipline http://docs.aws.amazon.com/AWSJavaScriptSDK/latest/AWS/ElasticTranscoder.html#createPipeline-property
CreateJob http://docs.aws.amazon.com/AWSJavaScriptSDK/latest/AWS/ElasticTranscoder.html#createJob-property
另一种替代解决方案:使用 Amazon SQS
如果您希望在 ubuntu 实例上进行处理,而不是从 Lambda 启动另一个实例,您可以使用 S3 事件触发 lambda 以将作业发布到 Amazon SQS。
然后,Amazon SQS 将让您自己创建的代理轮询 Amazon SQS 的作业,然后您可以参考 s3 中需要转码的文件。不过这相当复杂,我只是为了完整性而包含它,除非你真的需要在你已经拥有的 ubuntu 实例上执行这项工作。