gpt4 book ai didi

ruby-on-rails - 使用 Ruby aws-sdk 跟踪文件到 S3 的上传进度

转载 作者:行者123 更新时间:2023-12-04 06:22:47 26 4
gpt4 key购买 nike

首先,我知道有很多问题与 SO 中的这个问题类似。在过去的一周里,我已经阅读了大部分(如果不是全部)。但我仍然无法为我工作。

我正在开发一个 Ruby on Rails 应用程序,它允许用户将 mp3 文件上传到 Amazon S3。上传本身运行良好,但进度条将大大改善网站上的用户体验。

我正在使用亚马逊官方的 aws-sdk gem。在上传过程中,我在其文档中到处寻找回调,但我找不到任何东西。

文件一次一个上传到 S3,因此不需要将其加载到内存中。也不需要多个文件上传。

我想我可能需要使用 JQuery 来完成这项工作,我对此很好。
我发现这看起来很有希望:https://github.com/blueimp/jQuery-File-Upload
我什至尝试按照此处的示例进行操作:https://github.com/ncri/s3_uploader_example

但我就是无法让它为我工作。

aws-sdk 的文档还简要描述了带有块的流式上传:

  obj.write do |buffer, bytes|
# writing fewer than the requested number of bytes to the buffer
# will cause write to stop yielding to the block
end

但这几乎没有帮助。如何“写入缓冲区”?我尝试了一些总是会导致超时的直观选项。我什至如何根据缓冲更新浏览器?

有没有更好或更简单的解决方案?

先感谢您。
我将不胜感激有关此主题的任何帮助。

最佳答案

将块传递给 #write 时产生的“缓冲区”对象是 StringIO 的一个实例。您可以使用#write 或#<< 写入缓冲区。下面是一个使用块表单上传文件的示例。

file = File.open('/path/to/file', 'r')

obj = s3.buckets['my-bucket'].objects['object-key']
obj.write(:content_length => file.size) do |buffer, bytes|
buffer.write(file.read(bytes))
# you could do some interesting things here to track progress
end

file.close

关于ruby-on-rails - 使用 Ruby aws-sdk 跟踪文件到 S3 的上传进度,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12085751/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com