gpt4 book ai didi

ruby-on-rails - 数据库之间的 Rake 任务复制

转载 作者:可可西里 更新时间:2023-11-01 10:43:20 25 4
gpt4 key购买 nike

我有一个带有 Mongoid 数据库的 Rails 4 应用程序,我想引入一个沙箱环​​境来进行测试。有一些数据(两个模型),我想从生产数据库复制到沙箱。

我会用一个由 cronjob 调用的 rake 任务来做到这一点。但是,在这个 rake 任务中,我不确定如何建立到数据库的两个连接,以及如何为不同的数据库使用相同的模型。

我也曾考虑在 mongodb 层执行此操作(就像他们在此处所做的那样 How to copy a collection from one database to another in MongoDB ),但一个模型由数据组成,仅应将其部分复制到沙箱数据库中。因此,我认为我必须在 Rails 环境中进行。

在这个 rake 任务中,我可以获取我所有的文章,但我不知道如何将它们“推送”到沙箱数据库中:

namespace :sandbox do
desc "Syncs production -> sandbox data"
task(:sync => :environment) do |t, args|
Article.all.each do |article|
if my_model1.state == :active
# here it should sync article to the sandbox models

# and then, it should also sync all the comments to the sandbox models
article.comments
end
end
end
end
end

最佳答案

我终于自己找到了解决方案。关键是您可以在 mongoid.yml 中定义的 mongoid session 。

如果您想将生产数据复制到沙箱,您可以在沙箱环境中定义第二个 session (您在沙箱环境中启动任务,它允许您访问生产数据库):

sandbox:
sessions:
default:
database: your_sandbox_db
hosts:
- localhost:27017
production_sync:
database: your_production_db
hosts:
- localhost:27017

您可以通过为要同步的模型定义一个单独的类来访问 production_sync session ,如下所示:

class ArticleProduction
include Mongoid::Document
include Mongoid::Attributes::Dynamic
store_in collection: "articles", session: "production_sync"
end

现在您可以使用此类访问生产数据库。如果您想将所有数据从生产环境复制到沙箱,请按如下方式进行:

production_articles = ArticleProduction.map(&:attributes)
production_articles.each do |attributes|
Article.create(attributes)
end

我给自己定义了一个 rake 任务,每天由一个 cronjob 调用,并将数据从生产同步到沙箱。

还有一个问题:如果您想确保不更改任何数据,某种只读模式会很有用(参见此处 Make mongoid session read only)。

关于ruby-on-rails - 数据库之间的 Rake 任务复制,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28114851/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com