gpt4 book ai didi

通过 EC2 进行类似 Heroku 的部署和环境配置

转载 作者:行者123 更新时间:2023-12-04 08:44:23 26 4
gpt4 key购买 nike

我真的很喜欢 12factor 的方法应用程序,当您将应用程序部署到 Heroku 时,您会被迫使用它。对于这个问题,我对为配置设置环境变量特别感兴趣,就像在 Heroku 上所做的那样。

据我所知,无法在 EC2 控制台中更改一个或多个实例的 ENV(尽管在使用弹性 beanstalk 时似乎可以设置 5 个 ENV 变量)。因此,我对基于 Ubuntu 的系统的下一个赌注是使用 /etc/environment , /etc/profile , ~/.profile或者只是 export命令来设置 ENV 变量。

这是正确的方法还是我错过了什么?

如果是这样,是否有最佳做法?我想我可以使用类似 Capistrano 的东西或 Fabric ,从 AWS api 获取服务器列表,连接到所有服务器并更改提到的文件/调用 export .尽管 12factor 非常有名,但我找不到任何描述如何处理 EC2 上大量实例的 ENV 的博客文章。我不想实现这样的事情,如果有人已经做得很好而我只是错过了一些东西。

注意:我想要一个不使用 Elastic Beanstalk 的解决方案,我不在乎 git push部署或任何其他类似 Heroku 的功能,这仅与应用程序配置相关。

任何提示表示赞赏,谢谢!

最佳答案

好问题。您可以通过多种方式处理部署/环境设置。

要记住的一件事是,使用 Heroku(或 Elastic Beanstalk),您只需推送代码。他们的服务负责跨其基础架构的可扩展性因素和服务复制(一旦您推送代码)。
如果您使用的是fabric(或 capistrano),您也在使用推送模型,但您必须注意应用程序的所有可扩展性/复制/容错。

话虽如此,如果您使用 EC2,我认为最好利用 AMI、Autoscale 和 Cloudformation 进行部署。这就是弹性和虚拟化的美妙之处,因为您可以将资源视为短暂的。您仍然可以使用 fabric/capistrano 来自动化 AMI 构建(我使用 Ansible)并配置环境变量、包等。然后您可以定义一个 Cloudformation 堆栈(带有一个 JSON 文件),您可以在其中添加一个自动缩放组预烤AMI。

部署应用程序的另一种方法是简单地使用 AWS Opsworks 服务。它非常全面,有很多选择,但它可能并不适合所有人,因为有些人可能想要更多的灵活性。

如果你想使用“拉”模型,你可以使用 Puppet、Chef 或 CFEngine。在这种情况下,您在云中的某个地方有一个主策略服务器(Puppetmaster、Chef 服务器或策略服务器)。当服务器启动时,代理(Puppet 代理、Chef 客户端、Cfengine 代理)连接到其主服务器以获取其策略,然后执行它。该策略可能包含应用程序运行所需的所有包和环境变量。再次,这是一个不同的模型。这个模型的扩展性很好,但它取决于 master 可以处理多少个 agent,以及你如何错开从 agent 到 master 的连接。如果您想扩展到数千台服务器,您也可以对多个 master 进行负载平衡,或者您可以简单地使用多个 master。从经验来看,如果你想要一些真正“快速”的 Cfengine 工作得很好,这里有一个很好的博客比较了 Puppet 和 CFengine 的速度:http://www.blogcompiler.com/2012/09/30/scalability-of-cfengine-and-puppet-2/

您还可以使用 fabric、Ansible、Capistrano 等工具完全“推送”。但是,您受到单个服务器(或笔记本电脑)可以处理与其试图推送到的数千台服务器的多个连接的限制。这也受到网络带宽的限制,但是您可以发挥创意并错开推送更新,并且可能使用多个服务器进行推送。它再次起作用并且它是一个不同的模型,因此它取决于您想要去的方向。

希望这可以帮助。

关于通过 EC2 进行类似 Heroku 的部署和环境配置,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21729439/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com