gpt4 book ai didi

amazon-ec2 - 快速 AWS 自动扩展

转载 作者:行者123 更新时间:2023-12-04 12:42:30 26 4
gpt4 key购买 nike

您如何配置 AWS 自动扩展以快速扩展?我已经设置了一个带有 ELB 的 AWS 自动缩放组。一切正常,除了需要几分钟才能添加新实例并联机。我在一篇关于 Puppet 和自动缩放的帖子中遇到了以下内容:

The time to scale can be lowered from several minutes to a few seconds if the AMI you use for a group of nodes is already up to date.



http://puppetlabs.com/blog/rapid-scaling-with-auto-generated-amis-using-puppet/

这是真的?扩展时间可以减少到几秒钟吗?使用 puppet 会增加任何性能提升吗?

我还读到较小的实例比较大的实例启动得更快:

Small Instance 1.7 GB of memory, 1 EC2 Compute Unit (1 virtual core with 1 EC2 Compute Unit), 160 GB of instance storage, 32-bit platform with a base install of CentOS 5.3 AMI

Amount of time from launch of instance to availability: Between 5 and 6 minutes us-east-1c

Large Instance 7.5 GB of memory, 4 EC2 Compute Units (2 virtual cores with 2 EC2 Compute Units each), 850 GB of instance storage, 64-bit platform with a base install of CentOS 5.3 AMI

Amount of time from launch of instance to availability:
Between 11 and 18 minutes us-east-1c

Both were started via command line using Amazons tools.



http://www.philchen.com/2009/04/21/how-long-does-it-take-to-launch-an-amazon-ec2-instance

我注意到这篇文章很旧,而且我的 c1.xlarge 实例肯定不会花费 18 分钟来启动。尽管如此,配置一个具有 50 个微型实例的自动扩展组(具有 100% 容量增加的扩展策略)是否比具有 20 个大型实例的自动扩展组更有效?或者可能创建两个自动缩放组,一个用于快速启动时间的微型实例和一个用于在几分钟后添加 CPU grunt 的大型实例?在其他条件相同的情况下,t1.micro 上线的速度比 c1.xlarge 快多少?

最佳答案

您可以通过玩来增加或减少自动调用程序的 react 时间
“--cooldown”值(以秒为单位)。
关于要使用的实例类型,这主要基于应用程序类型,应在密切性能监控和生产调整后就该主题做出决定。

关于amazon-ec2 - 快速 AWS 自动扩展,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11071708/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com