gpt4 book ai didi

amazon-web-services - EC2 上的许多小实例或更少的大实例

转载 作者:行者123 更新时间:2023-12-04 08:17:04 24 4
gpt4 key购买 nike

我有一个在 EC2 实例 (c3.large) 上运行的计算/IO 繁重的后端服务(图像处理)。由于我需要扩展此服务,我考虑分配数十个 c3.large 实例或更少的较大 c3 实例。每个计算能力的定价似乎是线性的。

为什么我更喜欢较少的强实例而不是更多较弱的实例? (反之亦然)

其他一些要求和信息:

  • 扩展以满足峰值要求
  • 任务是单线程的。每个实例可以运行多个任务。
  • 低内存签名
  • 极低的磁盘使用率
  • 获取图像的潜在高网络使用率(计算速度非常快)
  • 最佳答案

    按需价格在每个实例系列中确实是相当线性的,因此如果您的工作负载在多个类上运行得同样好(即,没有一个任务需要特别大的内存),那么可能不会有显着差异......网络 I/O 容量也会随着内存和 ECU...以及被低估的临时存储空间而扩展,这不会产生基于 I/O 的费用。

    然而,现货市场上的价格并不是那么线性。

    我的内部系统收集现货市场定价历史记录(可在控制台中和通过 API 获得),这些历史记录确定了在给定的可用区域内保持给定实例以给定的正常运行时间百分比运行所需的最低出价。当然,历史数据并不能预测 future 的性能,而且 c3 系列还很新……但在现货市场中,有些情况下,对较小实例的需求会推高运营成本——至少基于等效计算能力,尽管有时甚至是原始价格——比更大的实例......所以这可能是一个值得考虑的选择。

    现货市场对每个实例类 + 可用区都有一个最低基准价格(可能它实际上是区域,尽管价格是单独跟踪的),并且这些基准在实例系列内似乎是线性的,正如您所期望的那样......但市场价格会发生变化随着需求,导致我暗指的倒置。另请注意,给定实例类的 EC2 Classic 和 VPC 价格也单独跟踪,因为每个平台内的备用容量可能是单独的物理主机集合。

    另请注意,如果您采用这条路线,您应该调查所有实例类,而不仅仅是那些明显适合您的工作负载的实例类。有一些非常有利的定价条件有待发现,尤其是在更大、更旧的实例类上……这些定价条件随着时间的推移似乎也通常更加稳定,但同样,这些都是基于过去表现的观察结果。

    关于amazon-web-services - EC2 上的许多小实例或更少的大实例,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21252612/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com