- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我的 terraform 根目录中有 3 个 .tf 文件:
我只想部署运行类似以下内容的 vpc.tf:
terraform apply vpc.tf #here, vpc.tf is a terraform file
但它不起作用(我收到 Go 错误:“zip:不是有效的 zip 文件”)。如果我只是跑
terraform apply
它将尝试在所有 3 个地形文件(vpc.tf、subnets.tf 和 instances.tf)中应用所有配置,这不是我想要的。似乎让这个工作的方法是,有一个完全不同的文件夹,然后运行类似的东西
terraform apply vpc/ #here, vpc/ is a folder that containers vpc.tf file
哪个有效。这种方法的问题是,如果我在 vpc/文件夹中有 2 个或更多 terraform 文件,我会再次回到第一个问题。解决方案似乎是在特定文件夹中拥有特定资源,但这似乎并不干净,因为我可以预见如果基础设施增长,我最终会得到几个包含一些 terraform 文件的文件夹。所以问题是:
有没有办法“应用”特定的地形文件,并忽略文件夹中的所有其他文件?我是否遗漏了有关 Terraform 的一些基本知识?
最佳答案
虽然您可以使用 -target
,如 manojlds' answer 中所述每次都针对特定资源进行运行,这意味着当您遇到奇怪的事情并且需要忽略将应用于该区域其他资源的更改时,这是一个逃生口。
这是在Terraform documentation for -target
中直接提到的:
This targeting capability is provided for exceptional circumstances, such as recovering from mistakes or working around Terraform limitations. It is not recommended to use -target for routine operations, since this can lead to undetected configuration drift and confusion about how the true state of resources relates to configuration.
相反,您应该考虑您愿意将哪些内容作为一个集合来更改,并将应该作为一个单元更改的 .tf
Terraform 文件放在同一目录中,并为它们使用相同的状态文件.
如果您不希望同时更改两件事(例如设置 VPC 并设置位于该 VPC 中的应用程序或设置应用程序的测试和生产版本),那么这些应该是在不同的目录中并使用不同的状态文件。
这提供了一个很好的事物分离,最小化爆炸半径,但仍然可以更容易地同时应用大量相关的事物。
在您的具体情况下,我会质疑为什么您不想同时应用 VPC 和子网,因为这通常只被视为运行事物所需的基本网络配置的一部分。一起管理这些通常会很有意义,并允许您执行更改 VPC 的名称以及在同一 apply
中重命名子网等操作。
关于amazon-web-services - 如何部署特定的 tf 文件 (Terraform),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56590018/
在 Tensorflow(从 v1.2.1 开始)中,似乎有(至少)两个并行 API 来构建计算图。 tf.nn 中有函数,如 conv2d、avg_pool、relu、dropout,tf.laye
我正在处理眼睛轨迹数据和卷积神经网络。我被要求使用 tf.reduce_max(lastconv, axis=2)代替 MaxPooling 层和 tf.reduce_sum(lastconv,axi
TensorFlow 提供了 3 种不同的数据存储格式 tf.train.Feature .它们是: tf.train.BytesList tf.train.FloatList tf.train.In
我正在尝试为上下文强盗问题 (https://medium.com/emergent-future/simple-reinforcement-learning-with-tensorflow-part
我在使用 Tensorflow 时遇到问题: 以下代码为卷积 block 生成正确的图: def conv_layer(self, inputs, filter_size = 3, num_filte
我正在将我的训练循环迁移到 Tensorflow 2.0 API .在急切执行模式下,tf.GradientTape替换 tf.gradients .问题是,它们是否具有相同的功能?具体来说: 在函数
tensorflow 中 tf.control_dependencies(tf.get_collection(tf.GraphKeys.UPDATE_OPS)) 的目的是什么? 更多上下文:
我一直在努力学习 TensorFlow,我注意到不同的函数用于相同的目标。例如,为了平方变量,我看到了 tf.square()、tf.math.square() 和 tf.keras.backend.
我正在尝试使用自动编码器开发图像着色器。有 13000 张训练图像。如果我使用 tf.data,每个 epoch 大约需要 45 分钟,如果我使用 tf.utils.keras.Sequence 大约
我尝试按照 tensorflow 教程实现 MNIST CNN 神经网络,并找到这些实现 softmax 交叉熵的方法给出了不同的结果: (1) 不好的结果 softmax = tf.nn.softm
其实,我正在coursera上做deeplearning.ai的作业“Art Generation with Neural Style Transfer”。在函数 compute_layer_styl
训练神经网络学习“异或” 我正在尝试使用“批量归一化”,我创建了一个批量归一化层函数“batch_norm1”。 import tensorflow as tf import nump
我正在尝试协调来自 TF“图形和 session ”指南以及 TF“Keras”指南和 TF Estimators 指南的信息。现在在前者中它说 tf.Session 使计算图能够访问物理硬件以执行图
我正在关注此处的多层感知器示例:https://github.com/aymericdamien/TensorFlow-Examples我对函数 tf.nn.softmax_cross_entropy
回到 TensorFlow = 2.0 中消失了。因此,像这样的解决方案...... with tf.variable_scope("foo"): with tf.variable_scope
我按照官方网站中的步骤安装了tensorflow。但是,在该网站中,作为安装的最后一步,他们给出了一行代码来“验证安装”。但他们没有告诉这段代码会给出什么输出。 该行是: python -c "imp
代码: x = tf.constant([1.,2.,3.], shape = (3,2,4)) y = tf.constant([1.,2.,3.], shape = (3,21,4)) tf.ma
我正在尝试从 Github 训练一个 3D 分割网络.我的模型是用 Keras (Python) 实现的,这是一个典型的 U-Net 模型。模型,总结如下, Model: "functional_3"
我正在使用 TensorFlow 2。我正在尝试优化一个函数,该函数使用经过训练的 tensorflow 模型(毒药)的损失。 @tf.function def totalloss(x): x
试图了解 keras 优化器中的 SGD 优化代码 (source code)。在 get_updates 模块中,我们有: # momentum shapes = [K.int_shape(p) f
我是一名优秀的程序员,十分优秀!