- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个kubernetes pods ,使用持久性卷声明将GCE持久性卷附加到该kubernetes pods 。 (对于更严重的问题,没有批量声明,请参阅:Mounting a gcePersistentDisk kubernetes volume is very slow)
如果没有附加的卷,则 Pane 将在无时间(最多2秒)内启动。但是,如果Pod具有GCE持久卷安装,则Running
状态会在20到60秒之间到达。我正在使用不同的磁盘大小(10、200、500 GiB)和创建多个Pod进行测试,该大小似乎与延迟无关。
而且这种延迟不仅是,而且不仅是开始的中出现,而且是在复制 Controller 上执行滚动更新时,或者当代码在运行时使崩溃时。
下面我有kubernetes规范:
复制 Controller
{
"apiVersion": "v1",
"kind": "ReplicationController",
"metadata": {
"name": "a1"
},
"spec": {
"replicas": 1,
"template": {
"metadata": {
"labels": {
"app": "a1"
}
},
"spec": {
"containers": [
{
"name": "a1-setup",
"image": "nginx",
"ports": [
{
"containerPort": 80
},
{
"containerPort": 443
}
]
}
]
}
}
}
}
{
"apiVersion": "v1",
"kind": "PersistentVolumeClaim",
"metadata": {
"name": "myclaim"
},
"spec": {
"accessModes": [
"ReadWriteOnce"
],
"resources": {
"requests": {
"storage": "10Gi"
}
}
}
}
{
"apiVersion": "v1",
"kind": "PersistentVolume",
"metadata": {
"name": "mydisk",
"labels": {
"name": "mydisk"
}
},
"spec": {
"capacity": {
"storage": "10Gi"
},
"accessModes": [
"ReadWriteOnce"
],
"gcePersistentDisk": {
"pdName": "a1-drive",
"fsType": "ext4"
}
}
}
最佳答案
GCE(以及AWS和OpenStack)必须先将磁盘/卷附加到节点,然后才能将其挂载并暴露到您的Pod。连接所需的时间取决于云提供商。
对于由ReplicationController创建的Pod,必须执行附加的分离操作。同一磁盘不能连接到多个节点(至少不能以读/写模式)。分离和pod清理发生在与连接不同的线程中。具体来说,在节点上运行的Kubelet必须将其当前具有的Pod(及其体积的总和)与节点上当前存在的体积进行协调。孤立的卷将被卸载和分离。如果您的Pod已安排在其他节点上,则它必须等待,直到原始节点分离该卷为止。
群集最终会达到正确的状态,但是每个组件可能要花一些时间才能到达那里。这是您的等待时间。
关于google-cloud-storage - 为什么在kubernetes容器中安装GCE卷会导致延迟?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34854472/
我确信许多 GKE 客户都在混合 GCE/GKE 环境中工作。 目前,集群中的 skyDNS 服务没有在同一个项目中暴露 GCE 主机。 DNS 服务使用的这个 IP 地址范围不同于普通的应用程序服务
我有两个 GCE,都启用了操作系统登录: 1) 使用服务帐户 a_svc 配置的 a_vm 2) 使用服务帐户 b_svc 配置的 b_vm a_svc 具有对 b_vm 的操作系统登录访问权限。 a
我需要使用 Ansible 向现有 GCE 实例添加额外的磁盘 磁盘是用gce_pd模块创建的: - name : Add new disk local_action: module: g
在Google compute engine我可以使用 instance template从模板创建新 VM。使用 GCE 控制台可以正常工作,使用 API 也可以正常工作,也是(URL 参数“sou
我用 pip 安装了 ansible、apache-libcloud。此外,我可以将 gcloud cli 和 ansible 作品用于任何与 gce 无关的剧本。 在ansible playbo
与安装了 LAMP 的 GCE 相比,选择与 Google Cloud SQL 链接的 GCE 实例有哪些优势? 我确定 GCE 是可扩展的,但是安装在其上的 mysql 数据库的可扩展性如何? 使用
我想我想要一个 shell 脚本来自动重启一个实例,无论它是因为软件问题还是硬件问题而崩溃。 操作系统是 Ubuntu 18.04。 最佳答案 可能会有很多解决方案。您可能会考虑使用 Google S
尝试配置GCE Discovery。 在elasticsearch.yml中有这个 cloud: gce: project_id: .......... zone: us-
我使用以下命令设置我的 CD 以将容器部署到 gce: gcloud compute instances stop my-awesome-app gcloud compute instances up
我正在GKE上运行kubernetes应用程序,该应用程序在端口80上提供HTTP请求,并在端口8080上提供websocket。 现在,HTTP部分需要知道客户端的IP地址,因此我必须使用HTTP负
我正在寻找一种在 GCE 中创建内部 HTTPS L7 入口 Controller 的方法,但似乎没有任何关于如何做到这一点的文档。我看到有一种方法可以创建一个内部的 L4 LoadBalancer,
我正在尝试在 Google Compute Engine 上托管 TCP 套接字服务器,我在 GCE 防火墙规则上添加了以下规则(套接字端口 0.0.0.0/0 tcp:11000 适用于所有目标)但
图片:Debian GNU/Linux 7.6 (wheezy) amd64,带有 backports 内核和 SSH 包,构建于 2014-10-17 机器类型:n1-highcpu-2(2 个 v
我正在试用该平台。我已成功配置和设置 CENTOS v6 VM,然后添加 whm/cpanel。我在防火墙方面遇到了一些问题,我确信这些问题是在 Google Cloud 方面。我已经阅读了我的眼睛,
长话短说 - 我需要在项目之间使用网络来为它们单独计费。 我想从一个点访问不同项目中的所有 VM,我将用于配置系统(我们称之为协调器节点)。 看起来 VPC 网络对等是一个完美的解决方案。但不幸的是,
如何访问 Google Compute Engine 虚拟机实例的控制台? 最佳答案 要查看控制台输出(只读),您可以使用以下任何一种方法: Web UI 通过 Developers Console
我正在尝试使用需要 gce_client_id 和 gce_client_secret key 的第 3 方应用程序。为了生成它们,我浏览了凭据图标并尝试创建一个 OAuth 2.0 客户端 ID。但
我有一个执行单个大型计算的 Docker 容器。此计算需要大量内存,运行时间约为 12 小时。 我可以创建一个适当大小的 Google Compute Engine VM,并使用“将容器镜像部署到此
我有一个 docker 镜像上传到 GCP 容器注册表,其中包含一个在 TomEE 和 postgres 上运行的 Web 应用程序,用于数据持久性。我创建了一个计算引擎实例,并使用如下命令在端口 8
当我在 GCE 中创建一个新实例时,我可以毫无问题地 ssh 到那个新实例。 gcutil 检查我是否有 key (google_compute_engine),如果没有,它将为我创建它们。然后它将
我是一名优秀的程序员,十分优秀!