- 使用 Spring Initializr 创建 Spring Boot 应用程序
- 在Spring Boot中配置Cassandra
- 在 Spring Boot 上配置 Tomcat 连接池
- 将Camel消息路由到嵌入WildFly的Artemis上
mkdir /opt/stress
vim /opt/stress/Dockerfile
——————————————————————————————————————————————————————————————————————————————
FROM centos:7
RUN yum -y install wget
RUN wget -O /etc/yum.repos.d/epel.repo http://mirrors.aliyun.com/repo/epel-7.repo #epel源,可以使用扩展软件包(stress)
RUN yum -y install stress #可以指定产生线程,使用循环语句,测试用'
——————————————————————————————————————————————————————————————————————————————
cd /opt/stress/
systemctl restart docker.service #建议重启docker,不然下面的操作可能会失败,卡在wget
docker build -t centos:stress . #生成镜像
...
...
Successfully built 7e69cc4d1b07
Successfully tagged centos:stress
docker images
#以下可以使用该镜像为基础产生的容器进行测试:'
--cpu-shares
指定CPU份额,默认值为1024,值为1024的倍数。示例:创建两个容器为cpu512和cpu1024, 若只有这两个容器,设置容器的权重,使得cpu512和cpu1024的CPU资源占比为1/3和2/3。
docker run -itd --name cpu512 --cpu-shares 512 centos:stress stress -c 10 #-c 10表示产生10个子线程,测试用
docker run -itd --name cpu1024 --cpu-shares 1024 centos:stress stress -c 10
#查看容器的资源使用状态(动态更新)
docker stats
资源是用cadvisor收集的
cat /sys/fs/cgroup/cpu/docker/[容器ID]/cpu.cfs_quota_us
#-1,表示不做控制
#例如:容器进程需要每Ⅰ秒使用单个cPU的 0.2秒时间,可以将 --cpu-period 设置为1000000(即1秒),cpu-quota 设置为200000 0.2秒)。
#当然,在多核情况下,如果允许容器进程完全占用两个CPU,则可以将cpu-period 设置为 100000(即 0.1秒),cpu-quota 设置为200000 (0.2秒)。
docker run -itd --name test01 --cpu-period 100000 --cpu-quota 200000 centos:stress
#也可以直接去修改文件vim /sys/fs/cgroup/cpu/docker/[容器ID]/cpu.cfs_quota_us
#法一:进入指定容器查看
docker exec -it test01 bash
cd /sys/fs/cgroup/cpu
cat cpu.cfs_period_us
cat cpu.cfs_quota_us
#法二:docker inspect 容器ID
docker inspect 6ccc4ddcb6ad
docker run -itd --name cpu1 --cpuset-cpus 0-1 centos:stress
#执行以上命令需要宿主机为双核,表示创建的容器只能用0、1两个内核。最终生成的 cgroup的 CPU内核配置如下
cat /sys/fs/cgroup/cpuset/docker/[容器ID]/cpuset.cpus
docker exec -it cpu1 /bin/bash -c "stress -c 10"
docker run -itd -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 280M
#--vm 1:启动1个内存工作线程
#--vm-bytes 280M:每个线程分配280M内存
#默认情况下,容器可以使用主机上的所有空闲内存。
#与 CPU 的cgroups 配置类似,Docker会自动为容器在目录/sys/fs/cgroup/memory/docker/<容器完整的 ID>/memory.limit_in_bytes
docker run -itd -m 200M --memory-swap=300M progrium/stress --vm 1 --vm-bytes 280M
#如果让工作线程分配的内存超过300M,分配的内存超过了限额,stress线程会报错,容器退出
'注意!一旦容器Cgroup使用的内存超过了限制的容量,Linux内核就会尝试收回这些内存'
'如果仍旧无法控制内存使用在这个设置的范围之内,就会杀死该进程!
在下面的例子中,容器A读写磁盘的带宽是容器B的两倍。
#容器A
docker run -it --name container_A --blkio-weight 600 centos:stress
cat /sys/fs/cgroup/blkio/blkio.weight
#容器B
docker run -it --name container_B --blkio-weight 300 centos:stress
cat /sys/fs/cgroup/blkio/blkio.weight
可通过以下参数控制容器的bps 和iops:
–device-read-bps,限制读菜个设备的bps。
–device-write-bps,限制写某个设备的bps。
–device-read-iops,限制读某个设备的iops。
–device-write-iops,限制写某个设备的iops。
#下面的示例是限制容器写/dev/sda 的速率为5MB/s
docker run -it --device-write-bps /dev/sda:5MB centos:stress
dd if=/dev/zero of=test bs=1M count=100 oflag=direct
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 20.0018 s, 5.2 MB/s
#通过dd命令测试在容器中写磁盘的速度。因为容器的文件系统是在 host /dev/sda 上的。
#在容器中写文件相当子对host /dev/sda进行写操作。另外,oflag=direct指定用direct IO 方式写文件,这样--device-write-bps才能生效。
#结果表明限速 5MB/s左右。作为对比测试,如果不限速,结果如下。
docker run -it centos:stress
dd if=/dev/zero of=test bs=1M count=100 oflag=direct
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 0.0470107 s, 2.2 GB/s
CPU —>VCPU–>以进程的方式体现在workstation环境(docker环境中) —》docker表现形式是容器,–>Vcpu以进程的方式控制容器–》容器中的应用需要的是服务进程支持–》宿主机内核中cpu可以被cgroup管理(通过分配资源手段)–》linux内核中的cgroup可以直接控制VCPU的资源分配,而VCPU在workstation中是以进程的方式管理docker容器的,所以,也可以认为Cgroups在直接/间接管理docker容器中的应用
Cgroups 控制的是内核资源—》间接控制vw中vcpu的资源—》控制着vwM中进程资源—》docker容器的资源—》docker容器内应用的资源
控制的主体包括:CPU、内存、I/O
主要介绍的是CPU资源的控制而CPU资源控制的方式主要有:
①cpu-shares权重指的是多个容器使用同一个CPU的情况下,被分配到CPU资源的机会占比
②cpu-period周期指的是,CPU在给于当前管理、控制的容器分配资源时,CPU的分配周期,默认是1s,此项配置,可以在运行时直接指定
③cpuset-cpus指定容器,仅能使用指定的CPU,按照CPU的下标来表示
Cgroups 对于内存的限制,主要体现在以下两个部分:
①内存使用上限(硬限制)
②内存+swap使用上限(硬限制)
类比于K8s中的资源限制手段,也是使用的cgroups的技术,体现为limit
respones:
request: #分配的初始资源
cpu:100m
memory:100m
limits:
cpu:300m
memory:200m
cgroup资源docker 原理之一, namespaces 6个名称空间
像时,可以指定该镜像的资源限制
我在 上做了以下两件事Ubuntu 14 和 SUSE Linux Enterprise Server 11 (x86_64) 安装 libcgroup 的地方,使用 root: cgcreate -
我是 cgroup 的新手。我想使用 cgroup 将 Qemu 绑定(bind)到某些 CPU。我正在使用我自己编译的内核 3.11.0+ 在 Ubuntu 12.04.3 上工作。 以下是我的命令
昨天我在 cgroups 内存 Controller 上遇到了一个有趣的情况。我一直认为cgroups报告的内存是进程的总内存消耗,但似乎不是这样。 我编写了以下 Java 程序用于测试: impor
我们使用cgroup限制程序使用更多资源。但是,当内存超过 cgroup 的限制时,它会杀死进程。为什么 cgroup 的内存子系统在进程允许内存超过 cgroup 限制时使用 oom-killer
我已经配置了如下的logstash配置来读取spring boot生成的日志以推送到 Elasticsearch ,但是即使logstash成功启动也没有创建索引, 配置文件: input {
cgroup driver的配置在/etc/systemd/system/kubelet.service.d/10-kubeadm.conf Environment="KUBELET_CGROUP_A
我是 docker 新手,我插入我的 PI3 来测试一些东西,但我已经面临一个错误,我自己想不通。 所以我全新安装了 raspbian 和 docker。 这是我的安装日志 然后我尝试经典的 hell
前言 docker 使用cgrqup控制资源,K8S 里面也有limit(使用上限) docker通过cgroup来控制容器使用的资源配额,包括CPU、内存、磁盘三大方面,基本覆盖了常见的资源配额和使
我试图在kubernetes机器中设置centos,kubelets启动给了我这个错误。 Failed to get kubelets cgroup: cpu and memory cgroup hi
我正在测试 mesos cgroups 隔离。查看抛出什么样的错误。我用马拉松跑了下面的 shell 程序。已分配 1 MB 内存和 1 个 CPU。 #!/bin/sh temp=a while
我最近开始学习 docker,似乎大部分繁重的工作都是由 Linux 内核完成的,使用命名空间和 cgroup。 我发现一些令人困惑的事情是: 命名空间和 cgroup 有什么区别?他们解决了哪些不同
docker cgroup 资源监控的详解 1.cgroup术语解析: ?
我试图通过使用cgroup blkio Controller 来控制I/O 带宽。 Cgroup 已成功设置和挂载,即调用 grep cgroup/proc/mounts 返回: .... cgrou
如果我运行这个命令: su -l otheruser -c 'strace /usr/lib/systemd/systemd --user 2> /tmp/su.err' 失败了: Failed to
我知道如何使用 cgroups(分配内存、cpu 使用...)和 slurm(提交、暂停/停止工作)。我想知道 cgroups 如何与 slurm 一起工作。当我向 slurm 提交作业时,我可以在哪
我正在寻找编写一个自定义的 Mesos 执行器,它允许为我的 Rails 应用程序请求 1CPU(1024 个共享),然后在前面“插入”nginx。在这个过程中,我实际上想使用相同的共享 1024 c
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 这个问题似乎与 help center 中定义的范围内的编程无关。 . 关闭 7 年前。 Improve
我有一些 cgroups 管理的服务(实际上在 docker 中运行)。为了公平地安排一些需要资源的任务,容器化服务需要知道它的确切(尽可能)资源使用情况。我决定从 cgroups 中读取这些指标。
基本上,通常用于通知文件系统更改的 inotify 在 cgroup 虚拟文件系统中不起作用。 本质上,我想要一种在 cgroup 中的进程死亡或 fork 时获得类似于 inotify 的通知的方法
我试图理解 Hadoop 中的 cgroups,但无法完全理解。它们与根据配置规则为每个队列分配资源的调度程序有何不同?我的理解是,调度程序似乎更多地与内存相关,因为组与 CPU 相关。我的理解正确吗
我是一名优秀的程序员,十分优秀!