- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一组连接到局域网的服务器。我可以在一台机器上安装和使用LXD容器,但是我一生都无法在网络上看到这些容器。我试图遵循这些网址,但无济于事:
https://www.simpleprecision.com/ubuntu-16-04-lxd-networking-simple-bridge/
https://www.stgraber.org/2016/10/27/network-management-with-lxd-2-3/
https://www.simpleprecision.com/ubuntu-16-04-lxd-networking-simple-bridge/
我的服务器设置如下:
eth0-连接到Internet的硬件NIC
eth1-连接到LAN的硬件NIC
如果我尝试通过lxdbr0在eth1设备上设置网桥,则容器在LAN上不可见。如果我尝试手动设置桥接的br0
设备,桥接到eth1并使用DHCP,则设备无法启动。
我的/ etc / network / interfaces看起来像这样:
iface lo inet loopback
# The primary network interface
iface eth0 inet static
address x.x.x.x
netmask 255.255.255.224
gateway x.x.x.x
iface eth1 inet static
address 192.168.0.61/23
iface br0 inet dhcp
bridge_ports eth1
bridge-ifaces eth1
bridge_stp off
bridge_fd 0
bridge_maxwait 0
auto lo eth0 eth1 br0
最佳答案
是的,这很有可能。我还没有体验过LXD 2.3中引入的所有新网络功能,因此我无法对其中的任何功能进行讨论,但是看起来您想要一个非常简单的网络布局,因此这些功能甚至可能都不会发挥作用。我所做的事情与您的网络布局有些相似。我所有的服务器中都有4个NIC。我将前两个放入绑定并放置在管理网络中,后两个放入LAG(另一个绑定)并用于所有LXD通信。我有多个VLAN,因此将我的LAG设置为中继端口,并为每个我希望能够连接的VLAN创建VLAN设备。然后,我将这些VLAN设备放入实际容器使用的桥中。
除去所有绑定设备和原始VLAN设备,您的设置基本上是相同的:一个用于管理LXD主机的NIC,一个用于LXD容器流量的网桥。我不使用默认的lxcbr0设备,但是所有概念都应该相同。
一个简单的例子
首先定义将成为网桥一部分的一个或多个NIC。在您的情况下,您似乎只是在使用一个NIC(eth1)。您需要将NIC设置为手动。不要为其分配地址。
auto eth1
iface eth1 inet manual
auto br0
iface br0 inet manual
bridge_ports eth1
bridge_stp off
bridge_fd 0
bridge_maxwait 0
lxduser@lxdhost:~$ lxc profile show default
name: default
config: {}
description: ""
devices:
eth0:
name: eth0
nictype: bridged
parent: br0
auto eth0
iface eth0 inet dhcp
############################
# PHYSICAL NETWORK DEVICES #
############################
# Management network interface
auto enp2s0f0
iface enp2s0f0 inet static
address 10.1.31.36/24
gateway 10.1.31.1
dns-nameserver 10.1.30.2 10.1.30.3 75.75.75.75
dns-search harmonywave.com
#iface enp2s0f0 inet6 dhcp
# Second network interface
auto enp2s0f1
iface enp2s0f1 inet manual
# LXD slave interface (1)
auto enp3s0f0
iface enp3s0f0 inet manual
bond-master bond1
# LXD slave interface (2)
auto enp3s0f1
iface enp3s0f1 inet manual
bond-master bond1
##########################
# BONDED NETWORK DEVICES #
##########################
# Bond network device
auto bond1
iface bond1 inet manual
bond-mode 4
bond-miimon 100
bond-lacp-rate 1
bond-slaves enp3s0f0 enp3s0f1
bond-downdelay 400
bond-updelay 800
####################
# RAW VLAN DEVICES #
####################
# Tagged traffic on bond1 for VLAN 10
iface bond1.10 inet manual
vlan-raw-device bond1
# Tagged traffic on bond1 for VLAN 20
iface bond1.20 inet manual
vlan-raw-device bond1
# Tagged traffic on bond1 for VLAN 30
iface bond1.30 inet manual
vlan-raw-device bond1
# Tagged traffic on bond1 for VLAN 31
iface bond1.31 inet manual
vlan-raw-device bond1
# Tagged traffic on bond1 for VLAN 42
iface bond1.42 inet manual
vlan-raw-device bond1
# Tagged traffic on bond1 for VLAN 50
iface bond1.50 inet manual
vlan-raw-device bond1
# Tagged traffic on bond1 for VLAN 90
iface bond1.90 inet manual
vlan-raw-device bond1
##########################
# BRIDGE NETWORK DEVICES #
##########################
# Bridged interface for VLAN 10
auto br0-10
iface br0-10 inet manual
bridge_ports bond1.10
bridge_stp off
bridge_fd 0
bridge_maxwait 0
# Bridged interface for VLAN 20
auto br0-20
iface br0-20 inet manual
bridge_ports bond1.20
bridge_stp off
bridge_fd 0
bridge_maxwait 0
# Bridged interface for VLAN 30
auto br0-30
iface br0-30 inet manual
bridge_ports bond1.30
bridge_stp off
bridge_fd 0
bridge_maxwait 0
# Bridged interface for VLAN 31
auto br0-31
iface br0-31 inet manual
bridge_ports bond1.31
bridge_stp off
bridge_fd 0
bridge_maxwait 0
# Bridged interface for VLAN 42
auto br0-42
iface br0-42 inet manual
bridge_ports bond1.42
bridge_stp off
bridge_fd 0
bridge_maxwait 0
# Bridged interface for VLAN 50
auto br0-50
iface br0-50 inet manual
bridge_ports bond1.50
bridge_stp off
bridge_fd 0
bridge_maxwait 0
# Bridged interface for VLAN 90
auto br0-90
iface br0-90 inet manual
bridge_ports bond1.90
bridge_stp off
bridge_fd 0
bridge_maxwait 0
PHYSICAL NETWORK DEVICES
部分。您的第一个NIC(您的eth0对我来说enp2s0f0)与您的没有什么不同。我只是静态定义它并给它一个地址。我在管理网络上为此网卡分配了一个地址。我用于容器通信的第三个和第四个NIC。我想在LAG中使用LACP,因此我将设备定义为手动设备,并将它们作为“ bond1”的从设备。
BONDED NETWORK DEVICES
部分。在这种情况下,集装箱运输只是一个纽带。同样,我将其设置为手动,并将绑定模式定义为4(LACP)。可以很容易地设置不同类型的键(主动-被动,主动-主动等)。
RAW VLAN DEVICES
部分。
BRIDGE NETWORK DEVICES
部分中,为每个VLAN设备创建网桥。这就是容器实际使用的东西。同样,我将其设置为手动,并且没有定义在容器内部定义的IP地址。
lxduser@lxdhost:~$ lxc profile show 31_vlan_int_server
name: 31_vlan_int_server
config: {}
description: ""
devices:
eth0:
name: eth0
nictype: bridged
parent: br0-31
type: nic
ping 8.8.8.8
)吗?
ping www.google.com
)吗?
关于lxc - 如何设置通过LAN进行通信的LXD容器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41826430/
连接到 LXD 时出现以下错误: Error: Get http://unix.socket/1.0: dial unix /var/snap/lxd/common/lxd/unix.socket:
我正在尝试通过本教程在我的 Ubuntu 上安装 LXD https://docs.conjure-up.io/devel/en/user-manual#users-of-lxd其中说我必须遵循以下步
我正在使用 LXD 创建一个 Ubuntu 容器: lxd launch ubuntu first 当我收到此错误时: error : Error calling 'lxd forkstart /va
由于我想启动多个虚拟机,LXD 似乎是有效的 choice 但作为 docker,LXD 似乎没有那么热闹, 最初的想法,我已经使用LXC创建启动一个测试容器,并安装了mongodb数据库,至少mon
我正在设置 LXD 来玩魔术。我希望存储仅安装在我的 RAID 设备上,因此最好删除默认存储或替换/重定向它。 我无法删除默认存储,因为默认配置文件使用它。 我如何使用 RAID 存储并确保它没有使用
我有一个 Ubuntu 16.04 LTS 系统,我在其中创建了 3 个 LXD 容器。他们在那里工作得很好。系统在没有意外停止容器的情况下被重置。现在它们处于错误状态,我无法启动它们。当我尝试启动它
我在磁盘上有一个目录,归 share 所有gid 为 1001 .我想将该目录添加为其中一个 lxc 容器上的设备,并让该组结转。 我试过使用 raw.idmap 'gid 1001 1001'但是如
我已经查遍了,但不知道有没有办法。我有几个在 Ubuntu 14.04 主机上运行 Ubuntu 14.04 的 LXC 容器。它们对我来说变得非常重要,因此,如果主机的硬件发生故障,我希望能够轻松地
有没有办法在 Docker 中运行 LXD?例如。 在装有 ubuntu 16.04 的主机上: docker run --rm -it --net host --privileged ubuntu
我最近开始尝试 LXD 容器,并遇到了一个我似乎无法修复的基本障碍。 我无法在容器内运行和apt更新 ubuntu@dev:~$ lxc exec adil-php5 -- apt update ..
使用 Xvfb 可以轻松在 LXD 容器(ubuntu:16.04)内运行 GUI 应用程序并在容器内执行以下命令: Xvfb -ac :99 -screen 0 1600x900x24 & expo
如何在nodejs下通过unix套接字域连接到LXD API?我尝试以下代码但失败了。我得到了这个答案:HTTP/1.1 400 错误请求 var net = require('net'); var
我正在执行“ Geting started with Juju”步骤。 作为前提条件,我已经安装了LXD和ZFS。 root@d9574a01cb50:/# which lxd /usr/bin/lx
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 这个问题似乎不是关于 a specific programming problem, a softwar
我想在 zfs 数据集中创建一个卷: sudo zfs create mypool/maildir sudo lxc storage volume create mypool/maldir custo
我安装了 docker,但 ubuntu 产品似乎是开源软件,并没有打破我的钱包做同样的事情,但 docker 似乎更兼容谷歌云?我不确定 LXD,但我将它安装在带有安装帮助指南的包管理器中,但我不确
在 MAAS 中设置 LXD 集群时遇到问题 你好!我一直在与 maas 合作尝试设置 LXD 集群。 设置 马斯 Controller : Dell Optiplex(没什么特别的,只是我身边有一台
我正在本地服务器上使用 VMware ESXi 设置裸机管理程序,该服务器将具有 kubernetes 集群。 我应该将 Linux 容器与 一起使用吗? LXD 设置我的 Kubernetes 集群
我正在运行带有 LXD 容器的最新 Ubuntu (16.10)。容器配置有桥接网络,它们从 DHCP 服务器接收自己的 IP 地址。我为它们配置了以下内容: lxc 配置文件设备添加默认 eth0
当我运行以下命令时: 我得到以下输出: 但我只想获取命令中指定的容器而不是所有容器。 我该怎么做? 最佳答案 您可以使用 POSIX 扩展正则表达式: lxc list -c n '^ubuntu$'
我是一名优秀的程序员,十分优秀!