Связывание + Мост: трафик, проходящий через неправильный интерфейс

Я использую сервер Ubuntu 12.04, на сервере с 6 NICs, сгруппированными в 2 пакетах:

  • eth0 и eth2 связываются с помощью связывания режима 1 под именем интерфейса bond0, который имеет IP [сеть].8
  • eth1, eth3, eth4 и eth5 связываются с помощью связывания режима 4 (802.3ad) под именем интерфейса bond1

bond1 будет использоваться для соединения VMs с нашей сетью: это соединяется мостом через br0, который имеет IP [сеть].

Теперь, когда я проверяю с помощью ping-запросов [сеть].5 из нашей сети, все кажется работам, но наши VMs не имеют никакого доступа к сети.

После ввода по абсолютному адресу вокруг некоторое время, я заметил, что IP br0 ([сеть].5) связан с MAC-адресом bond1, т.е.:

arping <[network].5>

возвраты

Unicast reply from <[network].5> [<bond0's MAC address>]  0.710ms

Кроме того, в то время как я проверяю с помощью ping-запросов [сеть].5:

tcpdump -i br0 icmp

Шоу никакой трафик ICMP,

tcpdump -i bond1

не покажите трафик также, но

tcpdump -i bond0

показывает пакеты ICMP, которые я отправляю ping использования.

Довольно очевидно, что пакеты отправляются вниз неправильную трубу. Мой вопрос здесь: почему это так и как я могу зафиксировать это?

Вот содержание моего/etc/network/interfaces файла:

# bond0 part :

auto eth0
    iface eth0 inet manual
    bond-master bond0

auto eth2
    iface eth2 inet manual
    bond-master bond0

auto bond0
    iface bond0 inet static
    address [network].8
    gateway [network].254
    netmask 255.255.254.0
    # bonding mode 1 :
    bond-mode balance-rr
    bond-slaves none

auto eth1
    iface eth1 inet manual
    bond-master bond1

auto eth3
    iface eth3 inet manual
    bond-master bond1

# bond1 and br0 part :

auto eth4
    iface eth4 inet manual
    bond-master bond1

auto eth5
    iface eth5 inet manual
    bond-master bond1

auto bond1
    iface bond1 inet manual
    # bonding mode 4 :
    bond-mode 802.3ad
    bond-slaves none
    bond-miimon 100
    bond-downdelay 200
    bond-updelay 200        
    bond_xmit_hash_policy layer2
    bond_lacp_rate fast

auto br0
    iface br0 inet static
    address [network].5
    netmask 255.255.254.0
    gateway [network].254
    bridge_ports bond1
    bridge_maxwait 5
    bridge_stp off
    bridge_fd 0

Обратите внимание на то, что:

  • 802.3ad агрегирование каналов было настроено на стороне переключателя
  • Мы проверили muliple времена, что правильные порты соединены
  • Та же проблема происходит на 2 серверах с той же самой hardware+software конфигурацией

[РЕДАКТИРОВАНИЕ] После нескольких перезагрузок, противоположное происходит: bond0 связан с MAC-адресом bond1. Это, кажется, происходит случайным образом. Когда это делает, VMs позади моста имеют доступ к нашей сети и Интернету.

2
задан 12 February 2013 в 21:34

1 ответ

После дальнейших поисков выясняется, что корень моей проблемы заключается в том, что обсуждается здесь:

Ошибка сервера: ответы arp всегда выходят из одного NIC

Как это вопрос гораздо более точный и имеет несколько ответов, вот куда вам следует обратиться, если у вас такая же проблема, как у меня

0
ответ дан 12 February 2013 в 21:34

Другие вопросы по тегам:

Похожие вопросы: