новинка-lxd OpenStack колдования, как перезапустить?

Я успешно установил новинку-lxd OpenStack на kvm виртуальной машине с помощью колдования.

После завершения работы VM; когда я запускаю, OpenStack VM не запускается. список lxc показывает один экземпляр в "РАБОЧЕМ" состоянии и все другие в "ОСТАНОВЛЕННОМ" состоянии.

Как я могу запустить другие экземпляры?

4
задан 19 February 2017 в 22:51

3 ответа

@gangstaluv: повторение, чтобы сделать установку с нуля в марте заканчивается с conjureup0, переживающим перезагрузку.

После перезагрузки все lxd контейнеры в порядке, но rabbitmq-сервер в по ошибке (для этого я открою другой поток)

0
ответ дан 1 December 2019 в 09:45

У меня есть эта точно та же самая проблема. Я установил совершенно новую копию Ubuntu 16.04 на моем сервере, обновил все пакеты, затем единственная вещь, которую я установил, была колдованием и использовала это для установки lxc OpenStack. lxc list показал все экземпляры как и выполнение, я мог войти в панель инструментов OpenStack, это было большим. Затем я перезагрузил... теперь lxc list шоу все кроме одного экземпляра как не выполнение. @gangstaluv для ответа на вопросы в моей среде:

состояние амулета возвращает что-нибудь?

$ juju status
Model                             Controller                Cloud/Region         Version
conjure-up-openstack-novalxd-561  conjure-up-localhost-1e7  localhost/localhost  2.1.0.1

App                    Version      Status   Scale  Charm                  Store       Rev  OS      Notes
ceph-mon               10.2.5       active     0/3  ceph-mon               jujucharms    7  ubuntu  
ceph-osd               10.2.5       active     0/3  ceph-osd               jujucharms  239  ubuntu  
ceph-radosgw           10.2.5       active     0/1  ceph-radosgw           jujucharms  245  ubuntu  
glance                 12.0.0       active     0/1  glance                 jujucharms  254  ubuntu  
keystone               9.2.0        active     0/1  keystone               jujucharms  262  ubuntu  
lxd                    2.0.9        active     0/1  lxd                    jujucharms    7  ubuntu  
mysql                  5.6.21-25.8  active     0/1  percona-cluster        jujucharms  247  ubuntu  
neutron-api            8.3.0        active     0/1  neutron-api            jujucharms  247  ubuntu  
neutron-gateway        8.3.0        active     0/1  neutron-gateway        jujucharms  232  ubuntu  
neutron-openvswitch    8.3.0        active     0/1  neutron-openvswitch    jujucharms  238  ubuntu  
nova-cloud-controller  13.1.2       active     0/1  nova-cloud-controller  jujucharms  292  ubuntu  
nova-compute           13.1.2       active     0/1  nova-compute           jujucharms  262  ubuntu  
ntp                                 waiting      0  ntp                    jujucharms   17  ubuntu  
openstack-dashboard    9.1.0        active     0/1  openstack-dashboard    jujucharms  243  ubuntu  exposed
rabbitmq-server        3.5.7        active     0/1  rabbitmq-server        jujucharms   59  ubuntu  

Unit                     Workload  Agent  Machine  Public address  Ports           Message
ceph-mon/0               unknown   lost   0        10.0.8.183                      agent lost, see 'juju show-status-log ceph-mon/0'
ceph-mon/1               unknown   lost   1        10.0.8.209                      agent lost, see 'juju show-status-log ceph-mon/1'
ceph-mon/2               unknown   lost   2        10.0.8.141                      agent lost, see 'juju show-status-log ceph-mon/2'
ceph-osd/0               unknown   lost   3        10.0.8.159                      agent lost, see 'juju show-status-log ceph-osd/0'
ceph-osd/1               unknown   lost   4        10.0.8.115                      agent lost, see 'juju show-status-log ceph-osd/1'
ceph-osd/2               unknown   lost   5        10.0.8.216                      agent lost, see 'juju show-status-log ceph-osd/2'
ceph-radosgw/0           unknown   lost   6        10.0.8.48       80/tcp          agent lost, see 'juju show-status-log ceph-radosgw/0'
glance/0                 unknown   lost   7        10.0.8.61       9292/tcp        agent lost, see 'juju show-status-log glance/0'
keystone/0               unknown   lost   8        10.0.8.117      5000/tcp        agent lost, see 'juju show-status-log keystone/0'
mysql/0                  unknown   lost   9        10.0.8.123                      agent lost, see 'juju show-status-log mysql/0'
neutron-api/0            unknown   lost   10       10.0.8.96       9696/tcp        agent lost, see 'juju show-status-log neutron-api/0'
neutron-gateway/0        unknown   lost   11       10.0.8.140                      agent lost, see 'juju show-status-log neutron-gateway/0'
nova-cloud-controller/0  unknown   lost   12       10.0.8.238      8774/tcp        agent lost, see 'juju show-status-log nova-cloud-controller/0'
nova-compute/0           unknown   lost   13       10.0.8.190                      agent lost, see 'juju show-status-log nova-compute/0'
  lxd/0                  unknown   lost            10.0.8.190                      agent lost, see 'juju show-status-log lxd/0'
  neutron-openvswitch/0  unknown   lost            10.0.8.190                      agent lost, see 'juju show-status-log neutron-openvswitch/0'
openstack-dashboard/0    unknown   lost   14       10.0.8.111      80/tcp,443/tcp  agent lost, see 'juju show-status-log openstack-dashboard/0'
rabbitmq-server/0        unknown   lost   15       10.0.8.110      5672/tcp        agent lost, see 'juju show-status-log rabbitmq-server/0'

Machine  State  DNS         Inst id         Series  AZ
0        down   10.0.8.183  juju-ec5bf1-0   xenial  
1        down   10.0.8.209  juju-ec5bf1-1   xenial  
2        down   10.0.8.141  juju-ec5bf1-2   xenial  
3        down   10.0.8.159  juju-ec5bf1-3   xenial  
4        down   10.0.8.115  juju-ec5bf1-4   xenial  
5        down   10.0.8.216  juju-ec5bf1-5   xenial  
6        down   10.0.8.48   juju-ec5bf1-6   xenial  
7        down   10.0.8.61   juju-ec5bf1-7   xenial  
8        down   10.0.8.117  juju-ec5bf1-8   xenial  
9        down   10.0.8.123  juju-ec5bf1-9   xenial  
10       down   10.0.8.96   juju-ec5bf1-10  xenial  
11       down   10.0.8.140  juju-ec5bf1-11  xenial  
12       down   10.0.8.238  juju-ec5bf1-12  xenial  
13       down   10.0.8.190  juju-ec5bf1-13  xenial  
14       down   10.0.8.111  juju-ec5bf1-14  xenial  
15       down   10.0.8.110  juju-ec5bf1-15  xenial  

Relation                 Provides               Consumes               Type
mon                      ceph-mon               ceph-mon               peer
mon                      ceph-mon               ceph-osd               regular
mon                      ceph-mon               ceph-radosgw           regular
ceph                     ceph-mon               glance                 regular
ceph                     ceph-mon               nova-compute           regular
cluster                  ceph-radosgw           ceph-radosgw           peer
identity-service         ceph-radosgw           keystone               regular
cluster                  glance                 glance                 peer
identity-service         glance                 keystone               regular
shared-db                glance                 mysql                  regular
image-service            glance                 nova-cloud-controller  regular
image-service            glance                 nova-compute           regular
amqp                     glance                 rabbitmq-server        regular
cluster                  keystone               keystone               peer
shared-db                keystone               mysql                  regular
identity-service         keystone               neutron-api            regular
identity-service         keystone               nova-cloud-controller  regular
identity-service         keystone               openstack-dashboard    regular
lxd-migration            lxd                    lxd                    peer
lxd                      lxd                    nova-compute           regular
cluster                  mysql                  mysql                  peer
shared-db                mysql                  neutron-api            regular
shared-db                mysql                  nova-cloud-controller  regular
cluster                  neutron-api            neutron-api            peer
neutron-plugin-api       neutron-api            neutron-gateway        regular
neutron-plugin-api       neutron-api            neutron-openvswitch    regular
neutron-api              neutron-api            nova-cloud-controller  regular
amqp                     neutron-api            rabbitmq-server        regular
cluster                  neutron-gateway        neutron-gateway        peer
quantum-network-service  neutron-gateway        nova-cloud-controller  regular
amqp                     neutron-gateway        rabbitmq-server        regular
neutron-plugin           neutron-openvswitch    nova-compute           regular
amqp                     neutron-openvswitch    rabbitmq-server        regular
cluster                  nova-cloud-controller  nova-cloud-controller  peer
cloud-compute            nova-cloud-controller  nova-compute           regular
amqp                     nova-cloud-controller  rabbitmq-server        regular
lxd                      nova-compute           lxd                    subordinate
neutron-plugin           nova-compute           neutron-openvswitch    subordinate
compute-peer             nova-compute           nova-compute           peer
amqp                     nova-compute           rabbitmq-server        regular
ntp-peers                ntp                    ntp                    peer
cluster                  openstack-dashboard    openstack-dashboard    peer
cluster                  rabbitmq-server        rabbitmq-server        peer

можно работать, lxc начинают возвращать их.

, Когда я пробую это, я получаю ошибку, которая, вероятно, объясняет, почему вещи просто не возвратились самостоятельно:

$ lxc start juju-ec5bf1-0
error: Missing parent 'conjureup0' for nic 'eth1'
Try `lxc info --show-log juju-ec5bf1-0` for more info

я не уверен, как продолжить двигаться. Есть ли что-то еще, что я мог проверить? Я переустановил Ubuntu и колдование в случае, если я сделал что-то не так кроме каждого раза, когда это работает отлично до перезагрузки затем это заканчивается в этом состоянии снова.

РЕДАКТИРОВАНИЕ 1: Я не думал для добавления lxc info, что это сказало для взгляда на, добавив это теперь.

$ lxc info --show-log juju-ec5bf1-0
Name: juju-ec5bf1-0
Remote: unix:/var/lib/lxd/unix.socket
Architecture: x86_64
Created: 2017/02/20 04:12 UTC
Status: Stopped
Type: persistent
Profiles: default, juju-conjure-up-openstack-novalxd-561

Log:

            lxc 20160220041252.329 WARN     lxc_start - start.c:signal_handler:322 - Invalid pid for SIGCHLD. Received pid 437, expected pid 452.

РЕДАКТИРОВАНИЕ 2: Я просто зафиксировал мой!

После большого исследования я обнаружил команду lxc profile show

$ lxc profile show juju-conjure-up-openstack-novalxd-561
config:
  boot.autostart: "true"
  linux.kernel_modules: openvswitch,nbd,ip_tables,ip6_tables,netlink_diag
  raw.lxc: |
    lxc.aa_profile=unconfined
    lxc.mount.auto=sys:rw
  security.nesting: "true"
  security.privileged: "true"
description: ""
devices:
  eth0:
    mtu: "9000"
    name: eth0
    nictype: bridged
    parent: lxdbr0
    type: nic
  eth1:
    mtu: "9000"
    name: eth1
    nictype: bridged
    parent: conjureup0
    type: nic
  root:
    path: /
    type: disk
name: juju-conjure-up-openstack-novalxd-561

От вывода lxc info --show-log juju-ec5bf1-0, я предположил, что так или иначе амулет (или некоторый другой компонент) видел мой другой nic (я выполняю это на реальных аппаратных средствах в противоположность Mirto Busico на VM, если я читал правильно), и искал мост, названный conjureup0, который не существовал. Я подозреваю, что существует ошибка где-нибудь, которая является, почему это не было создано. Я думаю, что, возможно, сделал одну из двух вещей зафиксировать это. 1) создайте недостающий мост, 2) удаляют eth1 устройство из профиля. Я выбрал последнего.

$ lxc profile device remove juju-conjure-up-openstack-novalxd-561 eth1

Перезагруженный, и теперь lxc list шоу все мои экземпляры в порядке как ожидалось, и моя панель инструментов работает снова.

4
ответ дан 1 December 2019 в 09:45

Я также столкнулся с этим видом проблемы прежде, главным образом вероятно, проблема с параметром сети. По умолчанию значение размера MTU должно 1500, в то время как в первый раз развертывают колдование OpenStack. Мое решение состоит в том, чтобы изменить размер MTU внутри lxc конфигурация профиля. Можно также примерить это.

0
ответ дан 1 December 2019 в 09:45

Другие вопросы по тегам:

Похожие вопросы: