Архитектура виртуального развертывания OpenStack (Juju / MAAS) с 1 физическим узлом

Более новые версии apt также поддерживают следующее:

apt-key adv --fetch-keys http://deb.opera.com/archive.key

Этот метод также обеспечивает более подробную обратную связь, например:

gpg: key 7BD9BF62: public key "signing key <username@domain.com>" imported
gpg: Total number processed: 1
gpg:               imported: 1  (RSA: 1)

Это также имеет дополнительный бонус устранения необходимости в дополнительных зависимостях, таких как wget или curl.

1
задан 3 May 2015 в 19:50

3 ответа

Я предлагаю вам сбросить его, если он все еще работает, и использовать LXD. У вас не должно возникнуть проблем с развертыванием без MaaS и просто запуска Juju с локальным управлением локальным LXD, как описано здесь. Ваша машина должна иметь возможность запускать ее без потливости. Если вам требуется, чтобы MaaS продемонстрировал это (это действительно потрясающе. Вы должны попробовать проверить Openstack Roadshows, что Canonical делает, если кто-то рядом ...), тогда это становится немного сложнее.

Эта ссылка демонстрирует развертывание этого , но вы можете получить подлый и развернуть Juju и MaaS на одну и ту же другую машину, если вам действительно нужно. Если ваша вторая машина запускала MaaS и JuJu под LXD с мостом, подключенным к вашей локальной сети, и ваш трафик PXE мог пройти, вы должны иметь возможность запускать все это в контейнерах на двух машинах. Я пытаюсь сделать что-то подобное с VMWare Fusion VM на моем ноутбуке, где я объединил внутреннюю сеть с NIC, чтобы машины MaaS и Juju могли организовывать устройства Raspberry Pi и NUC.

1
ответ дан 24 May 2018 в 01:44

У меня нет опыта использования juju для оркестровки openstack, но из опыта работы с ceph и openstack, для демонстрационных целей вы можете запускать ceph на 2GB машинах без проблем, и я думаю, что хост maas также может быть настроен с 6GB вместо из 8.

Я не знаю, позволяет ли juju объединить разные роли в одной VM, в наших (не-juju) развертываниях мы объединяем контроллер и сетевые роли на одной виртуальной машине (не используя контейнеры).

0
ответ дан 24 May 2018 в 01:44

При использовании физических узлов в небольшом кластере, особенно для тестового лабораторного типа, одним типичным ярлыком является объединение узлов ceph с вашими вычислительными узлами. См. Этот набор инструкций для debian в стиле ceph-0.48 или более современную конфигурацию лаборатории для proxmox VE.

Используя предоставленные вами номера, а также предложения по снижению яркости плюс тройной ceph в другом ответы, возможно, что-то вроде этого:

3vCpu + 8gb == RabbitMQ / keystone / glance / etc + cephMon1 / Osd1 2vCpu + 10gb == novaComp2 / Net2 / Vol2 + cephMon2 / Osd2 / Httpd2 / Rgw2 2vCpu + 10gb == novaComp3 / Net3 + cephMon3 / Osd3 1vCpu + 2gb == novaQuantum4 1vCpu + 3gb == MAAS_host5

В настоящее время я работаю над конфигурацией с одним узлом, но имею меньше доступной памяти , и только четыре диска для посвящения (cephOsd лучше с несколькими дисками). Я не могу подтвердить, что приведенные выше цифры будут работать для вас с достаточной производительностью, не пробовав эту схему самостоятельно, но основная идея слияния нескольких ортогональных узлов, которые могут быть скупыми с vCpu & amp; ram, может дать вам достаточно силы, чтобы добраться туда, куда вы хотите пойти .

ps См. Также полуофициальные справочные документы для OpenStack в одном физическом узле с одной виртуальной машиной, а также более подходящий OpenStack в специальном учебнике по коробке на devstack.org

0
ответ дан 24 May 2018 в 01:44

Другие вопросы по тегам:

Похожие вопросы: