Архитектура виртуального развертывания OpenStack (Амулет/МААС) с 1 физическим узлом

Я хотел бы продемонстрировать некоторые функции OpenStacks HA/FT (самое главное живая миграция и репликация ресурсов хранения). С этой целью у меня есть машина с 32 ГБ RAM и Xeon e3v2 с 4 ядрами (8 потоков). До сих пор мне удалось разбудить МААС и Амулет и выполнение, но я не уверен в количестве виртуальных узлов, которые я могу безопасно развернуть (и ЦП / RAM превышает возможности отношения, хотя я считал где-нибудь, что физический ЦП может обработать чрезмерные обязательства с 1-vcpu-machines вполне прилично).

В настоящее время VM, который выполняет МААС, использует 1 vCPU и 8 ГБ RAM, Амулет работает на хосте. Это оставляет меня с 7 vCPUs и 24 ГБ RAM, не превышая возможности никаких ресурсов. То, что я придумал, следующее:

1 Узел Контроллера: 2vCPUs, 4 ГБ RAM - RabbitMQ, mysql, трапецеидальное искажение, панель инструментов, зола, облачный контроллер новинки и взгляд в lxc контейнерах

2 узла Ceph: 1 vCPU, 4 ГБ RAM каждый - ceph

2 Вычисляют узлы: 2 vCPUs, 8 ГБ RAM каждый - новинка - вычисляет

1 Сетевой узел: 1 vCPU, 2 ГБ RAM - квантовый шлюз

Плюс хост МААСА: 1 vCPU, ПОРШЕНЬ НА 8 ГБ

Это привело бы к в общей сложности 38 ГБ RAM и 10 vCPUs, таким образом, я принимаю на себя непосильные обязательства немного.

Мой фактический вопрос состоит в том, если кто-либо имеет лучшую Архитектуру в виду. Я действительно просто планирую показать некоторые функции OpenStack (или Облака в целом).

2
задан 3 May 2015 в 19:50

4 ответа

Я имею подобную установку и позволяю мне предложить Вашей конфигурации:

  • Уменьшите сумму RAM, присвоенной МААСУ, приблизительно 2 ГБ будут достаточно.
  • Добавьте другой ceph узел, это поможет Вам продемонстрировать устойчивость при использовании ceph, и 1 узел понижается.
  • Примите на себя непосильные обязательства в ЦП, не то, что плохо, но Вы не хотите принимать на себя непосильные обязательства в памяти, потому что система начнет подкачивать, и все получит неприменимую производительность.
  • Что-то, что Вы не упоминаете, является дисками, которые Вы имеете, это - огромное узкое место для меня, у меня есть 2 x 7200 дисков RPMs с btrfs (raid0), но это не достаточно, в то время как амулет развертывается.
  • Также можно хотеть использовать устройство развертывания амулета и настроить командную строку, которую Вы используете для развертывания, конкретно модификаторы тайм-аута и '-s', 'который является задержкой между каждым "амулетом, развертывают" вызов.

Я надеюсь, что это помогает.

Felipe,

1
ответ дан 2 December 2019 в 03:58

Я предлагаю, чтобы Вы вывели его, если его все еще выполнение и использует LXD. У Вас не должно быть проблем развертывание этого без Мааса и просто выполнение Амулета с локальным управлением Вашего локального LXD , как описано здесь. Ваша машина должна смочь выполнить его, не потея слишком много. Если Вы требуете, чтобы Маас продемонстрировал это (Это действительно является довольно потрясающим. Необходимо попытаться проверить Гастрольные представления OpenStack, который Канонический делает, если Вы приезжаете поблизости...), затем, это становится немного более сложным.

Эта ссылка демонстрирует установка его на 3 машинах , но можно стать подлыми и развернуть Амулет и Маас к той же другой машине, если Вы действительно должны. Если бы Ваша вторая машина выполняла Маас и JuJu под LXD с мостом, подключенным к Вашей лаборатории LAN, и Ваш трафик PXE мог пройти, то необходимо смочь выполнить все это в контейнерах на двух машинах. Я пытаюсь сделать что-то похожее с VMware Fusion VMs на моем ноутбуке, где я соединил внутреннюю сеть мостом к удару молнии NIC, чтобы позволить машинам Мааса и Амулета организовать Raspberry Pi и устройства NUC.

1
ответ дан 2 December 2019 в 03:58

У меня нет опыта с помощью амулета для оркестровки OpenStack, но на основе опыта с ceph и OpenStack, в демонстрационных целях, можно выполнить ceph на машинах на 2 ГБ w/o проблемы, и я думаю, что хост Мааса может также быть настроен с 6 ГБ вместо 8.

я не знаю, позволяет ли амулет Вам комбинировать различные роли в том же VM в нашем (неамулет) развертывание, мы комбинируем контроллер и роли сетевого порта на том же VM (не использующий контейнеры).

0
ответ дан 2 December 2019 в 03:58

При использовании физических узлов в небольшом кластере, особенно test-lab-type-stuff, один типичный ярлык должен объединить ceph-узлы с вычислять-узлами. Посмотрите этот ceph-0.48-era набор инструкции для debian или это более современное конфигурация лаборатории для proxmox VE.

Используя числа Вы, если, и предложения для уменьшений поршня плюс трижды-ceph в других ответах, возможно, что-то вроде этого:

  1. 3vCpu + 8 ГБ == RabbitMQ/keystone/glance/etc + cephMon1/Osd1
  2. 2vCpu + 10 ГБ == novaComp2/Net2/Vol2 + cephMon2/Osd2/Httpd2/Rgw2
  3. 2vCpu + 10 ГБ == novaComp3/Net3 + cephMon3/Osd3
  4. 1vCpu + 2 ГБ == novaQuantum4
  5. 1vCpu + 3 ГБ == MAAS_host5

я в настоящее время работаю над конфигурацией с одним узлом этой природы сам, но имею меньше RAM в наличии, и только четыре диска для посвящения (cephOsd лучше с несколькими дисками). Я не могу подтвердить, что числа выше будут функционировать для Вас с соответствующей производительностью, не попробовав эту схему сам, но центральную идею объединить несколько ортогональные узлы, чтобы быть экономными с vCpu& поршень может дать Вам достаточно тяги для получения, где Вы хотите пойти.

p.s. См. также, полуофициальный helpdocs для OpenStack в одном физическом узле с один VM, плюс более соответствующий OpenStack на специализированном учебном руководстве по полю, по devstack.org

0
ответ дан 2 December 2019 в 03:58

Другие вопросы по тегам:

Похожие вопросы: