Я хотел бы продемонстрировать некоторые функции OpenStacks HA/FT (самое главное живая миграция и репликация ресурсов хранения). С этой целью у меня есть машина с 32 ГБ RAM и Xeon e3v2 с 4 ядрами (8 потоков). До сих пор мне удалось разбудить МААС и Амулет и выполнение, но я не уверен в количестве виртуальных узлов, которые я могу безопасно развернуть (и ЦП / RAM превышает возможности отношения, хотя я считал где-нибудь, что физический ЦП может обработать чрезмерные обязательства с 1-vcpu-machines вполне прилично).
В настоящее время VM, который выполняет МААС, использует 1 vCPU и 8 ГБ RAM, Амулет работает на хосте. Это оставляет меня с 7 vCPUs и 24 ГБ RAM, не превышая возможности никаких ресурсов. То, что я придумал, следующее:
1 Узел Контроллера: 2vCPUs, 4 ГБ RAM - RabbitMQ, mysql, трапецеидальное искажение, панель инструментов, зола, облачный контроллер новинки и взгляд в lxc контейнерах
2 узла Ceph: 1 vCPU, 4 ГБ RAM каждый - ceph
2 Вычисляют узлы: 2 vCPUs, 8 ГБ RAM каждый - новинка - вычисляет
1 Сетевой узел: 1 vCPU, 2 ГБ RAM - квантовый шлюз
Плюс хост МААСА: 1 vCPU, ПОРШЕНЬ НА 8 ГБ
Это привело бы к в общей сложности 38 ГБ RAM и 10 vCPUs, таким образом, я принимаю на себя непосильные обязательства немного.
Мой фактический вопрос состоит в том, если кто-либо имеет лучшую Архитектуру в виду. Я действительно просто планирую показать некоторые функции OpenStack (или Облака в целом).
Я имею подобную установку и позволяю мне предложить Вашей конфигурации:
Я надеюсь, что это помогает.
Felipe,
Я предлагаю, чтобы Вы вывели его, если его все еще выполнение и использует LXD. У Вас не должно быть проблем развертывание этого без Мааса и просто выполнение Амулета с локальным управлением Вашего локального LXD , как описано здесь. Ваша машина должна смочь выполнить его, не потея слишком много. Если Вы требуете, чтобы Маас продемонстрировал это (Это действительно является довольно потрясающим. Необходимо попытаться проверить Гастрольные представления OpenStack, который Канонический делает, если Вы приезжаете поблизости...), затем, это становится немного более сложным.
Эта ссылка демонстрирует установка его на 3 машинах , но можно стать подлыми и развернуть Амулет и Маас к той же другой машине, если Вы действительно должны. Если бы Ваша вторая машина выполняла Маас и JuJu под LXD с мостом, подключенным к Вашей лаборатории LAN, и Ваш трафик PXE мог пройти, то необходимо смочь выполнить все это в контейнерах на двух машинах. Я пытаюсь сделать что-то похожее с VMware Fusion VMs на моем ноутбуке, где я соединил внутреннюю сеть мостом к удару молнии NIC, чтобы позволить машинам Мааса и Амулета организовать Raspberry Pi и устройства NUC.
У меня нет опыта с помощью амулета для оркестровки OpenStack, но на основе опыта с ceph и OpenStack, в демонстрационных целях, можно выполнить ceph на машинах на 2 ГБ w/o проблемы, и я думаю, что хост Мааса может также быть настроен с 6 ГБ вместо 8.
я не знаю, позволяет ли амулет Вам комбинировать различные роли в том же VM в нашем (неамулет) развертывание, мы комбинируем контроллер и роли сетевого порта на том же VM (не использующий контейнеры).
При использовании физических узлов в небольшом кластере, особенно test-lab-type-stuff, один типичный ярлык должен объединить ceph-узлы с вычислять-узлами. Посмотрите этот ceph-0.48-era набор инструкции для debian или это более современное конфигурация лаборатории для proxmox VE.
Используя числа Вы, если, и предложения для уменьшений поршня плюс трижды-ceph в других ответах, возможно, что-то вроде этого:
я в настоящее время работаю над конфигурацией с одним узлом этой природы сам, но имею меньше RAM в наличии, и только четыре диска для посвящения (cephOsd лучше с несколькими дисками). Я не могу подтвердить, что числа выше будут функционировать для Вас с соответствующей производительностью, не попробовав эту схему сам, но центральную идею объединить несколько ортогональные узлы, чтобы быть экономными с vCpu& поршень может дать Вам достаточно тяги для получения, где Вы хотите пойти.
p.s. См. также, полуофициальный helpdocs для OpenStack в одном физическом узле с один VM, плюс более соответствующий OpenStack на специализированном учебном руководстве по полю, по devstack.org