Используя опцию “OpenStack Beta” текущей Среды развернуть OpenStack на моей установке МААСА. Я добираюсь до 98%-го завершения, с 1 отказом на “Настраивают зоны доступности”. Мои настройки использовали KVM, Открытый vSwitch, и я в настоящее время использую Ceph и для хранения объектов и для блочной системы хранения. То, когда я смотрю на /var/log/landscape/job-handler-1.log на альбомной машине, см. более чем 100 ошибок о:
05.03.2015 корень ИНФОРМАЦИИ 21:18:38 RetryingCall для '_get_nova_info' перестал работать, пробуя еще в 103 раза: 05.03.2015 21:18:38 ИНФОРМАЦИИ базируются Traceback:: Пропавшие без вести 4 новинок - вычисляют единицы
/usr/lib/python2.7/threading.py:783: __ начальная загрузка
/usr/lib/python2.7/threading.py:810: __ bootstrap_inner
/usr/lib/python2.7/threading.py:763:run
---<исключение, пойманное здесь>---
/usr/lib/python2.7/dist-packages/twisted/python/threadpool.py:191: _ рабочий
/usr/lib/python2.7/dist-packages/twisted/python/context.py:118:callWithContext
/usr/lib/python2.7/dist-packages/twisted/python/context.py:81:callWithContext
/usr/lib/python2.7/dist-packages/storm/twisted/transact.py:76: _ переносятся
/opt/canonical/landscape/canonical/landscape/model/openstack/jobs.py:751: _ get_nova_info
Примечание: Номер строки в jobs.py прочь, поскольку я добавил некоторые операторы печати для отладки. Это - утверждение в _get_nova_info () функция около строки № 741 (если не изменяет память), и да я использую новейшую версию среды с сегодняшнего дня от среды ppa для надежного человека.
Таким образом, я изменил _get_nova_info/opt/canonical/landscape/canonical/landscape/model/openstack/jobs.py () функция для распечатывания длины nova_compute_hostnames, и я получил нуль. Таким образом, я преследовал это в get_nova_compute_hostnames/opt/canonical/landscape/canonical/landscape/model/openstack/region.py () и нашел, что сам juju_environment.get_computer_ids () .count () был также нуль. Таким образом, я добавил вызов к сам juju_environment.has_computers () и получил ложь. Затем я работал сам juju_environment.get_juju_home () и добрался/var/lib/landscape/juju-homes/20. (Да это - моя 20-я попытка на моем 2-м, восстанавливают альбомного поля, я был в этом некоторое время). Таким образом, я выполнил состояние амулета, использующее амулет, домой упомянутый выше, и все хорошо выглядели. Все 5 машин и сервисы были запущены, никакое ожидание или состояния ошибки. (включая 4 новинки - вычисляют узлы), Какие-либо идеи? Я являюсь несколько новым для озеленения, МААС, АМУЛЕТ, и Python, таким образом, моя отладка является немного медленной.
На запрос у меня есть 2 журнала (хотя мой дом является теперь № 23), состояние амулета и broker.log. Я думаю, что теперь знаю то, что моя проблема на отрывок broker.log ниже. (Благодарен за то, что dpb указывает на меня там), Моя машина МААСА выделяет адрес DHCP к моему альбомному LXC, но мой альбомный LXC не находится в МААСЕ, которым управляют DNS, поскольку это не настраивается МААСОМ. Поэтому настроенные машины не могут соединиться с альбомным сервером по имени.
Таким образом, это приводит меня к связанному вопросу, существует ли хороший способ иметь автоматическое обновление МААСА DNS с машинами, которые не настраиваются (или под управлением МААСА)? Если не я должен буду дать ему статический IP вне своего диапазона DHCP и вручную установить DNS.
06.03.2015 17:09:50 665 ИНФОРМАЦИИ [MainThread] Брокер, запущенный с конфигурации/etc/landscape/client.conf
06.03.2015 17:09:52 382 ИНФОРМАЦИИ [MainThread] Запуск срочного обмена сообщениями с https://среда/система обмена сообщениями.
06.03.2015 17:09:52 389 ОШИБОК [PoolThread-twisted.internet.reactor-1] Ошибка, связывающаяся с сервером в https://среда/система обмена сообщениями.
Traceback (новый вызов в последний раз):
Файл "/usr/lib/python2.7/dist-packages/landscape/broker/transport.py", строка 71, в обмен
message_api)
Файл "/usr/lib/python2.7/dist-packages/landscape/broker/transport.py", строка 45, в _curl
headers=headers, cainfo=self. _ pubkey, curl=curl))
Файл "/usr/lib/python2.7/dist-packages/landscape/lib/fetch.py", строка 109, в выборке
повысьте PyCurlError (e.args [0], e.args1)
PyCurlError: Ошибка 6: не Мог разрешить хост: среда
06.03.2015 17:09:52 390 ИНФОРМАЦИИ [MainThread] Обмен сообщениями перестал работать.
06.03.2015 17:09:52 391 ИНФОРМАЦИЯ [MainThread] Обмен сообщениями, завершенный в 0,01 с.
Моя установка немного ограничена, поскольку мне только дали 6 машин (5 узлов и 1 контроллер) для проявления возможностей OpenStack/Среды, таким образом, я не могу использовать выделенную машину для среды. Я использовал альбомный быстрый запуск сервера в LXC на моем контроллере МААСА, таким образом, я могу быстро сдуть его и запуститься по новому.
таким образом, я сдул альбомную установку и установил LXC на статический IP, затем изменил DNS (управляемый МААСОМ), чтобы иметь статическую запись DNS для моего альбомного сервера. Затем я установил Альбомный Выделенный сервер на LXC с помощью упомянутого выше метода альбомного быстрого запуска сервера.
После того, как это переустанавливает (главным образом для вычищения всей моей путаницы отладки), мне наконец удалось устанавливать OpenStack хотя среда.Спасибо.
"Пропавшие без вести N новинка - вычисляют единицы" сообщение, об альбомных клиентских агентах, зарегистрированных назад, чтобы благоустроить, Проверить /var/log/landscape/broker.log
на недостающих единицах.
, Поскольку Вы правильно определили, вещи работа, самая гладкая, если LDS (Альбомный Выделенный сервер) установлен на том же МААСЕ, где Ваш OpenStack будет жить, главным образом из-за сетевой маршрутизации и DNS. Однако бесчисленные изменения существуют допустимой топологии с маршрутами между сетями, и т.д.
Некоторые предложения на вещах попробовать, считайте их всех. В конце необходимо будет определить топологию развертывания:
Для теста, разверните LDS на том же МААСЕ, где Ваш OpenStack будет - только, чтобы проверить, работают ли вещи там. Используйте установка OpenStack инструмент, или альбомный плотный Маас пакет с быстрым запуском амулета непосредственно для упрощения этого.
Ваши клиенты должны быть в состоянии достигнуть LDS, как Вы заявили. Если они могут направить IP туда, где LDS развертывается, можно разъединить установку OpenStack, изменить апачские настройки имени сервера и попробовать еще раз. juju set apache2 servername=IP_ADDRESS
. После выполнения этого следуйте за журналом отладки амулета, удостоверьтесь, что все подходит хорошо, и удостоверьтесь, что можно просмотреть к GUI LDS в том https://IP_ADDRESS / URL.