Разъяснение необходимо на развертывании Амулета очарования Ceph

У меня есть 3 сервера, которые я хочу использовать в качестве кластера устройства хранения данных в настроенном PoC Openstack.

Каждый сервер имеет маленький/dev/sda для ОС, и т.д. и большой/dev/sdb, который я надеюсь использовать в качестве устройства хранения данных Ceph.

Я могу использовать Амулет очарование Ceph для развертывания Ceph на каждом сервере.

Как ожидалось очарование Ceph настраивает Монитор Ceph на каждом сервере и сообщает, что кластер с кворумом был сформирован.

В документах говорится, что основное очарование Ceph также настраивает Ceph-OSD для любых дисков, которые это находит. В моем случае это только настраивает OSD на единственном сервере.

Я понял основное очарование Ceph правильно? Это должно настроить 3 Монса Ceph и также 3 Ceph-OSDs (настроенный для/dev/sdb)?

Мое знание Ceph минимально, таким образом, я все еще соединяю терминологию и понятия. Я корректен в размышлении, что единственный Ceph-OSD может управлять блочной системой хранения И хранением объектов, или Ceph выделяет некоторый OSDs только для блока и других только для хранения объектов?

1
задан 19 January 2016 в 18:48

2 ответа

Вы возражали бы отправлять файл конфигурации, который Вы использовали для своего развертывания? Это было бы полезно.
, Учитывая Вашу подробную информацию об аппаратных средствах я думал бы, что очарование установит 3 OSD's (1 на сервер на/dev/sdb).
Вы корректны о Ceph, управляющем единственным блоком и пулом хранения данных.

1
ответ дан 7 December 2019 в 13:49

Это может казаться немного сбивающим с толку сначала, 'ceph' очарование настраивает обоих понедельник, а также OSD. ceph-osd очарование только настраивает OSD (никакой понедельник), но иначе работает то же и с теми же опциями. Вы смешаете их в зависимости от своего развертывания, и можно связать ceph и ceph-osd очарование друг другу.

Для минимального кластера 3 серверов (таких как Вы имеете), Вам нужен 3 Монса, и таким образом Вы просто создали бы 3 единицы 'ceph' очарования, которое настроит обоих необходимый Монс & OSD на каждой единице. Если у Вас было больше серверов (например, 6) Вы могли бы установить 3 единицы ceph и 3 единицы ceph-osd.

устройство хранения данных, используемое ceph, может быть настроено с опцией osd-устройств на очаровании, это может принять, что или путь (пути) устройства в/dev или местоположение файловой системы помещают файлы, какие значения по умолчанию к/dev/vdb - необходимо будет, вероятно, изменить его. Обратитесь к документации здесь: https://jujucharms.com/ceph /

Наконец относительно блочной системы хранения и хранения объектов, ceph на более низком уровне предоставляет "rados" услугу, которая хранит объекты и получена доступ с помощью низкоуровневых восстановлений API. В кластере Ceph (который имеет несколько OSDs) можно создать несколько 'пулов' для содержания тех объектов. Каждый пул имеет имя, и названия объектов уникальны в пуле (но можно использовать то же имя объекта в различных пулах, они изолируются друг от друга) - можно также установить различные варианты на каждом пуле, такие как количество копий для хранения каждой части данных. Будьте внимательны хотя, существуют издержки к каждому пулу (в основном с точки зрения групп размещения), и Вы не можете создать их дико, но у Вас, вероятно, будет несколько пулов в Вашей установке.

К тому же кластер Ceph, можно создать много сервисов включая блочную систему хранения (использующий RBD - Блочное устройство Rados) и хранение объектов с API REST (использующий radosgw). Оба из этих сервисов используют восстановления API на низком уровне для того, чтобы сохранить и управлять объектами, но предоставляют высокоуровневую услугу, такую как блочное устройство или интерфейс HTTP REST к объектам.

Со шлюзом хранения объектов (radosgw) Ваши объекты обычно называются и создаются таким же образом, они в шлюзе, который может быть очевидным, однако RBD восстанавливает блочное устройство, разделяет том на блоки (например, блоки 4 МБ) и создает объект для каждого блока и некоторые дополнительные объекты, которые хранят метаданные обо всем блочном устройстве.

Вы можете выполнить оба сервиса (или больше) на том же ceph кластере и OSDs, но будете обычно помещать каждый сервис в свой собственный пул (radosgw, на самом деле использует несколько пулов).

я надеюсь, что это помогает запустить Вас с самого очарования, некоторых основ о ceph и как и блочная система хранения и хранилище файлов могут сосуществовать на ceph кластере. Это может все еще немного сбивать с толку с точки зрения терминологии все еще, таким образом, я предложил бы иметь обзор через ручной и поисковый YouTube для одних из различных переговоров, представляющих ceph, который действительно поможет Вам разобраться с терминологией.

1
ответ дан 7 December 2019 в 13:49

Другие вопросы по тегам:

Похожие вопросы: