Автопилот (ceph/ceph), как место выделено?

У меня есть 5 развернутых машин, сервер Мааса, альбомный сервер и node01,02,03.

Каждый Узел идентичен, 8 ядер, поршень на 32 ГБ, 3 HDs для 1 ГБ за машину, (146, 300, 600 ГБ 15k диски). Маас и среда оба имеют диски на 72 ГБ.

Landscape сообщает о 3 ТБ для всех узлов, регион сообщает о 2 ТБ, применимых в ceph. Значения по умолчанию в Горизонте показывают 1000 ГБ для объемов и снимков и 1000 ГБ для резервного копирования.

Это показывает 2 ТБ, потому что после того, как данные распределяются и копируются, это идет от 3 ТБ до эквивалента на 2 ТБ raid5?

2 ТБ затем разделяются 50/50 со значениями по умолчанию системы между объемами и резервными копиями?

Альбомный аппаратный список региона

Альбомный регион обзор оборудования

0
задан 11 March 2016 в 19:17

1 ответ

Я полагал, что отвечу на это имеющее больше знания в CEPH затем, когда я задал вопрос. Хотя, я не могу сказать, почему значения по умолчанию являются значениями по умолчанию в Горизонте. Если они сгенерированы или просто стартовое место для OpenStack.

Альбомное использование диска вытягивают от ceph, который уже включает репликацию.

    cluster eabab000-231c-4edb-855c-dd30b1bab56d
     health HEALTH_OK
     monmap e2: 3 mons at {juju-machine-0-lxc-4=10.14.0.53:6789/0,juju-machine-1-lxc-0=10.14.0.62:6789/0,juju-machine-2-lxc-4=10.14.0.60:6789/0}
            election epoch 12, quorum 0,1,2 juju-machine-0-lxc-4,juju-machine-2-lxc-4,juju-machine-1-lxc-0
     osdmap e358: 13 osds: 13 up, 13 in
      pgmap v324244: 1091 pgs, 14 pools, **132 GB data**, 35396 objects
            **378 GB used**, 3636 GB / **4014 GB avail**
                1091 active+clean
  client io 1740 B/s wr, 0 op/s

, Как Вы видите, существует в общей сложности 132 ГБ распространения данных через 14 пулов. В моем случае зола содержит 99% данных использования.

ubuntu@juju-machine-0-lxc-4:~$ sudo ceph df
GLOBAL:
    SIZE      AVAIL     RAW USED     %RAW USED 
    4014G     3636G         378G          9.42 
POOLS:
    NAME                                         ID     USED     %USED     MAX AVAIL     OBJECTS 
    rbd                                          0         0         0         1126G           0 
    .rgw.buckets                                 1      1894         0         1126G           2 
    .rgw.root                                    2       848         0         1126G           3 
    .rgw.control                                 3         0         0         1126G           8 
    .rgw.gc                                      4         0         0         1126G          32 
    .rgw.buckets.index                           5         0         0         1126G           1 
    .rgw.buckets.extra                           6         0         0         1126G           0 
    .log                                         7         0         0         1126G           0 
    .intent-log.usage                            8         0         0         1126G           0 
    .users.users.email.users.swift.users.uid     9         0         0         1126G           0 
    glance                                       10     500M      0.01         1126G          68 
    .rgw                                         11      404         0         1126G           2 
    .users.uid                                   12      417         0         1126G           3 
    cinder                                       13     132G      3.30         1126G       35277 

132 ГБ являются фактическими данными, но существует используемых 378 ГБ. Это - becuase уровня репликации.

ubuntu@juju-machine-0-lxc-4:~$ sudo ceph osd dump | grep -i cinder
pool 13 'cinder' **replicated size 3** min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 166 pgp_num 166 last_change 358 flags hashpspool stripe_width 0

Наше общее пространство просто вычисляется от ИСПОЛЬЗУЕМОГО x Уровня Репликации. Так, Горизонт отображает корректное пространство, доступных 378 ГБ / 4 ТБ. Каждый файл на 100 ГБ, говорит против 300 ГБ пространства.

0
ответ дан 29 September 2019 в 10:24

Другие вопросы по тегам:

Похожие вопросы: