У меня есть 5 развернутых машин, сервер Мааса, альбомный сервер и node01,02,03.
Каждый Узел идентичен, 8 ядер, поршень на 32 ГБ, 3 HDs для 1 ГБ за машину, (146, 300, 600 ГБ 15k диски). Маас и среда оба имеют диски на 72 ГБ.
Landscape сообщает о 3 ТБ для всех узлов, регион сообщает о 2 ТБ, применимых в ceph. Значения по умолчанию в Горизонте показывают 1000 ГБ для объемов и снимков и 1000 ГБ для резервного копирования.
Это показывает 2 ТБ, потому что после того, как данные распределяются и копируются, это идет от 3 ТБ до эквивалента на 2 ТБ raid5?
2 ТБ затем разделяются 50/50 со значениями по умолчанию системы между объемами и резервными копиями?
Я полагал, что отвечу на это имеющее больше знания в CEPH затем, когда я задал вопрос. Хотя, я не могу сказать, почему значения по умолчанию являются значениями по умолчанию в Горизонте. Если они сгенерированы или просто стартовое место для OpenStack.
Альбомное использование диска вытягивают от ceph, который уже включает репликацию.
cluster eabab000-231c-4edb-855c-dd30b1bab56d
health HEALTH_OK
monmap e2: 3 mons at {juju-machine-0-lxc-4=10.14.0.53:6789/0,juju-machine-1-lxc-0=10.14.0.62:6789/0,juju-machine-2-lxc-4=10.14.0.60:6789/0}
election epoch 12, quorum 0,1,2 juju-machine-0-lxc-4,juju-machine-2-lxc-4,juju-machine-1-lxc-0
osdmap e358: 13 osds: 13 up, 13 in
pgmap v324244: 1091 pgs, 14 pools, **132 GB data**, 35396 objects
**378 GB used**, 3636 GB / **4014 GB avail**
1091 active+clean
client io 1740 B/s wr, 0 op/s
, Как Вы видите, существует в общей сложности 132 ГБ распространения данных через 14 пулов. В моем случае зола содержит 99% данных использования.
ubuntu@juju-machine-0-lxc-4:~$ sudo ceph df
GLOBAL:
SIZE AVAIL RAW USED %RAW USED
4014G 3636G 378G 9.42
POOLS:
NAME ID USED %USED MAX AVAIL OBJECTS
rbd 0 0 0 1126G 0
.rgw.buckets 1 1894 0 1126G 2
.rgw.root 2 848 0 1126G 3
.rgw.control 3 0 0 1126G 8
.rgw.gc 4 0 0 1126G 32
.rgw.buckets.index 5 0 0 1126G 1
.rgw.buckets.extra 6 0 0 1126G 0
.log 7 0 0 1126G 0
.intent-log.usage 8 0 0 1126G 0
.users.users.email.users.swift.users.uid 9 0 0 1126G 0
glance 10 500M 0.01 1126G 68
.rgw 11 404 0 1126G 2
.users.uid 12 417 0 1126G 3
cinder 13 132G 3.30 1126G 35277
132 ГБ являются фактическими данными, но существует используемых 378 ГБ. Это - becuase уровня репликации.
ubuntu@juju-machine-0-lxc-4:~$ sudo ceph osd dump | grep -i cinder
pool 13 'cinder' **replicated size 3** min_size 2 crush_ruleset 0 object_hash rjenkins pg_num 166 pgp_num 166 last_change 358 flags hashpspool stripe_width 0
Наше общее пространство просто вычисляется от ИСПОЛЬЗУЕМОГО x Уровня Репликации. Так, Горизонт отображает корректное пространство, доступных 378 ГБ / 4 ТБ. Каждый файл на 100 ГБ, говорит против 300 ГБ пространства.