Теперь у меня есть 7-узловый кластер openstack, созданный с помощью ландшафта / автопилота. Я выбрал ceph для всего.
После того, как вошел в Джуджу / заглянул в ceph.
juju ssh ceph/0
root@topdesk:~# rados df
pool name category KB objects clones degraded unfound rd rd KB wr wr KB
.rgw - 2 6 0 0 0 20 14 23 6
.rgw.buckets - 2 4 0 0 0 108 90 24 5
.rgw.buckets.index - 0 3 0 0 0 25 22 19 0
.rgw.control - 0 8 0 0 0 0 0 0 0
.rgw.gc - 0 32 0 0 0 828 828 576 0
.rgw.root - 1 3 0 0 0 24 16 3 3
.users.uid - 1 5 0 0 0 17 13 18 3
cinder - 4588521 1905 0 0 0 2120 6610 6679 3500193
data - 0 0 0 0 0 0 0 0 0
glance - 12636624 1557 0 0 0 1122 2737602 3140 12636631
metadata - 0 0 0 0 0 0 0 0 0
rbd - 0 0 0 0 0 0 0 0 0
total used 52120568 3523
total avail 11725934688
total space 11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
Для нахождения устойчивости данных попробуйте
sudo ceph osd dump | less
В начале вывода, это покажет Вам, пулы и дублируемый размер или кодирование стирания рассчитывают в зависимости от Вашей установки.
Экземпляр живая миграция зависит от типа используемого устройства хранения данных объема. Если это - поддержанное устройство хранения данных объема, то можно использовать живую миграцию. (И да, те объемы также находятся на Ceph).
Упругость Ceph в Автопилоте является 3 копиями. Никакое кодирование стирания не используется, поскольку это в настоящее время не рекомендуется для блока.