Изучите устойчивость ceph на автопилоте openstack

Теперь у меня есть 7-узловый кластер openstack, созданный с помощью ландшафта / автопилота. Я выбрал ceph для всего.

После того, как вошел в Джуджу / заглянул в ceph.

juju ssh ceph/0  
root@topdesk:~# rados df
pool name       category                 KB      objects       clones     degraded      unfound           rd        rd KB           wr        wr KB
.rgw            -                          2            6            0            0           0           20           14           23            6
.rgw.buckets    -                          2            4            0            0           0          108           90           24            5
.rgw.buckets.index -                          0            3            0            0           0           25           22           19            0
.rgw.control    -                          0            8            0            0           0            0            0            0            0
.rgw.gc         -                          0           32            0            0           0          828          828          576            0
.rgw.root       -                          1            3            0            0           0           24           16            3            3
.users.uid      -                          1            5            0            0           0           17           13           18            3
cinder          -                    4588521         1905            0            0           0         2120         6610         6679      3500193
data            -                          0            0            0            0           0            0            0            0            0
glance          -                   12636624         1557            0            0           0         1122      2737602         3140     12636631
metadata        -                          0            0            0            0           0            0            0            0            0
rbd             -                          0            0            0            0           0            0            0            0            0
  total used        52120568         3523
  total avail    11725934688
  total space    11778055256
root@topdesk:~# ceph osd lspools
0 data,1 metadata,2 rbd,3 .rgw.root,4 .rgw.control,5 .rgw,6 .rgw.gc,7 .users.uid,8 cinder,9 glance,10 .rgw.buckets.index,11 .rgw.buckets,
  1. Как узнать, сколько у меня «устойчивости», и сколько раз реплицируются данные?
  2. Сохраняются ли экземпляры также на ceph, чтобы я мог жить миграция?
1
задан 2 June 2015 в 17:58

2 ответа

Для нахождения устойчивости данных попробуйте

sudo ceph osd dump | less

В начале вывода, это покажет Вам, пулы и дублируемый размер или кодирование стирания рассчитывают в зависимости от Вашей установки.

Экземпляр живая миграция зависит от типа используемого устройства хранения данных объема. Если это - поддержанное устройство хранения данных объема, то можно использовать живую миграцию. (И да, те объемы также находятся на Ceph).

0
ответ дан 2 June 2015 в 17:58

Упругость Ceph в Автопилоте является 3 копиями. Никакое кодирование стирания не используется, поскольку это в настоящее время не рекомендуется для блока.

0
ответ дан 3 June 2015 в 03:58
  • 1
    большое спасибо за ответ и информацию, это действительно работало:) – user6748658 26 August 2016 в 03:31

Другие вопросы по тегам:

Похожие вопросы: