Ubuntu - испорченная таблица разделов

У меня есть сервер человечности 14.04 vm на сервере Xen. Мне выделили дисковое пространство на 40 ГБ ему, и моя таблица разделов похожа на это

df -h
Filesystem                               Size  Used Avail Use% Mounted on
udev                                      16G  4.0K   16G   1% /dev
tmpfs                                    3.1G  712K  3.1G   1% /run
/dev/mapper/QAAutomationServer--vg-root  8.3G  7.1G  797M  91% /
none                                     4.0K     0  4.0K   0% /sys/fs/cgroup
none                                     5.0M     0  5.0M   0% /run/lock
none                                      16G     0   16G   0% /run/shm
none                                     100M     0  100M   0% /run/user
/dev/xvda1                               236M   68M  156M  31% /boot

при взятии более внимательных взглядов Вы видите, что моему корневому разделу выделили приблизительно 8 ГБ ему и почти полон./run/shm имеет 16 ГБ, и/dev имеет еще 16 ГБ, которые едва используются.

Я пытался считать Google к findout, если я могу устранить эту проблему, но каждое решение, которое я нахожу, предлагает загрузить использование живой CD и использование gparted для управления разделами. Но будучи на vm на Xen, я не могу сделать этого.

Кто-либо может помочь мне устранить эту проблему?

Спасибо, Kiran

Править

вывод sudo parted -l

Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/QAAutomationServer--vg-root: 9135MB
Sector size (logical/physical): 512B/512B
Partition Table: loop

Number  Start  End     Size    File system  Flags
 1      0.00B  9135MB  9135MB  ext4


Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/QAAutomationServer--vg-swap_1: 33.6GB
Sector size (logical/physical): 512B/512B
Partition Table: loop

Number  Start  End     Size    File system     Flags
 1      0.00B  33.6GB  33.6GB  linux-swap(v1)


Model: Xen Virtual Block Device (xvd)
Disk /dev/xvda: 42.9GB
Sector size (logical/physical): 512B/512B
Partition Table: msdos

Number  Start   End     Size    Type      File system  Flags
 1      1049kB  256MB   255MB   primary   ext2
 2      257MB   42.9GB  42.7GB  extended
 5      257MB   42.9GB  42.7GB  logical                lvm

Edit2

Я провел некоторое исследование на lvm и узнал, что могу изменить размер использования логических разделов lvextend и lvreduce.

вот вывод lvdisplay

lvdisplay
  --- Logical volume ---
  LV Path                /dev/QAAutomationServer-vg/root
  LV Name                root
  VG Name                QAAutomationServer-vg
  LV UUID                ZRnyaa-fDlK-ulAH-2rcv-Haga-lxuU-TB0kqb
  LV Write Access        read/write
  LV Creation host, time QAAutomationServer, 2015-09-04 11:57:16 -0700
  LV Status              available
  # open                 1
  LV Size                8.51 GiB
  Current LE             2178
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0

  --- Logical volume ---
  LV Path                /dev/QAAutomationServer-vg/swap_1
  LV Name                swap_1
  VG Name                QAAutomationServer-vg
  LV UUID                QTPf2n-y8CA-FZDL-3xLH-33BX-mZIv-Zx1Jyu
  LV Write Access        read/write
  LV Creation host, time QAAutomationServer, 2015-09-04 11:57:17 -0700
  LV Status              available
  # open                 0
  LV Size                31.25 GiB
  Current LE             8000
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1

Таким образом, я пробую lvreduce -L -5g /xyz на разделе подкачки и затем lvextend -L +5g /abc на корневом разделе.

и после того как это сделано, я делаю a sudo resize2fs /def на корневом разделе

Я не уверен, что это не гарантирует потери данных, но я вижу, что у меня есть дополнительное пространство на корневом разделе теперь.

df -h
Filesystem                               Size  Used Avail Use% Mounted on
udev                                      16G  4.0K   16G   1% /dev
tmpfs                                    3.1G  712K  3.1G   1% /run
/dev/mapper/QAAutomationServer--vg-root   14G  7.1G  5.6G  57% /
none                                     4.0K     0  4.0K   0% /sys/fs/cgroup
none                                     5.0M     0  5.0M   0% /run/lock
none                                      16G     0   16G   0% /run/shm
none                                     100M     0  100M   0% /run/user
/dev/xvda1                               236M   68M  156M  31% /boot
0
задан 18 January 2016 в 22:50

2 ответа

То, что Вы показали наверху своего примечания, не является Вашей таблицей разделов. Это - список Ваших смонтированных систем.
/run/shm и/dev не являются 'реальными' файловыми системами. Это - виртуальные файловые системы, расположенные в RAM Вашего компьютера. Они не используют ни одного Вашего дискового пространства.
то, Что действительно интересно:

Model: Xen Virtual Block Device (xvd)
Disk /dev/xvda: 42.9GB
[...]
Number  Start   End     Size    Type      File system  Flags
 1      1049kB  256MB   255MB   primary   ext2
 2      257MB   42.9GB  42.7GB  extended
 5      257MB   42.9GB  42.7GB  logical                lvm

Ваше устройство виртуального диска (~42GB размера) разделено на двух основных разделах: 1: начальная загрузка (смонтированная реклама / начальная загрузка) 2. расширенный В Вашем расширенном разделе у Вас есть один раздел для lvm. LVM обозначает Менеджер томов Linux. Это создает виртуальное блочное устройство, которое можно использовать в качестве обычного блочного устройства, но расширить или уменьшить 'на лету' и создать его с несколькими физическими томами, который очень удобен в некоторых ситуациях.

На том виртуальном устройстве у Вас есть два виртуальных раздела:
Сначала:

/dev/mapper/QAAutomationServer--vg-root: 9135MB

, который смонтирован как Ваш корневой раздел, и во-вторых:

/dev/mapper/QAAutomationServer--vg-swap_1: 33.6GB

, который является Вашей подкачкой.

, Как Вы видите, подкачка использует по 3/4 Вашего целого диска.

, Таким образом, мой совет: 1. Выключите подкачку 2. Удалите/уменьшите раздел подкачки 3. Разверните корневой раздел 4. Измените размер rootfs (это может быть сделано, вероятно, в 'живой' файловой системе), 5. Создайте раздел подкачки, использующий остающееся пространство 6. Включите подкачку

Здесь, Вы найдете, как иметь дело с объемами LVM: http://www.tecmint.com/extend-and-reduce-lvms-in-linux/

0
ответ дан 26 July 2019 в 09:20

Так как я сделал свою начальную настройку с помощью lvm, я смог использовать lvm, чтобы изменить размер моих логических томов и затем изменить размер корневого раздела.

https://wiki.ubuntu.com/Lvm

lvdisplay - перечисляет все lvm разделы, доступные

lvreduce -L -5g /lvmpartition - уменьшает выбранный lvmpartition 5G

lvextend -L +5g /lvmpartition - расширяет выбранный lvmpartition 5G

, Так как я имел о 30G выделенный подкачке, я смог уменьшить его к 10G и расширить lvm-корневой раздел с помощью получающегося 20G свободное пространство.

Вот вывод lvdisplay после модификаций

  LV Path                /dev/QAAutomationServer-vg/root
  LV Name                root
  VG Name                QAAutomationServer-vg
  LV UUID                ZRnyaa-fDlK-ulAH-2rcv-Haga-lxuU-TB0kqb
  LV Write Access        read/write
  LV Creation host, time QAAutomationServer, 2015-09-04 11:57:16 -0700
  LV Status              available
  # open                 1
  LV Size                30.51 GiB
  Current LE             7810
  Segments               3
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:0

  --- Logical volume ---
  LV Path                /dev/QAAutomationServer-vg/swap_1
  LV Name                swap_1
  VG Name                QAAutomationServer-vg
  LV UUID                QTPf2n-y8CA-FZDL-3xLH-33BX-mZIv-Zx1Jyu
  LV Write Access        read/write
  LV Creation host, time QAAutomationServer, 2015-09-04 11:57:17 -0700
  LV Status              available
  # open                 0
  LV Size                9.25 GiB
  Current LE             2368
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
  - currently set to     256
  Block device           252:1

теперь, я сделал sudo resize2fs на корневом разделе и здесь являюсь выводом df -h

df -h
Filesystem                               Size  Used Avail Use% Mounted on
udev                                      16G  4.0K   16G   1% /dev
tmpfs                                    3.1G  712K  3.1G   1% /run
/dev/mapper/QAAutomationServer--vg-root   30G  7.1G   22G  25% /
none                                     4.0K     0  4.0K   0% /sys/fs/cgroup
none                                     5.0M     0  5.0M   0% /run/lock
none                                      16G  4.0K   16G   1% /run/shm
none                                     100M     0  100M   0% /run/user
/dev/xvda1                               236M   68M  156M  31% /boot

, Это повысило пространство на моем корневом разделе. Надеюсь, что этот ответ помогает кому-то с подобными проблемами.

0
ответ дан 26 July 2019 в 09:20

Другие вопросы по тегам:

Похожие вопросы: