Сбой NFS при запуске

У меня несколько серверов Ubuntu, недавно я установил несколько серверов 11.04 (и 1 рабочий стол), и я только что обнаружил, что при перезагрузке монтируются nfs.

Я пробовал обновление nfs - общая до последней версии (я только одна небольшая ревизия), но это немного меняет мои ошибки. Все эти серверы, имеющие проблемы, являются клонами (vmWare) из шаблона сервера, который я сделал некоторое время назад, поэтому я подумал, может быть, это проблема с шаблоном и, следовательно, со всеми его клонами. Затем я попробовал ту же установку на рабочем столе 11.04, но у меня были те же проблемы. Примерно в половине случаев я смогу нажать «S», чтобы пропустить, но в другую половину времени, когда сервер зависает (и я восстанавливаю его из недавнего моментального снимка). Также странно, что если я am способен попасть в систему, то я могу сделать «mount -a» просто отлично, и он будет монтировать все. Это заставляет меня думать, что проблема в том, что nfs не ждет, пока сеть будет присутствовать, чтобы попытаться установить. Что-то еще заставляет меня думать, что я получаю сообщение об ошибке «неспособность разрешить хост» (к точке NFS), хотя этот узел находится в /etc/hosts.

Вот мой / var / log / boot.log

fsck from util-linux-ng 2.17.2
fsck from util-linux-ng 2.17.2
/dev/sda1 was not cleanly unmounted, check forced.
/dev/mapper/php53x-root: clean, 75641/1032192 files, 492673/4126720 blocks (check in 5 mounts)
init: portmap-wait (statd) main process (373) killed by TERM signal
init: statd main process (402) terminated with status 1
init: statd main process ended, respawning
init: statd-mounting main process (355) killed by TERM signal
mount.nfs: Failed to resolve server NFSSERVER-priv: Name or service not known
init: statd-mounting main process (416) killed by TERM signal
mount.nfs: Failed to resolve server NFSSERVER-priv: Name or service not known
init: statd main process (435) terminated with status 1
init: statd main process ended, respawning
init: statd main process (459) terminated with status 1
init: statd main process ended, respawning
mountall: mount /var/www [410] terminated with status 32
mountall: mount /var/users [436] terminated with status 32
init: statd-mounting main process (448) killed by TERM signal
init: statd main process (468) terminated with status 1
init: statd main process ended, respawning
init: statd main process (498) terminated with status 1
init: statd main process ended, respawning
/dev/sda1: 226/124496 files (1.3% non-contiguous), 39133/248832 blocks
mountall: fsck /boot [268] terminated with status 1
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [583] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [575] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [638] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [645] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [724] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [729] terminated with status 32 Skipping /var/www at user request
 * Starting AppArmor profiles        [80G  [74G[ OK ]
 * Starting Name Service Cache Daemon nscd        [80G  [74G[ OK ]
FATAL: Module vmhgfs not found.
FATAL: Module vmsync not found.
FATAL: Module vmblock not found.
 * Loading open-vm-tools modules        [80G  [74G[ OK ]
 * Starting open-vm daemon vmtoolsd        [80G  [74G[ OK ]

Извините за длинный пост, просто хотел передать как можно больше информации. У кого-нибудь есть предложения по этому поводу? Я весь день работаю в Google, и я пробовал вещи с помощью _netdev и хорошо менял конфигурацию для statd, но ничего не сработало. Я использую 6 серверов. : \

/ etc / fstab: (только для проблемных строк - их удаление будет поддерживать остальные nfs)

NFSSERVER-priv:/vol/vol1_isp/eshowcase/sites      /var/www       nfs     ro,defaults        0       0
NFSSERVER-priv:/vol/vol1_isp/vusers      /var/users       nfs     defaults        0       0

/ etc / hosts (соответствующая запись):

10.1.1.43 NFSSERVER-priv
7
задан 8 November 2011 в 02:54

5 ответов

Вот что я сделал для работы, если кто-то еще сталкивается с этой проблемой и ищет решение здесь:

Создал скрипт (mountall.sh) в /etc/init.d/ :

#!/bin/bash

mount -r NFSSERVER-priv:/vol/vol1_isp/eshowcase/sites /var/www
mount    NFSSERVER-priv:/vol/vol1_isp/vusers          /var/users

Известить систему о новом скрипте:

update-rc.d mountall.sh defaults

Опция «defaults» помещает ссылку для запуска mountall.sh в уровнях запуска 2, 3, 4 и 5. (и помещает ссылку, чтобы остановить mountall.sh в 0, 1 и 6.)

Chmod файл, подлежащий исполнению

chmod +x mountall.sh

Теперь, когда вы начинаете 6 вы должны иметь свои точки монтирования. Также хорошая идея сделать «комментарий» в вашем fstab, чтобы люди знали, где все на самом деле монтируется, так как это будет первое место, которое они будут смотреть.

3
ответ дан 25 May 2018 в 17:05

Не уверен, что это применимо к вам, но проблема, с которой я столкнулась, заключалась в том, что каталог, который я пытался установить, не был доступен при загрузке. Вместо этого я попытался установить /mnt, и он сработал.

1
ответ дан 25 May 2018 в 17:05

У меня была такая же проблема после обновления ubuntu с 14.04 по 14.10. Вот что решило проблему для меня:

Измените /etc/default/nfs-common и убедитесь, что она говорит:

NEED_STATD=yes

После перезагрузки мои монстры NFS работали.

1
ответ дан 25 May 2018 в 17:05

Если вы используете окно 8, то, конечно, форматированные диски nfs не будут монтироваться, и ответ на эту проблему «просто снова установите Windows 8 и отключите параметр hibernate в настройках», тогда вы сможете смонтировать диски с форматированием nfs.

-3
ответ дан 25 May 2018 в 17:05
  • 1
    Если вы прочитаете вопрос, он спрашивает об общих ресурсах NFS, а не о ресурсах NTFS. Поэтому Windows не имеет ничего общего с этой проблемой. – agc93 18 November 2013 в 14:57

У меня была такая же проблема после обновления ubuntu с 14.04 по 14.10. Вот что решило проблему для меня:

Измените /etc/default/nfs-common и убедитесь, что она говорит:

NEED_STATD=yes

После перезагрузки мои монстры NFS работали.

1
ответ дан 10 August 2018 в 08:48

Другие вопросы по тегам:

Похожие вопросы: