У меня несколько серверов Ubuntu, недавно я установил несколько серверов 11.04 (и 1 рабочий стол), и я только что обнаружил, что при перезагрузке монтируются nfs.
Я пробовал обновление nfs - общая до последней версии (я только одна небольшая ревизия), но это немного меняет мои ошибки. Все эти серверы, имеющие проблемы, являются клонами (vmWare) из шаблона сервера, который я сделал некоторое время назад, поэтому я подумал, может быть, это проблема с шаблоном и, следовательно, со всеми его клонами. Затем я попробовал ту же установку на рабочем столе 11.04, но у меня были те же проблемы. Примерно в половине случаев я смогу нажать «S», чтобы пропустить, но в другую половину времени, когда сервер зависает (и я восстанавливаю его из недавнего моментального снимка). Также странно, что если я am способен попасть в систему, то я могу сделать «mount -a» просто отлично, и он будет монтировать все. Это заставляет меня думать, что проблема в том, что nfs не ждет, пока сеть будет присутствовать, чтобы попытаться установить. Что-то еще заставляет меня думать, что я получаю сообщение об ошибке «неспособность разрешить хост» (к точке NFS), хотя этот узел находится в /etc/hosts.
Вот мой / var / log / boot.log
fsck from util-linux-ng 2.17.2
fsck from util-linux-ng 2.17.2
/dev/sda1 was not cleanly unmounted, check forced.
/dev/mapper/php53x-root: clean, 75641/1032192 files, 492673/4126720 blocks (check in 5 mounts)
init: portmap-wait (statd) main process (373) killed by TERM signal
init: statd main process (402) terminated with status 1
init: statd main process ended, respawning
init: statd-mounting main process (355) killed by TERM signal
mount.nfs: Failed to resolve server NFSSERVER-priv: Name or service not known
init: statd-mounting main process (416) killed by TERM signal
mount.nfs: Failed to resolve server NFSSERVER-priv: Name or service not known
init: statd main process (435) terminated with status 1
init: statd main process ended, respawning
init: statd main process (459) terminated with status 1
init: statd main process ended, respawning
mountall: mount /var/www [410] terminated with status 32
mountall: mount /var/users [436] terminated with status 32
init: statd-mounting main process (448) killed by TERM signal
init: statd main process (468) terminated with status 1
init: statd main process ended, respawning
init: statd main process (498) terminated with status 1
init: statd main process ended, respawning
/dev/sda1: 226/124496 files (1.3% non-contiguous), 39133/248832 blocks
mountall: fsck /boot [268] terminated with status 1
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [583] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [575] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [638] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [645] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/www [724] terminated with status 32
mount.nfs: rpc.statd is not running but is required for remote locking.
mount.nfs: Either use '-o nolock' to keep locks local, or start statd.
mount.nfs: an incorrect mount option was specified
mountall: mount /var/users [729] terminated with status 32 Skipping /var/www at user request
* Starting AppArmor profiles [80G [74G[ OK ]
* Starting Name Service Cache Daemon nscd [80G [74G[ OK ]
FATAL: Module vmhgfs not found.
FATAL: Module vmsync not found.
FATAL: Module vmblock not found.
* Loading open-vm-tools modules [80G [74G[ OK ]
* Starting open-vm daemon vmtoolsd [80G [74G[ OK ]
Извините за длинный пост, просто хотел передать как можно больше информации. У кого-нибудь есть предложения по этому поводу? Я весь день работаю в Google, и я пробовал вещи с помощью _netdev и хорошо менял конфигурацию для statd, но ничего не сработало. Я использую 6 серверов. : \
/ etc / fstab: (только для проблемных строк - их удаление будет поддерживать остальные nfs)
NFSSERVER-priv:/vol/vol1_isp/eshowcase/sites /var/www nfs ro,defaults 0 0
NFSSERVER-priv:/vol/vol1_isp/vusers /var/users nfs defaults 0 0
/ etc / hosts (соответствующая запись):
10.1.1.43 NFSSERVER-priv
Вот что я сделал для работы, если кто-то еще сталкивается с этой проблемой и ищет решение здесь:
Создал скрипт (mountall.sh) в /etc/init.d/ :
#!/bin/bash
mount -r NFSSERVER-priv:/vol/vol1_isp/eshowcase/sites /var/www
mount NFSSERVER-priv:/vol/vol1_isp/vusers /var/users
Известить систему о новом скрипте:
update-rc.d mountall.sh defaults
Опция «defaults» помещает ссылку для запуска mountall.sh в уровнях запуска 2, 3, 4 и 5. (и помещает ссылку, чтобы остановить mountall.sh в 0, 1 и 6.)
Chmod файл, подлежащий исполнению
chmod +x mountall.sh
Теперь, когда вы начинаете 6 вы должны иметь свои точки монтирования. Также хорошая идея сделать «комментарий» в вашем fstab, чтобы люди знали, где все на самом деле монтируется, так как это будет первое место, которое они будут смотреть.
Не уверен, что это применимо к вам, но проблема, с которой я столкнулась, заключалась в том, что каталог, который я пытался установить, не был доступен при загрузке. Вместо этого я попытался установить /mnt, и он сработал.
У меня была такая же проблема после обновления ubuntu с 14.04 по 14.10. Вот что решило проблему для меня:
Измените /etc/default/nfs-common и убедитесь, что она говорит:
NEED_STATD=yes
После перезагрузки мои монстры NFS работали.
Если вы используете окно 8, то, конечно, форматированные диски nfs не будут монтироваться, и ответ на эту проблему «просто снова установите Windows 8 и отключите параметр hibernate в настройках», тогда вы сможете смонтировать диски с форматированием nfs.
У меня была такая же проблема после обновления ubuntu с 14.04 по 14.10. Вот что решило проблему для меня:
Измените /etc/default/nfs-common
и убедитесь, что она говорит:
NEED_STATD=yes
После перезагрузки мои монстры NFS работали.