Я загружаю файлы на недавно установленном сервере Ubuntu 18.04 LTS, используя FTP, но каждый раз, когда я копирую файл, на стороне сервера создается новый процесс, а старый процесс не закрывается, что приводит к безумным объемам оперативной памяти для передача большого количества файлов небольшого размера. Прямо сейчас я отменил передачу, потому что потребовалось 6 ГБ ОЗУ из 8 ГБ сервера.
Закрытие отдельных процессов - беспорядок, потому что их много, поэтому я перезагружаю сервер после копирования определенного количества файлов. Почему это происходит?
Как правило, при перемещении большого количества файлов, FTP использует поршень для хранения кэша так, чтобы, если существует задержка сетевого соединения, это только приводит задание к сбою. Я рекомендовал бы использовать тип сжатия когда движущиеся файлы как шар Tar.
В отношении Ваших задач, не закрывающихся, это действительно нечетно, не имея глаз на него, я не смог бы сказать наверняка, но это кажется, что задание не получает команду уничтожения и или сервер получения не отправил заключительную команду "Thank you, I got it all", чтобы сигнализировать, чтобы FTP остановился.