mpirun -np N, что, если N больше моего основного номера?

Возможно, вам нужно создать папку автозапуска, но вы можете сделать это следующим образом:

gnome-desktop-item-edit /home/yourUser/.config/autostart/nameYourShortcut.desktop --create-new

Для команды в вашем новом сокращенном виде, который будет запущен при запуске, используйте:

[F2]
5
задан 31 May 2012 в 02:42

23 ответа

9 будет работать одновременно. Не существует путаницы для оставшегося 1 процесса; mpirun по порядку по кругу по умолчанию, поэтому 1-му ядру / узлу будет назначен этот процесс. Вы, безусловно, можете увеличить np за пределы количества доступных физических ядер / узлов. Компромисс заключается в том, что накладные расходы увеличиваются с большим количеством процессов, чем ядра / узлы. Если ваш код не сильно связан с ЦП (например, требует значительного времени ожидания ввода-вывода), вы должны это сделать. В конечном счете, вы не знаете, будет ли это быстрее, пока вы не попробуете. MPI выполняет начальное планирование, но для нескольких процессов на узел или просто в общем (поскольку в фоновом режиме также работает несколько других процессов), планировщик ядра Linux берет верх.

См. эту страницу руководства для получения более подробной информации.

4
ответ дан 25 May 2018 в 10:47
  1. 9 будет выполняться одновременно.
  2. Не существует путаницы для оставшегося 1 процесса; mpirun по порядку по кругу по умолчанию, поэтому 1-му ядру / узлу будет назначен этот процесс.
  3. Вы можете, конечно, увеличить np за пределы количества доступных физических ядер / узлов. Компромисс заключается в том, что накладные расходы увеличиваются с большим количеством процессов, чем ядра / узлы. Если ваш код не сильно связан с ЦП (например, требует значительного времени ожидания ввода-вывода), вы должны сделать это. В конечном счете, вы не знаете, будет ли это быстрее, пока вы не попытаетесь.
  4. MPI выполняет начальное планирование, но для нескольких процессов на узел или просто в целом (поскольку существует ряд других процессы, запущенные в фоновом режиме), планировщик ядра Linux принимает на себя.

Более подробную информацию см. в этой странице руководства .

4
ответ дан 25 July 2018 в 18:42
  1. 9 будет выполняться одновременно.
  2. Не существует путаницы для оставшегося 1 процесса; mpirun по порядку по кругу по умолчанию, поэтому 1-му ядру / узлу будет назначен этот процесс.
  3. Вы можете, конечно, увеличить np за пределы количества доступных физических ядер / узлов. Компромисс заключается в том, что накладные расходы увеличиваются с большим количеством процессов, чем ядра / узлы. Если ваш код не сильно связан с ЦП (например, требует значительного времени ожидания ввода-вывода), вы должны сделать это. В конечном счете, вы не знаете, будет ли это быстрее, пока вы не попытаетесь.
  4. MPI выполняет начальное планирование, но для нескольких процессов на узел или просто в целом (поскольку существует ряд других процессы, запущенные в фоновом режиме), планировщик ядра Linux принимает на себя.

Более подробную информацию см. в этой странице руководства .

4
ответ дан 2 August 2018 в 00:51
  1. 9 будет выполняться одновременно.
  2. Не существует путаницы для оставшегося 1 процесса; mpirun по порядку по кругу по умолчанию, поэтому 1-му ядру / узлу будет назначен этот процесс.
  3. Вы можете, конечно, увеличить np за пределы количества доступных физических ядер / узлов. Компромисс заключается в том, что накладные расходы увеличиваются с большим количеством процессов, чем ядра / узлы. Если ваш код не сильно связан с ЦП (например, требует значительного времени ожидания ввода-вывода), вы должны сделать это. В конечном счете, вы не знаете, будет ли это быстрее, пока вы не попытаетесь.
  4. MPI выполняет начальное планирование, но для нескольких процессов на узел или просто в целом (поскольку существует ряд других процессы, запущенные в фоновом режиме), планировщик ядра Linux принимает на себя.

Более подробную информацию см. в этой странице руководства .

4
ответ дан 4 August 2018 в 16:22
  1. 9 будет выполняться одновременно.
  2. Не существует путаницы для оставшегося 1 процесса; mpirun по порядку по кругу по умолчанию, поэтому 1-му ядру / узлу будет назначен этот процесс.
  3. Вы можете, конечно, увеличить np за пределы количества доступных физических ядер / узлов. Компромисс заключается в том, что накладные расходы увеличиваются с большим количеством процессов, чем ядра / узлы. Если ваш код не сильно связан с ЦП (например, требует значительного времени ожидания ввода-вывода), вы должны сделать это. В конечном счете, вы не знаете, будет ли это быстрее, пока вы не попытаетесь.
  4. MPI выполняет начальное планирование, но для нескольких процессов на узел или просто в целом (поскольку существует ряд других процессы, запущенные в фоновом режиме), планировщик ядра Linux принимает на себя.

Более подробную информацию см. в этой странице руководства .

4
ответ дан 6 August 2018 в 01:01
  1. 9 будет выполняться одновременно.
  2. Не существует путаницы для оставшегося 1 процесса; mpirun по порядку по кругу по умолчанию, поэтому 1-му ядру / узлу будет назначен этот процесс.
  3. Вы можете, конечно, увеличить np за пределы количества доступных физических ядер / узлов. Компромисс заключается в том, что накладные расходы увеличиваются с большим количеством процессов, чем ядра / узлы. Если ваш код не сильно связан с ЦП (например, требует значительного времени ожидания ввода-вывода), вы должны сделать это. В конечном счете, вы не знаете, будет ли это быстрее, пока вы не попытаетесь.
  4. MPI выполняет начальное планирование, но для нескольких процессов на узел или просто в целом (поскольку существует ряд других процессы, запущенные в фоновом режиме), планировщик ядра Linux принимает на себя.

Более подробную информацию см. в этой странице руководства .

4
ответ дан 7 August 2018 в 18:27
  1. 9 будет выполняться одновременно.
  2. Не существует путаницы для оставшегося 1 процесса; mpirun по порядку по кругу по умолчанию, поэтому 1-му ядру / узлу будет назначен этот процесс.
  3. Вы можете, конечно, увеличить np за пределы количества доступных физических ядер / узлов. Компромисс заключается в том, что накладные расходы увеличиваются с большим количеством процессов, чем ядра / узлы. Если ваш код не сильно связан с ЦП (например, требует значительного времени ожидания ввода-вывода), вы должны сделать это. В конечном счете, вы не знаете, будет ли это быстрее, пока вы не попытаетесь.
  4. MPI выполняет начальное планирование, но для нескольких процессов на узел или просто в целом (поскольку существует ряд других процессы, запущенные в фоновом режиме), планировщик ядра Linux принимает на себя.

Более подробную информацию см. в этой странице руководства .

4
ответ дан 10 August 2018 в 07:09
  1. 9 будет выполняться одновременно.
  2. Не существует путаницы для оставшегося 1 процесса; mpirun по порядку по кругу по умолчанию, поэтому 1-му ядру / узлу будет назначен этот процесс.
  3. Вы можете, конечно, увеличить np за пределы количества доступных физических ядер / узлов. Компромисс заключается в том, что накладные расходы увеличиваются с большим количеством процессов, чем ядра / узлы. Если ваш код не сильно связан с ЦП (например, требует значительного времени ожидания ввода-вывода), вы должны сделать это. В конечном счете, вы не знаете, будет ли это быстрее, пока вы не попытаетесь.
  4. MPI выполняет начальное планирование, но для нескольких процессов на узел или просто в целом (поскольку существует ряд других процессы, запущенные в фоновом режиме), планировщик ядра Linux принимает на себя.

Более подробную информацию см. в этой странице руководства .

4
ответ дан 15 August 2018 в 19:08

9 немедленно.

Если нет, размер юниверса будет неправильным. Все процессы должны существовать в одно и то же время или не будут видны для других экземпляров.

Если память вашего экземпляра слишком высока, вы можете вручную остановить остальные 5 процессов, пока остальные 4 не закончили.

Однако, если вы используете MPI таким образом (только для вашей локальной машины), позвольте мне порекомендовать вам OpenMP / tbb. MPI действительно предназначен для распространения приложения на нескольких сетевых компьютерах или узлах кластера.

0
ответ дан 25 May 2018 в 10:47
  • 1
    Могу ли я просто openmp -np 8 XXX, или tbb -np 8 XXX? Или мне нужно изменить сам код? Как решить использовать 8 или 12. Спасибо! – Daniel 31 May 2012 в 03:02

Да, вам нужно будет значительно изменить код, чтобы превратить его из приложения MPI в приложение OpenMP или TBB. Если ваше приложение уже разработано, попробуйте его и выполните измерения производительности, прежде чем делать что-либо, что сильно.

0
ответ дан 25 May 2018 в 10:47

9 немедленно.

Если нет, размер юниверса будет неправильным. Все процессы должны существовать в одно и то же время или не будут видны для других экземпляров.

Если память вашего экземпляра слишком высока, вы можете вручную остановить остальные 5 процессов, пока другие 4 не закончили.

Однако, если вы используете MPI таким образом (только для вашей локальной машины), позвольте мне порекомендовать вам OpenMP / tbb. MPI действительно предназначен для распространения приложения на нескольких сетевых компьютерах или узлах кластера.

0
ответ дан 25 July 2018 в 18:42

Да, вам нужно будет значительно изменить код, чтобы превратить его из приложения MPI в приложение OpenMP или TBB. Если ваше приложение уже разработано, попробуйте его и выполните измерения производительности, прежде чем делать что-либо, что сильно.

0
ответ дан 2 August 2018 в 00:51

9 немедленно.

Если нет, размер юниверса будет неправильным. Все процессы должны существовать в одно и то же время или не будут видны для других экземпляров.

Если память вашего экземпляра слишком высока, вы можете вручную остановить остальные 5 процессов, пока другие 4 не закончили.

Однако, если вы используете MPI таким образом (только для вашей локальной машины), позвольте мне порекомендовать вам OpenMP / tbb. MPI действительно предназначен для распространения приложения на нескольких сетевых компьютерах или узлах кластера.

0
ответ дан 2 August 2018 в 00:51

Да, вам нужно будет значительно изменить код, чтобы превратить его из приложения MPI в приложение OpenMP или TBB. Если ваше приложение уже разработано, попробуйте его и выполните измерения производительности, прежде чем делать что-либо, что сильно.

0
ответ дан 4 August 2018 в 16:22

9 немедленно.

Если нет, размер юниверса будет неправильным. Все процессы должны существовать в одно и то же время или не будут видны для других экземпляров.

Если память вашего экземпляра слишком высока, вы можете вручную остановить остальные 5 процессов, пока другие 4 не закончили.

Однако, если вы используете MPI таким образом (только для вашей локальной машины), позвольте мне порекомендовать вам OpenMP / tbb. MPI действительно предназначен для распространения приложения на нескольких сетевых компьютерах или узлах кластера.

0
ответ дан 4 August 2018 в 16:22

Да, вам нужно будет значительно изменить код, чтобы превратить его из приложения MPI в приложение OpenMP или TBB. Если ваше приложение уже разработано, попробуйте его и выполните измерения производительности, прежде чем делать что-либо, что сильно.

0
ответ дан 6 August 2018 в 01:01

9 немедленно.

Если нет, размер юниверса будет неправильным. Все процессы должны существовать в одно и то же время или не будут видны для других экземпляров.

Если память вашего экземпляра слишком высока, вы можете вручную остановить остальные 5 процессов, пока другие 4 не закончили.

Однако, если вы используете MPI таким образом (только для вашей локальной машины), позвольте мне порекомендовать вам OpenMP / tbb. MPI действительно предназначен для распространения приложения на нескольких сетевых компьютерах или узлах кластера.

0
ответ дан 6 August 2018 в 01:01

Да, вам нужно будет значительно изменить код, чтобы превратить его из приложения MPI в приложение OpenMP или TBB. Если ваше приложение уже разработано, попробуйте его и выполните измерения производительности, прежде чем делать что-либо, что сильно.

0
ответ дан 7 August 2018 в 18:27

9 немедленно.

Если нет, размер юниверса будет неправильным. Все процессы должны существовать в одно и то же время или не будут видны для других экземпляров.

Если память вашего экземпляра слишком высока, вы можете вручную остановить остальные 5 процессов, пока другие 4 не закончили.

Однако, если вы используете MPI таким образом (только для вашей локальной машины), позвольте мне порекомендовать вам OpenMP / tbb. MPI действительно предназначен для распространения приложения на нескольких сетевых компьютерах или узлах кластера.

0
ответ дан 7 August 2018 в 18:27

9 немедленно.

Если нет, размер юниверса будет неправильным. Все процессы должны существовать в одно и то же время или не будут видны для других экземпляров.

Если память вашего экземпляра слишком высока, вы можете вручную остановить остальные 5 процессов, пока другие 4 не закончили.

Однако, если вы используете MPI таким образом (только для вашей локальной машины), позвольте мне порекомендовать вам OpenMP / tbb. MPI действительно предназначен для распространения приложения на нескольких сетевых компьютерах или узлах кластера.

0
ответ дан 10 August 2018 в 07:09

Да, вам нужно будет значительно изменить код, чтобы превратить его из приложения MPI в приложение OpenMP или TBB. Если ваше приложение уже разработано, попробуйте его и выполните измерения производительности, прежде чем делать что-либо, что сильно.

0
ответ дан 10 August 2018 в 07:09

Да, вам нужно будет значительно изменить код, чтобы превратить его из приложения MPI в приложение OpenMP или TBB. Если ваше приложение уже разработано, попробуйте его и выполните измерения производительности, прежде чем делать что-либо, что сильно.

0
ответ дан 15 August 2018 в 19:08

9 немедленно.

Если нет, размер юниверса будет неправильным. Все процессы должны существовать в одно и то же время или не будут видны для других экземпляров.

Если память вашего экземпляра слишком высока, вы можете вручную остановить остальные 5 процессов, пока другие 4 не закончили.

Однако, если вы используете MPI таким образом (только для вашей локальной машины), позвольте мне порекомендовать вам OpenMP / tbb. MPI действительно предназначен для распространения приложения на нескольких сетевых компьютерах или узлах кластера.

0
ответ дан 15 August 2018 в 19:08
  • 1
    Могу ли я просто openmp -np 8 XXX, или tbb -np 8 XXX? Или мне нужно изменить сам код? Как решить использовать 8 или 12. Спасибо! – Daniel 31 May 2012 в 03:02

Другие вопросы по тегам:

Похожие вопросы: