критерий для определения bs = XX [duplicate]

Если вы не указали имя пользователя, ssh будет имя пользователя, которое вы в настоящее время вошли в систему, как в клиенте.

Итак:

username@client$ ssh username@myserver.com

аналогичен:

username@client$ ssh myserver.com

Все остальные параметры, такие как ключи, пароли будут использоваться обычным способом.

13
задан 25 January 2013 в 15:37

11 ответов

Progress

Команда, которую вы указали

dd if=/dev/hda of=/dev/hdb & pid=$! while kill -USR1 $pid; do sleep 1; done

, является приятным двухстрочным, чтобы регулярно получать ход dd. Я тоже очень похож. Выглядит неплохо. [? D2]

Блокирует с dd: выравнивание и производительность

Вы можете добавить размер блока, в котором выполняются операции. Неважно, какой размер блока базового блочного устройства должен обеспечить работу одинаково хорошо, но по соображениям производительности вы можете выбрать тот, который вам подходит.

Прежде всего, есть здесь . В случае, если ваше блочное устройство работает как 512KiB (например, флеш-накопители), было бы очень неудачно запустить dd с bs=512 (байтами), так как это вызовет 1024 записи (!) Для каждого блока с точки зрения устройства. На практике это будет не так плохо, поскольку записи буферизуются и принимаются за один раз, но во время синхронизации он все равно может усилить количество много записей.

Затем также рассмотрим простые накладные расходы на использование ЦП при работе с очень большим количеством небольших операций.

Моя лучшая практика - начать с 1 МБ, так как это очень кратно большинству настроенных устройств, включая размеры RAID-массивов, размер LVM размеры и т. д. На моем ноутбуке с SSD я склонен видеть небольшое улучшение с использованием 10 МБ в качестве размера блока, тогда как я больше не вижу его на своем физическом жестком диске.

Последний блок

Не беспокойтесь о том, что размер диска / объема не является кратным размеру блока. Последний блок dd будет скопирован, будет скорректирован в соответствии с последним битом данных на нем. Вы можете увидеть, был ли последний блок разным размером, посмотрев на выход.

18335302+0 records out

+0 означает, что это было точное совпадение, а +1 означает, что это не так.

См. Также

Хороший размер блока для клонирования диска с помощью diskdump (dd)
14
ответ дан 17 July 2018 в 23:06

Progress

Команда, которую вы указали

dd if=/dev/hda of=/dev/hdb & pid=$! while kill -USR1 $pid; do sleep 1; done

, является приятным двухстрочным, чтобы регулярно получать ход dd. Я тоже очень похож. Выглядит неплохо. [? D2]

Блокирует с dd: выравнивание и производительность

Вы можете добавить размер блока, в котором выполняются операции. Неважно, какой размер блока базового блочного устройства должен обеспечить работу одинаково хорошо, но по соображениям производительности вы можете выбрать тот, который вам подходит.

Прежде всего, есть здесь . В случае, если ваше блочное устройство работает как 512KiB (например, флеш-накопители), было бы очень неудачно запустить dd с bs=512 (байтами), так как это вызовет 1024 записи (!) Для каждого блока с точки зрения устройства. На практике это будет не так плохо, поскольку записи буферизуются и принимаются за один раз, но во время синхронизации он все равно может усилить количество много записей.

Затем также рассмотрим простые накладные расходы на использование ЦП при работе с очень большим количеством небольших операций.

Моя лучшая практика - начать с 1 МБ, так как это очень кратно большинству настроенных устройств, включая размеры RAID-массивов, размер LVM размеры и т. д. На моем ноутбуке с SSD я склонен видеть небольшое улучшение с использованием 10 МБ в качестве размера блока, тогда как я больше не вижу его на своем физическом жестком диске.

Последний блок

Не беспокойтесь о том, что размер диска / объема не является кратным размеру блока. Последний блок dd будет скопирован, будет скорректирован в соответствии с последним битом данных на нем. Вы можете увидеть, был ли последний блок разным размером, посмотрев на выход.

18335302+0 records out

+0 означает, что это было точное совпадение, а +1 означает, что это не так.

См. Также

Хороший размер блока для клонирования диска с помощью diskdump (dd)
14
ответ дан 24 July 2018 в 13:38

Как говорили другие, нет универсально правильного размера блока; то, что оптимально для одной ситуации, или одна часть аппаратного обеспечения может быть ужасно неэффективной для другой. Кроме того, в зависимости от работоспособности дисков может быть предпочтительнее использовать другой размер блока, чем тот, который является «оптимальным».

Одна вещь, которая довольно надежна на современном оборудовании, заключается в том, что размер блока по умолчанию 512 байты, как правило, почти на порядок медленнее, чем более оптимальная альтернатива. Когда я сомневаюсь, я обнаружил, что 64K является довольно солидным современным дефолтом. Хотя 64K обычно не является оптимальным размером блока, по моему опыту он, как правило, намного эффективнее, чем по умолчанию. 64K также имеет довольно солидную историю надежности работы: вы можете найти сообщение из списка рассылки Eug-Lug около 2002 года, рекомендуя размер блока 64K.

Для определения оптимального размера блока вывода, Я написал следующий скрипт, который тестирует запись тестового файла 128M с dd в разных размерах блоков по умолчанию от 512 байт до максимум 64M. Будьте осторожны, этот сценарий использует dd внутренне, поэтому используйте с осторожностью.

dd_obs_test.sh:

#!/bin/bash # Since we're dealing with dd, abort if any errors occur set -e TEST_FILE=${1:-dd_obs_testfile} TEST_FILE_EXISTS=0 if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi TEST_FILE_SIZE=134217728 if [ $EUID -ne 0 ]; then echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2 fi # Header PRINTF_FORMAT="%8s : %s\n" printf "$PRINTF_FORMAT" 'block size' 'transfer rate' # Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864 do # Calculate number of segments required to copy COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE)) if [ $COUNT -le 0 ]; then echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests." break fi # Clear kernel cache to ensure more accurate test [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches # Create a test file with the specified block size DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null) # Extract the transfer rate from dd's STDERR output TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?') # Clean up the test file if we created one if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi # Output the result printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE" done

сообщение из списка рассылки Eug-Lug

Я тестировал этот скрипт только на системе Debian (Ubuntu) и на OSX Yosemite, поэтому, возможно, потребуется некоторое улучшение для работы с другими вариантами Unix.

By по умолчанию команда создаст тестовый файл с именем dd_obs_testfile в текущем каталоге. В качестве альтернативы вы можете указать путь к пользовательскому тестовому файлу, указав путь после имени сценария:

$ ./dd_obs_test.sh /path/to/disk/test_file

. Вывод скрипта - это список проверенных размеров блоков и их соответствующих скоростей передачи, таких как поэтому:

$ ./dd_obs_test.sh block size : transfer rate 512 : 11.3 MB/s 1024 : 22.1 MB/s 2048 : 42.3 MB/s 4096 : 75.2 MB/s 8192 : 90.7 MB/s 16384 : 101 MB/s 32768 : 104 MB/s 65536 : 108 MB/s 131072 : 113 MB/s 262144 : 112 MB/s 524288 : 133 MB/s 1048576 : 125 MB/s 2097152 : 113 MB/s 4194304 : 106 MB/s 8388608 : 107 MB/s 16777216 : 110 MB/s 33554432 : 119 MB/s 67108864 : 134 MB/s

(Примечание: единица скорости передачи будет варьироваться в зависимости от ОС)

Чтобы проверить оптимальный размер блока чтения, вы можете использовать более или менее тот же процесс, но вместо чтения из /dev/zero и записи на диск, вы должны прочитать с диска и записать в /dev/null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash # Since we're dealing with dd, abort if any errors occur set -e TEST_FILE=${1:-dd_ibs_testfile} if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi TEST_FILE_SIZE=134217728 # Exit if file exists if [ -e $TEST_FILE ]; then echo "Test file $TEST_FILE exists, aborting." exit 1 fi TEST_FILE_EXISTS=1 if [ $EUID -ne 0 ]; then echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2 fi # Create test file echo 'Generating test file...' BLOCK_SIZE=65536 COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE)) dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1 # Header PRINTF_FORMAT="%8s : %s\n" printf "$PRINTF_FORMAT" 'block size' 'transfer rate' # Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864 do # Clear kernel cache to ensure more accurate test [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches # Read test file out to /dev/null with specified block size DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null) # Extract transfer rate TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?') printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE" done # Clean up the test file if we created one if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Просмотр в GitHub

Важное различие в этом случае состоит в том, что test file - это файл, написанный скриптом. Не указывайте эту команду в существующем файле, или существующий файл будет перезаписан случайными данными!

Для моего конкретного оборудования я обнаружил, что 128K был наиболее оптимальным размером входного блока на жестком диске, а 32K был наиболее оптимальным на SSD.

Хотя этот ответ охватывает большинство моих находок, мне нужно было определить оптимальный размер блока dd достаточно, чтобы я написал View on GitHub об этом. Вы можете найти более подробную информацию о тестах, которые я там провел.

Это сообщение StackOverflow также может быть полезно: dd: Как рассчитать оптимальный размер блока?

5
ответ дан 17 July 2018 в 23:06

Как говорили другие, нет универсально правильного размера блока; то, что оптимально для одной ситуации, или одна часть аппаратного обеспечения может быть ужасно неэффективной для другой. Кроме того, в зависимости от работоспособности дисков может быть предпочтительнее использовать другой размер блока, чем тот, который является «оптимальным».

Одна вещь, которая довольно надежна на современном оборудовании, заключается в том, что размер блока по умолчанию 512 байты, как правило, почти на порядок медленнее, чем более оптимальная альтернатива. Когда я сомневаюсь, я обнаружил, что 64K является довольно солидным современным дефолтом. Хотя 64K обычно не является оптимальным размером блока, по моему опыту он, как правило, намного эффективнее, чем по умолчанию. 64K также имеет довольно солидную историю надежности работы: вы можете найти сообщение из списка рассылки Eug-Lug около 2002 года, рекомендуя размер блока 64K.

Для определения оптимального размера блока вывода, Я написал следующий скрипт, который тестирует запись тестового файла 128M с dd в разных размерах блоков по умолчанию от 512 байт до максимум 64M. Будьте осторожны, этот сценарий использует dd внутренне, поэтому используйте с осторожностью.

dd_obs_test.sh:

#!/bin/bash # Since we're dealing with dd, abort if any errors occur set -e TEST_FILE=${1:-dd_obs_testfile} TEST_FILE_EXISTS=0 if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi TEST_FILE_SIZE=134217728 if [ $EUID -ne 0 ]; then echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2 fi # Header PRINTF_FORMAT="%8s : %s\n" printf "$PRINTF_FORMAT" 'block size' 'transfer rate' # Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864 do # Calculate number of segments required to copy COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE)) if [ $COUNT -le 0 ]; then echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests." break fi # Clear kernel cache to ensure more accurate test [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches # Create a test file with the specified block size DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null) # Extract the transfer rate from dd's STDERR output TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?') # Clean up the test file if we created one if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi # Output the result printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE" done

сообщение из списка рассылки Eug-Lug

Я тестировал этот скрипт только на системе Debian (Ubuntu) и на OSX Yosemite, поэтому, возможно, потребуется некоторое улучшение для работы с другими вариантами Unix.

By по умолчанию команда создаст тестовый файл с именем dd_obs_testfile в текущем каталоге. В качестве альтернативы вы можете указать путь к пользовательскому тестовому файлу, указав путь после имени сценария:

$ ./dd_obs_test.sh /path/to/disk/test_file

. Вывод скрипта - это список проверенных размеров блоков и их соответствующих скоростей передачи, таких как поэтому:

$ ./dd_obs_test.sh block size : transfer rate 512 : 11.3 MB/s 1024 : 22.1 MB/s 2048 : 42.3 MB/s 4096 : 75.2 MB/s 8192 : 90.7 MB/s 16384 : 101 MB/s 32768 : 104 MB/s 65536 : 108 MB/s 131072 : 113 MB/s 262144 : 112 MB/s 524288 : 133 MB/s 1048576 : 125 MB/s 2097152 : 113 MB/s 4194304 : 106 MB/s 8388608 : 107 MB/s 16777216 : 110 MB/s 33554432 : 119 MB/s 67108864 : 134 MB/s

(Примечание: единица скорости передачи будет варьироваться в зависимости от ОС)

Чтобы проверить оптимальный размер блока чтения, вы можете использовать более или менее тот же процесс, но вместо чтения из /dev/zero и записи на диск, вы должны прочитать с диска и записать в /dev/null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash # Since we're dealing with dd, abort if any errors occur set -e TEST_FILE=${1:-dd_ibs_testfile} if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi TEST_FILE_SIZE=134217728 # Exit if file exists if [ -e $TEST_FILE ]; then echo "Test file $TEST_FILE exists, aborting." exit 1 fi TEST_FILE_EXISTS=1 if [ $EUID -ne 0 ]; then echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2 fi # Create test file echo 'Generating test file...' BLOCK_SIZE=65536 COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE)) dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1 # Header PRINTF_FORMAT="%8s : %s\n" printf "$PRINTF_FORMAT" 'block size' 'transfer rate' # Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864 do # Clear kernel cache to ensure more accurate test [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches # Read test file out to /dev/null with specified block size DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null) # Extract transfer rate TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?') printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE" done # Clean up the test file if we created one if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Просмотр в GitHub

Важное различие в этом случае состоит в том, что test file - это файл, написанный скриптом. Не указывайте эту команду в существующем файле, или существующий файл будет перезаписан случайными данными!

Для моего конкретного оборудования я обнаружил, что 128K был наиболее оптимальным размером входного блока на жестком диске, а 32K был наиболее оптимальным на SSD.

Хотя этот ответ охватывает большинство моих находок, мне нужно было определить оптимальный размер блока dd достаточно, чтобы я написал View on GitHub об этом. Вы можете найти более подробную информацию о тестах, которые я там провел.

Это сообщение StackOverflow также может быть полезно: dd: Как рассчитать оптимальный размер блока?

5
ответ дан 24 July 2018 в 13:38
  • 1
    Научите человека ловить рыбу = +1 – HackSlash 15 February 2018 в 20:34
  • 2
    @ tdg5 Это отличный скрипт, но он запускается в фатальные ошибки при выполнении из Cygwin в среде Windows 7. Есть ли версия, которая будет работать на Cygwin? – Hashim 31 March 2018 в 03:07

Как говорили другие, нет универсально правильного размера блока; то, что оптимально для одной ситуации, или одна часть аппаратного обеспечения может быть ужасно неэффективной для другой. Кроме того, в зависимости от работоспособности дисков может быть предпочтительнее использовать другой размер блока, чем тот, который является «оптимальным».

Одна вещь, которая довольно надежна на современном оборудовании, заключается в том, что размер блока по умолчанию 512 байты, как правило, почти на порядок медленнее, чем более оптимальная альтернатива. Когда я сомневаюсь, я обнаружил, что 64K является довольно солидным современным дефолтом. Хотя 64K обычно не является оптимальным размером блока, по моему опыту он, как правило, намного эффективнее, чем по умолчанию. 64K также имеет довольно солидную историю надежной работы: вы можете найти сообщение из списка рассылки Eug-Lug , около 2002 года, рекомендуя размер блока 64K.

Для определяя размер оптимального выходного блока, я написал следующий скрипт, который тестирует запись тестового файла 128M с dd в разных размерах блоков по умолчанию от 512 байт до максимум 64M.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Просмотреть в GitHub

Я тестировал этот скрипт только на системе Debian (Ubuntu) и на OSX Yosemite, поэтому, возможно, потребуется некоторое улучшение для работы с другими вариантами Unix.

По умолчанию команда создаст тестовый файл с именем dd_obs_testfile в текущем каталоге. В качестве альтернативы вы можете указать путь к пользовательскому тестовому файлу, указав путь после имени сценария:

$ ./dd_obs_test.sh /path/to/disk/test_file

. Вывод сценария - это список тестируемых размеров блоков и их соответствующих скоростей передачи, таких как поэтому:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примечание: единица скорости передачи зависит от ОС)

Чтобы проверить оптимальный размер блока чтения, вы можете использовать более или менее тот же процесс, но вместо чтения из /dev/zero и записи на диск, вы должны прочитать с диска и записать в /dev/null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Просмотр в GitHub

Важный разница в этом случае заключается в том, что тестовый файл является файлом, написанным скриптом. Не указывайте эту команду в существующем файле, или существующий файл будет перезаписан случайными данными!

Для моего конкретного оборудования я обнаружил, что 128K был наиболее оптимальным размером входного блока на жестком диске, а 32K был наиболее оптимальным на SSD.

Хотя этот ответ охватывает большинство моих находок, мне нужно было определить оптимальный размер блока dd достаточное количество раз, что я написал сообщение в блоге об этом. Вы можете найти более подробную информацию о тестах, которые я там провел.

Это сообщение StackOverflow также может быть полезно: dd: Как рассчитать оптимальный размер блока?

5
ответ дан 31 July 2018 в 19:53

Как говорили другие, нет универсально правильного размера блока; то, что оптимально для одной ситуации, или одна часть аппаратного обеспечения может быть ужасно неэффективной для другой. Кроме того, в зависимости от работоспособности дисков может быть предпочтительнее использовать другой размер блока, чем тот, который является «оптимальным».

Одна вещь, которая довольно надежна на современном оборудовании, заключается в том, что размер блока по умолчанию 512 байты, как правило, почти на порядок медленнее, чем более оптимальная альтернатива. Когда я сомневаюсь, я обнаружил, что 64K является довольно солидным современным дефолтом. Хотя 64K обычно не является оптимальным размером блока, по моему опыту он, как правило, намного эффективнее, чем по умолчанию. 64K также имеет довольно солидную историю надежной работы: вы можете найти сообщение из списка рассылки Eug-Lug , около 2002 года, рекомендуя размер блока 64K.

Для определяя размер оптимального выходного блока, я написал следующий скрипт, который тестирует запись тестового файла 128M с dd в разных размерах блоков по умолчанию от 512 байт до максимум 64M.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Просмотреть в GitHub

Я тестировал этот скрипт только на системе Debian (Ubuntu) и на OSX Yosemite, поэтому, возможно, потребуется некоторое улучшение для работы с другими вариантами Unix.

По умолчанию команда создаст тестовый файл с именем dd_obs_testfile в текущем каталоге. В качестве альтернативы вы можете указать путь к пользовательскому тестовому файлу, указав путь после имени сценария:

$ ./dd_obs_test.sh /path/to/disk/test_file

. Вывод сценария - это список тестируемых размеров блоков и их соответствующих скоростей передачи, таких как поэтому:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примечание: единица скорости передачи зависит от ОС)

Чтобы проверить оптимальный размер блока чтения, вы можете использовать более или менее тот же процесс, но вместо чтения из /dev/zero и записи на диск, вы должны прочитать с диска и записать в /dev/null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Просмотр в GitHub

Важный разница в этом случае заключается в том, что тестовый файл является файлом, написанным скриптом. Не указывайте эту команду в существующем файле, или существующий файл будет перезаписан случайными данными!

Для моего конкретного оборудования я обнаружил, что 128K был наиболее оптимальным размером входного блока на жестком диске, а 32K был наиболее оптимальным на SSD.

Хотя этот ответ охватывает большинство моих находок, мне нужно было определить оптимальный размер блока dd достаточное количество раз, что я написал сообщение в блоге об этом. Вы можете найти более подробную информацию о тестах, которые я там провел.

Это сообщение StackOverflow также может быть полезно: dd: Как рассчитать оптимальный размер блока?

5
ответ дан 2 August 2018 в 12:54

Как говорили другие, нет универсально правильного размера блока; то, что оптимально для одной ситуации, или одна часть аппаратного обеспечения может быть ужасно неэффективной для другой. Кроме того, в зависимости от работоспособности дисков может быть предпочтительнее использовать другой размер блока, чем тот, который является «оптимальным».

Одна вещь, которая довольно надежна на современном оборудовании, заключается в том, что размер блока по умолчанию 512 байты, как правило, почти на порядок медленнее, чем более оптимальная альтернатива. Когда я сомневаюсь, я обнаружил, что 64K является довольно солидным современным дефолтом. Хотя 64K обычно не является оптимальным размером блока, по моему опыту он, как правило, намного эффективнее, чем по умолчанию. 64K также имеет довольно солидную историю надежной работы: вы можете найти сообщение из списка рассылки Eug-Lug , около 2002 года, рекомендуя размер блока 64K.

Для определяя размер оптимального выходного блока, я написал следующий скрипт, который тестирует запись тестового файла 128M с dd в разных размерах блоков по умолчанию от 512 байт до максимум 64M.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Просмотреть в GitHub

Я тестировал этот скрипт только на системе Debian (Ubuntu) и на OSX Yosemite, поэтому, возможно, потребуется некоторое улучшение для работы с другими вариантами Unix.

По умолчанию команда создаст тестовый файл с именем dd_obs_testfile в текущем каталоге. В качестве альтернативы вы можете указать путь к пользовательскому тестовому файлу, указав путь после имени сценария:

$ ./dd_obs_test.sh /path/to/disk/test_file

. Вывод сценария - это список тестируемых размеров блоков и их соответствующих скоростей передачи, таких как поэтому:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примечание: единица скорости передачи зависит от ОС)

Чтобы проверить оптимальный размер блока чтения, вы можете использовать более или менее тот же процесс, но вместо чтения из /dev/zero и записи на диск, вы должны прочитать с диска и записать в /dev/null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Просмотр в GitHub

Важный разница в этом случае заключается в том, что тестовый файл является файлом, написанным скриптом. Не указывайте эту команду в существующем файле, или существующий файл будет перезаписан случайными данными!

Для моего конкретного оборудования я обнаружил, что 128K был наиболее оптимальным размером входного блока на жестком диске, а 32K был наиболее оптимальным на SSD.

Хотя этот ответ охватывает большинство моих находок, мне нужно было определить оптимальный размер блока dd достаточное количество раз, что я написал сообщение в блоге об этом. Вы можете найти более подробную информацию о тестах, которые я там провел.

Это сообщение StackOverflow также может быть полезно: dd: Как рассчитать оптимальный размер блока?

5
ответ дан 3 August 2018 в 17:17

Как говорили другие, нет универсально правильного размера блока; то, что оптимально для одной ситуации, или одна часть аппаратного обеспечения может быть ужасно неэффективной для другой. Кроме того, в зависимости от работоспособности дисков может быть предпочтительнее использовать другой размер блока, чем тот, который является «оптимальным».

Одна вещь, которая довольно надежна на современном оборудовании, заключается в том, что размер блока по умолчанию 512 байты, как правило, почти на порядок медленнее, чем более оптимальная альтернатива. Когда я сомневаюсь, я обнаружил, что 64K является довольно солидным современным дефолтом. Хотя 64K обычно не является оптимальным размером блока, по моему опыту он, как правило, намного эффективнее, чем по умолчанию. 64K также имеет довольно солидную историю надежной работы: вы можете найти сообщение из списка рассылки Eug-Lug , около 2002 года, рекомендуя размер блока 64K.

Для определяя размер оптимального выходного блока, я написал следующий скрипт, который тестирует запись тестового файла 128M с dd в разных размерах блоков по умолчанию от 512 байт до максимум 64M.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Просмотреть в GitHub

Я тестировал этот скрипт только на системе Debian (Ubuntu) и на OSX Yosemite, поэтому, возможно, потребуется некоторое улучшение для работы с другими вариантами Unix.

По умолчанию команда создаст тестовый файл с именем dd_obs_testfile в текущем каталоге. В качестве альтернативы вы можете указать путь к пользовательскому тестовому файлу, указав путь после имени сценария:

$ ./dd_obs_test.sh /path/to/disk/test_file

. Вывод сценария - это список тестируемых размеров блоков и их соответствующих скоростей передачи, таких как поэтому:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примечание: единица скорости передачи зависит от ОС)

Чтобы проверить оптимальный размер блока чтения, вы можете использовать более или менее тот же процесс, но вместо чтения из /dev/zero и записи на диск, вы должны прочитать с диска и записать в /dev/null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Просмотр в GitHub

Важный разница в этом случае заключается в том, что тестовый файл является файлом, написанным скриптом. Не указывайте эту команду в существующем файле, или существующий файл будет перезаписан случайными данными!

Для моего конкретного оборудования я обнаружил, что 128K был наиболее оптимальным размером входного блока на жестком диске, а 32K был наиболее оптимальным на SSD.

Хотя этот ответ охватывает большинство моих находок, мне нужно было определить оптимальный размер блока dd достаточное количество раз, что я написал сообщение в блоге об этом. Вы можете найти более подробную информацию о тестах, которые я там провел.

Это сообщение StackOverflow также может быть полезно: dd: Как рассчитать оптимальный размер блока?

5
ответ дан 5 August 2018 в 02:32

Как говорили другие, нет универсально правильного размера блока; то, что оптимально для одной ситуации, или одна часть аппаратного обеспечения может быть ужасно неэффективной для другой. Кроме того, в зависимости от работоспособности дисков может быть предпочтительнее использовать другой размер блока, чем тот, который является «оптимальным».

Одна вещь, которая довольно надежна на современном оборудовании, заключается в том, что размер блока по умолчанию 512 байты, как правило, почти на порядок медленнее, чем более оптимальная альтернатива. Когда я сомневаюсь, я обнаружил, что 64K является довольно солидным современным дефолтом. Хотя 64K обычно не является оптимальным размером блока, по моему опыту он, как правило, намного эффективнее, чем по умолчанию. 64K также имеет довольно солидную историю надежной работы: вы можете найти сообщение из списка рассылки Eug-Lug , около 2002 года, рекомендуя размер блока 64K.

Для определяя размер оптимального выходного блока, я написал следующий скрипт, который тестирует запись тестового файла 128M с dd в разных размерах блоков по умолчанию от 512 байт до максимум 64M.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Просмотреть в GitHub

Я тестировал этот скрипт только на системе Debian (Ubuntu) и на OSX Yosemite, поэтому, возможно, потребуется некоторое улучшение для работы с другими вариантами Unix.

По умолчанию команда создаст тестовый файл с именем dd_obs_testfile в текущем каталоге. В качестве альтернативы вы можете указать путь к пользовательскому тестовому файлу, указав путь после имени сценария:

$ ./dd_obs_test.sh /path/to/disk/test_file

. Вывод сценария - это список тестируемых размеров блоков и их соответствующих скоростей передачи, таких как поэтому:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примечание: единица скорости передачи зависит от ОС)

Чтобы проверить оптимальный размер блока чтения, вы можете использовать более или менее тот же процесс, но вместо чтения из /dev/zero и записи на диск, вы должны прочитать с диска и записать в /dev/null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Просмотр в GitHub

Важный разница в этом случае заключается в том, что тестовый файл является файлом, написанным скриптом. Не указывайте эту команду в существующем файле, или существующий файл будет перезаписан случайными данными!

Для моего конкретного оборудования я обнаружил, что 128K был наиболее оптимальным размером входного блока на жестком диске, а 32K был наиболее оптимальным на SSD.

Хотя этот ответ охватывает большинство моих находок, мне нужно было определить оптимальный размер блока dd достаточное количество раз, что я написал сообщение в блоге об этом. Вы можете найти более подробную информацию о тестах, которые я там провел.

Это сообщение StackOverflow также может быть полезно: dd: Как рассчитать оптимальный размер блока?

5
ответ дан 6 August 2018 в 19:13

Как говорили другие, нет универсально правильного размера блока; то, что оптимально для одной ситуации, или одна часть аппаратного обеспечения может быть ужасно неэффективной для другой. Кроме того, в зависимости от работоспособности дисков может быть предпочтительнее использовать другой размер блока, чем тот, который является «оптимальным».

Одна вещь, которая довольно надежна на современном оборудовании, заключается в том, что размер блока по умолчанию 512 байты, как правило, почти на порядок медленнее, чем более оптимальная альтернатива. Когда я сомневаюсь, я обнаружил, что 64K является довольно солидным современным дефолтом. Хотя 64K обычно не является оптимальным размером блока, по моему опыту он, как правило, намного эффективнее, чем по умолчанию. 64K также имеет довольно солидную историю надежной работы: вы можете найти сообщение из списка рассылки Eug-Lug , около 2002 года, рекомендуя размер блока 64K.

Для определяя размер оптимального выходного блока, я написал следующий скрипт, который тестирует запись тестового файла 128M с dd в разных размерах блоков по умолчанию от 512 байт до максимум 64M.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Просмотреть в GitHub

Я тестировал этот скрипт только на системе Debian (Ubuntu) и на OSX Yosemite, поэтому, возможно, потребуется некоторое улучшение для работы с другими вариантами Unix.

По умолчанию команда создаст тестовый файл с именем dd_obs_testfile в текущем каталоге. В качестве альтернативы вы можете указать путь к пользовательскому тестовому файлу, указав путь после имени сценария:

$ ./dd_obs_test.sh /path/to/disk/test_file

. Вывод сценария - это список тестируемых размеров блоков и их соответствующих скоростей передачи, таких как поэтому:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примечание: единица скорости передачи зависит от ОС)

Чтобы проверить оптимальный размер блока чтения, вы можете использовать более или менее тот же процесс, но вместо чтения из /dev/zero и записи на диск, вы должны прочитать с диска и записать в /dev/null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Просмотр в GitHub

Важный разница в этом случае заключается в том, что тестовый файл является файлом, написанным скриптом. Не указывайте эту команду в существующем файле, или существующий файл будет перезаписан случайными данными!

Для моего конкретного оборудования я обнаружил, что 128K был наиболее оптимальным размером входного блока на жестком диске, а 32K был наиболее оптимальным на SSD.

Хотя этот ответ охватывает большинство моих находок, мне нужно было определить оптимальный размер блока dd достаточное количество раз, что я написал сообщение в блоге об этом. Вы можете найти более подробную информацию о тестах, которые я там провел.

Это сообщение StackOverflow также может быть полезно: dd: Как рассчитать оптимальный размер блока?

5
ответ дан 8 August 2018 в 23:35

Как говорили другие, нет универсально правильного размера блока; то, что оптимально для одной ситуации, или одна часть аппаратного обеспечения может быть ужасно неэффективной для другой. Кроме того, в зависимости от работоспособности дисков может быть предпочтительнее использовать другой размер блока, чем тот, который является «оптимальным».

Одна вещь, которая довольно надежна на современном оборудовании, заключается в том, что размер блока по умолчанию 512 байты, как правило, почти на порядок медленнее, чем более оптимальная альтернатива. Когда я сомневаюсь, я обнаружил, что 64K является довольно солидным современным дефолтом. Хотя 64K обычно не является оптимальным размером блока, по моему опыту он, как правило, намного эффективнее, чем по умолчанию. 64K также имеет довольно солидную историю надежной работы: вы можете найти сообщение из списка рассылки Eug-Lug , около 2002 года, рекомендуя размер блока 64K.

Для определяя размер оптимального выходного блока, я написал следующий скрипт, который тестирует запись тестового файла 128M с dd в разных размерах блоков по умолчанию от 512 байт до максимум 64M.

dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Просмотреть в GitHub

Я тестировал этот скрипт только на системе Debian (Ubuntu) и на OSX Yosemite, поэтому, возможно, потребуется некоторое улучшение для работы с другими вариантами Unix.

По умолчанию команда создаст тестовый файл с именем dd_obs_testfile в текущем каталоге. В качестве альтернативы вы можете указать путь к пользовательскому тестовому файлу, указав путь после имени сценария:

$ ./dd_obs_test.sh /path/to/disk/test_file

. Вывод сценария - это список тестируемых размеров блоков и их соответствующих скоростей передачи, таких как поэтому:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Примечание: единица скорости передачи зависит от ОС)

Чтобы проверить оптимальный размер блока чтения, вы можете использовать более или менее тот же процесс, но вместо чтения из /dev/zero и записи на диск, вы должны прочитать с диска и записать в /dev/null. Сценарий для этого может выглядеть так:

dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Просмотр в GitHub

Важный разница в этом случае заключается в том, что тестовый файл является файлом, написанным скриптом. Не указывайте эту команду в существующем файле, или существующий файл будет перезаписан случайными данными!

Для моего конкретного оборудования я обнаружил, что 128K был наиболее оптимальным размером входного блока на жестком диске, а 32K был наиболее оптимальным на SSD.

Хотя этот ответ охватывает большинство моих находок, мне нужно было определить оптимальный размер блока dd достаточное количество раз, что я написал сообщение в блоге об этом. Вы можете найти более подробную информацию о тестах, которые я там провел.

Это сообщение StackOverflow также может быть полезно: dd: Как рассчитать оптимальный размер блока?

5
ответ дан 14 August 2018 в 13:55

Другие вопросы по тегам:

Похожие вопросы: