пятница, 7 октября 2011 г.

Multipathing



У ESXi есть встроенный модуль multipathing, сама VMware называет его NMP - Native Multipathing Plugin.

Это означает, что несколько путей к одному LUN будут распознаны без дополнительных телодвижений, из коробки.

А еще VMware предоставила возможность компаниям партнерам создавать свои модули многопутевости. Правда, кроме EMC я не знаю никого, кто бы этой возможностью воспользовался.

Итак, те из нас, кто использует системы хранения данных от EMC, могу (afaik обычно за отдельные деньги) прикупить себе EMC PowerPath, модуль многопутевости для vSphere от EMC.

У меня не получилось найти много информации по поводу  - стоит ли оно того. Ну разве что мнение самой EMC - EMC Performance Optimization for VMware Enabled by EMC PowerPath/VE.

Но вот на глаза попался пост с самопальным сравнением NMP с round-robin балансировкой нагрузки и PowerPathVE - PowerPath VE Versus Round Robin on VMAX – Round 1.

Автор взял
- HP DL380G6 dual socket servers- с установленным ESXi 5.
– HP branded Qlogic 4Gbps HBA’s each server
– FC connections to a Cisco 9148
- VMAX - если я правильно понял, в сторадже была сотня дисков SAS 15k.

И начал тестировать.

Сводная таблица:
Очевидно, что к результатам теста можно придраться, и первая претензия - для round-robin многие источники рекомендуют изменить количество команд, посылаемых по одному пути до переключения с 1000 до 1.

Автору уже указали на это в комментах, вроде обещал попробовать.

Но все равно интересно.

10 комментариев:

  1. Я тестил как-то powerpath еще год назад, на разных блоках (Замеры делал с помощью sqlio), результаты были впечатляющими. Причем СХД - была не EMC.

    ОтветитьУдалить
  2. "для round-robin многие источники рекомендуют изменить количество команд, посылаемых по одному пути до переключения с 1000 до 1"

    хм..а зачем? разве нагрузка на контроллеры не повысится? не могли бы указать источники?

    ОтветитьУдалить
  3. 1) к одному контроллеру может вести несколько путей

    2) такие рекомендации следует искать в документации к системам хранения. У меня первоисточников под рукой нет, но для примера:

    http://vmind.ru/2011/06/30/nastrojka-znacheniya-
    iooperationlimit-dlya-roundrobin-na-neskolkix-virtualnyx-xranilishh-odnovremenno/

    ОтветитьУдалить
  4. Сейчас практически все компании стараются использовать встроенный в ОС multipath, поэтому про других производителей (кроме, пожалуй, Veritas)ничего и не слышно. А EMC, чтобы продать PowerPath приходится тесты придумывать :)

    ОтветитьУдалить
  5. Тема довольно таки интересная. По моим тестам ( EMC VMAX, EMC Clarrion ), прирост производительности, при использование EMC PowerPath, колоссальный. ( удалось добиться 90% утилизации FC, по 4-ем 8Гб/с путям ). Стоимость лицензий, при покупке СХД, маленькая.

    ОтветитьУдалить
  6. areytman: естественно, но производительность удручает. По нашим тестам: для windows - veritas/powerpath, для vmware - powerpath.

    ОтветитьУдалить
  7. это вы нагрузочным тестированием 4 путя прогрузили, или у вас реальные задачи столько хотят?

    ОтветитьУдалить
  8. задач таких не было, но мы тестили максимальную скорость, на разных блоках ( у меня есть очень много результатов тестов. К сожалению я их не могу выложить ).

    ОтветитьУдалить
  9. Hober: Есть у массивов EMC (аккуратно выражаясь) архитектурные особенности, которые и дают результат с powerpath лучше, чем без него. И если сравнивать, например, с ценой Симметрикса, то тут и говорить нечего - не заметите. Единственое, что удручает - это слабая совместимость powerpath с другими механизмами (зачастую требубтся разделить FC адаптеры для EMC и остальных).
    А вообще интересно - 4 пути 8Gbit/s - всё это в\из кеш шло или диски тоже задевало?

    ОтветитьУдалить

Примечание. Отправлять комментарии могут только участники этого блога.