среда, 25 марта 2009 г.

Сравнение гипервизоров

Коллеги, ситуация:

развернут стенд(сервер, iSCSI СХД). Есть возможность на этом стенде поднять любой актуальный гипервизор и погонять на нем тесты(настройки гипервизоров предполагаются дефолтными). Померять скорость копирования файлов и иопсы Iometer'ом - это легко.
И мне предложили у вас спросить - а что бы еще могло послужить интересным тестом - есть идеи? Идеи(чем предложенный вариант конкретнее, тем больше шансов что он будет реализован) можно указывать в камментах к посту или мылом на mikhail.mikheev@vm4.ru.
Результаты тестов планируются к открытой публикации.
Затея целиком и полностью частная - и не моя.

18 комментариев:

  1. 0) Открытая публикация тестов, не одобренных vmware, вроде бы противоречит лицензионному соглашению Esxi.
    1) Можно потестировать количество "попугаев", выдаваемых процессором и памятью виртуальных машин и сравнить ее с "железной" машиной.
    2) Создать диск в оперативке виртуальной машины. Потестировать скорость считывания с этого диска через сеть.

    ОтветитьУдалить
  2. 0) не больно с трибуны вещание будет с целью порекламировать единственно правильного вендора. Так, свои для своих.

    ОтветитьУдалить
  3. Предложения:
    0) в качестве диска ВМ использовать лун, предоставленный как RAW
    1) погонять BurnItTest
    2) добавить hyper-v r2 beta и XenServer

    ОтветитьУдалить
  4. добрый день.
    гипервизоры
    vmware esx
    xenserver
    hyper-v

    + физическая машина )

    провести тесты попугаев во всех гипервизорах для vCPU, памяти - чтение-запись.
    для дисковой системы - в двух вариантах для каждого гипервизора, RDM и виртуальный диск
    линейное чтение-запись блоками 64-512-1024 kb
    рандомные операции 50 на 50 write read

    гипервизоры настройки по умолчанию, но
    для ESX предлагаю отключить share memory pages в тестовой вирутальной машине.

    ОтветитьУдалить
  5. А яй-яй...снова реклама на vm4.ru ))

    ОтветитьУдалить
  6. netperf - тест TCP_RR
    дисковая - SQLio

    ОтветитьУдалить
  7. Предпалогаемые объекты для тестирования:
    esx 3.5u3
    hyper-v r2 beta в составе windows server 2008 r2
    xenserver 5.0fp1
    виртуальные машины под управлением windows server 2008 r2 beta.
    дисковая подсистема - iscsi lun 40Gb
    Будет подключаться напрямую в виртуальную машину с через microsoft iscsi initiator, потом lun подключается средствами хоста и на нем размещается диск, подключаемый к вм.

    Пока из тестов:
    линейное чтение/запись с блоками 8к 64к 1024к
    iometer с профилем Database с очередями до 256
    sqlio

    2 Андрей Вахитов:
    1) Чем считать "попугаи"?
    2) А что данный тест покажет?

    2 Анонимный 1:
    0) диск, предоставленный как RAW = RDM? Учитывая мизерное отличие от производительности vmdk, полезность данного теста невелика
    1) BurnItTest - платный...
    2) hyper-v r2 beta к сожалению нормально потестировать не получиться изза кучи ограничений на GUI. Будет w2k8r2.

    ОтветитьУдалить
  8. Хотелось бы увидеть тесты дисковых подсистем
    DAS
    NAS(iSCSI,FC,)

    ОтветитьУдалить
  9. 2Анонимный
    DAS\NAS\SAN DAS\NAS\SAN'ну рознь.

    В любом случае, стенд построен на iSCSI СХД - без вариантов. Тестировать предполагается гипервизоры на одном и том же железе, а не разные железки.

    ОтветитьУдалить
  10. 2 Анонимный: тесты памяти и процессора с http://cpu.rightmark.org/
    Данные тесты покажут синтетическую производительность железа или гипервизора. Можно посмотреть потери производительности при виртуализации.

    ОтветитьУдалить
  11. Андрей, потери на виртуализацию очень сложно измерить. Особенно сложнео измерить эффективность co-scheduling для набитого vSMP машинами хоста.

    ОтветитьУдалить
  12. Согласен. Но я предполагал использовать тесты на:
    1) одном ядре (через CPU affinity в MS Windows);
    2) Одном vCPU одной машины гипервизора.
    В этом случае потери на co-scheduling должны быть минимальны, как я думаю...

    ОтветитьУдалить
  13. Михаил, все-таки решили заняться тестированием?

    Недавно был уже вариант, если не видели: http://virtualizationreview.com/features/article.aspx?editorialsid=2641

    Таки я против попугаев.
    Хотя, учитывая статью можно посмотреть на разницу (действительно ли такой порядок цифр?), но в реальных задачах эти цифры ничго же не показывают...

    Конкретно: я предлагаю выполнить тест SQL, подобный тому, что в статье, - т.к. это и есть практический результат (и порядок тех цифр меня настораживает).
    Но в SQL я не силен, - что к чему пояснить не смогу...

    ОтветитьУдалить
  14. Alex,
    для тестирования дисковой подсистемы более менее практический результат даст sqlio.
    С точки зрения производительности системы в целом - нагрузочное тестирование Exchange 2007 - с большой долей вероятности для некоторых вариантов я успею провести его в апреле...

    ОтветитьУдалить
  15. Тут - http://www.64bit.ru/?p=383 уже все померяли ;)

    ОтветитьУдалить
  16. хреновенько померяли, честно говоря.
    Как так, ESX и не выиграл ;-)

    я уже отписал тут -
    http://www.vm4.ru/2009/04/blog-post_8214.html

    ОтветитьУдалить
  17. Для сильно нагруженных виртуальных машин актуально прибивание каждого физического проца к каждому виртуальному для уменьшения количества контекстных переключений. Эту плючшку нашел только в обычном xen (в щистриксовом этого нету) - vcpu-pin.

    ОтветитьУдалить
  18. не знаю как в Xen, а в ESX эта фича делает невозможным vMotion привязанной ВМ, что сильно ограничивает применимость фичи.

    ОтветитьУдалить

Примечание. Отправлять комментарии могут только участники этого блога.