вторник, 31 января 2012 г.

the book


делаю тут предметный указатель. Дурацкий вопрос, но вдруг не очень дурацкий :-) : какие вещи в предметный указатель стоит добавить? Дружно вспоминаем и отписываемся в комментарии!!

hp eva 6500


Из переписки:

на условиях анонимности могу протестировать и скинуть результаты
hp eva 6500 400 дисков 15k 4 порта 8Gb FC
с сервера 460 g7 2 х 4Gb FC 

...
 с одной стороны такие тесты - штука не однозначная. Если работает быстро - что же, хорошо. Медленно - непонятно, то ли медленно, то ли что-то недонастроено...
Но интересно же, да?
...

при запуске vmware-io-analyzer-1.0.0
обнаружил очень низкие результаты для EVA.
начал искать проблему, оказалось что диск для анализа всего 100МБ, а ева разбивает LUN по физическим дискам на блоки по 2МБ(если не ошибаюсь) т.о. vdmk не очень хорошо лежал
после расширения до 1GB полегчало.

vmw_satp_alua RR (VMware), io=1 
2 Host 2xFC 4Gb, 2 IoAnalyzer 
EVA 6500 8GB/4FCx8Gb/400disk 15k/ посторонней нагрузки на EVA <50iops
2 LUN (1LUN vRAID1 on Controller1 & 1 LUN vRAID1 on Controller2)

Быстро сделал тестов. в скрепке.
надеюсь до конца недели будет у хостов 2xFC8Gb 

результаты в целом низковаты для такого количества дисков.
скорее всего если будет большее количество потоков будет результат выше.

сделал один тест на 4 потока, это в целом подтвердилось.
плюс было бы интересно посмотреть EVA с всеми   8портами FС.
Результаты:


понедельник, 30 января 2012 г.

help


Стараюсь из блога не делать дневник "на что гляжу о том пою", но вот это, проскочившее сегодня в рсс, очень очень порадовало:

Простая, на первый взгляд, просьба «Помогите!» может иметь очень даже разные смыслы.
Первый — самый частый: «Сделайте за меня».
Второй, такой же частый: «Дайте мне».
Только третий, и отнюдь не частый: «Я делаю — прошу мне подсобить».
И уж самый редкий — четвертый: «Научите меня, как делать самому».
Поэтому если хотите поучаствовать в помощи страждущим, сперва разберитесь: чего же из вышеперечисленного они от вас хотят?

воскресенье, 29 января 2012 г.

vSphere 5 Licenses


Памятка про лицензирование vSphere 5.

Дорогие лицензии:




Покупаются на процессор, каждая штука лицензии дает право на 32\64\96 Гб vRAM.vRAM - в общий пул, из которого нельзя вылезать в среднем за год. Ограничение только юридическое.

Дешевые лицензии - Essentials и Essentials Plus. Вторая умеет HA и Data Recovery. Одна штука такой лицензии дает право на ESXi для 3х двухпроцеесорных серверов и vCenter Foundation. vRAM - 192 ГБ. Ограничение vRAM техническое.

Документ с подробностями про лицензирование - VMware vSphere 5 Licensing, Pricing and Packaging.

ESXi c бесплатной лицензией не может управляться через vCenter, 32 Гб vRAM.


Что делать если есть купленные лицензии на vSphere 4, а нужны на vSphere 5
или
есть купленные лицензии на vSphere 5, а нужны на vSphere 4.
Upgrading and downgrading VMware product licenses.

суббота, 28 января 2012 г.

Storwize V7000 + ESX 5.0 iSCSI LUN ALUA

 

Из переписки.

Со мной и с вами поделились информацией:

 

Итак, изначально настроены 2 target на Storwize, в список Storage adapter добавлен vmhba iSCSI адаптер (vmhba34).

 

clip_image002

На двух виртуальных коммутаторах созданы интерфейсы vmk1(iSCSI) и vmk2(iscsi-2)

clip_image004

В свойствах iSCSI initiator оба интерфейсы добавлены на вкладке Vmkernel Port Binding

clip_image006

Поскольку интерфейс vmk2 мы добавили после того, как были добавлены LUN (у нас их 2), то видим такую картину:

clip_image008

2 адаптера, 2 контроллера, 2 LUN. То есть должно быть 4 пути к каждому LUN, но их 6 и в сумме получается 12 к двум LUN.

clip_image010

Такое же поведение видно обсуждают в комментах здесь: http://www.yellow-bricks.com/2009/03/18/iscsi-multipathing-with-esxcliexploring-the-next-version-of-esx/

При перезагрузке ESX всё встает на свои места и мы видим, как положено, 4 пути к LUN, суммарно 8.

clip_image012

Далее заходим в свойства datastore, Manage Path:

clip_image014

Видим, что SATP плагин для Storwize по умолчанию VMW_SATP_SVC и политика Fixed. При этом если нагрузить массив, увидим следующее:

clip_image016

Трафик идет через vmnic1. Изменим политику на Round Robin.

clip_image018

Посмотрим интерфейсы

clip_image020

Трафик идет через оба vmnic к обоим контроллерам Storwize, что можно увидеть в интерфейсе управления.

Контроллер 1 (node1):

clip_image022

И контроллер 2 (node2):

clip_image024

Видно, что трафик между iSCSI интерфейсами storwize разделен поровну.

В данном случае, запросы отправляются к 2 контроллерам и по оптимальному пути и по неоптимальному. Интересно всё таки включить ALUA, так как массив этот режим поддерживает.

Открываем VMware HCL, и видим, что тестированная конфигурация для Storwize V7000 v6.3 является 8G FC-SVD-FC, SATP плагин VMW_SATP_SVC и политика VMW_PSP_FIXED.

Пренебрежем этим, поскольку у нас даже не FC, а iSCSI и проведем эксперимент. Найдем идентификатор нашего LUN: na.6005.........000. Далее заменим default SATP плагин для этого LUN на VMW_SATP_ALUA

clip_image026

Перегрузим ESX.

После перезагрузки идем в свойства нашего datastore на вкладку Manage Path:

clip_image028

Видим, что SATP плагин изменился на VMW_SATP_ALUA. Но пока что политика Fixed.

Трафик на интерфейсах:

clip_image030

Трафик идет через vmnic1.

Изменим на Round Robin:

clip_image032

Видим, что при политике RR и плагине ALUA активны только 2 оптимальных пути к контроллеру 2.

Трафик на интерфейсах:

clip_image034

Трафик идет через оба интерфейса.

Посмотрим на интерфейс управления Storwize

Контроллер 1(node1):

clip_image036

Запросов к контроллеру нет, поскольку LUN принадлежит контроллеру 2.

Контроллер 2 (node2)

clip_image038

Как видно, запросы обрабатывает контроллер 2.

Возможно, что-то сделал не совсем верно, просьба меня поправить. Если нужно что-то проверить и потестировать, пока Storwize в моем распоряжении – готов помочь.

 

Thx Andrey Gritsay

понедельник, 23 января 2012 г.

к вопросу о резервном копировании ESXi с бесплатной лицензией

 

Из переписки:

 

Pavel Alexei:

Добрый день

Читаю уже давно Ваш блог.

Давно бьюсь с задачей backup free версии ESXi, которое бы воспринимало thin файлы. Все коммерческие продукты backup не работают с free версией ESXi, так как в ней отсутствует vStorage APIs for Data Protection.

К сожалению единственное на текущий момент решение, которое я нашел, это ghettoVCB, причем первой версии, которая работает как скрипт на консоли ESXi. Но и тут есть подвох, не могу «вытащить» куда-то на сторону thin vmdk файлы. Даже если монтировать в качестве внешнего datastore NFS шару, то и там -flat.vmdk в виде sparse файлов лежат. А хочется иметь возможность положить куда-то «далеко». Если NFS от линукс, то можно там, на месте, это зажать при помощи tar -S, тогда tar понимает что это sparse файл, и получаем то что хочется. Этот «маленький» tar можно переложить куда хочется.

НО, хочется большего :-) Хочется нормальный GNU tar под ESXi, чтоб делать все там, на месте. Есть где-то «нормальные» портированные gnu утилиты под ESXi?

 

я:

приветствую.

мне такого не встречалось.
впрочем, я и не искал - не вставало такой задачи.

 

Pavel Alexei:

По ходу я нашел. Совсем случайно

http://ftp.cica.es/mirrors/Linux/pramberger.at/vmware/esx4i/IPKGS/

правда установить через ipk не получилось, но зато смог вытащить, ipk это tar.gz.

Теперь могу

tar cvfzS XXX.tgz XXX.vmdk XXX-flat.vmdk

можно свободно переносить XXXX.tgz. Этот tar sparse он точно понимает, из 4GB «пустого» vmdk файла она создала 10KB tgz, хотя ls показывает 4GB

Тут же вижу есть rsync, понимающий sparse файлы.

И еще coreutils с кучей полезностей. 

Может еще пригодиться, чтоб не мучать по чем зря ssh/scp - ftp клиент для vmware (ftpput/ftpget)

http://www.magikmon.com/download/mksbackup/

block size


Тут был текст про размер блока IO. При попытке отредактировать его с помощью клиента текст пропал при падении клиента. Но оно и к лучшему - я ошибся, не надо было писать пост в час ночи :-)

уточню вопрос дополнительно, обновлю пост.

EVA P6500 на 100HDD

Из переписки:

у меня приехала EVA P6500 на 100HDD 600 10K и два хоста bl620g7 ESX5 Ent.
если есть время и желание, то в ближайшие пару дней я могу что-нить погонять...
у меня одна дисковая группа на 100 дисков.
поверх них можно нарезать разных Virtual Disks с разными Vraid'ами.
..

Вот что у меня получилось при тестирование io-analyzer'ом




Дополнительные материалы тестирования.
Есть возможность померять и в других конфигурациях, если есть идеи - предлагайте.

пятница, 13 января 2012 г.

В нашем полку прибыло - http://vladek.net


Новый, потенциально интересный блог от Владислава Кирилина. Пост – про зонирование / FibreChannel Zoning.

вторник, 10 января 2012 г.

Commands to monitor snapshot deletion


Как многие знают, снапшоты - штука такая, неоднозначная. Вот на русскоязычной ветке офффорума не напрягаясь можно найти описания случаев со всякими чудесами. И чудесами плохими.

Одна из характерных ситуаций - многочасовое удаление больших снапшотов. Ситуация неприятна тем, что ВМ заблокирована, индикации нет (часто большую часть времени прогрес бар находится в состоянии 99%), что происходит и происходит ли что-то вообще непонятно.

Углядел новую для себя статью базы знаний - Commands to monitor snapshot deletion. Правда, пятый ESXi не заявлен в списке продуктов, для которых это предназначено - так что надо будет проверить.

UPD. Альтернатива -Мониторим процесс удаления снапшот(а/ов) из командной строки.


ESXi 5 partition table


Хороший пост про структуру разделов на системном диске ESXi - Разделы VMware ESXi 5.0.

Полезные вещи на эту тему:

Creating a persistent scratch location for ESX - http://kb.vmware.com/kb/1033696.

если локальный VMFS был, но его удалили - то восстановить скорее всего получится только переустановкой ESXi - http://kb.vmware.com/kb/2000454. Кстати интересно - а подхватятся ли конфиги при переустановке той же версии поверх?

 partedUtil  - утилита для работы с разделами в локальной командной строке ESXi 5. Как с ней обращаться - http://kb.vmware.com/kb/1036609.

желательно настроить сбор логов ESXi на отдельной системе - http://www.vm4.ru/2011/10/vmware-syslog-collector.html. Или хотя бы перенаправить локальные логи на какой-то нелокальный VMFS - чтобы когда сервере станет нерабочим (тьфу-тьфу) - были шансы найти в логах "а что и почему?".
еще сюда же http://kb.vmware.com/kb/2003322.


PCoIP Log Viewer 2.0


Попробовал в деле новую утилиту - PCoIP Log Viewer 2.0.

Прикольно.

На машине где установлена java устанавливаем ее, запускаем.

В меню File –> New Connection указываем адрес виртуального десктопа – той ВМ, куда подключается пользователь.

После авторизации видим красивые графики:
image

в данный момент на этом десктопе имитируется офисная нагрузка при помощи VDI Sizing tool, о которой я уже упоминал в недавнем посте.

Как видно, при работе с офисном пакете нагрузка на сеть крайне мала.

Коллеги, было бы интересно узнать – а что показывает эта утилита для ваших пользователей, с той или иной рабочей нагрузкой?

получение инфы о настройка Distributed vSwitch


Углядел перловый скрипт, который запускается локально на хосте, для сбора и вывода данных о распределенном коммутаторе – Retrieving Information from a Distributed vSwitch.

Для конфигурирования dvSwitch из командной строки есть, неофициальные правда но вполне рабочие, модули PowerShell – PowerCLI + Distributed switch.