среда, 28 сентября 2011 г.

VCP5 exam

 

Обновил пост про пробные тесты VCP 5, добавил туда ссылку на еще один неофициальный пробный тест - VCP5 exam.

Для подготовки полезным может оказаться документ vSphere 5 documentation notes – типа выжимки из разнообразной документации.

Кстати – кто сдавал бета-версию теста – мне на днях пришло письмо что статус добавлен в transcritpt, только там надо пройти пару шагов типа подтверждения адреса для высылки сертификата заказа бесплатной лицензии на Workstation 8.

write on ESXi boot disk


Сто лет назад ESXi начал мочь загружаться с флеш-накопителя. Довольно часто встает вопрос – а не приведет ли быстрый износ флешки к отказу ESXi?
Ответ “нет”, и по двум причинам – современные флешки, как правило, достаточно надежны, это во-первых.
А во-вторых – ESXi редко на эту флешку обращается. Все основное происходит в ram-диске, куда ESXi подгружает себя при старте.
Вот тут - How often does ESXi write to the boot disk? - делается подробный анализ того, как часто все таки на физический диск происходят обращения, и выжимка такова:
ESXi записывает данные (здесь данные – это его настройки) в следующих случаях:
  1. при выключении.
  2. раз в час.
  3. при изменении некоторых настроек, таких как пароль root, к примеру, но не чаще 6 раз за чаc.
  4. VMware HA инициирует сброс настроек на диск, но не чаще раза в 10 минут.
  5. Вывод – самое частое обращение на диск – это раз в 10 минут. Обычно – реже.

StorCenter PX4-300R

 

Это вряд ли массово интересно, однако мало ли Улыбка

cc24020885b6cfc3099a651d27fb9d9d

Мне тут попались на глаза самопальные тесты системы хранения сильно начального – StorCenter PX4-300R.

Доступен стоечный вариант, 4 слота под диски, два гигабитных порта, дублированный блок питания, поддержка iSCSI и NFS, официальная совместимость с vSphere (в том числе версии 5, правда только для iSCSI).

Так вот, сами тесты на четырех двух-террабайтных дисках в RAID5 – Performance test of Iomega StorCenter PX4-300R.

screen03

На графиках еще приведены результаты тестирования предыдущей модели того же вендора (IX4).

Интересно, что в реализации Iomega при большом проценте записи NFS сильно отстает от iSCSI. Выравнивание разделов на результаты тестов влияло, но в пределах процентов 5, что не особо существенно.

воскресенье, 25 сентября 2011 г.

простая почта для vCenter

 

памятка – как на коленке поднять почту, через которую vCenter сможет посылать оповещения от алармов мне на gmail –

Configuring vCenter for email with SMTP authentication .

 

screen02

воскресенье, 18 сентября 2011 г.

PowerCLI + Distributed switch

 

Я тут с некоторым удивлением узнал, что в PowerCLI нет команд для работы с распределенными коммутаторами. Вообще нету – ни создать их нельзя, ничего.

Хорошая новость – можно скачать вот этот файл, извлечь из архива файл DistributedSwitch.psm1 и  импортировать его командой

   1: Import-module C:\scripts\DistributedSwitch.psm1




После этого мы получим ожидаемые командлеты New-DistributedSwitch, Get-DistributedSwitch и т.п.



И это даже не единственный вариант, еще -




  • функции из официального блога PowerCLI – vDS in PowerCLI 4.1.


  • функции от авторов книги по PowerCLI – dvSwitch scripting, тот импортируемый файл – как раз их разработка.

суббота, 17 сентября 2011 г.

Windows Services for Unix - NFS для ESXi

четверг, 15 сентября 2011 г.

Cisco Nexus 1000V for Hyper-V 8

вторник, 13 сентября 2011 г.

Upgrading and downgrading VMware product licenses

 

Памятка – что делать если

есть купленные лицензии на vSphere 4, а нужны на vSphere 5

или

есть купленные лицензии на vSphere 5, а нужны на vSphere 4.

Upgrading and downgrading VMware product licenses.

понедельник, 12 сентября 2011 г.

vSphere 5 snapshots

Интересные подробности про небольшие изменения работы со снимками состояния, снапшотами - Storage vMotion, Storage DRS & Virtual Machine Snapshots Interoperability.

Суть:
Раньше при создании снапшота файлы-дельты для дисков создавались или в папке ВМ(там, где расположен файл vmx), или по пути, указанному в конфигурационном файле ВМ параметром workingDir.

А сейчас файлы-дельты для каждого диска ВМ создаются там, где расположен исходный vmdk-файл этого диска.

Опция workingDir по прежнему работает, но изменяет лишь расположение файла vmsn, в котором хранится описание структуры снапшотов.

А для изменения месторасположения файлов дельта появилась новая опция - snapshot.redoNotWithParent = "TRUE". При указании этй строки в конфиге ВМ старая опция будет влиять и на файлы дельты.

Однако есть нюанс.

В вСфере 5 появились две новые возможности - Storage vMotion виртуальных машин со снапшотами, и Storage DRS.

Вот для работы второго механизма снапшоты были слегка изменены - чтобы весь диск ВМ, даже когда он со снапшотами, располагался на одном хранилище.

И если сделать SVmotion ВМ, у которой есть снапшоты и указанные опции не в значении по умолчанию - они будут сброшены в значения по умолчанию, а файлы дельт буду перенесены на одно хранилище с оригинальными vmdk. Будет показано предупреждение:




- пост с мобильного устройства, сорри за краткость и опечатки.

воскресенье, 11 сентября 2011 г.

View 5 sizing

 

Некоторые нюансы сайзинга под View 5 - VMware View 5.0 3D Reverse Engineered.

 

Если вкратце – VIew 5 поддерживает 3D, и глубина цвета теперь 32 вместо 24 бит, как был в предыдущей версии.

Это оказывает влияние на объем видеопамяти, выделяемой каждому виртуальному десктопу, а это влияет на размер файла подкачки, который гипервизор создает для каждой ВМ.

[IMPORTANT] When 3D is enabled a 256MB overhead is added to the secondary .vswp file. Therefore, if you are planning to use 3D you should size datastores appropriately to accommodate the difference. This additional 256MB help virtual machines not to run into performance issues when executing 3D display operations. The 256MB overhead is independent of how much vRAM you assigned in VMware View 5.0.

A datastore with 100 desktops will require additional 25GB for 3D support.

image1

Ну и ссылка на VDI Calculator от того же автора.

VMwareKB–Android App

 

qr

 

У кого девайсы на Android – вас может заинтересовать бесплатное приложение для работы с базой знаний VMware – VMwareKB.

 

 

 

 

 

 

screen

суббота, 10 сентября 2011 г.

UDA, Ultimate Deployment Appliance


Есть такая штука – UDA, Ultimate Deployment Appliance.
Это – виртуальная машина, готовая быть сервером дистанционного развертывания.
И сейчас я расскажу как ее можно применить для решения моей специфической задачи.

 Введение


Есть десяток однотипных серверов. На них необходимо регулярно переустанавливать ОС – в моем конкретном случае преимущественно разные версии ESX\ESXi, хотя бывают нюансы. Притом хочется сразу и предварительные настройки делать.
Конечно, как вариант можно снять образ с каждого сервера – но это означает как минимум:
  • потратить немало места
  • получить усложнения при обновлении состояния образа
Поэтому я попробовал другой вариант – установка по сети, с файлом ответов.
К счастью, есть специализированное решение – UDA, Ultimate Deployment Appliance.
uda01_01

Первоначальная настройка

Идем сюда 0 http://www.rtfm-ed.co.uk/vmware-content/ultimate-da/, и загружаем архив с UDA формате OVA – если планируем импортировать эту штуку на ESXi.
Или, как вариант, идем на оригинальный сайт проекта - http://www.ultimatedeployment.org - и загружаем архив с виртуалкой в формате Workstation..
В клиенте vSphere выберем File –> Deploy OVF Template, укажем на распакованный из архива ova-файл и дождемся окончания импорта.
После этого виртуальную машину включаем, и в ее консоли проходим мастер первоначальной настройки – всякие пароли пользователей по умолчанию и все такое.
Единственно важный вопрос – какой DHCP сервер мы будем использовать.
Вариантов два – или DHCP сервер прямо внутри UDA, какой другой. Я выберу второй вариант – чуть позже укажу что надо настроить на внешнем сервере DHCP .

После первоначальной настройки имеет смысл прокачать нашу UDA (внимание, этот шаг может устареть в дальнейшем) – скачиваем tgz- архив с обновлением - Patch of UDA for ESX – Build 20 - , через веб-интерфейс его указываем в пункте System –> Upgrade – UDA обновляется до сборки, поддерживающей ESXi 5.
Затем можно поставить VMware tools – через клиент vSphere  подмонтировать к ВМ с UDA стандартный iso с Linux-дистрибутивом тулзов, и через веб-интерфейс указать ставить VMware tools с локального cdrom.
uda02_01

Ну и настройка внешнего DHCP – я использовал DHCP на Windows 2008:
надо включить опции 066 Boot Server Host Name и 067 Bootfile Name.
Boot Server – IP-адрес нашей UDA,
Имя загрузочного файла - pxelinux.0 .

 

Настройка ОС для установки

Ну а теперь начнем делать подготовительные шаги и настраивать UDA. Хорошая новость – все, что касается настроек UDA, делается через веб-интерфейс.
Нам надо
1) Сделать доступным дистрибутив. Я буду использовать SMB-сетевой ресурс, кому-то может быть удобнее NFS или скопировать iso прямо внутрь UDA.
2) Монтировать образ дистрибутива ОС. У меня на примере ESXi 4.1.
3) Создать “template” – это название пункта меню, ссылающегося на какой-то дистрибутив с каким-то файлом ответов.

Создаем сетевой ресурс с iso-образом дистрибутива ОС, которую\которые хотим устанавливать. Доступ необходим read-write, и для учетной записи с непустым паролем. Образ можно расположить не только в корне сетевого ресурса.
Затем в веб-интерфейсе UDA идем в пункт Storage –> New.
Заполняем поля:
uda03_01

Затем нам следует “зарегистрировать” дистрибутив ОС, которую планируем устанавливать через vMA. Идем в пункт OS –> New.
На первом шаге указываем “Flavor Name” – метка дистрибутива для UDA, и тип гостевой ОС.
uda04_01
На втором шаге – выбираем образ iso с ранее зарегистрированного хранилища (в моем случае это ранее описанный SMB-сетевой ресурс).
Все.
Последний шаг – создание шаблона. Пункт Templates меню веб-интерфейса, –> New.
Там мы выберем ранее зарегистрированный дистрибутив (Flavor), и имя шаблона. Имя шаблона затем мы увидим при загрузке сервера-жертвы, так что лучше имя давать говорящее.
Важный шаг – после создания выделит свежесозданный шаблон, и нажать кнопку Configure – > Advanced. В этом пункте меню нам доступен для редактирования файл ответов.
Информацию по файлам ответов и их параметрам можно найти в документации
А еще одна интересная возможность – создания “подшаблонов”, Subtemplates.
Это когда мы в файле ответов шаблона используем переменные вместо уникальных параметров, таких как имя ОС и IP-адрес. А в пункте Subtemplates перечисляем значения этих переменных.
В моем случае, соответствующий шаблону файл ответов выглядит так:
   1: accepteula


   2: rootpw password

   3: autopart --firstdisk --overwritevmfs

   4: install 

   5: url http://[UDA_IPADDR]/[OS]/[FLAVOR]

   6: network 

   7: --bootproto=static --ip=[IPADDR] --gateway=192.168.22.253 

   8: --nameserver=192.168.22.252 --netmask=255.255.255.0 

   9: --hostname=[HOSTNAME]

  10: reboot


(Хорошая новость – сам файл ответа, без учета переменных, генерируется автоматически. А мы лишь правим под себя)


И список переменных:

   2: SUBTEMPLATE;IPADDR;HOSTNAME

   3: esxi_4_01;192.168.22.1;esxi01

   4: esxi_4_02;192.168.22.2;esxi02

   5: esxi_4_03;192.168.22.3;esxi03

   6: esxi_4_04;192.168.22.4;esxi04

   7: esxi_4_05;192.168.22.5;esxi05

   8: esxi_4_06;192.168.22.6;esxi06

   9: esxi_4_07;192.168.22.7;esxi07

  10: esxi_4_08;192.168.22.8;esxi08

  11: esxi_4_09;192.168.22.9;esxi09

  12: esxi_4_10;192.168.22.10;esxi10

(Названия переменных – на наш выбор)


Теперь, при попытке загрузиться с PXE в этом сегменте сети я вижу меню – список шаблонов:


uda07_01


Выбрав меню с подшаблонами я увижу их список:


uda09_01


И через несколько минут после выбора нужного подшаблона я имею готовый к работе сервер:


uda10_01


Ну а дальнейшая настройка крайне удобна при помощи скриптов PowerCLI.

четверг, 8 сентября 2011 г.

vcp 5

 

Утренняя проверка почты получилась удачной:

Congratulations!  You have passed the new VMware Certified Professional on vSphere 5 (VCP5)

certification exam. Thank you for your participation in the beta exam.  Your input and participation were invaluable to this process.

Пришли результаты бета-версии теста VCP 5 – я сдал.

вторник, 6 сентября 2011 г.

Про View

 

Интересные заметки про VMware View:

1) Интересная особенность работы PCoIP в VMware View.

В ходе тестирования работы VMware View 4.6 с платформой виртуализации vSphere 5 (в составе vCenter 5 + ESXi 5) мы с моим коллегой Mikhalych обнаружили интересную особенность — при работе пользователя в сессии VMware View по протоколу PCoIP, администратор платформы виртуализации может подключиться к консоли виртуальной рабочей станции пользователя, но при этом он увидит лишь черный экран.

Однако если попытаться переключить фокус в черную область консоли, то нажатия на кнопки и движения мыши будут переданы в сессию пользователя VMware View.

2) Подготовка Windows 7 для Linked Clone в VMware View/VMware View + ZeroClient (Pano 4.5).

3) Настройка серверов View в NLB-конфигурации.

ESXi 5.0 Host Log Files

 

Памятка - ESXi 5.0 Host Log Files.

понедельник, 5 сентября 2011 г.

VASA

 

В vSphere 5 реализована поддержка т.н. VASA – vSphere Storage APIs for Storage Awareness.

Это интерфейс общения с системой хранения данных, который позволяет с СХД передавать дополнительную информацию о LUN’ах на сервера ESXi.

Т.е. мы будем видеть не только label и naa- идентификатор LUN, а будем видеть, чуть утрируя,  “Этот быстрый”, “этот дешевый” и т.п. Данная фича упростит взаимодействие тех, кто создает ВМ, с теми, кто знает на каких хранилищах какие ВМ должны бы лежать (в том смысле чтобы некритичные ВМ не занимали место на быстром хранилище, когда для них лучше подходит более медленное и более дешевое).

vasa

Плюс к этому, при помощи данного инструмента vCenter сможет получать больше инфы о статусе системы хранения, проблемах с ней и т.п.

При помощи VASA можно будет получить дополнительные плюсы от других фич пятерка – Storage Profiles и Storage DRS.

Вот тут - A sneak-peek at how some of VMware's Storage Partners are implementing VASA - предварительный список производителей  систем хранения, которые планируют поддерживать VASA, и что эта поддержка должна из себя представить.

VCP 5 пробные тесты


Для тех, кто собирается сдавать VCP 5, могут быть интересными пробные тесты:

Официальный VCP 5 mock exam.
Неофициальный VCP5 Practice Exams.
UPD. Еще один неофициальный - VCP5 exam.

Вопросы немного пересекаются, среди них встречаются как хорошие, так и более менее, так и тупые.
Вот, например:
mocky04
Trafic shaping – кто-нибудь вообще используют эту функцию? Ни разу не встречал…ну разве что паре человек в демо пригождалось. Ну и помнить в каких единицах указываются настройки – очень важно, да.
Не самый тупой вопрос – на понимание – но, имхо, бесполезный.

mocky05
А вот это феерично. Настройка уровня автоматизации у DRS – “Fully Automatic” или “Fully Automated”? Вы не помните? Да как вы вообще смеете называть себя администратором vSphere!!!
В целом, надо признать, хорошие, годные пробные тесты – в оригинальном тесте такие вопросы тоже есть.

PowerCLI Poster 5.0

 

 

PowerShell + PowerCLI 5 умеют управлять много чем.

posh1

 

Как памятку может быть удобно использовать постер:

posh2

Новую версию можно загрузить отсюда - VMware Management with PowerCLI 5.0.

воскресенье, 4 сентября 2011 г.

vSphere 5 courses

 

Как я недавно писал, стал доступен тест на звание VMware Certified Professional по vSphere 5.

И есть одна важная картинка по этому поводу:

Идея здесь вот в чем:

Тем, кто не имеет сертификации по версии 4 – как и раньше необходимо пройти обучение, чтобы иметь право сдавать тест VCP. Единственный на сегодня подходящий курс – vSphere 5 Install Configure Management.

Его описание (оригинальное англ.), описание на русском, даты, стоимость.

Тем, кто уже VCP 4 – тест на VCP 5 можно идти с сдавать в любой момент. Главное, не протупить до февраля следующего года – когда эта халява кончится.

А тем, кто имеет статус VCP 3 но не VCP 4, или кто проходил обучение по четвертой версии но тест не сдавал – для права на сдачу теста VCP 5 достаточно пройти двухдневный курс vSphere 5 What’s New.

Его описание (оригинальное англ.), описание на русском, даты, стоимость.

Этот курс будет интересен и тем, кто просто хочет узнать, пощупать и обсудить новшества пятерки.

 

Я, разумеется, лицо заинтересованное Улыбка, но оба курса хороши – настоятельно рекомендую.

ruVMware map

 

Месяца два с небольшим назад мне в почте предложили идею сделать гугло-карту, где интересующиеся угадайте какой темой смогут отметиться в каком городе они проживают, и оставить контакт.

С реализацией идеи я конечно протянул, но лучше поздно.

Ну а теперь давайте попробуем упростить сбор компании для тематического распития пива  во всех уголках страны и планеты Улыбка

Карта:


Просмотреть ruVCP на карте большего размера

 

Ссылка на карту:

http://g.co/maps/f5ux

Надо авторизоваться гугловской учетной записью, для редактирования поставленной метки нажать “Изменить” в левом столбце.

thx 2 surgut

kernel latency


Первое, что начинает тормозить в виртуальной (или в любой?) инфраструктуре – это дисковая подсистема.
В первую очередь по той причине, что сделать быструю дисковую дорого.

Один из важных параметров, указывающих что тормозят таки диск это Latency.
Посмотреть эту величину можно, в частности, в esxtop – там мы можем увидеть примерно такую картинку:
latency01

Выделены несколько столбцов:
  • DAVG\cmd – это device latency, задержки между hba и системой хранения, т.е. за пределами хоста.
  • KAVG\cmd – это kernel latency, задержка между hba и гостем, т.е. “внутри гипервизора”.
  • GAVG\cmd – это guest latency, задержка между гостем и системой хранения, этот столбец является суммой первых двух.
Я всегда думал, что смотреть имеет смысл только на davg – и пинать админов стораджа если задержки больше порогового значения.
А недавно со мной поделились ситуацией, когда ситуация была совсем другая.
Вкратце
1) были тормоза
2) на стороне системы хранения статистика была ок
3) на стороне esx обнаружили что именно kernel latency была неприлично большой (вот тут я удивился – почему?)
4) проблема была решена путем увеличения глубины очереди hba контроллеров с 32 до 64 (вот тут я удивился второй раз – известная мне теория не объясняет почему это так).
Имейте в виду. Как делали:  VMware : Increasing the HBA / Device Queue Depth.

thx 2 Сергей Щадных

PowerCLI Reference ebook

 

Книга VMware vSphere PowerCLI Reference: Automating vSphere Administration была выпущена в бумажном и электронном виде.

Однако электронную версию убрали (вроде как из за недостатков оформления). Когда я покупал бумажную версию, про то что электронная в принципе была я даже не знал.

Купить аналоговую книгу на 700 страниц листингов было ошибкой – Ctrl+F и Ctrl+C не работают.

И вот вчера я углядел, что электронный вариант снова появился.

фотография(1)

Пусть не в православном pdf\fb2\epub, а в защищенном формате от amazon – но на планшете и компьютере залезть и найти нужное довольно удобно, пусть и необходимо специальное приложение.

Несмотря на то, что PowerCLI 5 немного отличается от PowerCLI 4 (по которой написана книга), я все равно ожидаю что покупка себя окупит- найденные отличия нельзя назвать принципиальными.

Однако книга не рассчитана на начинающих совсем с нуля, так что материал типа моего пополняемого руководства для начинающих PowerShell + VMware = PowerCLI. How-to все равно будет полезен.

четверг, 1 сентября 2011 г.

VCP 5



Стал доступен для сдачи тест VMware Certified Professional на звание VCP 5.

Официальная страница.

Пути получения:



Если вы обладаете статусом VCP 4, то можно просто идти сдавать тест на VCP 5.

Если вы не сдавали VCP 4, но прослушали курс дающий право на VCP 4, то можно
или сдать VCP 4 потом сразу VCP 5
или прослушать хотя бы курс What's new и сдавать сразу VCP 5.

Если вы обладаете статусом VCP 3, то придется предварительно пройти курс - можно полный пятидневный vSphere 5 Install Configure Management, можно двухдневный What's new.

Цены, даты.

What's new будет интересен и тем, кому хочется получить выжимку информации о различиях между четвертой и пятой версиями, и заодно опробовать эти различия руками.

Alligment, выравнивание

Я об этом уже ранее писал, поэтому этот пост для тех кто не читал/забыл, и как памятка с ссылками себе.

У нас есть блоки, которыми оперируют системы хранения("Chunk", иногда употребляется "кластер", afaik)
Поверх этого у нас файловая система, в нашем случае - VMFS.
На VMFS лежат диски ВМ, а в них гостевая файловая система со своими блоками.

Картинка:










На картинке показана плохая, не выровненная ситуация. Это значит, для чтения одного блока в госте, нам нужно несколько I\O. Это означает худшую производительность, чем могла бы быть.

Было бы хорошо придти к правильной картинке:










Для VMFS это делать придется редко - создаваемый из графического интерфейса раздел VMFS выравнивается по границе 128 кб, что является хорошей круглой цифрой.

Для некоторых гостевых ОС это тоже неактуально - в Windows 2008 разделы выравниваются по границе 1024 кб. afaik, RHEL и CentOS ведут себя так же.

А вот если у вас Win2003 или другие гостевые ОС - выравнивание может улучшить ситуацию с производительностью дисковой.

Ссылки по теме:

Tips for DBA: выравнивание кластеров NTFS и блоков RAID-массивов - теория со стороны баз данных.

Корректное поблочное выравнивание LUN и файлов .vmdk при использовании системы хранения NetApp - на русском.

EMC:

http://www.emc.com/collateral/hardware/technical-documentation/h2370-microsoft-sql-svr-2005-ns-series-iscsi-bp-plan-gde-ldv.pdf

http://www.emc.com/collateral/hardware/solution-overview/h2529-vmware-esx-svr-w-symmetrix-wp-ldv.pdf

HP:

http://h71019.www7.hp.com/ActiveAnswers/downloads/Exchange2003EVA5000PerformanceWhitePaper.doc

IBM:

http://www.redbooks.ibm.com/redbooks/pdfs/sg247521.pdf
http://www.redbooks.ibm.com/redbooks/pdfs/sg247146.pdf

Microsoft:
http://support.microsoft.com/kb/929491

NetApp:
http://media.netapp.com/documents/tr-3747.pdf

Потенциально интересный софт - Paragon Alignment Tool 3.0.


- пост с мобильного устройства, сорри за краткость и опечатки.