пятница, 30 декабря 2011 г.

Happy new year


Друзья.

С наступающим новым годом!

Всего всего.

Упомянуть всякую астрологическую, хммм... хрень, в техническом блоге, как то неловко. Но, вроде как, принято.

Как компромис процитирую порадовавшую меня цитату по этому поводу:

Обещают, что дети, рожденные в год Черного Дракона, будут творческими и активными. Но мы-то знаем, что главное для них - иммунитет к магии!

Прирост черных драконов удваивается*, так что можно будет ввязываться в бОльшие авантюры, и успешно их завершать ;-)

Удачи!

*Искреннее сорри тем, кому эта фраза ни о чем не говорит. Но, думаю, не игравших в HoMM среди нас не очень много :-)

понедельник, 26 декабря 2011 г.

Trasparent Memory page Sharing + Large Pages + Address Space Layout Randomization

 

В rss ридере проскочил пост на тему что некая фича ASLR (Address Space Layout Randomization), реализованная, в частности, для Windows начиная с Vista, может влиять на эффективность дедупликации памяти, TPS. В конце поста я приведу ссылки и выжимки.

 

Мне стало интересно – ранее  в таком контексте мне приходилось читать упоминания только про большие страницы, Large pages.

 

И я попробовал собрать свой собственный тестовый стенд.

Итак –

ESXi пятой версии, 16 ГБ ОЗУ.

Пять ВМ с Windows 7 (развернуты из одного шаблона). Внутри MS Office 2010. У каждой ВМ гигабайт памяти.

Эти ВМ запускаются, и я снимаю данные с показателя shared, отображающего эффективность TPS.

 

Притом, меня интересует сценарий простаивающих ВМ и ВМ под нагрузкой, и в случае разных комбинаций настроек.

 

Для создания нагрузки на эти ВМ я воспользовался утилитой VDI Sizing tool, которая довольно легко обеспечила имитацию офисной нагрузки для этих ВМ – в запущенных ею RDP-сессиях на мои Win7 запускались Word, Excel, Outlook, в них печатался текст, вставлялись картинки и т.д. и т.п. Выбор именно этой утилиты был обусловлен тем, что мне давно было интересно попробовать ее в деле.

 

К сожалению, в списке поддерживаемых для тестирования были заявлены только серверные Windows, а я использовал Windows 7. Но я заметил только две проблемы – Outlook 2010 требовал нажатия на ОК с вопросом об имени какого-то файла. Вторая проблема – данные со статистикой про латенси разных операций оказались непонятными – выделялись только графики пары-тройки показателей. Остальное то ли совпадало, то ли было в районе нуля, то ли что. Может у меня просто мало ВМ в тесте участвовало.

 

Данный стенд вряд ли потянет на супер-отличный-стенд-к-организации-которого-не-придраться, но и пофиг, правда? Зато я его сделал, и для понимания “на пальцах” он сойдет. Однако!!! Далеко идущие выводы из результатов стоит делать с осторожностью.

 

Случай номер один

 

ВМ без нагрузки. Все по умолчанию – большие страницы используются, ASLR включен.

Получившаяся ситуация:

 

С учетом избытка памяти на хосте (5 ВМ по гигабайту, на сервере всего 16), гипервизор выдал каждой ВМ  по 100% от максимума (гигабайт каждой), хотя активно используется лишь малая часть.

image

рис. 1-1.

 

Память не дедуплицируется вообще(!).

image

Рис. 1-2.

 

То же что и предыдущие данные, но обзорно. См. поле “Shared” в данных “Memory”.

image

Рис. 1-3.

 

Случай номер два

 

ВМ работают под нагрузкой. Все по умолчанию – большие страницы используются, ASLR включен.

 

Ситуация от предыдущей отличается только большей активно задействованной памятью. Обратите внимание – Windows 7 + Office 2010 потребляют порядка 400 МБ под нагрузкой от используемой мною утилиты, по крайней мере с настройками по умолчанию (правда, из доступной от нее документации нет ничего про какие-либо настройки уровня нагрузки).

image

Рис. 2-1.

 

Дедупликации по прежнему ноль.

image

Рис. 2-2.

 

image

Рис. 2-3.

 

На этом этапе теста я сообразил еще и в esxtop данные смотреть. Тут нас интересует строка c показателями PSHARE, shared, common, saving выше таблицы с данными по каждой ВМ. По идее, самый ценный показатель это saving – типа как раз “сколько TPS нам сэкономил”.

image

Рис. 2-4.

 

А вот это результаты работы VDI Sizing tools – эта утилита еще и графики по статистике рисует. К сожалению, на моем стенде данные не совсем мною поняты – многие графики, похоже, в районе нуля. И тяжело понять а синяя линия вот к чему именно относится?

У меня от бедности все ВМ лежат на одном диске, именно на одном физическом SATA диске – так что некоторые тормоза могут быть вызваны именно этим.

image

Рис. 2-5.

 

Случай номер три

 

ВМ без нагрузки. Выключены только большие страницы.

 

При сопоставимых значениях “активно используемой памяти” гипервизор тратит меньше “железной памяти” на каждого гостя.

image

Рис. 3-1.

 

Дедупликация заработала! График показан на этапе выхода на статичные показания.

image

Рис. 3-2.

 

На этих статичных показаниях дедуплицируется порядка 3 ГБ памяти этих 5 ВМ.

image

Рис. 3-3.

 

Нам экономят 2 ГБ из пяти, по данным esxtop.

image

Рис. 3-4.

 

Случай номер четыре

 

ВМ под нагрузкой. Большие страницы не используются.

 

Ситуация предсказуема – нагрузка есть, железной памяти выделяется не 100% от параметров ВМ.

image

Рис. 4-1.

 

Разделение памяти работает.

image

Рис. 4-2.

 

Порядка 2.5 ГБ разделяются.

image

Рис. 4-3.

 

Экономится чуть менее 2 ГБ.

image

Рис. 4-4.

 

Данные VDI Sizing tool. В первый раз какой-то один показатель достигал 30 секунд, потом опускался до 3. Сейчас он же, похоже, стабильно в районе 3 секунд. Остальное, как и было – в районе нуля.

Выводы – явным образом отключенные большие страницы тормозов не вызвали.

image

Рис. 4-5.

 

Случай номер пять

 

ВМ без нагрузки. Выключены и большие страницы, и ASLR.

Для выключения ASLR в реестре каждой ВМ был создан ключ DWORD со значением “0”, по адресу
\HKLM\SYSTEM\CurrentControlSet\Control\Session Manager\Memory Management\MoveImages

 

Хмм. Эффект похоже есть. Сравнивать следует с данными случая 3.

image

Рис. 5-1.

 

image

Рис. 5-2.

 

С включенным ASLR шарилось 2.95 ГБ. С выключенным – 3.76.

image

Рис. 5-3.

 

С ASLR esxtop показывал сохранение 2082 МБ.

image

Рис. 5-4.

 

Случай номер шесть

 

ВМ под нагрузкой, выключены и LP и ASLR

Сравнивать надо со случаем 4, когда ВМ под нагрузкой, но выключены только LP. Там ВМ занимали от 620 до 780 МБ.

image

Рис. 6-1.

 

Обратите внимание на пики переходного периода. Такой график может возникнуть вне зависимости от ASLR, это свойство TPS как такового. Я так предполагаю, что именно подобная нестабильность эффекта от TPS (обусловленная тем, что нагрузка на ВМ неравномерно меняется, а также тем что сами ВМ переезжают) и является причиной того, что VMware не рекомендует учитывать эффект от TPS в производственной среде. Впрочем, если состояние ВМ стабильно – то и эффект от TPS стабилен (см. все остальные графики #-2).

image

Рис. 6-2.

 

Расшаривается порядка 2.9 ГБ памяти. С ASLR – порядка 2.5.

image

Рис. 6-3.

 

Сэкономлено порядка 2.2 ГБ. С ASLR – порядка 1.8 ГБ.

image

Рис. 6-4.

 

Задержки одной из операций опять стали большие, для одной сессии. Непонятно, с чем это связано. Впрочем, учитывая что все остальное в районе нуля – похоже в моих масштабах от включения\выключения LP и ASLR не меняется ничего.

image

Рис. 6-5.

 

Случай номер семь

 

ВМ без нагрузки. ASLR выключен, большие страницы используются (т.е. настройки ESXi по умолчанию).

 

Экономия памяти по нулям.

image

Рис. 7-2.

 

Таким образом, в моем исследовании получается, что для TPS первично отключение больших страниц. Отключение ASLR способно дополнительно улучшить эффект от TPS. При больших страницах эффект от TPS никакой, вне зависимости от ASLR.

 

Материалы

 

Исходный пост, привлекший мое внимание – Windows 7 Transparent Page Sharing and the ASLR story

Там приводится краткое описание что такое Address Space Layout Randomization (ASLR) – это фича повышения безопасности. Типа какие-то адреса страниц памяти случайно меняются.

Отключение этой фичи однозначно не рекомендуется Microsoft – из общих соображений безопасности.

 

По вышеприведенной ссылке, тем не менее, попробовали отключить и провести тест TPS (мои стенд довольно похож, но здесь развертывалось 52 и больше ВМ с гигабайтом памяти каждая, на сервере с 48 ГБ ОЗУ).

По их данным, отключение ASLR давало порядка 30% повышения эффективности дедупликации памяти. Однако, большие страницы они, похоже, не отключали. У меня работа с большими страницами давала нулевой эффект дедупликации. Возможно дело в том, что они разворачивали ВМ на больше памяти чем есть на сервере – в таком случае ESXi автоматически отключает Large Pages, дедупликация начинает работать и отключенный ASLR повышает ее эффект.

 

Уже запустил у себя пул View для воспроизведения такой же ситуации – но уже хочется спать, напишу отдельным постом.

 

Доптвики для оптимизации TPS - Increase VDI consolidation ratio with TPS tuning on ESX.

 

Про отключение больших страниц от тех же авторов - TPS, Large Memory Pages and your VDI environment.

 

Про большие страницы у меня – TPS vs. Large Pages in real life.

 

Плохо ли отключение больших страниц – непонятно. Насколько я смог понять – в теории эффект есть, но на практике о пойманном эффекте “я отключил большие страницы и все стало плохо” не встретился.

Вот тут еще можно глянуть – boot storm. TPS vs. hardware MMU.

 

VDI Sizing tools произвела хорошее впечатление – завелась сразу, это веский довод Улыбка

Однако немного непорадовала документация – я с первого раза понял что куда устанавливать, но дискомфорт во время разбирательства был.

увидеть содержимое CD-rom в ESXi 5

 

Из переписки:

 

Михаил, добрый день!

На прошлой неделе я у вас проходил курс по VMware и решил описать решение необычной задачи, вроде бы в блоге у вас подобного нет.

Мне необходимо обновить драйвера FlexFabric (блейды HP), хосты подключены по VLAN (SSH нет), общего хранилища нет. Было принято решение подключить cdrom через Ilo, но команды Mount в esxi нет... Небольшое гугление привело к такому решению:

1) Находим CDROM

esxcfg-mpath -l

   <...>

   usb.vmhba32 usb.0:0

       <...>

2) Загружаем модуль vmkload_mod iso9660

3) /sbin/vsish -e set /vmkModules/iso9660/mount usb.vmhba32 usb.0:0

CD-ROM появится в списке /vmfs/volumes/

Тут выяснилось что не всегда срабатывает ((( в таком случае можно воспользоваться утилитой  http://v-front.blogspot.com/p/esxi-customizer.html

Я еще вспомнил мой вопрос что делать, если локальный датастор удалил, а он вдруг снова понадобился (esxi 5). Правильный ответ: переустанавливать ESXi –  http://kb.vmware.com/kb/2000454

 

thx Sergey

воскресенье, 25 декабря 2011 г.

подготовка к VCAP:DCA

 

На данный момент сертификация VMware насчитывает три уровня. После базового теста на звание VCP становятся доступны два теста на звание “Сертифицированного адвансед специалиста”, притом “продвинуться” можно аж в двух направлениях – VCAP: Design и VCAP:Administration, то бишь разработка решений и администрирование vSphere.

 

В данный момент эта сертификация – только по четвертой версии vSphere. Ближе к весне можно ожидать появления VCAP 5.

 

Если в ваши планы входит подготовка к VCAP 4: Datacenter Administrator, то не проходите мимо глобальной mind map, содержащий в себе огромное количество материалов по подготовке – VCAP-DCA – Uber Awesome Study Guide.

image

суббота, 24 декабря 2011 г.

подборка posh скриптов

 

Интересный пост - Community PowerCLI Scripts Week 51.

Подборка скриптов на PowerShell для vSphere.

Один скрипт потенциально интересен, на мой взгляд – Configuring HP EVA Recommended Settings for ESXi via PowerCLI, настройка ESXi в соответствии с рекомендациями для HP EVA.

.

Snapshot consolidation

 

 

Вроде бы я об этом еще не писал. В vSphere 5 появилась новая кнопка для работы со снапшотами:

consolidate

 

Она пригодится в случае если у ВМ де-факто снапшоты есть, хотя в интерфейсе их не видно.

Такое иногда случается при неудачном удалении снапшота, к примеру.

 

Так же, система иногда сама обратит ваше внимание, что ВМ стоит выключить и инициировать это слияние снапшотов:

overview

 

Картинки отсюда.

среда, 21 декабря 2011 г.

hny Iomega



Антон Жбанков примеряет роль Деда Мороза.

Правильно "рассказав стишок" ;-), можно обзавестись подарком!

(на самом деле шансом на подарок, но к черту подробности!)

вторник, 20 декабря 2011 г.

VMware Converter best practices

 

С одной стороны, VMware Converter потихоньку теряет актуальность – уже все виртуальное Улыбка

 

С другой стороны, пригодиться еще может.

 

Памятка – Some best guidelines for VMware Converter 5 in order to avoid known issues..

понедельник, 19 декабря 2011 г.

MacOS + VMware

 

Есть такой нюанс – для ESXi5 в списке поддерживаемых заявлена MacOS, но мелким шрифтом добавлено “только если физическое железо от Apple”. В общем-то, второе утверждение делает фикцией первое.

Из переписки:

Если интересно покопаться и написать об этом в блоге, есть интересная тулза - Unlocker. Есть для воркстэйшена, фьюжена, ESXi.
Суть ее в том, что она патчит некоторые файлы, а также добавляет новую ОС - Apple Mac OS X 10.7 - таким образом, что обходится проверка на наличие эппловского железа (микросхемы) для запуска макоси.

Т.о. успешно без посторонних загрузчиков была установлена Mac OS X Lion Server 10.7.2 на воркстэйшн и сконверчена на ESXi.
При установке и использовании есть некоторые нюансы, могу подробнее рассказать.

Форум чуваков, где это добро взять:
http://www.insanelymac.com/forum/index.php?showtopic=267296&st=0

 

thx Anton

воскресенье, 18 декабря 2011 г.

Automatic Startup and Shutdown

 

На серверах ESXi есть интересная настройка – Virtual Machine Startup and Shutdown. Как несложно догадаться, с ее помощью мы можем указать порядок автоматического старта и автоматического выключения ВМ вместе с хостом.

image

 

Машины в группе Automatic будут стартовать и выключаться строго в указанном порядке, машины в группе Any Order – параллельно (вроде), машины в группе Manual не будут стартовать\выключаться автоматически.

 

Обратите внимание – по умолчанию все ВМ попадают в Manual. А сама автоматизация включения\выключения не активна. В частности, это означает, что при выборе Shutdown в контекстном меню сервера все ВМ немедленно выключаются, и выключаются некорректно.

 

Очевидно, что применение данной настройке видится очень и очень важное. Самый характерный пример – пропажа питания. Это когда выключилась вся инфраструктура, затем питание вернулось и надо все включить. Но виртуалки мало просто включить – часто важно включение именно в определенном порядке, в силу зависимостей между сервисами.

 

Так вот – при переезде ВМ на другой сервер она попадает в группу Any Order – даже если на исходном сервере была в Automatic. (Manual –> Manual, Any Order – > Any Order, Automatic –> Any Order).

image

 

Это, конечно, очень нехорошо.

 

Я столкнулся с утверждением, что если для отдельно взятой ВМ на каждом сервере выполнить эту настройку (а именно поместить ВМ в Automatic Startup – на каждом сервере) – то при миграции эта настройка будет сохраняться, и все будет ок. Однако я сегодня попробовал – чего-то нифига. Как бы я не поступал – после миграции ВМ оказывается в Any Order. Печальная рожица

VMware View Client with PCoIP for Mac OS X Tech Preview

 

C мест сообщают - VMware View Client with PCoIP for Mac OS X Tech Preview now available!

непонятки с Custom shares и Limit

 

Курс на прошедшей неделе оказался очень плодотворным – узнал много нового Улыбка

 

Вот, например, ситуация весьма мне напоминающая баг.

 

Берем две ВМ. При помощи настройки CPU Affinity делаем так, что они начинают работать на одном ядре. Нагружаем процессоры этих ВМ по полной при помощи специального средства. Наконец, отслеживаем как они борются за ресурсы, и управляем этим при помощи настроек распределения ресурсов.

(Те, кто посещал курсы по vSphere – вам такая лаба должна была запомниться).

Вот экспортированный из vCenter график, отражающий распределение ресурсов одного физического ядра между двумя ВМ:

image

 

я отметил 4 этапа, этапы отличаются настройками.

Этап 1:

Для ВМ “High” выставлены shares = High (2000). Но для нее установлен Limit = 1000 Mhz.

Для ВМ “Low” выставлены shares = Low (500).

Виртуальные машины делят ресурсы ядра практически поровну. Потому что тактовая частота ядра чуть больше 2000 Mhz, ВМ “High” имеет больше shares, но уперлась в свой лимит на половине.

 

Реальная ситуация совпадает с расчетной.

Этап 2:

Снят лимит для ВМ “High”.

Виртуалки делят ресурсы по shares, 1:4.

 

Реальная ситуация совпадает с расчетной.

Этап 3:

Для обеих ВМ shares делается Custom, но численное значение просто увеличивается на порядок для обеих, Т.е. вместо 2000:500 становится 20 000:5 000. Но по прежнему 1:4. Как видно, распределение ресурсов действительно не изменилось. Небольшой пик – при внесении изменений в настройки.

 

Реальная ситуация совпадает с расчетной.

Этап 4:

Для ВМ “High” опять ставится limit = 1000 Mhz,

Распределение ресурсов должно стать таким же, как на этапе 1.

Но вместо того, чтобы опуститься на 1000 Mhz, ВМ “High” опускается до 450(!!!).

 

Почему?

вторник, 13 декабря 2011 г.

web-интерфейс для ESXi на коленке

 

Вот тут – Ghetto webAccess for ESXi – делятся возможностью добавить функции управления питанием ВМ на базовую веб-страничку ESX(i).

 

Вот как это выглядит:

image

 

я попробовал – работает.

воскресенье, 11 декабря 2011 г.

VMware IO Analyzer

 

Интересная новая штука от VMware – VMware IO Analyzer, доступная на сайте экспериментальных проектов VMware.

 

Суть – Virtual Appliance для нагрузочного тестирования дисковой подсистемы.

 

Допустим, я хочу оценить скорость хранилища, доступного моим серверам ESXi.

С этой штукой можно поступить следующим образом:

 

1) Загрузить, распаковать, File –> Deploy OVF Template. Разместить импортируемую ВМ следует на том хранилище, что хотим тестировать.

 

2) Подключить к этой ВМ еще один диск. Важно – второй диск,размером в 100 МБ, там уже есть. Он – тестовый. Лучше его удалить, и создать свой (рекомендуется типа eager zeroed если нужна именно пиковая производительность).

 

Именно на него будет создавать нагрузку зашитый внутри IOMeter. Этот диск следует разместить на том хранилище, что надо тестировать. Его размер должен быть хотя бы в 4 раза больше, чем объем памяти этой ВМ – дабы избежать кэширования (по умолчанию памяти 1 ГБ, т.е. размер добавляемого диска от 4 ГБ).

(вообще говоря, вроде бы саму ВМ можно на любом хранилище держать, а на тестируемом располагать только этот дополнительный диск – так говорит логика. Но в инструкции указано именно так, как я написал).

Для теста нового хранилища надо или удалить, затем заново добавить этот второй диск, или передобавить весь Virtual Appliance.

 

3) ВМ следует включить, и в консоли авторизоваться с пользователем root и паролем vmware. Только авторизоваться (Login), больше ничего – но это сделать надо обязательно. Выполнять этот шаг следует после каждой перезагрузки.

 

4) На вкладке Summary узнать адрес IP, и обратиться на него браузером (поддерживаемые – Firefox и Chrome).

 

5) Уже при помощи браузера нам следует запустить тестирования, предварительно выполнив кое-какие настройки.

 

Необходимо указать имя и пароль root сервера\серверов ESXi (IO Analyzer будет обращаться к ним за данными esxtop)

image

Укажем тип нагрузки (размер блока, процент чтения, случайность). Очень важная настройка.

В поле Select VM я выбрал сам IO analyzer (после выбора хоста обновите страницу в браузере чтобы обновился список ВМ на этом хосте, и подождите. я ждал минут 10 %) ), в поле VM IP – ввел ее IP, затем нажал кнопку Add Worker.

По идее, можно указать несколько разных IO Analyzer с разных хостов, и запустить из работу одновременно.

Затем указываем длительность, жмем Run, ждем зеленой строки оповещения об окончании теста, и идем на вкладку Results.

Результаты одиночного SATA-диска, для иллюстрации того как выглядят результаты:

image

 

Данные даны для примера, каких-либо выводов делать из них неправильно, так как тестовый стенд не делался, все запускал “чтоб попробовать”.

Обратите внимание(!!!):

1) данное средство – экспериментальное. Его результаты могут иметь мало общего с реальностью (в комментах уже всплыло что допустили небольшой косяк с выравниванием).

2) результаты нагрузочного тестирования хранилища из одной ВМ – малопоказательны.

Во первых по той причине что вам надо не чтобы ваш сторадж был самым быстрым на районе, а чтобы он был достаточно быстр для ваших ВМ. Нагрузочное тестирование тут показывает именно максимальную скорость в вакууме.

Во вторых по той причине, что обычная схема работы – когда на одном хранилище много ВМ с разных хостов.  Оправданно именно такую тестовую конфигурацию создавать. Кстати, см. тут – Playing around with VMware IO Analyzer.

Работа с клиентом vSphere

 

Список горячих клавиш клиента vSphere – vSphere Client Keyboard Shortcuts.

 

А вот еще одна мелкая, но чертовски полезная деталь интерфейса клиента vSphere – масштабирование разрешения гостя.

 

Если у гостевой ОС большое разрешение экрана, и экран не влезает целиком в окно консоли, то работать становится чертовски неудобно. Но, иногда, надо.

image

 

Если в пункте меню View выбрать Fit guest now, жизнь, внезапно, заиграет новыми красками:

image

вторник, 6 декабря 2011 г.

VCP desktop

Вчера мне пришло приглашение поучаствовать в бете нового теста VMware, на звание VMware Certified Professional 5 - Desktop. Аналог VCP для VMware View.

Ну а сегодня я попробовал сдать.

225+30 минут
210 вопросов

Это именно в бете так, релиз теста будет короче.
Вопросы были, в общем-то, про все:


Про gpo - какие там настройки, какие шаблоны, где что. Т.е. в каких шаблонах групповых политик какие настройки делаются.

Вопросы на знание архитектуры - что делает каждый компонент View,что - vCenter, что - AD.

Трудными были вопросы про траблшутинг - типа "какой ключик реестра надо поправить чтобы ушла такая-то проблема кастомизации". Как я понял - некоторые такие вещи описаны тько в kb, не в документации.

Про smart card и rsa - никогда с этим не имел дела в живую, было непросто.

Thinapp - например как быть если софту нужен .net 2.0

Мои "любимые" справочные вопросы, к примеру - поддерживаемые версии Windows Server, vCenter, esxi. И их поддерживаемые комбинации для разных компонентов view.

Результаты как всегда в бета-версиях месяца через два.

пятница, 2 декабря 2011 г.

PowerShell PowerCLI vmx change

 

Интересный пост – VMware vSphere Client и буфер обмена.

 

Во-первых, напоминание о том, что можно включить copy-paste текста для консоли vSphere, и какое изменение конфига ВМ для этого надо.

Во-вторых – PowerShell скрипт, который позволит внести эти изменения массово.

четверг, 1 декабря 2011 г.

EOL

 

Полезная ссылка  - End-of-Maintenance (EOM) & End-of-Life (EOL) Dates for 2012 and early 2013.

 

Опубликованы сводные данные по завершающим свой жизненный цикл продуктам.

Скопипастю:

 

image

SRM 5

 

Неплохая преза с базовым описанием SRM 5:

clipboard, copy-past, View PCoIP

 

Для продукта VMware View многие настройки делаются не совсем ожиданным способом – через груповые политики.

 

Шаблоны групповых политик, с настройками для серверов View, клиентов, агентов, отдельно PCoIP и новой фичи Persona Management, легко доступны на сервере View.

 

Зайдя в документацию, легко увидеть какие настройки доступны – View ADM Template Files.

 

А мое внимание привлекла настройка, о которой раньше не задумывался – разрешение на двухсторонний буфер обмена между локальной машиной и виртуальным рабочим местом - Configure clipboard redirection. Доступна эта настройка в шаблоне настроек для PCoIP.

Ephemeral port binding Guest Customization problem


Забавно – Cloning VMs, Guest Customization, & vDS Ephemeral Port Binding.

Если мы используем распределенный коммутатор, то у его групп портов есть настройка “Port Binding”.
Один из вариантов настройки – Ephemeral, что означает “количество портов в группе неограниченно”.
До сегодня мне этот вариант казался оптимальным, по двум причинам:
1) даже теоретически число портов в группе не может нас ограничить;
2) даже если vCenter не работает – в эту группу портов можно добавить ВМ (это невозможно в случае других вариантов настройки привязки портов).

Однако в указанном выше посте приводят очень веское противопоказание для эфемерной привязки портов:
если есть ВМ\шаблон, подключенный к распределенной группе портов с эфемерной привязкой, и мы хотим развернуть новую ВМ из шаблона или клонировать – то:
во-первых, не сразу отработает обезличивание гостя (и не сможет ввести его в AD, проблемы будут и с другими шагами, если они завязаны на сеть)
во-вторых, ВМ перестанет отвечать на команды vSphere, например на Shutdown guest и PowerOff:

image

Дело в том, что vCenter пытается осуществить с этой ВМ обезличивание, и этот task блокирует остальные действия. А обезличивание не может быть произведено, потому что vCenter по какой-то причине не может ВМ подключить к группе портов.
image

В общем, похоже на то что в текущей версии ephemeral binding не годится для групп портов, куда могут быть подключены шаблоны или клонируемые ВМ.
Правда, я пошел немного дальше чем авторы оригинального поста. Если подождать порядка 10 минут, то видимо проходит какой-то таймауту. ВМ перезагружается, обезличивание происходит, но при первом старте сетевой контроллер неподключен. Это означает, что в домен ВМ не войдет – если файл ответа это предполагает.

VMXNET problem in Windows 2008 and Windows 7

 

Вроде как сообщают о проблемах в текущем драйвере для vmxnet3 – Problem with VMXNET3 Driver. Windows 2008\7 могут жаловаться на “orphaned NICs”. Насколько я понял из описания, Windows как будто теряет один интерфейс, и находит другой. Но могут быть проблемы с названием интерфейса, и со статичным IP адресом.

 

Статья базы знаний VMware – http://kb.vmware.com/kb/1020078.

 

Помочь должен патч от Microsoft - http://support.microsoft.com/kb/2526142.

Или другой - http://support.microsoft.com/kb/2344941.

Hypervisor Comparison


Опубликован очередной предмет для холиворов документ со сравнением гипервизоров.

Как всегда есть неоднозначность сравнения по фичам в лоб (это плохо работает так как у сложных фич много нюансов).
Ну и бросилось в глаза – перепутаны примечания 2 и 3.
UPD. вроде пофиксили это.

пакеты VIB

 

Для ESXi 5 есть возможность доустанавливать всякие разные компоненты. Это новые драйверы, новые версии драйверов, какие-то другие вещи типа агента HA –  в общем, всякий софт.

 

Притом, их можно не только устанавливать, но и интегрировать в дистрибутив – чтобы сделать доступными сразу после установки самого ESXi. Подробности см. тут – Image builder.

 

Для установки или интеграции ПО оно должно поставляться в т.н. vib-пакетах. Файл vib содержит в себе непосредственно ПО и метаданные к нему. В метаданных, в частности, содержится цифровая подпись.

 

Более подробно о том, что там в vib – What's in a VIB?.

Как создать свой собственный vib – How to create your own .vib files, небольшое дополнение – Some more nuggets about handling VIB files. Обратите внимание что в данном примере создаваемый vib-пакет содержит в себе не софт, а изменение настроек брендмауэра ESXi.

 

Цифровая подпись дает один из нескольких статусов vib-пакету. Возможные варианты:

  • VMwareCertified;
  • VMwareAccepted;
  • PartnerSupported;
  • CommunitySupported.

Создаваемый вручную пакет, очевидно, может иметь лишь последний статус списка, означающий “неподдерживаемый”.

Поиметь прикладную пользу от этих знаний можно в настройках сервера, указав – пакеты с каким статусом дозволены на этом сервере ESXi (см.рис).

image

VMware View Client with PCoIP Support for Linux

 

Недавно со мной поделились инструкцией VMware View клиент под Linux c поддержкой PCoIP.

 

На ту же тему – Installing the VMware View PCoIP Client on Linux.

среда, 23 ноября 2011 г.

VCP certificate

Периодически повторяются вопросы про бумажный сертификат после сдачи теста VCP.

К примеру -
21 июля  я сдавал тест VCP5.
8 сентября  узнал что сдал.

22 ноября пришел сертификат.

Но я сдавал бета-версию теста.

В обычном случае - до Москвы из штатов доходит за месяц-полтора, по моему опыту.

Кстати, лицензия на Workstation по прежнему прилагается - мне пришла электронным письмом.

multiple datastores multiple disks VM


Из переписки:

Добрый день.
Вчера столкнулся с одним, весьма неприятным глюком vSphere 4.1, которым, если вы не против, хотел бы поделиться. (хотя, может вы об этом уже в курсе..))
При создании виртуалки с несколькими дисками, первый диск имеет название аналогичное названию виртуалки, допустим - "vmname.vmdk", а к остальным приписывается порядковый номер - "vmname_1.vmdk", "vmname_2.vmdk".
Допустим у нас есть виртуальная машина с тремя дисками. Мы решили добавить ещё один, предположительно "vmname_3.vmdk", а т.к. на дефолтном датасторе ВМ места под этот диск нет, то мы решили этот диск положить на другой датастор.
На этом датасторе создается папка названная именем вашей ВМ в которую помещается новый диск.
Теперь, мы решили переместить этот диск в другую папку, переименовать, или удалить вручную с датастора (причины могут быть разные, например после переименования ВМ, решили переименовать папки на датасторе).
Соответственно создаем новую папку, и копируем туда диск ("vmname_3.vmdk"). После этого заходим в настройки вм и удаляем этот третий диск ("vmname_3.vmdk"), чтобы добавить его по новому пути.
А вот тут начинается самое интересное!
Т.к. на новом датасторе лежит только третий диск, то, вопреки ожиданиям, его название не "vmname_3.vmdk", а "vmname.vmdk", которое, соответственно, совпадает с первым диском.
Казалось бы мелочь, но вся прелесть в том, что при удалении третьего диска в настройках ВМ (удалении файлов диска с датастора), т.к. ESX не находит его на датасторе (мы его перенесли/удалили вручную), он, ни о чем не предупреждая, удаляет первый диск, т.к. их имена совпадают!

Так что будьте аккуратнее.

P.S. Все выше сказанное относится к vSphere 4.1. На vSphere 5 при удалении диска в настройках ВМ выдается ошибка, что такого диска нет.

thx Дмитрий

понедельник, 21 ноября 2011 г.

правильный перенос физических серверов в ВМ–P2V

 

В комментариях к посту про средства, помогающие при P2V, мне подсказали интересный набор скриптов для миграции Windows-серверов – VMware P2V Converter Best Practices. В этой инструкции, кроме инструкции, собственно, есть еще (видимо) самописные скрипты для упрощения процесса.

 

Ну и для кучи чтобы все ссылки были в одном месте:

HP Proliant Support Pack Cleaner

Scripted Removal Of Non-present Hardware After A P2V.

Dell – Automated P2V cleanup remove & uninstall Dell PpenManage Broadcom/Intel drivers.

суббота, 19 ноября 2011 г.

vCSA

 

А вот vCenter Virtual Appliance не знает об отмене перевода часов. И в его базе часовых поясов времени Российского времени Москва+1 просто нет %-)

Поставил Азербайджан.

Наверное, этот SUSE можно допилить, но неохота тратить время на разбирательства.

View WinXP customizing problem

 

Памятка – если VMware View не может ввести WinXP в домен Win2008 (или ввести может но подключиться не дает), то надо поставить спецпатч – http://support.microsoft.com/kb/944043.

P2V cleanUp

 

К вопросу о доводке до ума виртуальных машин, полученных после P2V миграции физических серверов.

Проблема в том, что при переносе средствами VMware Converter, Acronis Universal Restore и прочими утилитами с подобным функционалом в полученной при их помощи виртуальной машине остается определенное количество ненужного ПО и настроек. Это драйверы физического серверного железа, агенты мониторинга, само по себе упоминание предыдущего набора железа и т.п. В ВМ они уже не нужны, и даже противопоказаны.

Ранее я уже писал о том, что существуют утилиты, помогающие в некоторых случаях автоматизировать процесс причесывания таких вещей. Это HP Proliant Support Pack Cleaner и Scripted Removal Of Non-present Hardware After A P2V. Сегодня углядел еще один самописный скрипт, теперь для серверов Dell – Automated P2V cleanup remove & uninstall Dell PpenManage Broadcom/Intel drivers.

пятница, 18 ноября 2011 г.

Storage Best Practice List


Самая “мутная” тема при обсуждении как правильно сайзить и настраивать виртуальную инфраструктуру – это тема касаемо систем хранения данных.
Полезным может оказаться подборка рекомендаций от самых разных производителей систем хранения именно для vSphere – Storage Best Practices from different vendors on VMware vSphere.
HP, EMC, NetApp, Dell, Hitachi, IBM.

UPD. мне тут подсказывают что начинать перечисление производителей СХД надо с NetApp [ тут такой троллфейс надо:-) ] , и что есть переведенные рекомендации:
Вот тут - перевод на русский упомянутого у тебя в посте  Best Practices NetApp
 
Может быть полезно.
 
ЗЫ. Там же есть и про VMware View, и про Citrix Server/Desktop

Move vCenter DB to new SQL Server

 

Оказывается у VMware есть прямо статья базы знаний – по переносу базы vCenter с бесплатного SQL Express на коммерческую версию MS SQL – Migrating the vCenter Server 4.x database from SQL Express 2005 to SQL Server 2008.

Плюс к тому, пара дополнительных хинтов тут – Expert tips for moving vCenter to a new SQL Server.

omg


Такое я вижу впервые:

1с и виртуализация

 

Есть вещи, которые не меняются.

Позабавило в очередной раз, углядел тут.

 

Чисто поулыбаться, 1С ники млин ...
Мне:
Ниже описаны некоторые требования, которые мы считаем целесообразным предъявить к конфигурации новых серверов и ПО на них:
1. SQL сервер должен стоять на железке, т.е. мы хотим, что бы он крутился на реальном сервере, а не на виртуальном.
2. Предпочтительная версия сиквела - SQL 2008.
3. SQL должен использовать максимально возможное количество оперативки на своем сервере.
4. На том диске, где будут храниться сиквельные базы, параметры форматирования диска должны быть следующими: размер сектора = 32 Кб
5. Файлы баз и файлы логов транзакций должны находится на персональных массивах (т.е. кроме лога транзакций на его массив ничего не должно писаться, аналогично с массивом файлов базы)
6. Сервер приложений 1С и SQL сервер должны стоять на разных физических серверах
7. Операционки и под сервер приложений 1С и под сиквел должны быть 64-битными
8. Не менее 500 гигов дискового пространства необходимо выделить под базы 1С 8 на том сервере, где будет SQL.
9. Отдельно 500 гигов под бэкапы.

 

Я:
Все понятно, но для обеспечения отказоустойчивости машины должны быть виртуальными.
Количество оперативной памяти и процессоров под задачу будут выделены вполне адекватные.
Так, сервер SQL получит 60 Гигабайт оперативной памяти и 16 ядер, сервера 1С тоже.
Физически машины под сервера 1С и SQL будут разными.
Терять производительность дисковой подсистемы, мне кажется не целесообразным, для каждой
виртуальной машины будет выделен свой LUN с единомоментным быстродействием 10 15K SAS дисков в RAID 10, суммарным
объемом кэш памяти 2ГБ и мощностью двух современных внешних RAID контроллеров.
При необходимости система расширяется до 64-х дисков.
Те рекомендации о построении дисковой подсистемы под SQL, которые Вы мне приводите рассчитаны
либо на очень большие базы (не 1С прошу заметить) либо единственный сервер с внутренним дисковым массивом.
Эти рекомендации не учитывают использование больших отказоустойчивых систем, и сетей SAN поскольку,
для них нельзя или очень трудно составить общие рекомендации. В общем случае разбиение внешней дисковой подсистемы на отдельные
множественные RAID, сильно снижают общую пиковую производительность, такие вещи используют, если во внешней системе не хватает быстродействия
и тогда ставят вторую или превышено максимальное количество дисков в RAID группе, чего в данной компании и на данных задачах мы еще долго не достигнем.
Накладные расходы на виртуализацию составляют в современных системах всего несколько процентов от производительности и ими вполне можно пренебречь.
Общая производительность системы рассчитана мною с запасом на 3 года, поэтому сейчас мы не сможем создать в рабочей обстановке сколько
нибудь заметной нагрузки на данную систему.
[немного пропущено]
А уж хранить резервные копии на тех же серверах и массивах это вообще вне моего разумения, для этого есть Symantec Backup EXEC с его
агентами, стриммер и внешняя дисковая подсистема.
Писал я это глядя на 2 16"ядерных" сервера с 64ГБ оперативки и внешней SAS to Fiber СХД в кластере под Win 2008 Ent.
В общем угораю я с 1С ников ... дальше еще скажут клиента 8-ки ставить локально на 200+ пользователей ибо терминалы грех ... абзац ...