понедельник, 29 октября 2007 г.

Проблемы при Cold migration.

Тут чувак описывает пару проблем, с которыми довелось столкнуться при холодной миграции ВМ между ESX.
Первая - мастер выдавал warning, что к ВМ подключен iso'шник с локального диска, но позволял двинуться дальше. Если двинуться дальше - на 99% операция прерывалась ошибкой примерно такой - “Invalid configuration for device 1″. Вывод - следует избегать даже предупреждений при инициации таких действий. После удаления отсылов на этот iso, операция проходила корректно.

Вторая - “The specified key, name, or identify already exists”. Возникала при миграции ВМ на хост, где уже есть ВМ с тем же именем. Вообще говоря, у каждой ВМ есть GUID, т.е. требования к уникальности имени нет. Но практика показала, что при миграции лучше бы одинаковых имен не допускать. Меняем имя, мигрируем, меняем имя взад.

Примерно так.

Как выбрать правильный набор лицензий.

Тут(на англ.) рассказано, какие лицензии бывают.
Вкратце:
Есть ESX, в двух вариантах - Starter и Standart. Первый не умеет работать с СХД кроме локальных дисков и NFS, максимум на 4х процессорном сервере будет работать.(список не полон).
Далее, отдельно покупаются:
VMotion
DRS
HA
VCB
VirtualCenter.

Набор из всех лицензий называется Enterprise, стоит дешевле, чем эти лицензии покупать поотдельности.

Это вкратце.

воскресенье, 28 октября 2007 г.

Утилита для уменьшения размера vmdk.

Vizioncore обещает, что ее утилита vOptimizer сумеет помочь деле уменьшения размера диска, если реально задействованно меньше, чем занимает vmdk файл. Тут можно глянуть небольшой видеоролик(во флеше), чтобы оценить, какого с ней работать.

Добавил эту инфу в пост про все способы уменьшить диск ВМ.

суббота, 27 октября 2007 г.

Облом, к сожалению, с ESX3i на ВМ.

Облом, к сожалению, с ESX3i на ВМ у меня. Для этого необходимы процессоры с поддержкой VT.
У меня не такой на компе.
На работе есть, конечно, сервак, на котором ESX3i загружается(я пробовал), но на неделе опять командировка :(, т.е. опыты откладываются.

PSOD ESX

Что делать, если ESX выдает Purple Screen of death, пупурный экран смерти?

Тут пишут следующее(вкратце):
во первых, в /root появится лог mware-zdum-*.log, какая то инфа будет там.
Ну и потом, при установке ESX мы создаем партицию vmcoredump - как раз туда будет писаться дамп ядра в случае сбоя. Добраться до этого дампа можно командой "vmkdump".
Например, vmkdump -d /dev/sda5 запишет дамп на указанный LUN, с именем vmkernel-zdump.#.

пятница, 26 октября 2007 г.

PowerShell и VMware

PowerShell и VMware - хороши вместе.

Какое то время назад Microsoft представила новую оболочку командной строки. И соответствующий скриптовый язык. И подход cmdlet - "командлет", когда используемые команды ускоспециализированны, и для достижения сложных целей используем цепочку из нескольких командлетов, выход одних подавая на вход другим. Про сам PowerShell пишут тут. Именно его будет использовать Windows 2008, и он доступен уже сейчас для Win2003\XP. Последние продукты, типа Exchange2007, SCCM, SCOM и т.д. также позволяют делать с собой все из командной строки.

Вообще, командная строка - это здорово! Это супер!
Наверное.
К счастью, так думают не все. В частности, сообщество Powergui предлагает фриварную графическую оболочку к PowerShell.

Скрины:
















К чему это я.
К тому, что есть группа товарищей, работающая над командлетами PowerShell для VI3.
Тут их блог.
Заинтересовавшихся прошу обращаться туда в поисках ссылок, документов и описаний.
Так же с удовольствием почитал\опубликовал бы чей то опыт практического применения такого подхода к администрированию VI3. Так что если кто накопает ссылок, а то и сам сможет\захочет что то сказать - вери велкам.

Неплохие обзоры?

Чувак отсюда сделал несколько интересных постов:

Microsoft открыло API Viridian.

Open Specification Promise.
Теперь сторонние приложения смогут получать доступ к

  • Partition Management
  • Physical Hardware Management
  • Resource Management
  • Guest Physical Address Spaces
  • Intercepts
  • Virtual Processor Management
  • Virtual Processor Execution
  • Virtual MMU and Caching
  • Virtual Interrupt Control
  • Inter-Partition Communication
  • Timers
  • Message Formats
  • Partition Save and Restore
  • Scheduler
  • Event Logging
  • Guest Debugging Support
  • Statistics
Отсюда.

четверг, 25 октября 2007 г.

WinSCP 4.0.5

Обновилась утилита WinSCP. Напомню - графический файловый менеджер, способный работать с ESX. Редактирование конфигов, перемещение файлов между ESX и Windows машинами для тех, кому не слишком близка командная строка. Мне, например :).
freeware.

upd. и напомню про альтернативу - Veem FastSCP - позволяет в одну консоль добавлять несколько ESX, и таскать файлы напрямую между ними. Работает быстрее, так как не шифрует траффик, в отличии от WinSCP. Есть и еще отличия - рекомендую попробовать обе.
Плюс, есть мнение, что какая то из этих двух утилит бьет файлы при копировании. Притом у разных людей - разные утилиты ведут так себя :). Так что под себя выбираем из своего практического опыта.

“Песочница” для Oracle 11g RAC в VMware Server.

В упоминавшемся мною интересном блоге очередная запись. ИМХО, может быть интересно.

VMworld Europe 2008 registration is open.

Впервые это мероприятие проводится в европе.
26-28 февраля. Что там обещают интересного.
Велкам.

Phoenix HyperCore - true bare-metal Virtual Machine Monitor.

Phoenix(!) считает, что нынче просто BIOS это некруто.
И делает гипервизор, загружаемый биосом.
Отсюда, тут ссылки на их PDF с описанием этого.

Доки по обезопасиванию ВМ,

Безопасность ВМ - доки можно скачать тут.

среда, 24 октября 2007 г.

Новый ресурс VMware.

VMware делает новый портал для сообщества. С принципами wiki.
Временно доступен он тут.

thx Дмитрий Тихович за информацию.

вторник, 23 октября 2007 г.

Еще одно мнение, что NFS хорош под ESX

Еще одно мнение, что NFS хорош под ESX. Тут.

VMware Certified Professional

Тут греющая немного душу инфа приводится, про сертификацию и зарплаты. Не у нас, правда, но все же.

VCP рулят :).

ESX3i в ВМ.

Смог, смог я запустить ВМ с esx3i внутри. Но эта скотина показала мне это:

А на ноуте у меня всего полгига. Придется ждать возвращения из командировки :(.

P.S. Взял флешку с продуктом. Скачал WinImage. В меню выбрал - Disk -> Creating Virtual HDD from physical. И он сделал мне vmdk, с которого загрузилась ВМ. Даже попроще, чем по ссылке из предыдущего поста.
P.P.S. попробую еще параметры поковырять, про которые здесь писал, вдруг что нарою.
upd. скорее здесь.

понедельник, 22 октября 2007 г.

ESX3i под Workstation.

Тут пишется, что надо для запуска ESX3i в ВМ под Workstation. У меня ESX3i есть, так что постараюсь в ближайшее время что нить интересное выложить. По ссылке, правда, на немецком(жесть!), но в общем все понятно.

ESX под Workstation.

Установка ESX в ВМ под Workstation - тут даются ссылки на ресурсы с освещением этого вопроса, и ,что более важно, делятся своим опытом в этом вопросе.

суббота, 20 октября 2007 г.

обновление десктопных продуктов.

Тут написано что нового, и ссылки даны. Про ACE, Workstation\Player, Converter.
В частности, конвертер теперь может:

  • Поддержка на вход образов Acronis True Image 9
  • Экспериментальная поддержка Microsoft Vista
  • Поддержка Symantec Backup Exec System Recovery 7.0

пятница, 19 октября 2007 г.

Veeam Monitor 1.0 for VMware Infrastructure 3

Veeam Monitor 1.0 for VMware Infrastructure 3

конвертация ВМ VMware Server для ESX 3.

конвертация ВМ VMware Server для ESX 3. Тут.

vOptimizer

vOptimizer FreeWare 4.0.41 - обещают, что эта бесплатная(когда она с ограничениями) утилита может уменьшить диск ВМ,
тут.

Install VMware Server 1.0.4 on Ubuntu Linux

Install VMware Server 1.0.4 on Ubuntu Linux.
Тут подборка по этому вопросу.

Сборник гайдов.

Тут сборник интересных гайдов.

И несколько гайдов по установке ESX в VMware Workstation. В частности, есть гайд по настройке софтварного iSCSI таргета(iSCSI Enterprise Target (IET)) под Fedora 7.

среда, 17 октября 2007 г.

VMware ESX Server in the Enterprise: Virtualization Best Practices for VMware ESX Server

вышла книжка VMware ESX Server in the Enterprise: Virtualization Best Practices for VMware ESX Server, к сожалению, конечно не у нас, и на буржуинском языке.

Тут можно получить представление о ее содержимом.

вопрос с лицензированием Oracle.

Не микрософтом единым - есть вопросы и к Oracle по части лицензирования. Немного об этом - тут.

VMRCplus.

Утилитка, бесплатная, для удаленного управления MS Virtual Server и ВМ на нем.
VMRCplus.

Mobile VM Manager

Проскочила новость про Mobile VM Manager - для руления VI3 со смарфонов. Тут.

VMotion, CPU Masking

Вы знаете, что такое VMotion?
Вы настроили его?
Он не заработал из за несовместимости CPU?

Тут пост, где должна была быть :) картинка про решение этой проблемы, и в нем ссылка на то место, откуда стоит начать узнавать что такое CPU masking и как им пользоваться.

вторник, 16 октября 2007 г.

неплохая утилита

Неплохая утилита для VI3 обновилась. Я пробник предыдущей версии крутил - неплохо.
Veeam Monitor.

там же ссылки на прочие продукты это конторы - также рекомендую к ним присмотреться.

пара новостей

Уже писал про новые наборы лицензий, которые должны появиться после ESX 3.5\VC 2/5.
Разница между ними более наглядно:

Тут есть роадмап выхода новых продуктов\крупных обновлений на рынке виртуализации.

VMware грозится выпустить ESX3i, "встроенное" решение виртуализации. Есть мнение, что как что то подобное можно представить Xen Express; теперь и Virtual Iron анонсировала "встроенное" решение. По крайней мере, такие заголовки были в паре новостей. Ссылались в основном сюда, там особой "встроенности" лично я не углядел.

понедельник, 15 октября 2007 г.

Большое количество доков про разное с Microsoft Virtual Server 2005.

Большое количество доков про разное с Microsoft Virtual Server 2005. Тут.

воскресенье, 14 октября 2007 г.

Расширенные настройки HA кластера.

Я уже писал про настройку VMware HA cluster.
И про очень правильные нововведения в HA, появившиеся в ESX 3.02/VC 2.02.

А это- статья в kb, c ссылкой на официальный HA_Tech_Best_Practices.pdf, как, в частности, эти расширенные настройки применять.

Блог про СХД, отчасти применительно к VMware.

Вот тут сослались на мой пост про потенцильную недооценку NFS как СХД для VI3.
Там я нашел еще пару интересных ссылок по тому же вопросу.

Добавлено:
почитал этот блог подробнее - лично мне поднимаемые автором темы показались весьма интересны. Так что если вас интересуют замеры производительности дисковой подсистемы, сравнение железок, бекап - это все там уже есть :).
Велкам.

суббота, 13 октября 2007 г.

Еще разок про лицензирование Microsoft.

Раз уж говорим про лицензирование, правильно указать точку входа в соответствующий раздел русскоязычного сайта MS. Она тут.

Как правильно активировать windows в ВМ.

Тут, тут и тут уже писалось про вопросы лицензирования продуктов Microsoft под использование в ВМ.
Мы покупаем хотя бы Win2003 Enterprise, на нее есть ключик. Имеем право на одном хосте использовать до 4х ВМ с Win2003 Enterprise или Win2003 Standard. А где взять ключик и как активировать их?

На русскоязычном форуме technet отвечают на этот вопрос.

пятница, 12 октября 2007 г.

VI3 PatchDownloader 2

VI3 PatchDownloader 2. Теперь может работать из командной строки.
Тут.

четверг, 11 октября 2007 г.

Virtual Appliance

Кстати говоря, предыдущий пост про UDA был помечен тегом Virtual Appliance. Virtual Appliance -это шаблоны ВМ, с ОС и\или приложениями уже готовыми к работе. На сайте VMware можно найти список таких шаблонов, доступных для скачивания; и этот список весьма впечатляет.

Вот категории, по которым они распределенны:

  • Administration
  • App/Web Server
  • Communications
  • Community Contributed Appliances
  • Content/Collaboration
  • Database
  • Eval Appliances
  • Networking
  • Operating Systems
  • Production Ready Appliances
  • Security
  • Other
Среди них много ознакомительных, но много и готовых к использованию проектов, типа того же UDA.

Ultimate Deployment Appliance

Представляю вашему вниманию весьма, на мой взгляд, интересный проект - Ultimate Deployment Appliance. Это - ВМ, в формате VMware Workstation или ESX. Внутри этой ВМ -

  • Fedora Core 5
  • RIS for linux package
  • Apache
  • Perl
  • Pxelinux
  • Cabextract
  • Samba
  • tftpd (with case-insensitive patch from the RIS for linux package)
  • dhcpd
  • nfsutils
Эта ВМ -
  • готовый к работе сервер дистанционной установки Windows, Linux, ESX, Solaris.
  • готовый к работе сервер дистанционной загрузки live cd.
  • "PXE Booting, Remote Installation Services, Kickstart, Jumpstart, Autoyast in a box! "
Как это работает - скачиваем эту ВМ. Хоть на ноуте запускаем. Настраиваем под себя ее сетевой интерфейс, после этого снаружи обращаемся на ее веб интерфейс. Там - скармливаем файл ответов для ОС, которую хотим ставить. Скармливаем дистрибутив(кладем его на диск этой ВМ или указываем SMB\NFS шару с ним) в виде iso файла. Все. Теперь прочие машины в этой сети могут загружаться по PXE и видеть список тех ОС, которые мы подготовили к установке. Выбираем что хотим ставить - и процесс пошел.

Я использую в работе эту штуку - очень удобно.

Как легко и просто автоматически установить ESX

Прошла новость об анонсе windows утилиты, которая может по нашим требованиям сформировать iso файл с дистрибутивом и интегрированным файлом ответов, для автоматической установки ESX из этого дистрибутива.

Автоматическая установка ESX без опаски затереть LUN.

Обновился скрипт для вырезания драйверов hba из дистрибутива ESX, о котором я уже писал. Как следствие - установщик не увидит SAN. Как следствие - вы не ошибетесь, выбрав внешний, важный LUN для установки на него ESX и не потеряете инфу.

среда, 10 октября 2007 г.

DeskFree

Тут - утилитка, устанавливаем ее на VC Server. И в консоли видим свободное место на дисках ВМ.

Всеобъемлющее пособие по методам изменения размера(уменьшения в т.ч.) vmdk файла.

Всеобъемлющее пособие по методам изменения размера(уменьшения в т.ч.) vmdk файла.

Вкратце:

  1. увеличить диск можно командой vmkfstools -X {какого размера сделать}G vm.vmdk Новый размер может быть только больше старого.
    1. После этого растянуть партицию в гостевой ос, загрузившись с live cd с соответствующей утилитой.
    2. То же, но растягиваем партицию, подмапив увеличенный диск к другой виртуалке, и натравив на нее diskpart.
  2. И увеличить, и уменьшить можно с помощью VMware Converter. Скачиваем, устанавливаем как приложение в гостевой ОС, делаем из нее ВМ(:) хотя она уже ВМ) с диском нужного размера.
  3. Наконец, можно взять Ghost(или другой софт работы с образами), подмапить второй винт к виртуалке(правильного размера, конечно), и перелить образ. Потом исходный диск убиваем, второй оставляем на его месте.
UPD. вот еще Vizioncore обещает, что ее утилита vOptimizer сумеет помочь в этом нелегком деле. Тут можно глянуть небольшой видеоролик(во флеше), чтобы оценить, какого с ней работать.

VC Server на ВМ, упал, его восстанавливали.

Тут документик, в котором описаны действия выковыривания базы из vmdk файла, и восстановление SQL базы VC из выковырянных данных.
ИМХО, всегда интересно узнать максимально прикладные вещи, с минимумом теории :).

Отличная статья про новости рынка виртуализации.

На ixbt.com появилась хороший обзор новостей виртуализации, за авторством Александра Самойленко, www.vmgu.ru.

вторник, 9 октября 2007 г.

встроенная утилита проверка памяти на ESX

Для ESX битая память может стать источником глюков и неприятностей. Есть рекомендация тестировать память 72 часа перед установкой ESX. Это просто сделать до установки, но не всегда удобно для проверки сервера с уже установленным ESX. Оказывается, есть встроенная альтернатива memtest86:

service ramcheck start

запуститься фоновый процесс проверки, результаты доступны в
/var/log/vmware/ramcheck.log и ramcheck-err.log

остановить можно командой
service ramcheck stop


Новые версии наборов лицензий для SMB.

Тут говориться, что VMware готовится предложить несколько наборов лицензий для SMB -

The new VMware Infrastructure bundles are packaged into three Acceleration Kits designed to enable SMBs to more easily adopt VMware Infrastructure. Pricing is expected to take effect when the bundles are generally available later this year:

  • VMware Infrastructure 3 Foundation Acceleration Kit: Three 2-processor licenses of VMware Infrastructure Foundation -- which includes VMware ESX Server, VMware Consolidated Backup, VMware Update Manager, VMware Virtual SMP, VMware VirtualCenter agent and VMware VMFS -- as well as VMware VirtualCenter Foundation Server, which includes VMware Guided Consolidation and the ability to manage up to three VMware Infrastructure server hosts. List price is $2,995.
  • VMware Infrastructure 3 Standard High Availability Acceleration Kit: Two 2-processor nodes of VMware Infrastructure Standard, which includes the above features of the VMware Infrastructure 3 Foundation Acceleration Kit plus VMware High Availability (HA). List price is $5,995.
  • VMware Infrastructure 3 Midsize Acceleration Kit: Three 2-processor nodes of VMware Infrastructure Enterprise -- which includes the above features of the VMware Infrastructure 3 Standard High Availability Acceleration Kit plus VMware VMotion, VMware Distributed Resource Scheduler (DRS), VMware Storage VMotion and VMware Distributed Power Management (DPM), an experimental feature -- as well as flexible training and consulting credits that can be applied to classes to learn how to deploy and use VMware Infrastructure 3, such as the "VMware Infrastructure 3: Install and Configuration" course. List price is $14,495.

оптимизация iSCSI трафика для софтового инициатора.

Оптимизация iSCSI трафика для софтового инициатора.

Тут(см.комментарии к посту) высказывается мнение, что софтовый iSCSI инициатор не умеет задействовать большего одного pNic для своей работы, при обращении к одному таргету. Поэтому если мы хотим ускорить iSCSI и у нас есть несколько сетевушек для этого, правильнее сделать несколько таргетов

Обнаружение "голубой пилюли"

Какое то время назад на слуху была проблема "Голубой пилюли" - когда зловредный код работал на уровне гипервизора, "над" ОС, и из ОС его обнаружить нельзя.

Оказывается, методы все же есть. Хотя сегодня такая проблема еще не актуальна в полной мере, но при нынешних темпах развития и внедрения виртуализации лучше к такому готовиться заранее.

Подружить ESX с доменом AD.

Тут описываются действия, после которыми мы можем авторизовываться на ESX(без VC) доменными учетками.

Вкратце:

  1. Use esxcfg-auth to set up the Kerberos authentication.
  2. Extend the AD schema (if necessary) to include UNIX attributes such as login shell, UNIX home directory, UID, UID number, etc. This is accomplished in different ways depending upon the version of Windows in use.
  3. Populate the UNIX attributes for those user accounts that should be allowed to access the ESX Server(s).
  4. Configure /etc/ldap.conf on the ESX Server to configure LDAP connectivity back to Active Directory for name service lookups.
  5. Configure /etc/nsswitch.conf to use LDAP for name service lookups.
  6. Verify (and configure, if needed) time synchronization via NTP on the ESX Server.
  7. Test the configuration using “getent passwd” or “getent group” or both.

взаимодействие ВМ по внутренним каналам

VMware экспериментирует с внутренним каналом взаимодействия ВМ. Т.е. виртуалки могут взаимодействовать(вплоть до взаимного доступа к ОЗУ) не через сеть.
Тут.

Подключение USB к ServiceConsole.

Тут описывается, как отформатировать большой USB-накопитель под FAT32, чтобы с SC, в которой нет NTFS драйверов, ее увидела.

понедельник, 8 октября 2007 г.

Раздел core dump

При установке ESX одной из партиций по умолчанию нам предлагается раздел core dump. Туда будет писаться память ESX при глобальном сбое, вызвавшим PSOD, пурпурный экран смерти.
Этот раздел может лежать на локальном диске, на внешней приватной LUN, на внешней общей LUN. Последний вариант следует читать так - можно сделать LUN, куда будут кидаться дампы всех хостов.

Если интересно, что да как читаем тут.

Как до этого дампа добраться:

Для начала, надо сервак перезагрузить. По ходу загрузки один из штатных стартап скриптов (/etc/rc.d/init.d/vmware) запустит программу vmkdump(см. man vmkdump, vmkdump -s). Теперь в /root мы можем найти ‘vmkernel-zdump-<reversed date>.#.#.#


Автоматическая установка ESX без отключения\зонирования SAN

Автоматическая установка ESX без отключения\зонирования SAN.

Мы можем создать файл ответов, и ESX будет еще шустрее вставать и настраиваться. Плохо одно - не всегда удается заранее сказать, что из списка типа такого - sda,sdb,sdc,sdd.. и т.д. является локальным диском, на который мы хотим поставить ESX, а что - LUN на SAN, притом LUN непустой. Следовательно, есть вероятность грохнуть важную инфу.
Чтобы этого избежать, настоятельно рекомендуется перед установкой отключать SAN физически от ESX, или делать зонирование\маскировку.
Тут есть скрипт, который модифицирует дистрибутив ESX, удаляя из него драйвера HBA, таким образом установщик просто не увидит SAN.
Прикольная идея.

Анонс ESX 3.5 и Virtual Center 2.5

Анонс ESX 3.5 и Virtual Center 2.5.

Что нового:
  • Expanded storage and networking choices such as support for SATA local storage, 10 Gig Ethernet, and Infiniband expand storage and networking choices for virtual infrastructure
  • Support for TCP Segment Offload and Jumbo frames reduce the CPU overhead associated with processing network I/O
  • Support for hardware nested page tables such as in processor assists for memory virtualization
  • Support for paravirtualized Linux guest operating systems enables higher levels of performance through virtualization-aware operating systems
  • Support for virtual machines with 64GB of RAM and physical machines with up to 128GB of memory
Новые возможности:
  • VMware Storage VMotion enables live migration of virtual machine disks from one data storage system to another with no disruption or downtime. VMware VMotion has become an indispensable tool for many infrastructure administrators to dynamically balance their server workloads and eliminate planned downtime for server maintenance. Storage VMotion extends VMotion to storage resources of a virtual machine, namely virtual disks. Using Storage VMotion, administrators can dynamically balance the storage workload and address performance bottlenecks by migrating virtual machine disks to the best available storage resource. Administrators can minimize service disruption previously incurred for upgrading storage arrays and free storage administrators to improve and manage the storage infrastructure without having to co-ordinate extensively with application and server owners.
  • VMware Update Manager automates patch and update management for VMware ESX Server hosts and virtual machines. Update Manager addresses one of the most significant pain points for every IT department: tracking patch levels and manually applying the latest security/bug fixes. Patching of offline virtual machines enforces higher levels of patch standards compliance than physical environments. Integration with VMware Distributed Resource Scheduler (DRS) enables zero-downtime VMware ESX Server host patching capabilities.

Новые возможности управляемости:

  • VMware Distributed Power Management is an experimental feature that reduces power consumption in the data center through intelligent workload balancing. Working in conjunction with VMware DRS, Distributed Power Management is designed to automatically power off servers not currently needed in order to meet service levels, and automatically power on servers as demand for compute resources increases.
  • VMware Guided Consolidation, a feature of VMware VirtualCenter enables companies to get started with server consolidation in a step-by-step tutorial fashion. A wizard discovers physical servers, identifies consolidation candidates, converts them to virtual machines, and leveraging intelligently places them onto the best VMware ESX Server or VMware Server hosts. Guided Consolidation helps to make the consolidation process quick and easy for users with little knowledge of virtualization
Все это пока не доступно :).
Ожидайте. Когда релиз случится, немного изменится набор лицензий, про это я уже писал.

CPU masking

Тут описывается опыт CPU masking.

добавил эту ссылку в пост про VMotion.

воскресенье, 7 октября 2007 г.

Поддержка NLB на виртуалках.

Тут микрософт описывает, какие сценарии организации NLB кластера на ВМ под MS Virtual Server 2005 R2 официально поддерживаются.

free Java SSH terminal for VMWare ESX 3.x integrated in the Virtual Infrastructure Web Access

Тут.
После установки в веб-морде ESX появляется приглашение Log in to console. Имеется в виду ssh консоль.

что то вроде HA, только бесплатно

и в бета версии пока.
Тут.
Сам пока не крутил, не могу подробнее сказать что за штука.

Backup script for VMWare ESX

Тут.
Скрипт, который умеет использовать команды ESX для бекапа дисков ВМ без их выключения. Работает примерно так -
делается снапшот ВМ
зафиксированная часть бекапиться
снапшот удаляется.

Feature
Perl script
Hot Backup (without suspend vm guest)
Schedule Backup
Interactive Backup
NFS support
SMB support
FTP support
Virtual Center support
Backup vmx + cmos file
Create restore interactive command script
Support for undoable and raw disk
Veritas NetBackup direct support

PatchManager the "Windows Update" for VMware© ESX 3.x

Тут.
Человеческая утилита для обновления ESX'ов.

мониторинг производительности ВМ

Отсюда.

Основная идея - можно сохранять показания счетчиков командой -
esxtop -b > /tmp/myesxtop.csv
Само собой, выполнять эту команду надо в SC.

И, можно загружать эти сохраненные данные в Microsoft Perfmon. Автор утверждает, что по некоторым причинам это даже удобнее, чем использование мониторинга через VC - в частности, т.к. в VC параметр CPU ready указывается не в %, а в миллисекундах - не всегда удобно.

P.S. сам я еще не проверил эту инфу.

Кстати - еще еще одна возможность снимать показания счетчиков за время -

vm-support -S -d duration -i interval
здесь
-i интервал в секундах
-S указание, что нас интересуют только счетчики нагрузки
-d длительность в секундах

результат(после разархивирования) можно считать командой
esxtop –R < vm-support_dir_path>

подробнее в онлайн лайбрари, Resource Management Guide : Using the esxtop Utility : Using the esxtop Utility in Replay Mode.

инструкция по установке Server Core Edition of Windows 2008 на ESX Server

Инструкция по установке Server Core Edition of Windows 2008 на ESX Server - тут.
Server Core Edition - версия Windows 2008 "Longhorn" только с командной строкой, без GUI. Указанно , как решить проблему с невозможностью привычном образом поставить vmware tools без GUI.

тест отработки случая изоляции в HA кластере

Тут.
Чувак потестил, что будет, если произойдет событие изоляции.
Напомню - HA агент на каждом хосте(это купленый у Legato Automated Availability Management, или AAM) пингует по именам прочие хосты кластера. И еще особый проверочный IP, проверочный на изоляцию.
Если проверочный адрес отзывается, а хосты\какой то один хост нет, то проблемы с этим хостом\хостами.
Если не отзывается И проверочный адрес, значит у нашего ESX проблемы с сетью, он оказался изолирован. Для каждой ВМ на нем мы можем указать, что делать(выключить\оставить включенной) в случае изоляции. По умолчанию, хост ее выключает. Чтобы ее могли включить другие хосты кластера, т.к. они подумают что этот хост умер.


Так вот - утверждается ,что ВМ с windows выключаются нормально, а вот с Linux - не выключаются.

суббота, 6 октября 2007 г.

Настройка VMotion

VMotion - процесс переноса работающей ВМ между хостами без ее выключения. И без перерыва в ее работе. И "внешние" пользователи приложения на этой ВМ ничего не замечают.

Для того, чтобы у нас такое получилось, необходимо:

  1. общий LUN, на котором лежат файлы тех ВМ, которые мы хотим мочь мигрировать.
  2. Названия групп портов для ВМ должны называться одинаково обоих хостах . Т.е. вот ВМ1 работает на хосте "ESX1", и ее виртуальный сетевой контроллер смотрит в группу портов "VM_network". Вот на ESX2 должна быть группа портов для ВМ с тем же названием. И, само собой, через нее должна быть доступна та же физическая сеть, что и на ESX1.
  3. Процессоры на хостах, между которыми осуществляется перенос - должны быть максимально одинаковы. Подробнее в Online Library, там - Basic System Administration : Migrating Virtual Machines : Migration with VMotion : VMotion Requirements. Даже если при инициации VMotion будет выдаваться ошибка на несовместимость CPU - это можно попробовать поправить, см. тут, и тут. Грубо - смотрим в сообщение об ошибке, на какой регистр ругается. Идем в свойства ВМ и помечаем этот регистр как неиспользуемый. Само собой, прощаемся с официальным суппортом для этой ВМ.
    UPD. можно еще тут почитать.
  4. Гигабитная сеть между хостами под задачи самой миграции, в идеале - выделенная.
Итак, есть ВМ на общем LUN. Есть ESX1 и ESX2 - между ними хотим смигрировать. Что надо настроить:
  1. Выбираем физическую сетевушку, через которую пойдет трафик VMotion. Цепляем ее к виртуальному свитчу. На нем создаем порт vmkernel(На этом виртуальном свитче могут быть и порты SC, и порты ВМ.). Даем ему настройки IP, не забываем ставить галочку "Enable VMotion". Эту операцию повторяем для обоих хостов. Важно - из консоли пробуем пингануть другой ESX командой vmkping - эта команда задействует сетевой интерфейс vmkernel, а не SC, как простой ping. Важно - пинговать надо IP интерфейса vmkernel для VMotion второго ESX. Если пинги идут - полдела сделано. Если нет - разбираемся почему.
  2. Убеждаемся, что те LUN и группы портов, которые использует ВМ - доступны ей на обоих хостах. Проще всего это сделать, ткнув в эту ВМ и перейдя на закладку Map. Выглядеть это должно примерно так:
  3. Если это не так - добейтесь такого результата и..на этом все.
Тыкаем правой кнопкой в ВМ, выбираем Migrate. Если ВМ включена - этот пункт и запустит VMotion. Выбираем хост, на который хотим смигрировать. Процесс начинается. Если все условия выполнены - скорее всего :) он заканчивается нормально.

По поводу того, что из себя представляет сам процесс, и что идет через сеть VMotion -
Как только мы запускаем миграцию, память нашей ВМ блокируется на запись. ВМ продолжает работать, но все изменения в ее оперативке пишутся "рядом" с заблокированным массивом.
Теперь эта память передается на другой ESX. Именно через интерфейс vmkernel, который мы задействуем под VMotion.
Как только вся передалась - ВМ блокируется полностью - и на второй ESX передается область памяти с изменениями. Т.к. он почти наверняка будет небольшой - время в течении которого ВМ полностью блокируется также невелико. Весьма невелико.
На этом этапе мы имеем два идентичных процесса, две идентичные ВМ на обоих ESX'ах. Теперь ВМ на исходном хосте убивается, по сети идет оповещение, что машина с этим MAC адресом доступна уже в другом месте. Все.
Если на каком то этапе идет сбой - то ВМ просто не убивается на исходном хосте.
Мне ни разу не приходилось даже слышать о падении ВМ из за VMotion - максимум сам процесс миграции закончится неудачей, значит ВМ как работала, так и будет работать.

настройка VMware HA cluster

Для начинающих, что надо знать про VMware HA Cluster.

Во первых, что он умеет - сводить к минимуму время простоя ВМ, в случае падения хоста. Есть несколько хостов, включенных в HA кластер, есть ВМ на них. Падает какой то хост - ВМ на нем умирают. Но сразу же включаются на других хостах кластера.













Для него необходим VC и соответствующие лицензии. В консоли VC создаем кластер(напомню, что в контексте VMware "кластер" - просто группа хостов). Создали кластер, перетащили туда хотя бы 2(max 16) хостов. В свойствах кластера поставили галочку "HA".
Теперь на хостах начнется конфигурирование HA агента. Чтобы это конифгурирование закончилось успешно, должны быть выполнены следующие условия:
  1. Интерфейсы SC должны находиться в одной подсети, т.е. из консоли каждого ESX вы должны пинговать все другие.
  2. Должно быть настроено разрешение имен - т.е. должны ходить пинги и по именам. Для этого используем DNS, или добавляем в /etc/hosts соответствующие записи .
  3. Названия групп портов для ВМ должны называться одинаково на всех хостах кластера. Т.е. вот ВМ1 работает на хосте "ESX1", и ее виртуальный сетевой контроллер смотрит в группу портов "VM_network". Вот на ESX2 должна быть группа портов для ВМ с тем же названием. И, само собой, через нее должна быть доступна та же физическая сеть, что и на ESX1.
  4. Само собой, те ВМ, которые мы хотим защитить с помощью HA, должны лежать на общем(shared) LUN на внешней СХД. Т.е. чтобы с каждого хоста в кластере все файлы этих ВМ были видны.
Как работает HA кластер:
когда мы перетаскивам хосты в кластер в консоли VC, то VC настраивает HA агенты на этих хостах. Будучи настроенными, агенты не требуют(!) VC для своей работы. Т.е. VC может находиться даже на виртуалке, и даже если эта виртуалка сдохнет вместе со сдохшим хостом - HA все равно отработает, и поднимет эту ВМ на другом хосте. Достигается это тем, что HA агенты на хостах образуют между собой децентрализованную систему, управляемую самими агентами.

Агенты друг друга пингуют. Для какого то хоста пропажа пингов означает одно из двух - или умер неотзывающийся хост, или умерла сеть для этого хоста. Второй случай называется изоляцией, и должен обрабатываться особым образом:
Вот у нас 3 хоста. У одного становиться недоступен интерфейс SC(напр. выгорает порт на коммутаторе). Остальные думают что он умер(т.к. пинги к нему не ходят) и пытаются запустить те ВМ, которые работали на нем. Но эти ВМ продолжаются работать, и их файлы заблокированны как открытые. Это создает проблему.

Поэтому каждый хост умеет проверять, не изолирован ли он. Делается это пингованием IP, по умолчанию это шлюз SC. Или произвольный. Или два произвольных - подробнее про это я писал тут. Предпологается, что эти IP будут отзываться 24\7.

Итак, хост перестал получать отклики от проверочного IP и понял, что оказался изолирован. Мы в настройках можем указать - что делать с каждой ВМ в случае изоляции - выключать или оставлять. Т.е. в вышеприведенном примере с выгоранием порта, изолированный ESX выключает свои ВМ, они поднимаются на других хостах кластера. Или не выключает и не поднимаются - это как настроим.

И для максимального предотвращения такой ситуации рекомендуется избавиться от единых точек отказа - чтобы интерфейс SC не зависел от единственного физического адаптера, и\или чтобы интерфейсов SC было больше одного, на разных физических сетевушках ,разумеется.

Что еще мы можем настроить:
Number of hosts failures allowed - смерть какого кол-ва хостов должен пережить наш кластер. Чем большая тут цифирка - тем больше ресурсов резервируется на случай сбоя. Например - у нас 6 хостов, на каждом по 10 ВМ. Если хотим защититься от сбоя одновременно 2 хостов - значит на любых 4х надо мочь запустить все 60 ВМ. Если хотим защититься от падения одновременно 3х - значит на любых 3 надо мочь запустить все 60. "Смочь" - имеется в виду ,что ресурсов должно хватить.
Admissions control - можно ли запускать ВМ, если ее запуск потребует использования заначки ресурсов из предыдущей настройки.

Для траблшутинга HA - соответствующие логи следует искать в
/opt/LGTOaam512/log/*
/opt/LGTOaam512/vmsupport/*

Вопросы?

ESX3i - Понеслось

Fujitsu-Siemens Computers готовит сервера с ESX3i.

четверг, 4 октября 2007 г.

Vizioncore’s vReplicator 2.1

Новая версия утилиты для репликации - преемник esxReplicator 2.0. Смена названия указывает на то, что в будующем утилита будет работать не только с ESX, но и с XEN и с Viridian.

Суть - возможность автоматически, по расписанию, делать реплики хостов и ВМ. Областей применения таких реплик много, например - для отработки ситуаций сбоев на репликах.

К вопросу.

Virtual Infrastructure 3.5 и ESX3i

По некоторым данным, эти продукты будут доступны начиная с декабря этого года.
В принципе, последние новости весьма и весьма приятны, самая приятная из них -
VMware начнет предлагать ESX3i как отдельный продукт для виртуализации, с поддержкой SATA(!) дисков по цене до $500.

  • Позиционироваться он будет как решение начального уровня, с поддержкой VMFS и vSMP, но без возможности управляться Virtual Center'ом.
  • Изменится позиционирование VI3 Starter Edition. Теперь такой вариант лицензирования будет называться VMware Infrastructure Foundation Edition. Позиционироваться будет как решение для SMB, с поддержкой VCB и нового механизма обновления(напомню, что VMware грозиться дать нам возможность из удобной утилиты обновлять ESX и гостевые(!) ОС, и Windows и Linux). Для управления отлицензированного таким образом ESX делают специальную редакцию VirtualCenter, VirtualCenter Foundation - у нее будет лимит в 3 ESX и возможность рулить VMware Server 2.0.
К тому идет, что Esx3i и, в большей степени, VMware Infrastructure Foundation Edition - конкурент Xen и MS Viridian в низшем ценовом диапазоне.
  • VI3 Standart Edition останется, но от Foundation будет отличаться только модулем HA.
  • VI Enterprise Edition как и сейчас будет полнофункциональным ESX с набором всех дополнительных лицензий.
Отсюда.

среда, 3 октября 2007 г.

How to Secure your VMware ESX Server

Тут. Простые правильные рекомендации, плюс немного ссылок посложнее.

Еще немного про лицензирование продуктов MS

Тут. С ссылками на kb.

Работа с командной строкой в ESX3i, плюс как сбросить пароль рута

Тут.

вторник, 2 октября 2007 г.

Лицензирование продуктов Microsoft для виртуализации #2

Тут, пару постов назад уже написал. Но неполно.
Продолжаю:
Важно: когда мы покупаем лицензию(на Windows, на Exchange, etc.), мы покупаем право на запуск продукта на ЖЕЛЕЗКЕ. Вот мы на Windows Server 2003 Enterprise Edition купили лицензию, и мы ее привязываем к какому то серверу.(как я понимаю, символом этого является наклейка?). Теперь, мы имеем юридическое право установить на этот сервер эту винду.
Но мы говорим про случай виртуализации. Значит, мы имеем сервер, на нем какой то софт для создания ВМ. Софт необязательно(!) от МС - поэтому для определенности возьмем ESX.
Теперь, имея сервер и 1 лицензию, мы можем поднять 4 ВМ с этой виндой по этой лицензии. НА ЭТОЙ ЖЕЛЕЗКЕ. И перенести это право на другую железку можно раз в 90 дней. или если железка сдохнет.
Следующий момент - у нас VMotion. Чтобы быть чистым перед законом по окончанию этого процесса, на той машине, куда приезжает мигрирующая, должны быть свободные лицензии на ОС и софт.
Т.е. например, есть у нас 5 ВМ - Windows + Exchange каждая. И три хоста в DRS кластере - т.е. любая ВМ может смигрировать на любой хост. И все 5 могут оказаться на одном хосте.
Следовательно, нам нужно 5 свободных лицензий НА КАЖДЫЙ ХОСТ на ОС и на Exchange. Напомню, что Windows 2003 Standart = лицензия на 1 ВМ , Windows 2003 Enterprise = лицензия на 4 ВМ, Windows 2003 Datacenter = лицензия на анлим ВМ.
Т.е. мы можем купить 3 Windows 2003 Datacenter, или 3 набора Windows 2003 Enterprise + Windows 2003 Standart . Плюс 15 лицензий Exchange в любом случае.

Примерно так. Правда, есть мнение, что на Микрософт сейчас сильно давят, с целью сделать лицензионную политику ее продуктов более здравой для заказчиков. Но когда это будет...


Отдельный предмет для разговора - суппорт. Официально микрософт его не обещает, для ее софта внутри ВМ. Тем более ВМ не на ее продуктах. Однако(внимание - высказываю свое личное мнение) - при обращении в суппорт не всегда обязательно уточнять, что проблема возникла на виртуалке :). Плюс, вроде бы микрософт суппортит и при таком уточнении, при условии, что эту проблему удасться повторить на физической машине.