вторник, 30 июня 2009 г.

Hyper-V для SMB

Что называется, из первых рук - камрад Ethril@ixbt делится опытом:

Вот, если кому интересно, личный опыт виртуализации у сисадмина в конторе средних по российским меркам размеров, с кучкой негатива к Hyper-V

Физических серверов ~15 шт., в основном HP Proliant разных поколений.
В наследство от предыдущей ИТ-команды достался один сервер Win2008 с Hyper-V (HP Proliant DL380G5), с тремя интенсивно использующимися VM.

По мере его эксплуатации всплывали различные ограничения:
1) Невозможность удалить снапшот "на ходу". Т.е. удалить возможно, но место на диске высвобождается только после выключения VM.
2) Довольно сложная процедура импорта VM в случае какой-либо аварии хоста, с необходимостью редактирования симлинков из командной строки.
3) Низкая производительность виртуализованной дисковой подсистемы. Часто возникали ситуации, когда дисковая очередь VM вырастала до нескольких сотен, при этом дисковая очередь хоста была в пределах нормы.
4) Невозможность выделения всем VM суммарно больше RAM, чем всего есть на хосте. Нагрузка на эти VM была преимущественно "пульсирующая", поэтому динамическое перераспределение RAM между VM востребовано.
5) Невозможность в компании, где более нигде не используется Vista/2008, управлять гипервизором откуда-то кроме хоста, потому что оснастка работает только с Vista/2008.

В результате всего этого личного опыта и изучения материалов в Сети, решили перейти с Hyper-V на ESXi free. Переход был удачным. Все 5 основных (для меня) пунктов были решены. Сохранился весьма показательный скрин дисковой очереди одной из VM:

(1 мая была смена гипервизора, на том же железе)

Сейчас в конторе развёрнуто 5 ESXi free хостов, с ~25 VM на них, в т.ч. такие как DC, Exchange, WSUS, SIM. Опыт использования положительный. Удалось, не закупая новых серверов (денег из-за кризиса не дают, да и ставить некуда - стойка почти доверху забита), выделить ресурсы для нескольких новых проектов. Стало удобнее удалённо управлять хозяйством, т.к. на многих старых серверах, которые теперь виртуализовали, не было iLO, а на двух даже не было автовключения при появлении питания! Кстати, виртуализация P2V с помощью VMWare Converter во всех случаях проходила совершенно без проблем. Планируем виртуализовывать инфраструктуру и дальше.

По поводу ограничений ESXi free:
Конечно, отсутствие единого управляющего центра на всю вирт. инфраструктуру (vCenter) - мешает. Но, пока хостов, как у нас, не очень много, это приемлемо. Есть бесплатные сторонние решения (VM Explorer, Veeam Monitor, скрипты), которые частично перекрывают заблокированный функционал. Есть HP SIM (System Insight Manager), который умеет централизованно мониторить железо ESXi free хостов. В ESXi free есть пересылка системных логов на удалённый сервер Syslog, которым у нас работает NetXMS. В ESXi 3.5U3 можно было включить SNMP (убрали, гады). В общем, задача централизованного мониторинга и управления на ESXi free более-менее решается.
Централизованной СХД у нас один хрен нету, так что многие платные фишки типа High Availability мы бы всё равно не смогли использовать.
Переносить машины с хоста на хост можно и на ESXi free почти без простоя (делаем снапшот, вживую копируем VM, выключаем VM, 5 минут на копирование снапшота и импорт VM, включаем VM). Не VMotion, но меня устраивает.
При каких-то, тьфу-тьфу, форс-мажорах, можно замапить слитый .vmdk-диск в винде и слить нужную инфу.
Для централизованной установки патчей на хосты есть Host Update Utility.

В общем, если резюмировать, для средней конторы с брендовым железом ESXi free вполне юзабелен, даёт "нахаляву" кучу ресурсов и реально упрощает поддержку железа.






понедельник, 29 июня 2009 г.

VMware Certified Professional

Коллеги, тест на звание VCP 4 должен появится 8 августа.

Пока можно развлечься тут - VCP vSphere Practice Exam Questions.





воскресенье, 28 июня 2009 г.

VMUG 2009-1

Итак, коллеги, очередная встреча сообщества VMware завершилась.

Большое спасибо всем присутствовавшим, очень рад был вас видеть.

Насколько я могу судить - прошла встреча хорошо. Разве что, по видимому, стоит в следующий раз делать ее более продолжительной - и некоторые обсуждения, и даже доклады не были прослушаны.

Я планирую записать, согласовать с авторами и опубликовать некий follow up. Надеюсь сделать это на неделе.

Если у кого то из присутствовавших остались вопросы, желание пообщаться с кем то из докладчиков - или пишите мне, разберемся; или ждите публикаций и отмечайтесь там в комментариях.

Еще раз прошу прощения за инцидент с предполагаемым местом распития пива - то, что "Заправочный" закрылся два месяца назад было огромным сюрпризом для организаторов. Но, вроде бы, "Тинькофф" не подкачал :)

По горячим следам - если есть пожелания к организации мероприятия, советы как и что сделать лучше - буду благодарен.

Mikhail.Mikheev@vm4.ru

суббота, 27 июня 2009 г.

vCenter 4 snapshot alarm

К вопросу об улучшениях в механизме алармов vCenter 4:
vsphere_snapshot_alarm





vCenter DB SQL Express -> SQL Server

Перевод БД vCEnter с SQL Express на SQL не-Express - Migrate vCenter database from SQL Express to full SQL Server.

Подробности про VMware Fault Tolerance

Еще интересные факты о FT отсюда - More details on VMware’s Fault Tolerance feature.


  • VMware тесно сотрудничала с Intel и AMD для реализации vLoсkstep - технологии передачи по сети и воспроизведении процессорных инструкций, на которой основывается FT.
  • Оба "узла FT кластера" можно представить в виде двух шестеренок на одной цепи - если какое то из них будет крутиться медленнее - второе тоже замедлится. Если резервной ВМ будет не хватать ресурсов для работы - оригинальная замедлится.
  • Поддержка многопроцессорных ВМ будет в следующих релизах.
  • FT требует процессоров определенных поколений в силу того, что это не чисто программное решение, а тесно завязанное на технологиях процессоров.
  • Сейчас жестким является условие одинаковости версий ESX, на которых работает одна пара FT защищенных машин. Одной парой хостов могу быть ESX и ESXi, но их билд должен быть одинаков. Возможно, в следующих версиях это условие будет снято.
  • Для FT защищенных машин поддерживается, но не для обеих из пары сразу. Storage VMotion не поддерживается. DRS не будет мигрировать ВМ, защищенную FT. Возможно, это будет реализовано позднее.
  • FT может защитить ВМ с vCenter - если у нее один vCPU.
  • Нет ограничений на количество хостов в кластере с FT. Но пара FT защищенных ВМ не может быть распределена между кластерами. Возможно, это будет реализовано в следующих версиях.
  • Есть API с помощью которых можно скриптовать операции типа вкл\выкл FT через PowerShell.
  • Выделение гигабитного канала под трафик FT не является жестким требованием, однако является рекомендуемым. Ограничение в 4 защищенных FT ВМ на хост не является жестким - но рекомендуемым.
  • Текущая версия FT предполагается к использованию между хостами одного ЦОДа, без WAN соединений между ними. Однако, есть вероятность, что в будущих версиях это будет реализовано.



SQL 2008 + VMware vSphere 4

VMware опубликовала доку про работу SQL сервера на vSphere - Performance and Scalability of Microsoft SQL Server on VMware vSphere 4.


Использовавшееся железо:
sql_vsphere_hardware

Использовавшийся софт:
sql_vsphere_software


Результаты -
сравнение производительности одного и того же софта на железке и ВМ одинаковых конфигураций:

Работающий в 2х процессорной ВМ SQL Server дает 92% от максимума производительности SQL Server на этой же железке без виртуализации, и тоже с двумя процессорами (вот тут я не понял - в доке написано CPU, но по логике вещей в этих CPU должно работать\быть задействованно по одному ядру - в ВМ то два vCPU = 2 физических ядра. Для указания Windows сколько ядер задействовать использовалась утилита bcdedit)

Работающий в 8ми процессорной ВМ SQL Server дает 86% от максимума производительности SQL Server на этой же железке без виртуализации, и тоже с восемью процессорами.
sql_vsphere_perfomance

Если взять сервер, и на нем запустить много 2х процессорных ВМ с SQL Server:
sql_vsphere_scalability
Производительность растет линейно до 4 ВМ (8 vCPU). Для 6 и 8 ВМ(когда число vCPU больше числа ядер) коэффициент роста производительности 1.5 и 1.4.

Как зависит производительность от задействования тех или иных фич процессоров
sql_vsphere_cpu_features

Как зависит производительность дисковой подсистемы от типа виртуального SCSI контроллера:
sql_vsphere_vscsi_comparsion
Средний столбик - изменение механизма работы стека I\O в ESX 4 относительно ESX 3.

Про диски и сеть:
sql_vsphere_1


ThinApp package update

ThinApp - решение VMware для виртуализации приложений.
Для приложения создается контейнер (sandbox, песочница), содержащий в себе файловую систему и ветви реестра, необходимые для установленного приложения.
Теперь, запуская это виртуализованное приложение, мы запускаем контейнер, а в нем уже запускается и работает приложение. а систему, где мы его запускаем, ничего устанавливать не надо. Никаких записей в реестр или на диск не происходит. Невозможны никакие конфликты разных приложений или разных версий одного приложения. Подробнее.

Еще одной интересной возможностью виртуализованных приложений является простое их обновление.
Ситуация: у нас есть виртуализованное "Приложение", пакадж с ним лежит на сетевой шаре, откуда его запускают наши пользователи.
Для этого "Приложения" вышли патчи, или новая версия.
Администратор запустил приложение, обновил, и скомандовал добавить в контейнер все новое. Теперь приложение в контейнере у нас обновлено.
Утром следующего дня, самое позднее, каждый пользователь заново запустит приложение с сетевого ресурса, и запустит он уже обновленную версию.

Видеопример.

vSphere small new features

Пару дней назад я писал(и чуть чуть комментировал) про опрос на блоге vsphere-land.com о том, какое из крупных новшеств вСферы наиболее интересно - vSphere new featires.

Сегодня, кстати, результаты вот такие:
vsphere_features_poll

Там же проводят новый опрос - какое из мелких новшеств вам наиболее интересно - What is your favorite vSphere new smaller feature?
На сегодня результаты такие:
small_new_vsphere_features_poll

В общем то, все достаточно логично:
  • механизм Alarm'ов стал намного умнее - через них vCenter может мониторить и оповещать и о скором окончании места на хранилище, и о проблемах с железом.
  • Горячее расширение vmdk и VMFS - мне не казались эти фичи часто востребованными, но, похоже, их отсутсвие добавляет геморроя когда встает соответствующая проблема.
  • Интерфейс для Storage VMotion - без неофициального плагина, добавляющего возможность запускать SVMotion из GUI, пользоваться им было не удобно.
  • Паравиртуализованный SCSI - насколько известно, его использование может дать до 12% повышения производительности, и до 18% - снижение накладных расходов на CPU.
  • VMDirectPath - мне пока не понятно, насколько это прикольно.
  • VMCI - мне пока не понятно, насколько это прикольно.
  • До 8 vCPU и до 256ГБ RAM на ВМ - в самом конце списка. По всей видимости, виртуализация высоконагруженных систем малопопулярна.

четверг, 25 июня 2009 г.

Virtual Machine Manager 2008 R2 - Quick Storage Migration

Интересный пост - System Center Virtual Machine Manager 2008 R2 - Quick Storage Migration.
Что нового в плане Storage VMotion готовит R2 версия продуктов виртуализации от Майкрософт, по каким фичам они лучше ESX 3.5.
hyper-2_r2_compare_esx35_svmotion

И еще табличка про другие миграции.



Oracle VMware Support

Коллеги, VMware проводит небольшой опрос - Поддержка Oracle в VMware – актуально для Вас?.
Скопипастю:


Уважаемые читатели. Не знаю как вам, а мне приходится сталкиваться достаточно часто с вопросами по поводу поддержки компанией Oracle работы её ПО в рамках виртуальной инфраструктуры VMware (не далее как сегодня во время обсуждения будущего проекта в одном из государственных ведомств встал данный вопрос). Казалось бы вполне логичны, чтобы лидер индустрии баз данных и приложений класса Enterprise осуществлял их поддержку в решениях лидера в области виртуализации и систем непрерывности бизнеса. Но.. Как всегда есть эти но.

Ну не хочет компания Oracle осуществлять поддержку в сторонних решениях виртуализации (чем сильно отличается от Microsoft, которая не противится запросам своих пользователей и наших общих пользователей) своих программных продуктов. Не понятно, что им мешает, но пока никаких движений в сторону нормализации отношений в плане поддержки нет. Уже и большие начальники из EMC выступали, и пресса шушукается, а действий с той стороны никаких не предпринимается.

В связи с этим хочется провести тут некоторый опрос. Выможете либо заполнить форму либо оставить свой комментарий к данному посту. Напишите в комментариях, пожалуйста, виртуализировали ли Вы приложения Oracle на виртуальной инфрасруктуре VMware (какие при этом ОС используются для работы Oracle), почему виртуализировались? Есть ли такие планы (если планы такие есть, но ещё не реализованы, то что вас останавливает), мучает ли Вас вопрос с поддержкой Oracle в VMware? Поделитесь своим опытом, особенно интересно было бы знать, что за организации вы представляете?


Форма опроса тут.

среда, 24 июня 2009 г.

Несколько whitepaper

Новые доки:



вторник, 23 июня 2009 г.

типы vNIC

Когда вы создаете ВМ под ESX 4, вы можете для ВМ выбрать тип сетевого контроллера из списка:
Vlance
Flexible
E1000
VMXNET 2
VMXNET 3
(не для любого железа и не для любой гостевой ОС доступны все варианты).

Чем они отличаются - What vnic? Choosing an adapter for your VM.

Скопипастю:


* Vlance — An emulated version of the AMD 79C970 PCnet32 LANCE NIC, an older 10 Mbps NIC with drivers available in most 32-bit guest operating systems except Windows Vista and later. A virtual machine configured with this network adapter can use its network immediately.
* VMXNET — The VMXNET virtual network adapter has no physical counterpart. VMXNET is optimized for performance in a virtual machine. Because operating system vendors do not provide built-in drivers for this card, you must install VMware Tools to have a driver for the VMXNET network adapter available.
* Flexible — The Flexible network adapter identifies itself as a Vlance adapter when a virtual machine boots, but initializes itself and functions as either a Vlance or a VMXNET adapter, depending on which driver initializes it. With VMware Tools installed, the VMXNET driver changes the Vlance adapter to the higher performance VMXNET adapter.
* E1000 — An emulated version of the Intel 82545EM Gigabit Ethernet NIC, with drivers available in most newer guest operating systems, including Windows XP and later and Linux versions 2.4.19 and later.
* VMXNET 2 (Enhanced) — The VMXNET 2 adapter is based on the VMXNET adapter but provides some high-performance features commonly used on modern networks, such as jumbo frames and hardware offloads. This virtual network adapter is available only for some guest operating systems on ESX/ESXi 3.5 and later.
VMXNET 2 is supported only for a limited set of guest operating systems:
o 32- and 64-bit versions of Microsoft Windows 2003 (Enterprise and Datacenter Editions). You can use enhanced VMXNET adapters with other versions of the Microsoft Windows 2003 operating system, but a workaround is required to enable the option in the VI Client or vSphere Client. See http://kb.vmware.com/kb/1007195 if Enhanced vmxnet is not offered as an option.
o 32-bit version of Microsoft Windows XP Professional
o 32- and 64-bit versions of Red Hat Enterprise Linux 5.0
o 32- and 64-bit versions of SUSE Linux Enterprise Server 10
o 64-bit versions of Red Hat Enterprise Linux 4.0
o 64-bit versions of Ubuntu Linux
* VMXNET 3 — The VMXNET 3 adapter is the next generation of a paravirtualized NIC designed for performance, and is not related to VMXNET or VMXNET 2. It offers all the features available in VMXNET 2, and adds several new features like multiqueue support (also known as Receive Side Scaling in Windows), IPv6 offloads, and MSI/MSI-X interrupt delivery.
VMXNET 3 is supported only for virtual machines version 7 and later, with a limited set of guest operating systems:
o 32- and 64-bit versions of Microsoft Windows XP and later
o 32- and 64-bit versions of Red Hat Enterprise Linux 5.0 and later
o 32- and 64-bit versions of SUSE Linux Enterprise Server 10 and later
o 32- and 64-bit versions of Asianux 3 and later
o 32- and 64-bit versions of Debian 4/Ubuntu and later
o 32/64-bit versions of Sun Solaris 10 U4 and later






Убить зависшую ВМ

Если у вас "подвисла" ВМ на ESX(i)4, и не удается ее ни выключить, ни перезагрузить, ни получить к ней доступ, то что следует попробовать:

1) vmware-cmd
vmware-cmd


2) vm-support
vm-support-x

3) kill
kill-9


4) хитроковарно

Although kill -9 is an option. VMware support has advised, and I have experienced, that you could possibly still leave remnants of a VM running if you do that. Here is a cleaner way to kill the VM:

1. If the vmware-cmd does not help next up is to kill the master user world id
2. cat /proc/vmware/vm/*/names |grep vmname where vmname is the vm that is hung and find the value for vmid
3. less /proc/vmware/vm/vmid value/cpu/status where vmid value is the number from step above.
4. scroll over to the right until you find the group field that shows vm.#### where the #### numbers after vm. will be the master user world id
5. /usr/lib/vmware/bin/vmkload_app -k 9 #### where #### is the master user world id
If successful you will get a WARNING message that a signal 9 is being sent and this will cleanly kill all processes associated with the VM.


Однако, хитроковарно у меня не получилось - путь из шага два я не нашел.
Надеюсь, разберусь позже.

Все примерно так же и для ESXi, с небольшими поправками.

Источник - Killing a frozen VM on a vSphere ESX host.

vSphere new featires

Вот тут - What is your favorite vSphere new major feature? - проводится опрос "Какая из новых фич вСферы для вас наиболее важна."

Текущие результаты:
vSphere_new_features_poll

Допустим, высказывались в основном те, кто использует или планирует использовать фичи.
Тогда получается:
Есть интерес к распределенному коммутатору от Cisco, хотя он и стоит отдельных денег.
Маленький интерес к vShield Zones, и практически никакой - к DPM.
vCenter Linked Mode тоже, видать, мало кому нужен.
Зато Thin Provisioning и Fault Tolerance идут ноздря в ноздрю. Fault Tolerance даже немного удивил - видимо, достаточно жесткие ограничения на ВМ, один вЦП в частности, не такие уж и жесткие.

vSphere Download

Признаюсь, раздел download сайта VMware мне иногда кажется капельку неочевидным. Например, хотелось мне скачать управленческие аддоны для вСферы - vMA, vSphere CLI, PowerCLI. И не нашел %).

Есть мнение, что не только у меня такие проблемы.
В связи с этим меня порадовала самопальная страничка vSphere Download Links.



пятница, 19 июня 2009 г.

VMUG 2009

Коллеги, кто регистрировался на участие во встрече сообщества - всем вам должно придти письмо (второе), с подтверждением участия и организационными подробностями.
Не пришло? Пишите mikhail.mikheev@vm4.ru, аська 471 863 134.

суббота, 13 июня 2009 г.

К вопросу о сравнениях

Еще одно соображение к Сравнение производительности гипервизоров: хорошо это или плохо? :

Функционал. Я думаю, подавляющее большинство тех, кто читает блоги по виртуализации, в курсе -
у VMware есть (Storage)vMotion, HA, DRS, FT.
У Microsoft есть MFC, почти есть Live Migration.
У Citrix Xen есть Live Migration, HA; насколько я понимаю, доступна сторонняя реализация FT.

Многие понимают, что важна и цена функций: бесплатный XenServer умеет живую миграцию и централизованное управление, бесплатный ESXi не умеет ни того, ни другого(ни прочих, перечисленных выше вещей). Однако что то начинает умеет с крайне дешевой лицензией vSphere Essentials ... ну и сопоставление по цена\возможности можно долго продолжать.

Но есть и кое что другое, что можно понять под функционалом - разнообразные мелочи.
Вот, например, интересный пост - Thanks vSphere, you will cost me my job!.

Идея в том, что для VI 3.5 имеет смысл периодически делать проверки по списку типа такого:

  • Snapshots - если есть снапшоты, это может быть плохо - ВМ выпадает из зоны ответственности DRS кластера, снапшот тратит место сверх выделенного ВМ.
  • Lack of redundancy on Service Console or VMkernel - отсутствие дублирования сети SC или vmkernel это плохо с т.зрения надежности.
  • Inconsistent naming schemes(Port groups) - одно из условий vMotion\DRS\HA - одинаковость названий групп портов.
  • Inconsistent configuration
  • DNS configuration issues
  • Missing advanced HA settings
  • Faulty hardware
  • Free space on VMFS volumes
Все(большинство) из этого нужно проверять ручками.

Так вот. В vSphere 4 все эти вещи мониторятся автоматически
  • Snapshots -Storage view
  • Lack of redundancy on Service Console or VMkernel - HA will not configure correctly
  • Inconsistent naming schemes(Port groups) -Host Profiles or Distributed vSwitch
  • Inconsistent configuration - Host Profiles
  • DNS configuration issues -Host Profiles (partly)
  • Missing advance HA settings - currently not addressed
  • Faulty hardware - Alarms
  • Free space on VMFS volumes - Storage view & Alarms
Сдается мне, что у конкурентов в подобных возможностях не все так хорошо. Отсюда мораль какая - если выбор гипервизора идет из технических соображений, VMware сегодня впереди и по "большим", и по "маленьким" функциональным возможностям. А именно из "маленьких" задач будни админа и состоят.

Сравнение производительности гипервизоров

Очень понравилась статья Сравнение производительности гипервизоров: хорошо это или плохо? на vmind.ru.
К осмыслению рекомендуется.


четверг, 11 июня 2009 г.

Сравнение платформ виртуализации

Со мной поделились собственноручным анализом текущей ситуации вокруг гипервизоров ESX(i) и Hyper-V.
Небольшой дисклаймер: это просто публикация частного анализа на тему, я ее выкладываю FYI. Лично я согласен не по всем пунктам.
Комментарии автором приветствуются.
UPD. вставил мнения из комментариев.


Технологии актуальные для SMB
1. В Hyper-V нет кластерной файловой системы (ФС), в ESX есть VMFS. Кластерная ФС (CSV) будет в Hyper-V R2.
..
Как в Windows Server 2008, так и в Windows Server 2008 R2 нет кластерной файловой системы. CSV не более, чем механизм симлинков на другой сервер через сеть по SMB.

..
Ссылки про CSV:

http://blogs.msdn.com/clustering/archive/2009/03/02/9453288.aspx.
http://windowsitpro.com/article/articleid/100867/q-how-do-cluster-shared-volumes-work-in-windows-server-2008-r2.html.

2. Вследствие п.1 в Hyper-V нет технологии «живой» миграции виртуальных машин (ВМ), есть технология Quick Migration. Quick Migration позволяет мигрировать ВМ с временем простоя, требуемым для запуска сохраненного состояния ВМ. В ESX есть – vMotion. В Hyper-V R2 будет Live Migration. По информации LV будет бесплатной в Microsoft Hyper-V Server R2, но пока неясно насколько бесплатным будет софт управления этой виртуализацией. В VMware эти функции есть только в платных изданиях.

Отсутствие этой технологии не позволяет переносить ВМ между физическими хостами без прерывания их работы. Это необходимо в таких ситуациях как: плановая или внеплановая замена/апгрейд сервера или балансировка нагрузки между хостами.
..
Управление Live Migration встроено в стандартную mmc коноль Hyper-V Manager.


FREE 3. В Hyper-V нет технологии Memory Overcommitted и Transparent Page Sharing, позволяющих сократить количество требуемой хосту оперативной памяти до 30%.

Наиболее важной является технология Memory Overcommitted, которая позволяет выделять нескольким ВМ в совокупности ОЗУ больше, чем есть на хосте. При этом ВМ при работе занимает ровно столько ОЗУ, сколько требуется, а не весь выделенный объем. Transparent Page Sharing – технология дедупликации страниц памяти более актуальна для больших виртуальных инфраструктур, где на каждом хосте развернуто большое число ВМ. Также она актуальна для хостов, предназначенных для развертывания веб-серверов или тестовых ОС и приложений.
..
TPS для веб серверов наименее актульана... А вот MO для тестовых машин самое оно...


FREE 4. В Hyper-V нет технологии логических процессоров, аналога vSMP от VMware. В Hyper-V R2 эта технология анонсирована (в beta ее нет).

В связи с этим Microsoft не рекомендует разворачивать на одном хосте больше ВМ, чем на нем есть процессорных ядер. Для VMware таких ограничений нет.
..
про vSMP и количество логических процессоров - полный бред


FREE 5. Hyper-V кроме поддержки ОС семейства Windows официально поддерживает только SUSE Linux.

Возможно, на хост Hyper-V можно установить и другие ОС (linux, FreeBSD, Solaris, Novell), но, во-первых, для них нет драйверов оптимизации работы с устройствами, во-вторых, они официально не поддерживаются для производственной среды, а значит техническая поддержка такой конфигурации отсутствует.

FREE 6. Hyper-V поддерживает больший список аппаратного обеспечения, чем VMware, но только за счет использования драйверов от производителей для Windows Server 2008.

Как известно, проблема с драйверами – одна из основных причин проблем с работоспособностью Windows систем. ESX использует только оптимизированные для него же драйверы, поэтому работает гораздо стабильнее.
..
Пусть автор поделиться источниками откуда ему известо, что драйверы - одна из основных причин проблем с работоспособностью Windows систем. ИМХО основаная причина это приложения.

Кстати, работатоспособность WHQL драйверов гарантирует microsoft.
http://www.microsoft.com/whdc/winlogo/default.mspx

FREE 7. Сервер ESXi может быть установлен либо на флеш-карту, либо на SD карту (для ProLiant G6).

Флеш память на порядок надежнее жестких дисков, поэтому сам сервер при такой конфигурации становится намного надежнее. Кроме того, флеш-память в разы дешевле жестких дисков. Hyper-V занимает более 2 Гб, а установка на флеш-память не поддерживается.

..
Windows Server 2008 может быть установлен на 16 Гб флешку, а Hyper-V Server на 4ГБ. Про стоимость флеш памяти и надежность - полнейший бред.
..

насколько мне известно, установка Windows Server на флешку (не SSD) официально не поддерживается.
..
Установка ESXi на флешку так же не поддеживается VMware - поддерживается только покупка флешки(сервера с готовой флешкой).

FREE 8. Сам сервер ESX потребляет максимум 800 Мб ОЗУ, Hyper-V – от 1 Гб.
..
Родительский раздел Windows Server 2008 использует от 600МБ оперативной памяти. Зависит от редакции, настроек и установленных приложений.

..
у меня родительские разделы живут строго на 512 мегабайтах (в варианте установке Core) или 1024 (не Core). Я это точно знаю, потому что Hyper-V выделяет объём памяти для ВМ сразу, а не «по требованию», как ESX(i). Поэтому легко подсчитать, сколько именно осталось самому хосту. («У меня живут» — не значит, что это будет оптимально во всех сценариях. Это значит, что такая конфигурация вполне работоспособна при небольшом количестве ВМ. До пяти, примерно).

9. VSphere имеет встроенное средство резервного копирования ВМ Data Recovery.

Позволяет делать резервные копии/восстановления ВМ и их отдельных дисков. Поставляется в виде ВМ.

..
Windows Server 2008 имеет встроенное средство резервного копирования Windows Server Backup называется(бывший ntbackup). Включено во все редакции. ;)

..
я бы не стал называть WSB «Бывшим NTbackup». Начнём с того, что NTbackup — это сторонняя технология, которая в далёком прошлом была лицензирована у Veritas. (Примерно так же, как у Veritas лицензирована вся технология денамических дисков, как дефрагментатор Windows был лицензирован сначала у Symantec, а затем у Diskeeper и так далее). WSB — насколько мне известно, полностью самостоятельная разработка. Ну и вообще, сложно найти две более непохожих функции в Windows, чем NTbackup и WSB :)


10. Планируется, что технология Host Clustering (перезапуск ВМ с отказавших серверов) в Hyper-V R2 будет бесплатна. В VMware аналогичная технология HA доступна только в платных изданиях.

В существующей версии Hyper-V для кластера Host Clustering есть требование 1ВМ – 1LUN – это чрезмерное требования к СХД. В Hyper-V R2 такого требования по идее быть не должно

..
Требование 1ВМ на 1LUN – это рекомендация.


11. vSphere имеет технологию отказоустойчивости без прерывания работы Fault Tolerance (FT). FT позволяет сохранять работоспособность ВМ без прерывания транзакций при отказе хоста. Microsoft делает кластеризацию такого уровня средствами MFC, его плюс в том, что он позволяет защитить от сбоев ПО, а FT – только от сбоев железа.

Кластеризация MFC позволяет кластеризовать лишь выборочные приложения, поддерживающие кластеры Microsoft. FT позволяет кластеризовать любые приложения. Не смотря на то, что эта технология имеет ограничения, она очень важна, т.к. позволяет добиться отказоустойчивости на ранее недоступном уровне. Также для vSphere анонсирована технология, позволяющая в будущем отслеживать состояние процессов в системе, т.е. защититься от сбоев софта.

..
Аналогов технологии VMware Fault Tolerance у Microsoft нет. Но подобный функционал предоставляется ее технологическими партнерами, такими как Marathon или SteelEye.

Технологии обеспечивающие FT доступны с 1999 года.
А защититься от сбоев софта можно только не устанавливая этот софт.
..
Требование «1 ВМ на LUN» неактуально уже давно. Оно было устранено c августа 2008, после http://support.microsoft.com/kb/951308. Это обновление входит в Windows Server 2008 SP2. Единственное важное замечание: это требование остаётся в силе, если вы используете SCVMM. Вернее, он будет работать, но там есть тонкости. SCVMM 2008 R2 закроет эту тему окончательно, и всё будет работать без нюансов.

12. В VMware есть VMware vShield Zones – встроенное низкоуровневое средство обеспечения сетевой безопасности.

Позволяет разграничивать и мониторить доступ к ВМ по сети, обладает также полноценным функционалом firewall. Поставляется ввиде ВМ.

FREE 13. В VMware есть технология VMDirectPath for Virtual Machines.

Эта технология позволяет напрямую подключать некоторые PCI устройства в ВМ. Такими устройствами могут быть Ethernet или SAN адаптеры. Это важно, т.к. к примеру, позволяет в будущем виртуализовать ПО управления системами хранения.

..
Поддержка Intel VT-d очень правильная штука. И microsfot она тоже заявлена. В будущем... когда массово появятся соответствующие адаптеры.


14. Служба VMware Update Manager позволяет централизованно обновлять хост и гостевые ВМ Windows или Linux. Microsoft предлагает WSUS. Он предназначен только для обновления Windows систем, однако имеет более широкие возможности по настройке для обновления Windows.

ПО централизованного обновления позволяет значительно сократить время и сложность администрирования.

FREE 15. Компонент управления виртуальной инфраструктурой vCenter может устанавливаться на Linux, что позволяет сэкономить на лицензиях Windows Server.

Минус в том, что на данный момент такой vCenter обладает меньшим функционалом, чем полноценный.

16. vSphere поддерживает горячее добавление оперативной памяти и процессоров в ВМ (Hot Add).

..
vSphere поддерживает горячее добавление оперативной памяти и процессоров в ВМ (Hot Add). Но без перезагрузки на Windows машинах добавление процессоров и памяти работает только редакции DataCenter, только памяти - для Enterprise, а в остальных случаях требуется презгрузка или останвка ВМ.



Технологии актуальные для Enterprise бизнеса

1. В Hyper-V нет Storage Vmotion. В Hyper-V R2 будет Storage Migration – технлогия миграции хранилищ со временем простоя около 2-х минут (зависти от объема файлов ВМ).

Storage Vmotion позволяет мигрировать диски ВМ между хранилищами данных без прерывания работы пользователей.

2. В VMware есть vNetwork Distributed Switch – встроенный коммутатор с поддержкой Private VLAN, Vmotion и виртуальных коммутаторов сторонних производителей.

Позволяет создать единую точку конфигурации взаимодействия виртуальной инфраструктуры. В качестве виртуального коммутатора может выступать также семейство Cisco Nexus 1000V.

3. vSphere в версии Enterprise Plus поддерживает до 8-ми виртуальных процессоров (vCPU).

Не ясным остается вопрос с поддержкой Thin Provisioning для систем хранения данных. В vSphere это есть. Для Hyper-V R2 нет информации на эту тему.

..
Thin Provisioning или Dynamic Disks доступны в Hyper-V. Подозреваю, из R2 этот функционал убирать не станут.




vCenter 4 change host name

В случае если вам необходимо переименовать сервер vCenter, то после переименования вы можете столкнуться с проблемой - неработоспособностью плагинов vCenter Server Hardware Status и vCenter Service Status.

Как это лечить, описано тут - Cannot enable vCenter Hardware Status and vCenter Service Status after changing vCenter Server name.

Проблема связанна с тем, что (для этих плагинов в частности) имя vCenter хранится в конфигах, которые и надо поправить.

Так же, со мной поделились опытом, что кроме манипуляций в статье, правильно сделать еще кое что:

помимо изменений в extensions\cim-ui\extension.xml и extensions\health-ui\extension.xml надо еще кое-что редактировать

в Program Files\VMware\Infrastructure\tomcat\webapps\cim-ui\scriptconfig.xml тоже остается старое имя сервера, надо менять руками

то же для health-ui


thx Beckett.

вторник, 9 июня 2009 г.

набор документов рассказывающий как следует внедрять SAP в виртуальной инфраструктуре

Процитирую Андрея Бешкова:

Появился набор документов рассказывающий как следует внедрять SAP в виртуальной инфраструктуре. Документы разработаны SAP и Microsoft.

Virtualizing SAP Applications on Windows

Best Practice for SAP on Hyper-V

Примечателен тот факт что в документации от SAP упоминается VMware как альтернатива Hyper-V. Получается что эти документы пригодятся как тем кто работает с Hyper-v, так и тем у кого используются продукты VMware.



темы докладов на встрече сообщества VMware

Коллеги, предполагаемый список тем на 26 июня сего года, VMUG 2009:

  • vSphere во всех видах.
  • Бекап - VCB и vStorage Data Recovery
  • vShield Zones
  • XenServer, XenDesktop - сами по себе и сравнение с ESX(i), VMware View.
  • Виртуальный распределенный коммутатор Cisco Nexus 1000V.
  • Опыт по развёртыванию пилотного проекта VMware View.
  • НЕмаркетинговый рассказ про продукты Veeam от специалиста компании.
  • Плюсы и минусы документов VMware по безопасности.
  • Проблемы, с которыми сталкиваются безопасники при разработке таких документов.
    Моменты, которые всегда вызывают разногласия у безопасников и отделов ИТ.
  • PowerShell VI toolkit / vSphere Power CLI.
Регистрация, напомню, тут.

воскресенье, 7 июня 2009 г.

Про Citrix Xen

Со мной тут поделились ссылками про Citrix Xen:

Общие презентации по XenServer





Все то же самое, в одной презе и на русском:



Демонстрация функционала XenServer 5.5 и Workload Balancing
http://community.citrix.com/blogs/citrite/joels/2009/05/21/Citrix+XenServer+5.5+and+Workload+Balancing+Video

Демонстрация Citrix Essentials Advanced StorageLink


и по архитектуре Citrix XenDesktop (VDI):




суббота, 6 июня 2009 г.

Поддержка кластеров Microsoft SQL Server в виртуальных машинах

Сегодня я обнаружил, что в онлайн списке совместимости VMware появился пункт "Guest\Host OS"
.
Результаты поиска можно выгрузить в pdf.

Немножко напомню ситуацию с поддержкой. VMware говорит:


..
Поддерживаем[какую то ОС], значит тестировали ее запуск, и гарантируем что она запустится. Любые проблемы, связанные с неработоспособностью ОС( не касаясь ее запуска) - к производителю ОС.
..


У Майкрософт есть специальная программа, по которой сертифицируются какие то комбинации железа, сторонних гипервизоров и продутов МС, сертифицируются на статус "поддерживаемой со стороны МС".
Эта программа называется SVVP,Windows Server Virtualization Validation Program.

Напомню, достаточно интересная дискуссия на эту тему возникла тут - Microsoft VMware Support - взгляд Майкрософт.
В частности, важным моментом является то, что Майкрософт не поддерживает отказоустойчивые кластеры(кластеры с переходом по отказу, MSCS\MFC), узлами которого являются ВМ под сторонними гипервизорами.

Поводом вернуться к этой теме послужило расширение поддерживаемых комбинаций по программе SVVP - Поддержка кластеров Microsoft SQL Server в виртуальных машинах.
Цитата:
..
Итак, с 19 мая стали поддерживаться в виртуальных машинах кластеры Microsoft SQL Server 2005 и 2008. Помимо прочего, это означает, что впервые политика поддержки продуктов Microsoft стала распространяться на кластеры виртуальных машин, запущенных под управлением сторонних решений для виртуализации. Пусть пока что речь идёт только об одном типе серверной нагрузки. Но, напомним, раньше это не поддерживалось вообще.
..


Тренер-ИТ

Коллеги, на правах рекламы, по дружбе, хочу рассказать вам о существовании молодой и перспективной тренинговой компании - Trener-IT.

Корпоративное ИТ обучение по разнообразным направлениям, гибкость, и вообще все хорошо. Рекомендую.



VMware Converter 4.0 What's New and Different

Еще одна полезная преза с VMWorld 2009 Europe - TA12 Introducing VMware Converter 4.0 What New and Different. Что нового в VMware Converter 4.







esx hyper-v xen virtual iron compare

Похоже, сессии с последних vmworld'ов в общем доступе таки недоступны :(, по крайней мере не все.

Однако, несколько мне скачать удалось - те, что отмечены звездочкой.
Например, DC15 Hypervisor Competitive Differences Beyond the Data Sheet.
В этом докладе говорится о методике сравнения гипервизоров.

Вначале упоминается, что сравнивать их между собой по даташитам не кошерно.
И говорится как сравнивать кошерно.

В принципе, если перед кем то из вас встанет задача сравнить и обосновать результаты - ознакомиться будет интересно.

Так же, приводятся данные сравнения по их критериям:









пятница, 5 июня 2009 г.

VMworld sessions public access

VMware открыла свободный доступ к докладам с прошедших VMworld - http://www.vmworld.com/community/sessions/europe2009.Это ссылка на последний из них.

Список:



AP01 Best Practice for Successfully Virtualizing Active Directory
AP02 Best Practices for Deploying SharePoint/MOSS 2007 on VMware Infrastructure
AP03 Avoiding Pitfalls: The Hidden Costs of Managing your VMware Infrastructure
AP04 Optimizing SAP Production Systems on VMware
AP05 SQL Server Performance on VMware: Best Practices, Tuning and Troubleshooting
AP06 Timekeeping and Time-Sensitive Applications: Best Practices
AP07 Virtualized Oracle Database Server Performance and Best Practices *
AP08 Virtualizing Citrix XENApp Application Server
AP09 Virtualizing Exchange 2007 and BlackBerry Enterprise on VMware Infrastructure
AP10 Business Productivity using Application Virtualisation at Vodafone
AP11 Performance Best Practices
AP12 Managing Application Performance with vCenter AppSpeed
AP13 Latency-based Performance Analysis Before and After AppSpeed
AP14 Java/Web-tier applications on VMware ESX: Best Practices
AP15 Enterprise Application Performance and Scalability on ESX
Virtual Datacenter Operating System
DC01 An Introduction to VMware vCenter Orchestrator
DC02 Best Practices for Deploying VMware Lab Manager
DC04 vCenter Lifecycle Manager Technical Overview
DC06 Virtualization Management: Managing the Next-Generation Datacenter
DC07 What's New in vCenter Server *
DC08 vCenter Server for Linux
DC09 Virtualization Optimization: IT Intelligence/Capacity Management at SAS Institute
DC10 Choosing a Solution for VMware vCenter Server Availability
DC11 Achieving Infrastructure Agility Through Virtualization
DC12 How does VMware fit in with your management infrastructure?
DC13 Unifying the internal cloud while maintaining network trust separation with VMware vShield Zones
DC14 Overview of 2009 VMware datacenter products *
DC15 Hypervisor Competitive Differences: Beyond the Data Sheet *
DC16 vCenter Site Recovery Manager - Implementation Common Pitfalls and Best Practices
DC17 The Virtualization Landscape ? A Comparison of Virtualization Offerings
DC18 Introduction to VMware vCenter ConfigControl
DC19 Data Center Energy: Productivity Indicator
DC20 Reduce the Cost of Administering and Managing with VMware vCenter Life Cycle Manager
DC21 VMware - standardised Platform Provisioning for regulated Industries
DC22 Real-World Success with VMware Lab Manager and Stage Manager
DC23 Automated IT Service Delivery (with vCenter Lab, Stage and Lifecycle Manager)
DC24 VMware Infrastructure ? How it all fits together
DC25 VMware vCenter Data Recovery: Technical Overview
DC26 vStorage - Storage integration for the VDC-OS *
DC27 Virtualization And The Future Of Datacenter Security
DC28 VMware HA Cluster in Enterprise
DC29 Creating the Fastest Possible Backups Using VMware Consolidated Backup -A Design Blueprint
DC31 What?s New In the Enterprise Cloud ?
DC32 New Technologies Driving Cloud Based Services
DC33 How to make sure your private cloud is really secure
DC35 How VMware Uses Virtualization
Desktop Virtualization
DV01 VMware Client Virtualization: Next Steps in an Evolution of Mobile Computing
DV02 VDI versus Terminal Services
DV03 Virtualization on mobile phones? Why do I need that?
DV04 Simplifying Software Mgmt through Application Virtualization (part 1) (part 2)
DV05 Improving Desktop Application Deployment with ThinApp
DV06 Desktop Disaster Recover with View and SRM
DV07 Server and Storage Sizing for VMware View
DV08 Understanding TCO for VMware View (next gen VDI)
DV09 View Composer
DV11 VMware View Solution Overview
DV12 What's new with View 3
DV13 Mass Deployment of VMware Fusion
DV15 Breaking Down Desktop and Application Virtualization Alternatives
DV16 What's in a Display Protocol? Architecture and Advances in Remote Display Technology
DV17 Virtual Desktop Infrastructure: Adoption & Implications
DV19 Eurosong 2008 Belgrade on VMware VDI
DV20 VMware View Reference Architecture: Building Large and Small
DV21 Managing and Secure Hosted Virtual Desktops with Workstation/ACE 2.5, 6,5
DV22 VMware View - The Printing Session
DV23 Desktop and server Virtualization at Statistics Netherlands (CBS)
DV24 Project: Virtual Reality Check
DV25 ESX Server Plus WAN Optimization: Save Data Center Costs and Help Protect the Environment
Technology & Architecture
TA01 Managing VMware With PowerShell
TA02 Unattended Deployment of VMware Infrastructure 3
TA03 An Introduction to VMware vCenter Chargeback
TA04 VMware ESXi 3.0 Troubleshooting
TA05 Best Practices for running VI3 on NFS storage
TA06 VMware VMFS Deep Dive and Best Practices
TA07 Understanding "Host" and "Guest" Memory Usage and Other Memory Management Concepts
TA08 Patching your virtual Datacenter using Update Manager
TA09 PVSCSI: a paravirtualized storage adapter for ESX
TA10 Software Licensing in the Virtual Enterprise: Current Problems and Future Trends
TA11 Best Practices to Increase Availability and Throughput for the Future of VMware
TA12 Introducing VMware Converter 4.0: What's New and Different *
TA13 Virtual Infrastructure Orchestration at SAP's Demo Business
TA14 VMware ESXi and PXE
TA15 Protecting your vCenter Server with Server Heartbeat *
TA16 DRS technical overview and performance best practices
TA17 End-to-End Disaster Recovery Approach with Automated SRM Failback *
TA18 Breaking the physical boundaries with VMotion; A Technology Dive
TA20 Cisco Nexus 1000V Technical Preview *
TA21 VMware Infrastructure Networking New Features
TA22 Technology Preview: vCenter CapacityIQ
TA23 Virtual Infrastructures: Scale Up or Scale Out? Rack or Blade form factors?
TA24 Fault Tolerance Performance Preview
TA25 Introduction to Storage VMotion
TA26 Architecting Remote and Branch Offices for HA and DR
TA27 Best Practices for Running VMware on Ethernet Base Storage
Technical Partners
TP01 Working Together--Advanced Product Integration between NetApp and Vmware
TP02 Paving The Path To The Virtualised Data Centre
TP03 Engineering Developments enabling the Virtual Datacenter - VMware, Cisco and EMC
TP04 Applying Emerging Technologies to Enhance VMware environments
TP05 Integrating SAN-based Tools for Advanced Data Protection and Disaster Recovery
TP07 The End of the Beginning: The Next Phase of Virtual Infrastructure
TP08 Transitional and Transformational Client Management
TP09 Supporting Business Continuance SLA?s using VMware and CA Recovery Management
TP10 Managing VM Sprawl: Reducing Costs from the Data Centre to the Network
TP11 Intel Platform Advancements Accelerating the Next Generation of Virtualization
TP12 Consolidation of Performance Sensitive Applications
TP13 Virtualization for mission critical SAP environments with FlexFrame for SAP and VMware
TP14 Real high-availability for virtual IT
TP16 Virtualizing the SMB environment on a single-box with IBM BladeCenter S & VMware
TP17 The HP VMware End-to-End Solution: Helping you Rethink Virtualization in Business Terms
TP18 End-to-End Virtual Desktop Infrastructure with HP and VMware
TP19 User Experience - Critical Component to a Successful Desktop Virtualization Project
TP20 Next Steps: Now that You?ve Virtualized
TP21 Impact of FCoE Converged Networks on Virtualised Environments
TP22 Microsoft's Virtualization Strategy, Products and Solutions for the New Economy
TP23 An Optimized Approach to Workload Availability in Virtualized Environments
TP24 Why VDI?
TP25 Desktop Virtualization: What's Now and What's Next
TP26 Introducing BT's Virtual Data Centre - helping customer thrive in a changing world
TP27 Create a Richer, More Efficient VMware View environment with Wyse Thin Computing
TP28 Optimising your Data Centre for the Coming Cloud
TP29 Cloud Computing with Parallels: automate, virtualize and save now
TP30 The Efficiency Imperative: Consolidation and Automation in IT Operations
TP31 Dell, Veeam and VMware: Best practices for virtual environments
TP32 Virtualization: The Ultimate Catalyst For Aligning Business And IT
TP33 AMD Quad-Core: Driving New Levels of Efficiency for Virtualization in the datacenter
TP35 Creating a Next Generation Data Center with Workload Management
TP37 Architecting Deduplication and Virtualization for Best of Breed Data Protection
TP38 Automating Business Continuity with VMware SRM and Compellent Live Volume
TP39 Virtualizing Exchange 2007 on ESX 3.5
TP40 The Future of Linux is Software Appliances
TP41 Don't let your security guard down while you are focusing on the economies of virtualisation
TP42 Living in and Accelerating out of Virtual Environments
Labs
LAB01 Next Generation Datacenter Exploration
LAB02 Securing the Virtual DataCenter with VMware vShield Zones
LAB03 VMware vCenter Site Recovery Manager
LAB04 VMware Life Cycle Manager
LAB05 VMware vCenter Lab Manager & vCenter Stage Manager
LAB06 VMware vCenter Data Recovery Tech Preview
LAB07 VMware vCenter AppSpeed
LAB08 Working with VMware View Manager and View Composer
LAB09 VMware ThinApp
LAB10 VMware View Manager 3 and Offline Desktops
LAB11 VMware VI Toolkit for Windows (powershell)
LAB12 vNetwork Distributed Switch Tech Preview : Cisco Nexus 1000v
LAB13 VMSafe Altor Networks VF Virtual Firewall


kb vmware

Подборка недавно появившихся статей в базе знаний VMware - New articles published for week ending 5/31/2009.

VMware Data Recovery
VMware Data Recovery fails to connect when invoked from a linked vCenter (1011236)
Date Published: 5/26/2009 12:00:00 AM

VMware ESX
Multipathing policies in ESX 4 (1011340)
Date Published: 5/29/2009 12:00:00 AM
What is Pluggable Storage Architecture (PSA) and Native Multipathing (NMP)? (1011375)
Date Published: 5/29/2009 12:00:00 AM
Snapshot LUN detection in ESX 3.x and ESX 4 (1011385)
Date Published: 5/29/2009 12:00:00 AM
ESX 4.x handling of LUNs detected as snapshot (1011387)
Date Published: 5/29/2009 12:00:00 AM
VMware ESX 3.5, Patch ESX350-200905401-BG: Updates vmkernel and hostd RPMs (1010957)
Date Published: 5/29/2009 12:00:00 AM
VMware ESX 3.5, Patch ESX350-200905402-BG: Updates VMX RPM (1010958)
Date Published: 5/29/2009 12:00:00 AM
VMware ESX 3.5, Patch ESX350-200905403-BG: Updates aacraid driver for Adaptec (1010960)
Date Published: 5/29/2009 12:00:00 AM
VMware ESX 3.5, Patch ESX350-200905404-BG: Update to tzdata package (1010961)
Date Published: 5/29/2009 12:00:00 AM
VMware ESX 3.5, Patch ESX350-200905405-BG: Updates Kernel Source and VMNIX (1010963)
Date Published: 5/29/2009 12:00:00 AM
VMware ESXi, Patch ESXe350-200905401-I-BG: Firmware Update (1010964)
Date Published: 5/29/2009 12:00:00 AM
ESX Server 3.0.2, Patch ESX-1009938: Virtual machines in Lab Manager environment might stop responding due to a heavy load on LUN (1009938)
Date Published: 5/29/2009 12:00:00 AM
VMware ESX Server 3.0.3, ESX303-200905401-SG: Update to VMware-esx-tools RPM (1009940)
Date Published: 5/29/2009 12:00:00 AM
VMware ESX Server 3.0.3, ESX303-200905402-SG: Updates to esxcfg-firewall script to enable and disable FTP client service (1009941)
Date Published: 5/29/2009 12:00:00 AM
VMware ESX Server 3.0.3, ESX303-200905403-BG: Virtual machines in Lab Manager environment might stop responding due to a heavy load on LUN (1009942)
Date Published: 5/29/2009 12:00:00 AM
VMware ESX Server 3.0.3, ESX303-200905404-BG: Update to FTP client service (1009943)
Date Published: 5/29/2009 12:00:00 AM
ESX Server 3.0.2, Patch ESX-1009944: Update to time zone information (tzdata) package (1009944)
Date Published: 5/29/2009 12:00:00 AM
VMware ESX Server 3.0.3, ESX303-200905405-BG: Update to time zone information (tzdata) package (1009945)
Date Published: 5/29/2009 12:00:00 AM
Inaccurate Monitoring and Health Status seen in VI Client, VirtualCenter, or vCenter Server (1010716)
Date Published: 5/28/2009 12:00:00 AM
Mapping VMware High Availability Heartbeats and Communication Paths (1010991)
Date Published: 5/26/2009 12:00:00 AM
Overview of Pluggable Storage Architecture (PSA) (1011308)
Date Published: 5/26/2009 12:00:00 AM
Growing a datastore from the Service Console in ESX 4.0 (1009125)
Date Published: 5/25/2009 12:00:00 AM
Out of Range DSUB Analog error when installing ESX 3.5 (1010602)
Date Published: 5/25/2009 12:00:00 AM

VMware ESXi
Deleted the Management Network vSwitch on ESXi (1010992)
Date Published: 5/26/2009 12:00:00 AM


VMware vCenter Server
A virtual machine appears powered on in VMware Infrastructure Client after it is powered off (1011398)
Date Published: 5/29/2009 12:00:00 AM\
ADAM installation fails with error 28037 (1011410)
Date Published: 5/28/2009 12:00:00 AM
The VirtualCenter message of the day keeps reappearing (1011391)
Date Published: 5/28/2009 12:00:00 AM
VirtualCenter 2.5 upgrade fails with a ORA-30036 error (1010653)
Date Published: 5/26/2009 12:00:00 AM
vCenter Service Status and vCenter Hardware Status plug-ins fail (1011274)
Date Published: 5/25/2009 12:00:00 AM

VMware vCenter Site Recovery Manager
Licensing Site Recovery Manager (1010979)
Date Published: 5/26/2009 12:00:00 AM








четверг, 4 июня 2009 г.

запуск esx esxi 4 в ВМ

Есть что добавить к теме запуска vSphere на любимом ноуте - можно уменьшить минимальное количество памяти, необходимое для запуску ESX\ESXi 4. Полная инструкция:

Для установки ESX\ESXi 4 в ВМ под VMware Workstation или под ESX\ESXi 4:

  • Процессоры машины, на которой предполагается разворачивать эту "матрешку", должны поддерживать аппаратную поддержку виртуализации - Intel-VT \ AMD-V. И она должна быть включена в БИОС.
  • берем саму Workstation, вроде бы нужна версия не меньше 6.5.1.
    Я пробовал с 6.5.2
    Ну или ESX\ESXi 4.
  • Создаем ВМ со следующими параметрами:
    гостевая ОС - Red Hat Enterprise 5 64-bit
    Памяти минимум 2 ГБ
    scsi контроллер - LSI logic (я использовал не LSI SAS)
    для процессора в меню Execution Mode выставляем "Intel VT-x or AMD-V "
  • Открываем vmx любимым текстовым редактором, добавляем строку
    monitor_control.restrict_backdoor = true
    ВМ должна быть выключена в этот момент.

    И для ESX и для ESXi.
Если 2 ГБ памяти отдавать жалко, то после установки можно требования к памяти уменьшить:
Для ESX:
1. Установите ESX на ВМ минимум с 2 ГБ памяти
2. Залогиньтесь в Service Console и выполните
vi /etc/vmware/init/init.d/00.vmnix

3. Измените значение в следующей строке на нужное:

RequiredMemory=2064384

4. Теперь можно выключить ВМ и уменьшить выделенную ей память.

Для ESXi:

1. Установите ESXi на ВМ минимум с 2 ГБ памяти
2. Залогиньтесь в консоль через метод “unsupported”
3. Откройте в vi конфиг /etc/vmware/esx.conf и добавьте строку:

/vmkernel/minMemoryCheck = “false”

4. Теперь можно выключить ВМ и уменьшить выделенную ей память.

Есть мнение, что использование vi принципиально - якобы был случаи, когда nano корежил файлы.

перевод ВМ на vmxnet 3 и vmware paravirtual scsi

Рекомендации, как правильно начать пользоваться новым виртуальным железом, появившемся в vSphere - vSphere Virtual Machine Upgrade Process.

VMware Certified Design Expert, VCDX

В этом посте планирую собирать инфу для VCDX Admin Exam.

Сама по себе эта сертификация сегодня является второй и последней сертификацией VMware. Однако, ее не следует воспринимать как следующую ступеньку после VCP - нет, VCDX это high-end. Если бы сертификация VMware была бы многоуровневой, то между VCP и VCDX было бы 2-3 уровня.

Чтобы поиметь сертификат VCDX, необходимо

  1. Стать VCP
    *) пройти хотябы один курс из I&C \ DSA \ Fast Track
    *) сдать тест на VCP
  2. Сдать VMware Enterprise Administration Exam
  3. Сдать VMware Design Exam
  4. Создать и защитить некий план VMware Infrastructure design and implementation.
На сегодня VCDX существует для VI3. По некоторым данным, VCDX по vSphere должна появиться в 2010.


к п.2 - VMware Enterprise Administration Exam.

Подать заявку на этот тест можно пройдя VMware VCDX Qualification Review.
Если прошли успешно - с вами свяжутся персонально.
К сожалению, проходить этот тест можно в считанном количестве тестовых центров, в России таких нет.
Есть в
  • Paris-France
  • Frankfurt-Germany
  • Athens-Greece
  • Ramat Gan (Tel Aviv)-Israel
  • Madrid-Spain
  • ISTANBUL-Turkey
  • London-United Kingdom
Есть вероятость, что возможность сдать этот тест будет предоставляться на VMWorld\VMWorld Europe, или других крупных конференциях.
Стоимость попытки 400$. Между попытками должно пройти хотя бы 10 дней.
Длительность 3 часа.
75 вопросов - на 300 баллов.
11 лаб - на 200 баллов.
Проходной балл - 300.


VMware Enterprise Exam blueprint - официальный список тем.

Серия постов на одном из блогов:
Design Exam Blueprint v3.5.
Больше ничего про него не знаю.

к п.4 - VMware Infrastructure design and implementation.
Ничего про него не знаю.



среда, 3 июня 2009 г.

compare

Углядел очередное Тестирование производительности гипервизоров виртуальных машин.






ESX 4 ntfs usb

Как подмонтировать USB флешку с NTFS разделом к ESX 4 - vSphere4 & NTFS – How To, and Why It’s A Bad Idea.
На свой страх и риск.





аренда серверов

Коллеги, мне задали вопрос:
можно ли где то арендовать 2-5 серверов,
необходимо, чтобы была возможность установить на них ESX - возможность доступа по iLO или аналогам.

Не известны ли вам компании, оказывающие подобные услуги, у нас или за рубежом?






VMware User Group Community, VMUG

Коллеги, уже несколько раз мы проводили встречу сообщества VMware.
Материалы и отчет по встрече от 31 октября 2008.
встречи коммьюнити. итоги и планы.
Встреча 8го февраля.

Пара опубликованных докладов со встреч:
Опыт внедрения MS Terminal Servers на платформе VMWare ESX 3.5.
Размышления на тему опытной эксплуатации.

опубликованных докладов немного, потому что бОльшая часть интересного - скорее обсуждения.

Это все к чему:
мы хотим еще разок собраться, предварительно 26 июня.

Вторая половина дня, с перспективой продолжить общение в неформальной обстановке.
Список именно докладов, надеюсь, определится в ближайшее время. Однако, не докладами едиными - эта встреча хороший способ пообщаться с опытными людьми. Коих мы собираемся всеми силами приглашать.

Вот тут регистрация на участие - VMUG.


iops

Коллеги, очень много копий сломано на тему сайзинга серверов.
Сайзинг сервера "под виртуализацию" часто сложнее, чем под какую то одну задачу.
ИМХО, самый больной вопрос - дисковая подсистема.
Сколько дисков? Какой RAID? Можно ли обойтись дешевым SATA?

Для ответа часто имеет смысл посмотреть на те системы, которые планируется перевести в ВМ, и оценить их нагрузку на сервер, и, в частности, дисковую подсистему.

Справочный пост с основами на тему куда посмотреть, на что посмотреть - ИОПСы и как их измерить.

Virtualization Energy Cost Calculator

Мне тут подсказали очень прикольную штуку: калькулятор экономии потребления энергии от виртуализации, авторством APC - Virtualization Energy Cost Calculator.

вторник, 2 июня 2009 г.

Bank

Недавно я был в гостях ИТ отдела одного из банков. Было очень интересно послушать людей, для которых внедрение виртуализации принесло кучу плюсов, которые весьма масштабно ее внедрили, и имеют свое апробированное мнение и рекомендации по вопросу.

Это - просто мой "отчет", что запомнилось и было интересно лично мне.

До виртуализации админы на работе сидели все время - то сервер привезут, надо вводить в эксплуатацию. То что то где то подкрутить.
Сейчас - месяцами в серверную не заходят.

Стало возможно не торопиться, и покупать то, что нужно, а не то, что есть у поставщика.

Виртуализация внедрялась помаленьку. Сначала она дала возможность консолидировать бюджет с различных мелких проектов в течении года, с целью закупки оборудования высокого уровня; а под проекты ресурсы выделять сразу, а не по истечении нескольких месяцев (согласования, выбор поставщика, размещение заказа, доставка, ввод в эксплуатацию)
После виртуализации потребление упало на ~40% (81 кватт). Это только сервера, без охлаждения.

Консолидация 15-18 к 1.
Сервера - блейды.
1 лезвие - 2*4 ЦП, 32 ГБ ОЗУ.
1 ВМ обычно 2-4 ГБ ОЗУ. Некоторые ВМ обслуживают до 5000 человек.

DPM позволяет выключить 4 из 25 серверов(в рабочие часы). По ночам потребление падает с 4.5 до 1.5 КВатта на шасси. Используются 2 шасси.

Используется ферма Citrix до 1700 пользователей одновременно. Ферму обслуживают 8 хостов, хватило бы 4.
34 ВМ с Citrix.

Переезд.
Банк переезжал в другое здание. Между старым и новым зданием положили оптику. СХД там и тут. Привезли одно шасси(пустое), два(с лезвиями) оставили на старом месте.

  • Там освободили три лезвия, перевезли.
  • Storage vMotion, потом vMotion.
  • Итерацию повторить.
4.5 террабайта, и все виртуализованное железо за 2 дня перевезли, без простоя ВМ. У многих ВМ аптайм больше, чем существует новый ЦОД и само здание принадлежит банку(!).

Прочее, не виртуализованное железо ~ 70 серверов, перевозили больше недели, 7 рабочих дней.

Нагрузка.

Большая часть из 250 ВМ показывают нагрузку на ЦП порядка 130-250 МГЦ. Например, мне продемонстрировали сервер Lotus, пересылающий 5000 писем в минуту - 247 МГЦ.

2х, 4х процессорных ВМ избегать всеми силами. Если уж 1 вЦП не хватает - даем 2ой, и смотрим - не стало ли хуже.
Сталкивались с интересным багом конкретной софтины -
ВМ с ней, у ВМ 2 вЦП, выданы изначально, по аналогии, т.к. софтину переносили с двухпроцессорного сервера. Заходит первый пользователь - все хорошо. Заходит второй - все ложится. Что то не срасталось в связи с тем, что и ESX пытался нагрузку сбалансировать, и гостевая ОС, и что то софтине не нравилось. Оставили 1 вЦП - все замечательно заработало.

Соображение "чем больше сервер, тем больше на нем ВМ" - не обязательно верно. Можем упереться в шину к памяти.

I\O.

Все ВМ генерят ~ 30 000 I\O. Это 240 дисков, массивы RAID 50, каждый 4 группы по 7 дисков.
Типичный ЛУН ~ 1 ТБ, как раз на 30 ВМ.

mid range СХД ложится под их нагрузкой, сначала по контроллерам, потом по дискам.

high end СХД лучше за счет контроллеров. Их больше, сложнее архитектура. И они умнее - например, позволяют выделять кеш под какие то RAID-группы (LUN'ов в RAID-группе может быть несколько). Они позволяют динамически перераспрелелять ресурсы массива между задачами без остановки самого массива и этих задач.

mid range - AMS1000 Hitachi, HP Eva, EMC Clarion.
high range - USP VM Hitachi, HP XP 20000.

round robin однозначно противопоказан на mid range-системах, и на момент использования ESX 3.5Update 4 имелись проблемы с использованием на high end-системах

написали скрипт, который прописывал предпочитаемый путь для каждого ЛУНа, равномерно.

Желательно выделять raid группы под ESX, убирая физические сервера на другие raid группы. В частности, это очень правильно для разбора статистики, иначе очень тяжело понимать статистику по SAN.
Отдельно было сказано, что при покупке СХД крайне желательно не скупиться, и прикупить еще и софт(или лицензии на) мониторинга СХД - без него крайне тяжело понять - на каком же уровне затык в производительности? Из за кого затык?

Рекомендации - до 30 ВМ на ЛУН, до 8 хостов к ЛУНу. Опыт показал что это хорошо.

Начиная с 3.5 используются дефолтные настройки для ESX. Разве что, скриптами настраиваются VLAN и пути к ЛУНам.

VCB.

1 сервер. Поставили второй, для сокращения окна бекапа.
Работает отлично. Бекапят vmdk целиком. В основном, потому что сервера с большими объемами данных(файл сервера, архивы и почтовые ящики Lotus, СУБД) не виртуализировались - обратите внимание, не виртуализировались они не из за нехватки ресурсов, а чтобы их данные(~ 1.5 ТБ для сервера) не запихивать в vmdk или RDM. Для бэкапа была выбран Veeam Backup, т.к. veritas netbackup требует необоснованно слишком много дополнительных людских ресурсов для сопровождения резервного копирования виртуальных машин. Так же получили ряд плюсов достаточно эффективная дедупликация и компрессия налету, высокие скорости бэкапа как по LAN так и по SAN, возможность восстановления отдельных файлов гостевых ОС из vmdk.

Прогноз.
На данный момент готовятся к апгрейду на vSphere 4.

понедельник, 1 июня 2009 г.

perfomance esx 4 esxi 4

whitepaper What’s New in VMware vSphere™ 4:Performance Enhancements.

Что нового в четверке с т.зрения производительности, и немножко данных по сравнению производительности Oracle, SQL Server, SAP, Exchange на физической железке и в ВМ на ESX.





vmkcore vmkdump vmkernel-zdump

Если ESX плохо, то он падает в PSOD, пурпурный экран смерти.
Если PSOD произошел, то в партицию vmkcore пишется, вы удивитесь, дамп ядра.
Что делать с ним, т.е. как получить доступ к информации оттуда - Extracting the log file after an ESX or ESXi host fails with a purple screen error.

Применимо для ESX\ESXi версий 3.0.x - 4.




cURL

С мест сообщают - VMware ESX 4 - use cURL to grab files - что в ESX 4 поставляется утилита cURL.
Позволяет:

curl is a command line tool for transferring files with URL syntax, supporting FTP, FTPS, HTTP, HTTPS, SCP, SFTP, TFTP, TELNET, DICT, LDAP, LDAPS and FILE. curl supports SSL certificates, HTTP POST, HTTP PUT, FTP uploading, HTTP form based upload, proxies, cookies, user+password authentication (Basic, Digest, NTLM, Negotiate, kerberos...), file transfer resume, proxy tunneling