четверг, 31 июля 2008 г.

Производительность и рекомендации для DRS кластера

VMware опубликовала документ - DRS Performance and Best Practices Paper .

Приводятся результаты работы DRS, с наглядной иллюстрацией.
Так же приводятся рекомендации.
Приводятся данные по эффективности работы DRS в автоматическом режиме с разными уровнями агрессивности - весьма интересный вопрос, на мой взгляд.
Говорится, что по умолчанию DRS смотрит на кластер раз в 5 минут, но можно выставить любое значение в интервале от минуты до часа.

В общем, рекомендую.




установка ESXi по сети, с PXE сервера

Если вам нужна официально поддерживаемая конфигурация, то ESXi надо инсталлировать на HDD(если сервер не из таких, к примеру)

Инсталляция с сидюка - не единственный вариант.
Еще можно про инсталлировать и ESXi(не только ESX) с загрузкой по PXE.

Подробности тут - Install ESXi 3.5 from a PXE server.
В качестве сервера дистанционной установки можно использовать мою любимую UDA.


Список серверов, материнок и SATA контроллеров, работающие с ESX 3.5 и ESXi. Неофициальный

Интересная подборка - Motherboards and unsupported servers that work with ESX 3.5 and / or ESXi 3.5 Installable.



Проблемы с Update 2, из комментариев

В комментариях к посту про Проблемы с Update 2 есть интересная информация:
1: Опыт обновления VC 2.5 до Update 2

В общем в моем случае алгоритм был такой,
учитывая, что в моем случае повторная настройка и запуск в работу Update Manager (UM) с нуля не представлялась мне долгой и сложной:

1. Сносим UM, удаляем папку \Documents and Settings\All Users\Application Data\VMware\VMware Update Manager, после переустановки апдейты придется качать заново. Я также решил пересоздать базу UM с нуля. Благо, что процедура последующего заполнения базы и выкачивания патчей не очень долгая;
2. Ставим Update 2. При установке галочку Update Manager снимаем;
3. Проверяем, что все хорошо, VC работает, проблем с HA нет;
4. Ставим UM.
5. Настраиваем UM заново.

Ну и хочу напомнить про бэкап баз перед всем этим действом... :-)

Дмитрий Мощалков

2: Как быть с обновлением ESXi
@если флэшка получена от OEM - партнёра: FSC, HP, IBM и т.д. - нужно звонить партнёру и требовать "Service CD". С сайта VMware загружается только устанавливаемый ESX.
Если флэшка - "самопал" - то нужно устанавливать ЕSX на ней снова. Да, понимаю, все установки пропадут. Сам ищу возможность сохранить их.
Если буду знать больше напишу потом.

С Уважением
Ваш Аноним

Мне еще интересно, можно ли ESXi обновлять с помощью VMware Update Manager.

3: в VI 3.5 Update 2 для HA кластера меняется значение по умолчанию параметра “isolation response” на “leave powered on”. Это не затрагивает существующие на момент обновления HA кластера, а лишь вновь создаваемые после обновления.
Приводится скрипт для изменения этой настройки:

#!/usr/bin/perl -w
use strict;
use warnings;

use VMware::VIM2Runtime;
use VMware::VIRuntime;
use VMware::VILib;
use Getopt::Long;

my @options = ('powerOffOnIsolation');

my %opts = (
datacenter => {
type => "=s",
help => "VirtualCenter Datacenter Object name is required",
required => 1,
},
option => {
type => "=s",
variable => "option",
help => "powerOffOnIsolation",
required => 1},
value => {
type => "=s",
variable => "newValue",
help => "New powerOffOnIsolation response true or false",
required => 1},
operation => {
type => "=s",
variable => "operation",
help => "Operation type edit or add",
required => 1},
);


###################################################
# Get Command Line Options #
###################################################
Opts::add_options(%opts);
Opts::parse();
Opts::validate();
Util::connect();

my $option = Opts::get_option ('option');
my $value = Opts::get_option ('value');
my $operation = Opts::get_option ('operation');

#
# 0. We need to know which version we're working with
#
my $content = Vim::get_service_content();
my $version = $content->about->version;
#
# Here we can check whether we are connected to VC or to single host, ESX or GSX etc.
# http://www.vmware.com/support/developer/vc-sdk/visdk25pubs/ReferenceGuide/vim.AboutInfo.html


#
# 1. Find the datacenter
#
my $datacenter = Opts::get_option('datacenter');
my $datacenter_view =
Vim::find_entity_view(
view_type => 'Datacenter',
filter => { name => $datacenter }
);

#
# 2. Find all clusters that belong to those datacenters
#
my $cluster_views =
Vim::find_entity_views(
view_type => 'ClusterComputeResource',
begin_entity => $datacenter_view
);

#
# 3. Loop over all clusters
#
foreach my $cluster (@$cluster_views) {
my @vmConfigSpec;
my $clusterConfigSpec;

#
# Set the default value (2.5 only)
# http://www.vmware.com/support/developer/vc-sdk/visdk25pubs/ReferenceGuide/vim.ComputeResource.ConfigInfo.html

if $version < '2.5' { } foreach my $vm (@{Vim::find_entity_views(view_type => 'VirtualMachine', begin_entity => $cluster)}) {
printf "Changing powerOffOnIsolation for VM: %s\n", $vm->name;




my $newvmcfg;
if $version < '2.5' { $newvmcfg = ClusterDasVmConfigInfo->new (
key => $vm,
powerOffOnIsolation => $value,
restartPriority => $priority
);
} else {
#
# http://www.vmware.com/support/developer/vc-sdk/visdk25pubs/ReferenceGuide/vim.cluster.DasVmSettings.IsolationResponse.html
# http://www.vmware.com/support/developer/vc-sdk/visdk25pubs/ReferenceGuide/vim.cluster.DasVmSettings.RestartPriority.html
#
my $dasSettings = ClusterDasVmSettings->new( isolationResponse=>$value, restartPriority => $priority );

$newvmcfg = ClusterDasVmConfigInfo->new (
key => $vm,
dasSettings => $dasSettings
);
}

my $vmConfigSpec = ClusterDasVmConfigSpec->new (info => $newvmcfg, operation => ArrayUpdateOperation->new($operation));

push (@vmConfigSpec, $vmConfigSpec);
}

my $clusterConfigSpec = ClusterConfigSpec-> new ( dasVmConfigSpec=> \@vmConfigSpec );


}

$cluster2->ReconfigureCluster_Task(spec => $clusterConfigSpec, modify => 'true');
}

##############################
# Disconnect from the server #
##############################
Util::disconnect();



PowerGUI inside VI Client

Для интересующихся PowerShell применительно к VMware VI может быть интересна следующая новость - PowerGUI inside VI Client.







PowerShell Scripting Contest

Камрад Сева сообщает:

PowerShell Scripting Contest

First Prize:
Free Trip to VMworld - Las Vegas (up to $5,000) or $5,000 in cash

Second Prize:
Mac Air Laptop with Fusion or $2,500 cash

Third Prize:
X Box 360 Elite or $500 cash

PowerShell Scripting Contest http://vmware.com/go/powershellcontest

To learn how easy it is to use the VI Toolkit for Windows: http://vmware.com/go/powershell

Key Dates:

o Hurry contest submissions end August 30th 11:59 PM PST !

o Winner Announced September 7th, 2008

Some FAQs on the PowerShell Scripting Contest

Q. Are VMware employees allowed to participate ?
A. No

Q. What is the criteria for winning ?
A. Criteria and details about judging are posted on the contest Terms and Conditions http://vmware.com/go/powershellcontest

Q. Is the PowerShell Scripting a global contest ?
A. Yes, but local restrictions will apply please review the contest Terms and Conditions.

Q. Can our VACs participate in the PowerShell Scripting Contest ?
A. Yes, we welcome all original scripts from our VAC partner community




VI OPS Community

Интересная ссылка - Virtual Infrastructure Operations Community.

И интересна страничка - Site Map, являющаяся подборкой ресурсов на тему. Даже, на много тем.



среда, 30 июля 2008 г.

Проблемы с Update 2

Новости про Update 2:

Во первых, перед обновлением Virtual Center необходимо сносить Update Manager (и, возможно, Converter).

Во вторых, возможна проблема с HA кластером, обычно выражающаяся в следующем:

“insufficient resources to satisfy HA failover level on cluster” and “unable to contact a primary HA agent in cluster”


По всей видимости, проблема в том, что не все имена хостов написаны в нижнем регистре(!).
Проверить, не используются ли БоЛьШиЕ буквы следует в следующих местах:
/etc/hosts
/etc/sysconfig/network
cat /proc/sys/kernel/hostname

Подробности тут - A problem with Virtualcenter 2.5 Update 2.




ESXi free

Зарегистрировался, скачал .iso и получил лицензию на ESXi 3.5 Update 2 free.

Залил на флешку, загрузил сервер.
Зашел на веб интерфейс, скачал VI клиент.
Полазил по менюшкам.

Что обратило на себя мое внимание:

Много информации о состоянии железа. скриншот:


Он увидел и то, что массив еще не закончил инициализацию, и что батарейка BBU разряжена.

Родился вопрос сразу - есть ли возможность как то оповещение настроить? В Virtual Center есть, а в самом ESXi? Чтобы винт вылетел в массиве - а нам письмо пришло.

Второе - по поводу лицензий:
по умолчанию он у меня загрузился в evaluation режиме лицензирования.
Когда я зашел в соответствующий пункт меню и явно указал в качестве лицензии серийник, полученный после регистрации на сайте - то увидел такую картинку:



Т.е. полнофункциональный ESX сервер: работа с любыми СХД, поддержка vSMP.
Но никаких дополнительных лицензий - VMotion\DRS\HA\VCB.
Я то это знал :), а говорю для тех, кто спрашивает "А за что VMware будет брать деньги, если ESX бесплатен?"

Рекомендации по созданию LUN для ESX

Достаточно злободневный вопрос -
как мне сконфигурировать LUN'ы под ESX?
Сколько их надо, какого размера, и т.п.

В качестве отправной точки можно рассматривать пост VMFS Storage Sizing for Maximum Performance.
О чем там говориться(комментарии мои):

  1. Использовать массивы RAID разных уровней для того, чтобы увеличить производительность ВМ и иметь возможность разнести разные .vmdk файлы по разным массивам RAID .

    Для примера возьмем ВМ со следующими дисками:
    • C: на VMFS lun1, массив RAID5, содержит ОС.
    • D: на VMFS lun2, массив RAID 5, содержит файлы данных и файлы приложений
    • E: на VMFS lun3, массив RAID 1+0, содержит логи транзакций и БД
    (эта рекомендация, по моему мнению, дает не столько повышение производительности, сколько повышение эффективности использования дисковых ресурсов. Понятно, что в идеале мы делаем только быстрые массивы RAID 10 на многих дисках - но зачастую мы не можем себе этого позволить. В таких случаях создание более быстрых и более медленных массивов может быть оправдано - скорости более медленных для части задач хватает, а стоят они дешевле.)

  2. Создавайте только один VMFS раздел на "physical SAN Volume".
    (вообще, с терминологией касательно SAN не очень хорошо сейчас. такие термины, как "LUN", "volume", "disk" могут означать как одно и тоже, так и разные вещи - имейте это в виду при чтении документации и общении на эту тему. Конкретно тут, по всей видимости, имеется в виду то, что VMware понимает под термином "LUN")
  3. Создавайте не более 16 .VMDK файлов (виртуальных дисков) на VMFS раздел
    (вот это уже конкретная рекомендация, жалко не объясняется из каких соображений она дается. Примечание актуально и для пп. 4 и 6 )

  4. Давайте доступ не более чем 16 хостам к VMFS разделу

  5. Тяжело нагруженные ВМ имеет смысл помещать на выделенные LUNS'ы, может быть еще и в режиме RDM.
    (логичная рекомендация - если ВМ нужна большая производительность дисковой подсистемы, лучше будет если если ее делить ни с кем не придется. Также, напомню,что в случае нескольких ВМ на VMFS разделе возникает паразитная нагрузка из за блокировки LUN'а в случае включения\выключения\снапшота и некоторых других действий с ВМ ).
    Примеры требовательных к диску задач на ВМ:
    • Development VMs
    • Messaging
    • Database

  6. Для тяжелонагруженых ВМ хорошо бы лежать на тех VMFS разделах, к которым имеют доступ не более 8 хостов.

  7. Если пользователи хотят иметь возможность создавать снапшоты ВМ, то для таких ВМ закладывайте удвоение необходимого места.
    (по всей видимости, имеется в виду проблемы типа таких - Удаление нескольких больших снапшотов.)

  8. Старайтесь максимизировать число шпинделей(дисков) в каждом массиве.
    Это самый эффективный способ повысить скорость работы дисковой подсистемы.

Теперь пример:



  1. Диски(vmdk) ВМ с разными типами задач разносим по разным массивам.
  2. Создаем 1 VMFS раздел на LUN или"SAN volume".
  3. LUN'ов надо:

  4. Создаем менее 16 .vmdk файлов на VMFS раздел.
  5. Разделов(LUN'ов, как следствие) теперь необходимо:

  6. Подключаем менее 16 хостов к каждому разделу- в этом примере у нас не более 2-3 ESX серверов, так что это правило не применяется.
  7. Тяжело нагруженные диски(vmdk) лежат на выделенных LUN'ах.
    • Messaging VMs - помещаем диски c:, d:, и e: на отдельные разделы
    • File VMs - помещаем d: на отдельный раздел

  8. Будем считать, что делать снапшоты мы не будем.


Вот как то так.
Напомню, ранее уже писал о рекомендации по выбору размера VMFS раздела - сколько места отвести под ВМ.

Оптимизация под Microsoft SQL Server

Интересная статься в KB VMware-
Tips for configuring MicroSoft SQL Server in a VM.


thx Дмитрию Мощалкову.

вторник, 29 июля 2008 г.

пропал vmhba

Буквально только что столкнулся с проблемой:

ESX, SAN, VM, все дела.
И тут ESX отваливается от SAN, притом из списка Storage Adapters пропадает HBA - он был известен как vmhba1. Перезагрузка сервера не помогала.

Выполнил:
esxcfg-module -l
получил:


Device Driver Modules

Module Enabled Loaded
vmklinux true true
cciss true true
tg3 true true
lvmdriver true true
vmfs3 true true
etherswitch true true
shaper true true
tcpip true true
cosShadow true true
migration true true
nfsclient true true
deltadisk true true
vmfs2 true true
iscsi_mod true true
qla2300_707_vmw true false

По всей видимости, не загружен драйвер hba.

Полазил поискал - нашел как победить:

Сначала, надо найти полное имя драйвера. Сделать это можно
  1. выполнив команду esxcfg-module -q
  2. или ls /usr/lib/vmware/vmkmod
В моем случае имя было таким:
qla2300_707_vmw.o

Следующий шаг:
vmkload_mod qla2300_707_vmw.o

Следующий шаг:
esxcfg-rescan vmhba1

И все. vmhba1 в списке контроллеров появился, LUN'ы увиделись, ВМ на них нашлись.




понедельник, 28 июля 2008 г.

VirtualCenter Passthrough Authentication

VirtualCenter Passthrough Authentication - чтобы воспользоваться этой фичей, много не нужно:


В ярлыке должно быть написано примерно так:
"C:\Program Files\VMware\Infrastructure\Virtual Infrastructure Client\Launcher\VpxClient.exe” -passthroughAuth -s VCserver.domain.com"


Какую бесплатную виртуализацию выбрать?

Какую бесплатную виртуализацию выбрать?
Microsoft Hyper-V или VMware ESXi?

Размышления на тему тут - VMware ESXi vs Microsoft Hyper-V: which one is better for SMBs?.

Небесспорное, но интересное сравнение оттуда:
Microsoft Hyper-V VMware ESXi
Basic Consolidation $3,000 Free
Centralized Management $3,500 $2,995
Backup & Patching $7,260 $2,995



лицензирование Microsoft

Вопросы лицензирования продуктов Майкрософт под ВМ штука непростая. Непросто бывает даже из самого Микрософта выбить, что да как.
Поэтому для вас может быть интересен "Вебкаст про лицензирование продуктов Microsoft в виртуальных средах".
За подробностями прошу по ссылке, для затравки:

... в четверг, 31 июля Microsoft проводит часовой вебкаст под названием «Understanding Microsoft’s Licensing in Virtualized Environments».
Мероприятие всемирное, будет проходить на английском языке в восемь утра по тихоокеанскому времени — это семь вечера по Москве. Будут затронуты следующие темы:

* обзор различных направлений виртуализации;
* обзор виртуализации серверов с использованием миграции (Quick migration, Live migration, VMware VMotion), восстановления после сбоев (Disaster Recovery), кластеризации — и влияния всех этих особенностей на лицензирование;
* взгляд на развивающиеся направления виртуализации (например, такие технологии виртуализации рабочих мест, как VDI, VECD, ACE и Kidaro) — особенности их лицензирования;
* различные дополнительные аспекты, касающиеся пользователей решений VMware;
* объявление неких изменений условий лицензирования для виртуальных сред, о которых до завтрашнего дня ничего неизвестно.
...




ESXi бесплатен

Идем сюда - Evaluate VMware Products - регистрируемся, отвечаем на пяток вопросов, и получаем бесплатную версию ESXi.




воскресенье, 27 июля 2008 г.

PowerShell и VI3

Несколько слов про PowerShell применительно к VI3.

Самое главное, состоялся релиз VMware Infrastructure Toolkit (for Windows) 1.0.
Почти полторы сотни командлетов для управления VMware VI.
Описание можно почитать тут - VMware Infrastructure Toolkit (for Windows)Release Notes.

Скоро должна стать доступна книга
Managing VMware with Windows PowerShell: TFM.

В релизе тулкита появились 13 комнадлетов для управления VMware Update Manager.




iSCSI сторадж своими руками.

Инструкция по созданию ВМ с iSCSI таргетом своими руками - The sound of one Right Hand clapping… part 1.
Инструкция по репликации между двумя такими ВМ - Mirroring our iSCSI SAN, continuing on….

суббота, 26 июля 2008 г.

Update 2 вышел

Cтал доступен Update 2 для ESX 3.5 и VC 2.5.

Среди новых возможностей:

  • Поддержка Windows Server 2008 (Standard, Enterprise и Datacenter edition) стали поддерживаться в качестве гостевых ОС.
    К сожалению, не доступны:
    кастомизация этих гостевых ОС(применяется при клонировании\создании шаблона),
    и Microsoft Cluster Server (MSCS) на Windows Server 2008.
  • Enhanced VMotion Compatibility – Enhanced VMotion compatibility (EVC) позволяет VMotion между процессорам разных поколений, путем автоматической настройки т.н. Intel FlexMigration или AMD-V Extended Migration. Если EVC включена для кластера в иерархии VirtualCenter, то все хосты кластера настраиваются на совместимость процессоров для VMotion.
    (по всей видимости, это то же самое, как когда мы добивались возможности VMotion вручную редактируя CPUID mask - только горазвдо удобнее, и с официальной поддержкой :) . Сразу встает вопрос, какие CPU поддерживают эту фичу - я пока не нашел ответ, буду искать.)
  • Storage VMotion – Storage VMotion с хранилищ FC/iSCSI на другие хранилища FC/iSCSI теперь поддерживается. Эта поддержка также распространяется на ESX/ESXi 3.5 Update 1(напомню, что фича эта была хоть и работающей, но экспериментальной. Ждем официальной реализации запуска ее из GUI).
  • поддержка VSS quiescing – когда делаем консистентный снапшот Windows Server 2003, и файловая система и приложения корректно "замораживаются". Для Windows Server 2008 поддерживается "заморозка" только файловой системы. За дополнительной информацией можно посмотреть сюда - Virtual Machine Backup Guide и VMware Consolidated Backup 1.5 Release Notes.
  • Hot Virtual Extend Support – появилась возможность увеличить виртуальный диск не выключая ВМ. Расширение на горячую поддерживается для дисков в виде vmdk файлов на vmfs разделах, в режиме flat, без снапшотов.
  • 192 vCPU на хост– Максимальное число виртуальных процессоров на один ESX увеличено до 192. Максимальное число ВМ на хост - 170. Эти улучшения также распространяются на ESX 3.5 Update 1 .
  • 8Gb Fiber Channel HBA – Доступна официальная поддержка 8Gb fiber channel HBA.
    Подробности в I/O Compatibility Guide for ESX Server 3.5 and ESX Server 3i
  • 10 GbE iSCSI initiator – Поддержка iSCSI через 10GbE интерфейсы.Также актуально для ESX Server 3.5 Update 1, ESX Server 3.5 Update 1 Embedded и ESX Server 3.5 Update 1 Installable.(под последними понимаются ESXi)
  • 10 GbE NFS support – поддержка NFS через 10GbE интерфейс.
  • IBM System x3950 M2 – x3950 M2 in a 4-chassis configuration is supported, complete with hardware management capabilities through multi-node Intelligent Platform Management Interface (IPMI) driver and provider. Systems with up to 32 cores are fully supported. Экспериментальная поддержка систем более чем с 32 ядрами.
  • IPMI OEM extension support – Execution of IPMI OEM extension commands is supported.(это я пока не до конца понимаючто дает полезного)
  • System health monitoring through CIM providers - больше информации с желез может собирать ESX\ESXi без установки дополнительных агентов. Поддержка данных с СХД через провайдеров для QLogic и Emulex. Также экспериментально поддерживается провайдер для LSI MegaRAID .
  • CIM SMASH/Server Management API – The VMware CIM SMASH/Server Management API provides an interface for developers building CIM-compliant applications to monitor and manage the health of systems. CIM SMASH is now a fully supported interface on ESX Server 3.5 and VMware ESX Server 3i. (это я пока не до конца понимаючто дает полезного)
  • Display of system health information – больше информации о статусе железа показывается в интерфейсе VI Client для ESX \ ESXi 3.5 .
  • Remote CLI – Remote Command Line Interface (CLI) сейчас работает и с ESX Server 3.5 , так же как с ESXi. За подробностями в Remote Command-Line Interface Installation and Reference Guide.
  • VMware High Availability - VirtualCenter 2.5 update 2 теперь полностью поддерживает мониторинг сбоев отдельной ВМ, на основе VMware tools heartbeats. (я про это писал тут - Virtual Machine Failure Monitoring (VMFM).)Этот релиз также поддерживает кластера, собраные одновременно из ESX и ESXi , минимизирует зависимость кластера от DNS.
  • VirtualCenter Alarms - VirtualCenter 2.5 Update 2 включает возможность отлавливания алармами неисправностей в различных подсистемах хоста. Т.е. если раньше мы могли настроить на автоматический отлов только превышение пороговых значений от счетчиков производительности, то теперь и сбой БП или модуля памяти.
  • Guided Consolidation - now provides administrators with the ability to filter the list of discovered systems by computer name, IP address, domain name or analyzing status. Administrators can also choose to explicitly add physical hosts for analysis, without waiting for systems to be auto-discovered by the Consolidation wizard. Systems can be manually added for analysis by specifying either a hostname or IP address. Multiple hostnames or IP addresses, separated by comma or semi-colon delimiters, may also be specified for analysis. Systems can also be manually added for analysis by specifying an IP address range or by importing a file containing a list of hostnames or IP addresses that need to be analyzed for consolidation. Guided Consolidation also allows administrators to override the provided recommendations and manually invoke the conversion wizard.
  • Live Cloning - VirtualCenter 2.5 Update 2 предлагает возможность клонировать работающую ВМ, без прерываний в ее работе.
  • Single Sign-On - Наконец то, мы можем авторизовываться в VC нашей учетной записью, из под которой мы запускаем VIC. Также это работает, если мы авторизуемя в Windows используя сертифиуаты и смарткарты. Работает для VI Client или VI Remote CLI.
  • Также обновились VMware Converter и Update Manager, доступные в виде плагинов. Надеюсь, теперь они будут инсталироваться и работать более стабильно :). Список исправлений вполне солидный для них.
  • Список нового в Update 2 не полный, за полным идем сюда - http://www.vmware.com/support/vi3/doc/vi3_esx35u2_vc25u2_rel_notes.html, и сюда для VCB - http://www.vmware.com/support/vi3/doc/vi3_vcb15_rel_notes.html
За обновлением идем сюда- http://www.vmware.com/download/vi/ .

среда, 23 июля 2008 г.

VMFS

Потихоньку дописываю для VI wiki.
Написал страничку про VMFS.



ESXi будет бесплатен.

Что называется, срочно в номер!

До конца июля VMware обещает выпустить update 2, и сделать ESXi 3.5 бесплатным!
Этот шаг более чем естественный, и многие его предсказывали; тем приятнее не ошибиться.

Никаких ограничений на бесплатный продукт не накладывается.
Покупка поддержки не является обязательной.
Код гипервизора в ESX и ESXi продолжает оставаться одним и тем, же; новые релизы будут выходить одновременно.
Несмотря на похожее позиционирование с VMware Server, этот продукт также продолжает сущестовать, и вторая версия вскоре увидит свет.

источник - VMware to release ESX 3i for free next week.



вторник, 22 июля 2008 г.

бесплатный VMware HA своими рукми

Очень интересная информация:
реализация HA кластера на коленке, бесплатно.

So, who wants free VMware High Availability?
VMware High Availability, free, part 2.

На уровне скрипта, который делает все то же самое, что HA агент,
т.е. пингует других членов кластера и проверочный IP(шлюз), и в случае пропажи ответов хост признается сбойным, и работавшие на нем ВМ регистрируются и включаются на других хостах "кластера".



The best practice install

Весьма толковый пост - The best practice install.

Installing VirtualCenter 2.5
Install Syslog Server
Install ESX 3.5 Update 1

Что да как.



Автоматическая установка ESX.

пост
The mother of all ESX kickstart scripts…
The mother of all ESX kickstart scripts… part 2

пригодится тем, кто хочет автоматизировать установку и настройку ESX серверов.

Куча примеров, что можно через kickstart файлы сделать с ESX.

От себя добавлю, что возня со флопиком наверное не очень удобно - удобнее поднять nfs сервер и с него передать инсталятору файл ответов. Как это делать, можно посмотреть в документации по автоматической установке ESX, и еще можно посмотреть в сторону UDA.



SSL сертификаты Virtual Center

По некоторым данным, через 730 дней после установки VC, протухают устанавливаемые по умолчанию сертификаты. И администраторы лишаются возможности залогиниваться на VC с помощью VIC или web интерфейса.
Есть документик - Replacing VirtualCenter Server Certificates - описывающий процедуру замены сертификатов по умолчанию на свои.

и еще пару постов на ту же тему-
VirtualCenter CA Configuration.
More nonsense with VirtualCenter certificates - part 2.




понедельник, 21 июля 2008 г.

VMware is esxy

Очень толковое видео "Почему ESX?"



:)



VirtualCenter 2.5 Update 2

Прошел слух, что до конца июля 2008 появится Update 2 для Virtual Center 2.5.
VirtualCenter 2.5 Update 2 Release soon ?



переименование сетевых контроллеров для ESX 3.5

vmnic0, vmnic1 и т.д. - таким образом ESX обзывает физические сетевушки сервера.
Бывает, что нам неудобно то, как он их обозвал - например, у нас 2 сетевые карты интегрированы, и еще 2 добавлены. А называются они vmnic0 + vmnic2 и vmnic1 + vmnic3. А хочется, чтобы по порядку.

Вот тут - Script to fix VMWare ESX 3.5 NIC Reordering after kickstart - лежит скрипт, помогающий решить эту проблему.



четверг, 17 июля 2008 г.

ssh доступ к ESXi

Я уже писал, что отличие ESXi от ESX в том, что из i версии убрали Service Console, т.е. Red Hat Enterprise Linux. А вместо него используют дистрибутив BusyBox, отличающийся малыми размерами.
Так же я уже писал, что есть неофициальный способ получить доступ к его консоли.
А о чем я раньше не писал - это о возможности получить доступ к консоли по SSH.

Итак, это можно для ESXi.

Для доступа к консоли:
нажимаем Alt-F1 и пишем ‘unsupported’.

Для открытия доступа по SSH:
# edit /etc/inetd.conf (using vi)
# remove the # (remark) sign in front of the SSH line
# kill and restart the inetd process (or just reboot your server)


Подробности - Get full control over your ESXi Server.
Так же по ссылке приводятся примеры, а гафига нам нужен этот удаленный доступ.
Пример раз - для изменения тонких настроек.
Пример два - для создания диска(vmdk файла) в thin формате - т.е. не предразмеченом, а растущем по факту потребления. Или конвертировать существующий диск в такой формат.

ThinApp

На днях VMware выпустила релиз своего продукта для виртуализации приложений - ThinApp 4.0.

Что это за продукт, что понимает VMware под "виртуализацией приложений" можно посмотреть в следующей серии постов:
ThinApp 4.0: Installation and Setup Capture.
В нем нашему вниманию предлагается обзор инсталляции продукта и первых действий.
Инсталляция проста, действия заключаются в создании "чистой" ВМ(под VMware Workstation). "Чистой" означает - с Windows только что поставленной.
Затем, сделав снапшот, мы устанавливаем нужное приложение.
Далее, анализируется разница между конечным состоянием ВМ и снапшотом "чистой" ВМ - и разница как раз считается самим приложением и тем, что ему необходимо.

ThinApp 4.0: Building a project.
На следющем шаге мы строим проект. На выходе мы получаем .exe файл, являющийся контейнером с нашим приложением. Теперь, мы его можем запустить на другом компьютере - и ни инсталляции ни приложения, ни какого то агента нам для этого не потребуется - виртуализация приложения с помощью ThinApp самодостаточна.

ThinApp 4.0: Application Link.
У нас есть возможность связывать виртуализованные приложение. В примере разбирается вызов Flash плагина из браузера Opera.



вторник, 15 июля 2008 г.

NPT \ EPT \ HAP \ RVI

Интересная информация:

какое то время назад VMware заявила о планах избавиться от накладных расходов виртуализации к 2010 году. Планируется добиться этого с помощью разнообразных аппаратных функций.

Первая такая функция - все известные Intel VT / AMD V.

Следующая на очереди - еще и виртуализация памяти - AMD NPT(Nested Page Tables) / Intel EPT (Extended Page Tables).


Кстати, очень хорошее техническое описание этой и многих других фич и принципов виртуализации доступно вот тут - Hardware Virtualization: the Nuts and Bolts.

Первый процессор с поддержкой этой функции - новая AMD Barcelona(K10). Поддержка NPT процессорами AMD обозначается как RVI(гребаный маркетинг!)
(небольшое замечание: такие аббревиатуры, как HAP(Hardware Assisted Paging), NPT(Nested Page Tables), EPT (Extended Page Tables) и RVI(Rapid Virtualization Indexing) - все они означают одно и то же. Дурдом. )

В той статье, о которой я говорю, приводится информация о сравнении производительности ВМ при и без использования NPT.

В качестве бенчмарки использовались такие приложения, как "IIS web servers serving PHO, 1 Oracle OLTP and 1 MySQL databases".
Итог - прирост производительности от 7 до 30 %.


В качестве гипервизора использовался Xen 3.2.0

Источник - The very first independent Nested Paging Virtualization tests



Citrix на VMware

Набор рекомендаций по запуску Citrix в ВМ на ESX.
На смеси английского и немецкого языков :)
VMware: Citrix on VMware Recommendations.


скрипт для выключения ESX

Скрипт, который

  1. выключает все ВМ
  2. переводит хост в режим обслуживания "maintenance mode", чтобы никакие другие ВМ не переехали на этот
  3. выключает хост
VMLIST=`vmware-cmd -l`
for config in ${VMLIST}
do
vmware-cmd ${VMLIST} stop trysoft
done
vimsh -n -e /hostsvc/maintenance_mode_enter
shutdown -h now




VMware Virtual Desktop Manager

VMware Virtual Desktop Manager - если вас интересует этот продукт, то вам будет интересен документ VMware Virtual Desktop Manager 2.1 Reviewers Guide.

Раскрываются такие темы, как
*
VMware VDM 2.1 Overview
*
VMware VDM 2.1 Key Features and Components
*
VMware VDM 2.1 Requirements & Prerequisites
*
VMware VDM Agent, Client and Web Access Prerequisites
*
Firewall Modifications
*
How to Create VMware VDM Specific User Groups
*
How to Install the VDM Connection Server Standard Role
*
How to Install the VDM Replica Server Role
*
How to Load Balance VDM Connection Servers
*
How to Install the VDM Security Server Role
*
How to Login to the VDM Administrator Web Site
*
How To License VMware VDM 2.1
*
How to Configure VDM to Communicate with VMware VirtualCenter
*
How To Add a VDM Administrator
*
How To Edit the VDM Global Settings
*
How to Generate a Certificate Signing Request (CSR) Key
*
How to Submit CSR to your Certificate Authority
*
How to Add the New SSL Certificate to VMware VDM
*
How to Create the Base Virtual Machine
*
How To Install Windows XP on a VMware ESX Host
*
How to Install Applications
*
How to Apply Windows XP Patches and Security Updates
*
How to Add Group Policy Loopback Setting to VDM Managed Desktops
*
How to Install the VDM Agent
*
How to Create and Configure Virtual Machine Templates
*
How to Convert the Base Virtual Machine to Template
*
How to Configure VirtualCenter to Deploy Unique Virtual Machines from Templates
*
How to Create a Guest Customization Specification
*
How to Perform Maintenance to Existing Virtual Machine Templates
*
How to Implement VDM Specific Windows Group Policies
*
How to Prepare the Active Directory Environment for VMware Group Policies
*
How to Add the VDM Group Policy ADM Template
*
How to Add a New Individual Desktop
*
How to Assign (Entitle) Users / Groups to a Individual Virtual Desktop
*
How to Create a Persistent Desktop Pool
*
How To Assign (Entitle) Users / Groups to a Persistent Desktop Pool
*
How to Create a Non-Persistent Desktop Pool
*
How To Assign (Entitle) Users / Groups to a Non-Persistent Desktop Pool
*
How to Install the VDM Client on a Windows Client
*
How to Login to VDM 2.1 through the VDM Windows Client
*
How to Login to VDM 2.1 through the Web Access Client


понедельник, 14 июля 2008 г.

Новая интересная утилита под ESX 3.5 - ESX Manager

Новая интересная утилита под ESX 3.5(не ESXi) - ESX Manager.


Приложение под Windwos, умеет делать:

  • Keeps track of Virtual Machine Host Registration, Migrations and Status
  • Manage Virtual Machine Configuration
  • Display and work in the Virtual Machine Console
  • Kill Virtual Machine Process (if the VM can't be powered off)
  • Rename Virtual Disks of registered Virtual Machines
  • Move Virtual Disks and keep the disk attached to the Virtual Machine
  • Virtual Machine Registration, Start , Restart , Reset, Power Off, Suspend
  • Extend Virtual Disks
  • View-Search-Filter Logfiles on the ESX Host
  • Define and save custom SSH commands with Parameter handling
  • Publish and share custom SSH commands with other ESX Administrators
Похоже, позиционируется во многом как замена VC для небольших масштабов.

Заодно открыл для себя интересный сайт - http://www.esxguide.com

Новости Phoenix HyperCore

В октябре прошлого года я писал, что известный производитель БИОСов, компания Phoenix - занимается разработкой собственного гипервизора - Phoenix HyperCore - true bare-metal Virtual Machine Monitor.

Чуть ли не в первые с тех пор углядел новости про HyperCore.
Phoenix не собирается бороться с Vmware и Microsoft на рынке серверной виртуализации, а хочет застолбить место в сегменте виртуализации десктопной и ноутбучной.

Вот тут доступно описание архитектуры HyperCOre. Если я правильно понял, то планируется наличие,фактически, трех ВМ - одна непосредственно с Windows, одна - некая "AppSpace", и последняя - "ManageSpace".

В частности, обьявлено об ОЕМ соглашение с NEC, о поставке их ноутбуков с гипервизором Phoenix. В области "ManageSpace" планируется некий антивирус, который будет защищать Windows. Находится он будет "снаружи" относительно Windows, таким образом - устойчив к атакам.

Хочется, конечно, более подробной информации, что тут и как.

Источник - Phoenix Technologies to slip its hypervisor into NEC notebooks.



VMware VI Wiki

Коллеги - разрешите представить вам новый проект, мою давнюю задумку -

VMware VI Wiki.

Материала там мало, но, надеюсь, это только пока.



воскресенье, 13 июля 2008 г.

Очередное сравнение Microsoft vs VMware

Толковый пост по поводу сравнения Hyper-V и ESX -
Очередное сравнение Microsoft vs VMware.

UPD. весьма интересны комментарии к нему.

Познавательный whitepaper - Scalable Storage Performance

Познавательный whitepaper - Scalable Storage Performance (ESX 3.5).

ESX умеет делать VMFS - кластерную файловую систему. Это означает, что к одним и тем же ЛУНам могут обращаться одновременно несколько хостов.
Но вполне резонны вопросы

  • How many virtual machines can share the same LUN?
  • How SCSI reservations affect shared storage performance in ESX?
  • How many LUNs and VMFS file systems can be configured on a single ESX host?

Чтобы лучше понять логику ответов на эти вопросы, рекомендую прочитать этот официальный документ.




Пара русскоязычных ресурсов по виртуализации

Коллеги, сегодня я открыл для себя пару русскоязычных ресурсов по виртуализации:
Блог vmworld.ru - Виртуализация для бизнеса.
vmforum.ru - Форум о технологиях виртуализации и виртуальных машинах.
ну и упомяну известный ресурс того же автора - vmgu.ru - Технологии виртуализации и виртуальные машины.



Использование дедупликации NetApp в решениях VMware DR

Использование дедупликации NetApp в решениях VMware DR.
Познавательно, на русском.

За ссылку спасибо Роману Хмелевскому.



Корректное поблочное выравнивание LUN и файлов .vmdk при использовании системы хранения NetApp

Корректное поблочное выравнивание LUN и файлов .vmdk при использовании системы хранения NetApp. PDF на русском вот тут.

За ссылку спасибо Роману Хмелевскому.


Обама принуждает ваш Hyper-V к перезагрузке

На глаза попался пост, показавшийся мне скорее курьезным:

Обама принуждает ваш Hyper-V к перезагрузке (Obama Forces Hyper-V to Reboot).
Для Windows Vista и Windows Server 2008 был выпущен патч, добавляющий некоторые слова, в частности, "Обама", в словарь. Патч требует перезагрузки.
Отсюда автр делает вывод, что виртуализация на основе популярных ОС Windows/Linux - плохая идея. Видимо, в том смысле что еще и политические события могут влиять на эту инфраструктуру.



пятница, 11 июля 2008 г.

VMware Site Recovery Manager

Несколько слов про VMware Site Recovery Manager:

Новый продукт, релиз которого состоялся совсем недавно. Представляет из себя "надстройку"(реализовано в виде плагина для VC) над инфраструктурой VI 3.5, и служит для восстановления этой инфраструктуры после сбоя.

Картинка один, какая у этого всего схема:


Работа с SRM заключается в создании, тестировании и выполнения плана миграции ВМ с основого сайта(ЦОДа) на резервный, и, если надо, в обратном направлении.
Мы можем создавать группы ВМ с разным приоритетом восстановления, указать приоритет восстановления на уровне одной ВМ.
Очень наглядный скриншот:


Очень приятная возможность SRM - это возможность проверки созданного сценария восстановления. Имеется в виду, не дожидаясь сбоя :)
А такая проверка подчас весьма затруднительна - некоторые сервисы останавливать или даже затрагивать нельзя. SRM же позволяет проверить сценарий восстановления, сценарий переноса ВМ на другую локацию, в эдакой "песочнице",без затрагивания ВМ\сервисов в промышленной эксплуатации.

В основе работы SRM лежит репликация СХД на уровне блоков. Притом, обратите внимание, сам SRM этим не занимается - этим занимается предоставляемый вендором СХД софт. VMware подготовила архитектуру, которая позволяет вендорам самостоятельно сертифицировать и оказывать поддержку своим решениям под SRM.

Триальная версия доступна тут - Evaluate VMware Site Recovery Manager.




VMware Workstation 6.5, новые возможности - stream

Еще одна интересная фича новой Workstation - возможность запустить ВМ, пока та еще скачивается из Веба. Офигеть :)



чем архитектура ESX лучше архитектуры Hyper-V\Xen

Достаточно подробный разбор, чем архитектура ESX лучше архитектуры Hyper-V\Xen.
За авторством VMware.
A Look at Some VMware Infrastructure Architectural Advantages.



VAsset

в VMware Workstation 6.5, которая сейчас в статусе второй беты, будут некоторые новые фичи.

Одна из них - VAssert.
Это - набор API, позволяющий более интересно использовать функцию Record&Replay.
Вот тут - Introducing VAssert - приводиться пример использования VAssert для обнаружения buffer-overflow для Apache.

По результату консультации с программистами, у меня сложилось следующее видение этой технологии:
Один из инструментов отладки - функция Assert. Цитирую:

"Assert - это функция которая проверяет некоторое булевое выражение. Если оно false, то генерирует исключение EAssertionFailed."
Ну вот представь, что при отладке программы ты закладываешься на определенные условия, считая, что они всегда выполняются... проверку этого выполнения ты можешь заложить в этот Assert. Где-то в коде пишешь Assert(некое условие). Если ты отлаживаешь программу, то при невыполнении условия, программа прерывается и ты получаешь сообщение мол "в такой то точке возникло исключение EAssertionFailed". Когда же ты уже всё отладил и собираешь релизную версию, реагирование на assert можно просто отключить, дабы не пугать заказчика "


Так вот, VAssert(Virtual Assertions) - то же самое, но отрабатывающее не в отладчике, а во время штатной работы кода, но(!) только в режиме Replay. Так как в этом режиме исполняются уже записанные ранее инструкции, все происходит быстрее.
Особенно функция может быть интересна для отладки многопоточных приложений - ибо в естественных условиях несколько потоков инструкций приложения всегда разные, даже если приложение повторяет одни и те же действия; а с помощью VMware Record&Replay можем повторять однажды записанные потоки столько раз, сколько потребуется, и точно в том же виде, в каком они исполнялись в первый раз.

За более подробной информацией - Introducing VAssert.



Отставка CEO VMware

Интересный обзор последних событий в руководстве VMware.

PC Week/RE
Открыть материалЗвезда Кремниевой долины ушла в оставку
8 июля совет директоров VMware объявил об уходе Дианы Грин (Diane Greene), одного из основателей этой компании, в …
Открыть материал




Top 10 подборка утилит на каждый день по работе с VI3

Top 10 подборка утилит на каждый день по работе с VI3.
Имхо, более чем достойная.



четверг, 10 июля 2008 г.

PuTTY Connection Manager

PuTTY Connection Manager - дает возможность удобно держать несколько сессий - на закладках в одном окне.

скриншот:





Write through\Write back

Как известно, RAID контроллеры могут использовать кеш на запись.
Режим "Write through" означает, что контроллер рапортует об успешной записи блока данных, когда этот блок физически записан на диски.
"Write back" - рапорт об успешной записи идет сразу после помещения блока данных в кеш, до физической записи на диски.

Разница между ними, в теории - первый надежнее, второй быстрее.

Интересный пост - Write Cache Mode - Performance difference. Приводятся данные тестов - как изменение этой опции влияет на производительность ESX.



В общем то, как предписывает теория, так и влияет.



10 Gigabit Ethernet and VMware

Большой пост про iSCSI, 10GbE, и пр.
10 Gigabit Ethernet and VMware - A Match Made in Heaven.
Большая дисскусия возникла в комментариях, и ответ на некоторые вопросы вторым постом - Answers to a bunch of questions.

Для тех, кого эти вопросы волнуют - наверняка будет интересно.



Особенности работы многопроцессорных ВМ

Лично для меня весьма интересная информация:

Введение: Вот у нас есть много процессорные ВМ. Например, возьмем граничный случай - ВМ с 4мя процессорами. Какая есть тонкость - гипервизор каждый vCPU будет помещать на отдельный lCPU(Logical CPU - под ним понимается одно ядро, одна очередь команд). И тут возникает потенциальное неудобство - если ВМ хочет поиметь один такт на одном своем процессоре, то гипервизор его предоставит из ресурсов соотв. lCPU. Но. Одновременно с этим тактом на одном lCPU, система должна будет выделить такты для всех прочих vCPU, вне зависимости от того, требуются они системе или нет. Таким образом, если у ESX хоста есть один и только один свободный lCPU, то многопроцессорная ВМ им воспользоваться не сможет. Или еще пример - есть хост, на нем 2 CPU c 1 ядром, ну или один двухъядерный камень. 2 однопроцессорные ВМ, и одна двухпроцессорная. Если возникнет ситуация, что обе однопроцессорные выполняются на одном из физических ядер\процессоров, и используют большую часть его тактов, то двухпроцессорная будет работать медленно, несмотря на свободное физическое ядро\процессор. Получается этакая фрагментация процессорных ресурсов.

Так вот, есть мнение, что все это неправда:
ESX, начиная с 3.х, умеет определять неиспользуемые такты vCPU, занятые под idle loop, и эти такты делает доступными прочим ВМ. И теперь необязательно выделять такты одновременно подо все vCPU, если не все из них реально загружены.

Источник - Multiple virtual CPU vm’s.
Первоисточник раз - ESX scheduler support for SMP VMs: co-scheduling and more, первоисточник два - Co-scheduling SMP VMs in VMware ESX Server.

среда, 9 июля 2008 г.

Записки виртуального админа

Коллеги, наши ряды множатся.
Представляю вам "Записки виртуального админа. Грабли, хинты и how-to работы с виртуальными машинами, главным образом VMware Virtual Infrastructure."

понедельник, 7 июля 2008 г.

Изменения размера диска ВМ

При создании диска ВМ нас просят указать его размер. Бывает так, что мы промахиваемся, и место на этом виртуально HDD заканчивается. Особенно неприятно это может быть, если диск - системный Что можно сделать, я писал вот тут - Всеобъемлющее пособие по методам изменения размера(уменьшения в т.ч.) vmdk файла.

Есть мнение, что надо добавить туда следующую информацию:

  • Увеличивать диск теперь можно и из графического интерфейса VIC - VM / Edit settings / Hard disk / New size. И самое важное - у ВМ не должно быть снапшотов, иначе диск просто не увеличится.
  • В случае с Windows системный раздел не должен быть динамическим, иначе диск увеличится, а вот с разделом выйдет облом. А из утилит по изменению размера раздела, с динамическими умеет работать, вроде бы, только Paragon Partition Manager 9.0. А его надо покупать.
За добавления спасибо Антону Жбанкову.






Приложения с большим вводом выводом на ВМ

Пара интересных постов:

SPECweb2005 Performance on VMware ESX Server 3.5 - сравнение производительности приложения с высокой I\O нагрузкой, на физической и виртуальной инфраструткуре, на примере соответствующего теста.

Scaling real-life Web server workloads - в продолжении темы, но теперь не про сравнение производительности приложения сразу на железке, или в ВМ на этой железке, а про масштабируемость.

Вкратце:
все хорошо. Вполне терпимо себя чувствуют и такие приложения в ВМ, а масштабировать в таком случае бывает даже проще, ибо мы можем на одном многопроцессорном\ядерном сервере сделать несколько ВМ.


Графики:








Некоторые соображения по выбору между Hyper-V и ESX

Некоторые соображения по выбору между Hyper-V и ESX:

За Hyper-V

  • Это Майкрософт.
  • Цена - хотя и функционал далеко не такой богатый.
  • Универсальность - Hyper-V работает на любом железе, где работает Windows. (от себя не могу не напомнить про более жесткие требования к драйверам - так что на совсем любом железе Hyper-V может и не заработать. Но в любом случае, список поддерживаемого железа для ESX меньше)
Против Hyper-V

  • Цена. В том смысле, что если VMware VI уже используется, даже переобучение людей и связанные задачи встанут дорого.
  • Фичи. У VC есть DRS, HA, VMotion. У Hyper-V меньше возможностей по группировке сетевушек на vSwitch, и QuickMigration вынуждает таки к простою.
  • Меньше третьесторонних продуктов. ESX уже успел обзавестить сомном компаний, предлагающих всякое. Hyper-V потребуется время, чтобы догнать.
  • Это VMware. Виртуализация от VMware на рынке уже десятки лет, ESX уже полчетветрой версии. Hyper-V же вышел версии 1.0. Практика призывает дождаться хотя бы первого сервис пака ;).
Отсюда.


Установка VMware Tools на Suse

Инструкция "Install VMware Tools in SUSE without installing additional packages".
Она же в pdf.



встречи коммьюнити. итоги и планы

Ну и чтобы закрыть тему последней встречи:

Нам мероприятие показалось успешным.
Интерес к посещению мероприятий такого рода возрастает.

Таким образом, мы(инициативная группа :)) начинаем размышлять над следующей встречей.
Совсем совсем ориентировочно она планируется на сентябрь сего года, не раньше. Следите за новостями.

На встрече в июне мы попытались понять, какие темы представляют интерес для вас. Список примерно такой:

  • Management & Automation - т.е. такие продукты как Stage, Lifecycle, Site Recovery и Lab Manager - что это и с чем это едят.
  • VCB - опыт, грабли.
  • VDI - опыт, кейсы.
  • Безопасность ВМ, шифрование.
  • TCO, ROI для виртуализации
  • сравнение VMware VI с виртуализацией от менее правильных вендоров
  • p2v миграция
  • кластера p2v, v2v - опыт, грабли
  • информация по прочим продуктам VMware
  • ресурсы

К чему этот список? А к тому, что темы из этого списка наиболее вероятные кандидаты для докладов на следующей встрече, это раз.
И два - "Алло! мы ищем таланты!". Коллеги - если у вас есть желание выступить на одну из этих, или другую тему касательно виртуализации - мы с удовольствием вам поможем, и дадим шанс выиграть ценный приз. iPod, кстати, на прошлой встрече своего хозяина нашел. Пишите мне, мои контакты внизу блога.

Далее. Многих интересуют вопросы, давно разобранные в публичных документах VMware, в т.числе русскоязычных. Поэтому, вот список интересных:




Публикация еще одного доклада со встречи комьюнити

Вдогонку про встречу комьюнити в июне этого года:

Дмитрий Мощалков уже опубликовал "Опыт внедрения MS Terminal Servers на платформе VMWare ESX 3.5."
Теперь доклад "Размышления на тему опытной эксплуатации" от Антона Жбанкова. (зеркало)

Информация к размышлению по выбору железа под ESX.
Создание инфраструктуры ВМ - удобной и с минимальными требованиями.
iSCSI.



Бесплатный ROI/TCO калькулятор

Андрей Бешков на своем блоге написал про ROI/TCO калькулятор, выпущенный не каким то вендором виртуализации.
Выпущен компанией Alinean, бесплатен, вроде бы основывается на данных IDC.


совместимость хостов по CPU для VMotion

VMotion имеет одно неприятное ограничение - совместимость хостов по CPU.
Dell опубликовал документ - VMotion Compatibility Matrix - в котором явно приводиться информация, кто с кем совместим.





Бесплатное решение для резервного копирования ВМ

Бесплатное решение для резервного копирования дисков ВМ:

vmbk.pl - скрипт, позволяющий копировать диски работающих и выключенных ВМ на FTP/NFS/SMB ресурсы или локальные диски ESX.

пример:
vmbk.pl -d /export/ -L /var/logfile.htm -b DataServers

Бекапит ВМ с опцией 'BACKUP.SESSION = "DataServers"' в папку /export/ вывод пишет в лог '/var/logfile.htm' (html mode)

Опция BACKUP.SESSION - прописывается в vmx (!) файле каждой ВМ.

Эта опция является лишь одним из примеров - сам скрипт выглядит весьма и весьма функциональным и настраиваемым.
Все подробностит тут - vmbk.pl Version 3.0 Rev.11.


Спасибо Олегу Кириллову за ссылку.

воскресенье, 6 июля 2008 г.

Virtual Machine Failure Monitoring (VMFM)

Когда вышел ESX 3.5, я читал(и писал сюда), что VMware HA будет уметь мониторить не только хосты, но и отдельные ВМ. "Мониторить" в том смысле, что следить за ними, и в случае сбоя перезагружать.
Наконец то могу внятно рассказать что и как с этой, пока еще, экспериментальной штукой:

Называется она Virtual Machine Failure Monitoring (VMFM).
Работает она следующим образом: система мониторит ежесекундные heartbeat сигналы от VMware tools, и по факту их пропажи перезагружает ВМ.
Таким образом, для включения этой функции нам надо:
ESX 3.5
VC 2.5
HA кластер
Установленные VMware tools

Чтобы включить VMFM, идем в расширенные настройки HA кластера, и указываем следующие опции:
das.vmFailoverEnabled – true (true или false)
das.FailureInterval – 30 (ВМ считается зависшей, если от нее не было heartbeat в течении этого кол-ва секунд)
das.minUptime – 120 (После включения ВМ нужно какое то время - для загрузки ОС, VMware tools и стабилизации heartbeat'ов. Вот тут мы это время и указываем, в секундах.)
das.maxFailures - 2 (Максимальное кол-во сбоев и последующих перезагрузок ВМ в течении времени, указанного в опции das.maxFailureWindow. Если das.maxFailureWindow выставленно ‐1 (no window), das.maxFailures представляет абсолютное количество сбоев, после которого VMFM прекращает автоматические перезапуски ВМ.)
das.maxFailureWindow выставлен не в -1, и число – 86400 (Или -1 или значение в секундах. Если число рестартов превысило указанное в опции das.maxFailures, то VMFM прекращает автоматические рестарты.)Для тестов этой функции можно пользоваться симуляцией BSOD.
Забавно, что никаких статусных сообщений система не генерит. Ужас, конечно. Остается только заглядывать в логи - в hostd.log можно найти что то вроде "([2008-06-26 11:47:22.552 ‘ha-eventmgr’ 3076440992 info] Event 101 : VM1 on Esx1.xyz.com in ha-datacenter is reset)".
К счастью, вскоре VMFM обещают вывести из статуса экспериментальной, глядишь - и статусные сообщения внятные добавят. Так что остается ждать Update 2.



Несколько базовых рекомендаций по повышению производительности ВМ

Несколько базовых рекомендаций по повышению производительности ВМ:

  1. Отключить "pre-logon" скринсейвер
    HKEY_USERS\.DEFAULT\Control Panel\Desktop
    Значение “ScreenSaveActive” выставить в 0.
  2. Выключить обновление атрибута последнего времени доступа для NTFS. Вроде как дает заметный прирост для ВМ с нагруженной дисковой подсистемой.
    в CMD выполнить
    fsutil behavior set disablelastaccess 1
  3. Отключить все визуальные эффекты
  4. Отключить тень курсора.



Отследить миграции VMotion DRS

VMware DRS хорошая штука. Балансировка нагрузки между хостами, путем

  1. выбора на каком хосте включить ВМ
  2. путем VMotion ВМ на другой хост
Вот по второму пункту часто возникает вопрос: А как много миграций происходит из за DRS?
Как это можно посмотреть:

Путем запроса к БД VC:
SELECT vpx_event.event_type, vpx_event.vm_name, vpx_event.create_time
from vpx_event where event_type like ‘%migrate%’

Теперь, если отфильтровать по "vim.event.DrsVmMigratedEvent", то увидим все миграции от DRS.

источник.

вторник, 1 июля 2008 г.

Опыт внедрения MS Terminal Servers на платформе VMWare ESX 3.5.

Коллеги, как и обещал, выкладываю выдержки из своего доклада на семинаре VMWare UG в Москве.

Задача: запустить 150 терминальных серверов Windows 2003 Terminal Services на одной блэйдовой полке c7000.

Конфигурация системы:

1. Тип серверов и СХД

Полка блэйдов HP BL680c ( 8 серверов ), 4 четырехъядерных Intel Xeon, 56 Gb памяти. HP EVA 6000. Контроллеры 4 гигабита.

2. Настройки серверов

ESX 3.5. DRS и HA кластер. Стандартные. Включена опция Intel Virtualization Technology (VT)

3. Настройки СХД

LUN’ы RAID5, по 3 – 7 терминальных сервера на LUN .

4. Конфигурация VM

a. Win 2003 R2 Enterprise x32. 1 диск 20 Gb. Используется LSI Logis SCSI controller. Все неиспользуемые порты запрещены. Запрещен autodetect в ОС.

Подводные камни:

1. На ESX 3.5 без исправлений, при миграции, особенно именно VM с Terminal Services загрузка CPU VM поднималась до 100%. Исправлено при помощи установки опции Mem.VMOverheadGrowthLimit в 5. По умолчанию -1. Статья VMWare KB “Virtual machine CPU usage spikes and remains abnormally high after VMotion in a VMware DRS enabled cluster”.

2. При миграции иногда возникала большая загрузка CPU VM. Решилось установкой и ежедневной дефрагментацией диска в фоне.

3. Несмотря на рекомендации в блогах для ESX 3.0 давать VM с TS не более 2-х процессоров, было дано 4 процессора ввиду большого количества исполняемых приложений. После тестирования не выявлено никаких аномалий при работе с 4-мя процессорами.

4. Обязательно жестко лимитировать верхнюю память, выделяемую для VM x32. Лимит в 4096 Mb. Зарезервированная память установлена в те объемы, которые забирает VM при стандартной средней загрузке.

5. Memory ballooning разрешен, несмотря на рекомендации в некоторых блогах.

6. Запретить Page Sharing. Запрет уменьшит загрузку vmkernel при использовании TS. На таких гостевых ОС частые изменения памяти и vmkernel вынужден постоянно генерировать хэш для страниц памяти и сравнивать их. Mem.ShareScanGHz = 0, Mem.ShareRateMax=0 (Для отключения TPS также можно воспользоваться командой sched.mem.pshare.enable=False (источник: http://communities.vmware.com/message/972008#972008 )- Дмитрий Тихович)

Результат и оставшиеся проблемы

1. Результат

a. Нормальная работа с неким вариантом балансировки нагрузки
b. Легкое управление и быстрое восстановление работоспособности + все остальные прелести VI3

2. Проблемы

a. Тормоза при высокой загрузке диска ( в основном из-за рендеринга печати ). Проблемы с печатью предполагается решать с помощью Thinprint (http://www.thinprint.com/?s=5244&lc=61 ).

Ссылки:
http://www.brianmadden.com/content/article/A-short-guide-to-virtualizing-Presentation-and-Terminal-servers-on-VMware-ESX-3
http://kb.vmware.com/selfservice/microsites/search.do?cmd=displayKC&docType=kc&externalId=1003638&sliceId=2&docTypeID=DT_KB_1_1&dialogID=55422058&stateId=0%200%2055418455

Дмитрий Мощалков