пятница, 30 июля 2010 г.

vSphere Install Configure Manage 4.1

Коллеги, недавно вышла новая версия vSphere – 4.1, и принесла много вкусного.

Рад сообщить, что вскоре появится обновленный базовый курс по vSphere 4.1.

Это vSphere ICM – первая его версия была 4х дневной, новая, по 4.1 – стала пятидневной.

У нас он первый раз будет читаться 23 августа, правда, не мной.

четверг, 29 июля 2010 г.

VDI Virtual Desktop Customization

Вот тут - How to: Optimize guests for VMware View - камрад делится своим предпочтениями по тюнингу виртуальных десктопов.

Список довольно интересный, к ознакомлению рекомендуется.

вторник, 27 июля 2010 г.

test 10%

Коллеги, кто планирует сдавать тесты VCP, VCAP Administrator или VCAP Desing - VMware возобновила программу, по которой у меня как официального тренера VMware есть код на 10% скидку для сдачи теста. Смело запрашивайте.

Как и раньше, если я войду в топ-50 по числу сдавших с моим кодом - мне обломится красивая футболка . Так что я заинтересован :)

SharePoint на vSphere

Интересный документ про производительность SharePoint на vSphere - Microsoft Office SharePoint Server 2007 Performance on VMware vSphere 4.1.

tests: VMmark и SPEC

Есть такая штука - VMware VMmark.
Это утилита нагрузочного тестирования виртуальной инфраструктуры.

Идея ее возникновения состоит в том, что измерять попугаи для виртуальных сред следует особыми способами. Это является следствием того, что сама суть виртуальной среды - как можно эффективнее разделить ресурсы сервера\серверов между многими ВМ - и нагружать тестами какую-то одну ВМ бессмысленно.

А VMmark делает все как надо, и бесплатна.
Но есть нюанс - нельзя публиковать результаты тестирования без согласования их с VMware (позиция VMware тут - чтобы не публиковались данные неправильных тестов,
очевидная позиция всех остальных - чтобы не публиковались данные плохих для VMware тестов).
Кроме того, подозрительно - не заточена ли утилита VMware VMmark на завышение попугаев для VMware vSphere?

Не имеет значение реальное положение вещей и наши мнения по этому поводу - данные страхи не требуют обоснования для принятия их во внимание.

Так вот, это я к чему - SPEC зарелизил свою подобную утилиту -  SPECvirt_sc2010.

Она стоит денег, работает немного по другому чем VMmark, но зато предполагается вендоронезависимой. Посмотрим.
Список расчетов попугаев этой утилитой доступен тут - All SPECvirt_sc2010 Results Published by SPEC. На сейчас там данные только одного тестирования - IBM Corporation x3650M3 + Red Hat Enterprise Linux 5.5 (KVM).

У VMmark, кстати, сравнений вагон и тележка - VMmark Results.

UCS Platform Emulator

Какое-то время назад Cisco запустила линейку своего серверного оборудования - Unified Computing System (UCS) (на русском мнения про это железо можно глянуть тут - vBlock- красиво, функционально, доооооорого).

Это железо появилось у интеграторов, многие тестируют. Но пока какого-то законченного опубликованного мнения мне не попадалось, только отзывы в беседах.

Для кого-то может быть интересным - появился эмулятор этого железа - UCS Platform Emulator.

понедельник, 26 июля 2010 г.

Скотт Лоу

Углядел на Озоне -


В три раза дороже, на 100 грамм меньше весит.
У моей-то книги бумага не самая хорошая - а эту вообще сразу в рулонах печатают что-ли? :)))

хотя, конечно, дело не в весе.

Журнал компании "Код Безопасности", securitycode.ru

Рекламная, но, имхо, интересная статья - Cколько стоит приведение в соответствие?.
Цитата:

В России все больше получают распространение мировые практики и рекомендации производителей по обеспечению информационной безопасности инфраструктур виртуализации... 
...О полезности и необходимости следования лучшим мировым практикам говорится очень много, но когда дело доходит до определения стоимости приведения своей инфраструктуры в соответствие данной практике, начинаются вопросы. Многие простые вещи в теории, оказываются не такими уж простыми на практике...

...Итак, попробуем разобраться, в чем же сложность настройки инфраструктуры в соответствии с требованиями упомянутых выше документов. Разбираться будем на примере нашей собственной инфраструктуры - на ком же экспериментировать как не на себе?..

воскресенье, 18 июля 2010 г.

Security password bug

хе хе

только что попробовал:

Раз)  Берем ESXi 4.1

Два) Пользователю (я брал root) ставим пароль длиннее 8 символов.

Три) При авторизации вводим только первые 8 символов.

Успешно авторизуемся…

Ситуация становится более пикантной, когда обнаруживается, что после первых 8 правильных символов можно указывать все что угодно(!).

Я поставил пароль “12345678password”.

Успешно авторизовался и с “12345678” и с “1234567887654321”. И клиентом vSphere и putty.

Билд 260247

Судя по тому, что в доке это не описано – это бага.

По мотивам – ESXi 4.1 authentication bug? .

Неподдерживаемый workaround - ESXi 4.1 – Major Security Issue – The Sequel And The Workaround.

пятница, 16 июля 2010 г.

ESX(i) AD integration

Очень меня порадовали эксперименты с доменной аутентификацией на серверах ESX(i).

Вот смотрите:

Если указать не только имя домена, а что-то вроде vm4.ru/Computers/vSphere, то записи о серверах ESX(i) попадут в соответствующий контейнер.

Затем, вариантов два.

1) В AD создается группа “ESX Admins”. Ее члены могут авторизовываться на серверах ESX(i), не обладая никакими дополнительными привилегиями.

Вот так выглядят выданные права по умолчанию:

 

2) На закладке Permissions выбрать Add Permission в контекстном меню пустого места, и дать права произвольной доменной группе:

В общем, все легко и просто.

Для полноты картины – выдачу прав пункта 2 можно делать централизованно, через Host Profile:

 

После применения профиля с такой настройкой происходит ожидаемое:

Таким образом, проблема обслуживания учеток и паролей на серверах ESX(i) значительно упрощается.

Однако, в обоих случаях авторизоваться в putty тоже получится, но без прав. Придется использовать su –.
Кстати, коллеги, кто рубит в Linux – а правами в консоли что-то можно придумать? Чтобы достаточно было доменной учетной записи, и для работы в командной строке?

ALUA

Цитата:

ALUA, или Asymmetric Logical Unit Access это протокол внутри спецификаций SCSI-2 и SCSI-3, позволяющий правильно организовывать доступ к данным, доступным по различным путям с различными характеристиками доступа. Для его использования, понимать ALUA должны все участники, как система хранения, так и OS хоста.
С ситуацией асимметричного доступа часто сталкиваются при организации подключения двумя путями через два различных контроллера системы хранения. Например, у нас есть LUN, находящийся на дисках, которые обслуживаются определенным  контроллером системы хранения, такой контроллер называется для этих дисков “owner”. Однако, для обеспечения отказоустойчивости, эти диски, и данные с них, могут быть доступны через второй контроллер системы хранения, но по неоптимальному по характеристикам доступа пути.
Несмотря на то, что данные с дисков доступны обоим контроллерам, все операции с “владеемыми” дисками, для обеспечения целостности данных, пока он “жив”, должен совершать именно контроллер-владелец соответствующих дисков.
Рассмотрим подробнее на рисунке.

Подробности в общем, и как что оптимизировать в случае использования vSphere с NetApp см. тут - ALUA – Asymmetric Logical Unit Access.
А для EMC см. тут - How to enable ALUA and Round Robin Multipathing with ESX and Clariion CX4.


ESXi kickstart file

Одно из новшеств 4.1 – возможность установить ESXi с файлом ответов.
В составе дистрибутива ESXi 4.1 (как, впрочем, и ESX начиная с версии 4.0, подробнее см. тут) есть файл ответов с параметрами по умолчанию.
Чтобы его использовать, следует загрузить сервер с дистрибутива ESXi (с CD-ROM или PXE), в первом меню нажать Tab и в нужном месте дописать нужную строку:

А можно сделать собственный файл ответов.
Как делал я – взял за основу готовый файл ответов, и модифицировал под себя.
Вариантов откуда взять готовый файл, несколько:

  1. Заглянуть в документацию, и найти содержимое дефолтного файла ответов.
  2. Скачать с сервера ESX файл ks.cfg, расположенный в каталоге /root.
    Это готовый файл ответов для ESX, куда сохранились те ответы, что давались установщику при установке этого сервера ESX.
  3. Поискать в Google, примеров можно найти массу. Мои любимые – тут.
Затем, заглянув в доку - Installation Script Commands - я внес изменения в этот файл, чтобы он стал подходить для ESXi.
В минимальном исполнении получилось вот так:
accepteula
autopart --firstdisk=local
install url ftp://192.168.10.10/esxi/
serialnum --esx=H543D-N031J-J8989-0L2UM-34V6A
network --addvmportgroup=0 --device=vmnic0 --bootproto=static --ip=192.168.10.151 --netmask=255.255.255.0 --gateway=192.168.10.100 --nameserver=192.168.10.50,192.168.10.100 --hostname=esxiKS.vm4.ru
rootpw --iscrypted $1$1WnEuMKy$roHFJrWmx8AJ.0L3Gqu9P1
Обратите внимание – дистрибутив забирается не с CD-ROM, а с сервера ftp.
В корень ftp я положил созданный файл (с именем ks, впрочем имя непринципиально).
Затем в корне я создал каталог esxi, и в него распаковал iso с дистрибутивом ESXi.
Затем я подумал: “Если я из этого дистрибутива буду ставить только с файлом ответов, зачем мне каждый раз указывать это вручную?”
И тогда я открыл файл isolinux.cfg и дописал в указанную строку выделенное жирным:
append vmkboot.gz ks=ftp://192.168.10.10/ks --- vmkernel.gz --- sys.vgz --- cim.vgz --- ienviron.vgz --- install.vgz
Все.
Теперь при загрузке сервера с такого дистрибутива ESXi устанавливается вообще без единого вопроса. И с нужными параметрами.
 
Если прикрутить еще и загрузку сервера с PXE, то CD-ROM или ISO можно не пользоваться вообще.
Как прикрутить загрузку с PXE рассказывается все в той же документации - ESXi Installable and vCenter Server Setup Guide.
Что имеет смысл доделывать для получения максимального profit:
  • универсальность файла ответов, чтобы он выдавал разные имена разным серверам. Примеры, в варианте для ESX, в интернете есть, я у себя в блоге о них писал.
  • post-install скрипты для автоматической настройки. На удивление, неплохая на вид инфа по этому поводу приводится в уже упомянутом документе по установке ESXi. Кроме того, можно использовать PowerCLI – вручную натравливая однажды написанный\скопипастенный скрипт на установленный таким образом хост.
Так же, может быть полезно будет ознакомиться с моим опытом PXE-загрузки ESXi - PXE загрузка ESXi.

четверг, 15 июля 2010 г.

vSphere 4.1 IO control

Аргументация почему адвансед фичи вСферы это круто. Чтобы было в одном месте. Планирую, что этот пост будет пополняться.
Для всех фич имеет смысл почитать презу - vSphere 4.1 Technical Overview.
Отдельным постом - VAAI - vStorage API for Array Integration.
.
Далее по пунктам.

Network I/O Control или NetIOC.

Это когда для трафика разных типов ставятся верхние и нижние границы.

Напомню, что эта фича предназначена (просто по сути своей) для конфигураций с парой десятигигабитных контроллеров.

Официальная дока - What's new in networking with vSphere 4.1.
Еще - Got Network I/O Control?.
картинка раз.

картинка 2.


Storage IO Control или SIOC.

Это когда для каждой ВМ можно ставить limit (максимальное количество операций IO, которое она способна отдать гипервизору.) А еще это shares, доля, теперь работающая для всех ВМ с LUN, даже если виртуалки с разных хостов.
Официально - Managing performance variance of applications using Storage IO control.



В общем.

Performance Improvements on vSphere 4.1

среда, 14 июля 2010 г.

Windows Azure Box

Интересная заметка - Windows Azure уже продается в коробках.

Цитата:

..

облачная платформа Windows Azure пока не оправдывает ожидания. На данный момент этим сервисом пользуются только 10,000 компаний (включая и тех, что хостят на Azure свои сайты). А тем временем конкуренты - IBM и Cisco с VMWare зарабатывают бабло на продаже "приватных облаков".

Сегодня Microsoft представила Azure Platform Appliance - облачную платформу в коробке, которую можно установить в собственном дата-центре.

..


Еще порадовала картинка:



vSphere Update 4.1

Коллеги, 4.1 вышла, на нее уже можно захотеть обновится.

Однако, есть нюанс:
просто так Update Manager не покажет, что доступны новые обновления, и обновить сервера не предложит.

По хорошему, стоит вооружиться официальной докой - vSphere Upgrade Guide.

Если неохота осиливать многа буков, то что как надо делать вкратце:

1) обновить vCenter (просто переустановкой поверх, если сейчас он на 64-битной Windows). Если сейчас он на 32битной, то одним из простых способов является
бекап базы
чистая установка vCenter 4.1
восстановление базы из резервной копии.

Однако посмотрите хотя бы тут - Upgrade to vSphere 4.1 - первые грабли с vCenter.

2) обновить\переустановить Update Manager.

3) скачать "update package" для ESX(i) - в виде .zip. Именно в виде zip. Дистрибутивы в .iso подойдут лишь для обновления с третьей версии ESX(i).

4) Home -> Update Manager -> закладка Upgrade (последняя) - скормить zip из п.3.

5) создать baseline "host upgrade", назначить его на сервера, просканировать, применить.

Слегка более развернуто, с картинками, но на английском тут - How to: Upgrade to vSphere 4.1.
Обратите внимание на то, что там четыре страницы.

Если Update Manager нет, а есть просто сервера ESX(i), то см. тут - ESXi 4.0 to 4.1 update and first look, и тут - Обновление ESX4 с помощью vSphere CLI.

вторник, 13 июля 2010 г.

vSphere 4.1 – что там

Итак, коллеги, большая часть нового про большое обновление вСферы уже известны.
Я предложу свою подборку.
Из общего: названия ESX и ESXi теперь слегка отходят на второй план, а на первый план выходит vSphere Hypervisor. Кстати, теперь таково имя собственное “ESXi с бесплатной лицензией”.
Т.е. теперь есть vSphere = vSphere Hypervisor + vCenter Server. А то, что в рамках коммерческой лицензии “vSphere Hypervisor” это ESX или ESXi, это уже нюансы.

Читать далее.

ESX ESXi vCenter

  • для ESXi теперь возможна установка с файлом ответов.
  • поддержка развертывания ESXi по PXE.
  • полная поддержка boot-from-SAN для ESXi, с FC, iSCSI и FCoE.
  • vCenter Server требует обязательно 64-битной ОС для себя.
  • неподдерживаемая локальная консоль и SSH теперь включаются из локального меню ESXi

    и даже из клиента vSphere
     

    а по нажатию Options – настройки автостарта службы сервера SSH.


все операции через локальный TechSupport режим попадают в syslog.
  • клиент vSphere теперь не входит в установленный ESX(i). Ссылка на web-странице установленного ESX(i) теперь ведет на сайт VMware. Впрочем, он продолжает поставляться с vCenter, и как и раньше его можно скачать отдельным дистрибутивом.
  • аутентификация на хостах учетками из AD —
    настройка этого, в том числе, через Host Profiles

    Админский доступ имеют члены группы “ESX Admins”.
  • появился счетчик «Power» для серверов и ВМ. Если ESX(i) смог через IPMI получить информацию о потреблении питания, то нам покажут эти данные.


СХД

  • появился драйвер PVSCSI для WinXP — образ флопика с ним лежит там же, где и обычно. Так же поддерживаются Win7, Vista.
  • самая ожидаемая фича — контроль ввода вывода!
    лимит по операциям ввода вывода на диске! Для каждой ВМ.
Плюс к тому, начали нормально работать shares для дисков (раньше доли считались лишь между ВМ с одного ESX(i), теперь — между всеми ВМ с одного хранилища). Достигается это за счет управления глубиной очереди для HBA серверов.
Раньше:

Сейчас:

Чтобы этим воспользоваться, следует включить контроль задержек (Latency) для конкретного хранилища

тут мы указываем, при какой величине latency ESX(i) начинают использовать shares по дискам.
Включается, и значение latency указывается для каждого хранилища независимо.
Limit, вроде как, работает всегда.
За контроль отвечает vCenter, поэтому на хранилище должны лежать ВМ с хостов, управляемые одним vCenter.
Для NFS это не работает.
Для хранилищ с extent это не работает.
Если у кого “Automated tiered storage”, то для таких стораджей эта штука пока не поддерживается.
Видео:

Можно настроить alarm на срабатывание мониторинга.
  • теперь на закладке Resource Allocation появилась кнопка Storage
  • в графическом интерфейсе мониторинга Performance добавилось информации по дискам — отдельным дискам ВМ и хранилищам хостов. Кроме того, доступна информация по нагрузке на пути к хранилищам.
  • новые alarm, по latency, например
  • заявлена поддержка Storage Offload, когда функции, связанные с копированием или переносом информации выполняются самой СХД. См. тут — VAAI — vStorage API for Array Integration
    Это операции:
    Storage vMotion (раз в 5 быстрее)
    развертывание ВМ из шаблонов (возможно ускорение до 10-20 раз)
    клонирование ВМ.
    работа с тонкими дисками.
    уменьшение блокировок VMFS для многих операций.

    Вкратце — версия VMFS слегка обновилась (в бете это VMFS 3.46). В этой новой версии добавились т.н. VAAI, the vStorage APIs for Array Integration — они как раз и нужны для оффлоада задач на СХД. К сожалению, апгрейд VMFS возможен только путем пересоздания.
    Мне уже попадались упоминания о том, что поддержка данных API возможна, иногда, всего лишь обновлением прошивки системы хранения. Например, про EqualLogic - EqualLogic firmware with vStorage API.
UPD. А вот тут про NetApp - Свежие новости с VMworld 2010.
    Если сторадж не умеет оффлоад, то в GUI:

    В HCL должен появиться список стораджей, поддерживающих оффлоад.

    Отзыв от использования:


    Today I installed a new firmware from Equallogic supporting the hardware acceleration feature. It appears after I clone and created virtual machines and perhaps enabled storage I/O control. Cloning VMs works completely off the ESX — esxtop doesnt show any I/O values. Cool...
        • iSCSI iBFT Boot Support — vSphere 4.1 allows ESXi to boot from iSCSI using iBFT. Broadcom 57711 is supported.
          Тут я пока не просек –  насколько это круто.
          Отзыв 
    I will add some notes here as it might be useful to someone else who would like to set it up at a later date.
    This is for ESXi only. Do no try to implement it with classic ESX.
    The broadcom NIC must have the iSCSI Boot Option ROM Enabled in the BIOS. Make sure it is a relatively new iBFT ROM version. I was using version 3.0.6 which was quite old and caused me some issues. I eventually used a 4.x version of the iBFT ROM.
    The broadcom NIC must be the first boot device is the BIOS.
    Boot to iSCSI target must be disabled in the iSCSI Configuration parameters in the Broadcom MBA initially. It needs to be set to enabled for subsequent reboots.
    On initial install during server boot before the server attempts to boot from the CDROM, ensure that your iSCSI initiator has successfully logged into the iSCSI target and discovers a LUN. Details about the initiator, target, login and lun disocvery should all be displayed on the server before installation starts.
    The iSCSI LUN should appear in the ’Select a Disk’ screen in the installer. If it doesn’t, you’ve gone wrong, so revisit your setup
    • iSCSI Hardware Offloads — vSphere 4.1 enables 10Gb iSCSI hardware offloads (Broadcom 57711) and 1Gb iSCSI hardware offloads (Broadcom 5709).
      на русском - iSCSI Hardware Offloads в ESX/ESXi 4.1.
    • 8GB Fibre Channel Support — vSphere 4.1 supports 8GB Fibre Channel storage arrays. You can deploy ESX and ESXi with 8GB end-to-end Fibre Channel SANs.

    Сеть

    • при создании dvSwitch спрашивают его версию — 4.0.0 или 4.1.0. Первая нужна для совместимости с 4.0, последняя — поддерживает новые фичи. Это ограничение пропускной способности для трафика разных типов, балансировка нагрузки в зависимости от загрузки pNIC и VMDirectPath v.2
    • Появилась возможность приоретизировать трафик по типу: управляющий, от ВМ, VMotion, Fault Tolerance, iSCSI, NFS

    Однако раздать по разному лимиты и shares для разных групп ВМ не получится — придется пользоваться traffic shaping.
    если задать limit = 0, то соответствующий трафик ходить не должен вообще.
    Данная фича числится предназначенной для конфигурации, когда весь трафик ходит наружу через пару десятигигабитных канала.
    Limit – ограничивает трафик какого-то типа для всех аплинков сразу.
    Shares – здесь – гарантирует какой-то минимум, притом высчитывается для конкретного адплинка (vmnic#).
    • Кстати, если стоит задача какой-то из pNIC вывести из под действия этого алгоритма, то можно сделать так: configuration —> advanced settings —> net —> в последней опции «Net.IOControlPnicOptOut» перечислить аплинки, для которых фильтровать трафик не надо.
    • для распределенного коммутатора появилась балансировка нагрузки в зависимости от нагрузки на NIC

    Это суть старая балансировка “Port ID”, но трафик “порта виртуальной стороны” через какой аплинк пойдет – зависит от загрузки этого аплинка.
    Начинает работать когда нагрузка на аплинк (Tx или Rx) достигает > 75% в течении 30 сек.
    В первой реализации этот механизм не учитывает shares для сети, рассмотренные выше.
    • Pv6 Enhancements — IPv6 in ESX supports Internet Protocol Security (IPsec) with manual keying.

    Доступность

    • VMware HA Healthcheck Status — HA обеспечивает контроль за тем, чтобы требуемая конфигурация кластера соблюдалась всегда. В случае отклонений от конфигурации создается событие в журналах vCenter. Также можно настроить alarm для оповещения о таком событии.
    • VMware HA Operational Status — дополнительно окно, отображающее статус узлов кластера HA. Здесь отображаются сервера с проблемами — и кроме проблемы, для них указывается статус — Primary они для кластера, или Secondary.

    • Готовятся HA API – ожидается появление сторонних приложений, так или иначе интегрирующихся с HA.
    • появилась неподдерживаемая настройка:
      das.preferredPrimaries = <имена или IP адреса хостов, которые должны стать Primary>. После указания настройки кластер следует выключить и включить.
      Обратите внимание — указывать следует короткое имя, не FQDN. Длинна поля ограничена (на момент написания) 80 символами, так что если у вас длинные имена хостов — вам не повезло.
      Кроме того, я узнал, что HA агент не поддерживает имена хостов длиннее 26 символов.
      И надо бы уточнить, поддерживает ли IPv6.
    • Fault Tolerance (FT) Enhancements — стал лучше. Но самая главная беда, однопроцессорность защищаемой ВМ – на месте.
      Виртуальные машины, защищенные FT, полноценно участвую в жизни кластера DRS, в том числе со включенным EVC. DRS выбирает хост для включения Primary ВМ, и мигрирует и Primary и Secondary ВМ для балансировки нагрузки.
      Пропала нужда в одинаковости билдов ESX(i) для работы FT. 
      Теперь можно задействовать FT не включая HA.
    • vStorage APIs for Data Protection (VADP) Enhancements — теперь для резервного копирования поддерживается дерганье VSS для Windows 2008 и Windows 2008 R2 .
    • HA начала поддерживать виртуальные машины, защищенные Windows Failover Cluster.
    DRS и VMotion
    • DRS научился делить ВМ и сервера по группам:

      и через правила указывать кто как должен относительно этих групп работать



    Хотя вроде HA тоже должен придерживаться этих правил. Если правила нарушены вручную – генерится событие в журнал.
    • vMotion Enhancements — VMotion стал работать быстрее. Как минимум за счет того, что увеличилось количество одновременно запускаемых миграций до 4(для гигабита) и 8 (для десятигигабита). Это важно для операций, требующих убрать все ВМ с сервера – установка обновлений, например.
    • Improvements in Enhanced vMotion Compatibility — EVC начал поддерживать процессоры последних поколений. AMD Opteron Generation 3 работает в режиме EVC без технологии 3DNow!™, что позволяет создать кластер, который будет совместим с новыми версиями процессоров AMD. Также улучшения в EVC коснулись указания режима EVC, более детализированных ошибок и снижения требования к перезагрузке ВМ.
    • DPM теперь можно включать выключать по расписанию, через встроенный планировщик vCenter. При выключении DPM все сервера просыпаются – можно нормально включать их ДО начала рабочего дня.

    Управляемость

    • vCenter Converter Hyper-V Import — Converter позволяет подключиться на хост Hyper-V. Конвертер покажет виртуальные машины, работающие на Hyper-V, можно будет выбрать выключенные ВМ для импорта в vSphere.
    • Улучшения в Host Profiles — теперь этот механизм позволяет соблюдать требования по смене пароля администратора. Кроме того, что-то там сделали для Cisco Nexus 1000v и нумерации PCI-устройств.
    • Аутентификация без запроса в vMA - vMA4.1 поддерживает интеграцию с Active Directory и команды для настройки авторизации.
    • vCenter Orchestrator предлагает новые предустановленные процессы для автоматизации задач администрирования, такие как управление снимками состояния, забытыми VMDK-файлами (!), множественные операций конвертирования thick-дисков в thin и отключение съемных устройств через vCenter.
    • Улучшено управление перевыпущенными обновлениями в Update Manager - теперь VUM отправляет оповещения о таких обновлениях, выводит список хостов, где они установлены и не дает установить старое обновление.
    • Update Manager научился может обновлять драйвера, CIM провайдеры и другие модули.
    • Для HA и DRS максимум ВМ стал одинаков – 320 ВМ на хост, 3000 на кластер, вне зависимости от числа серверов.

    Конфигурация ВМ

    • последовательный порт каким-то образом прокидывается через сеть.
      This enables solutions such as third-party virtual serial port concentrators for virtual machine serial console management or monitoring.

    на данный момент я не понял, к чему же через еть подключается виртуальный com порт.
    • Подключение к ВМ устройства USB, подключенного к хосту:

      при миграции ВМ на другой сервер USB устройство ПРОДОЛЖАЕТ БЫТЬ доступным!!!



      похоже, на хост до 15 ВМ с прокинутым USB (хотя я могу ошибиться, и тут имеется в виду до 15 USB контроллеров сервера).
      Поддерживается и USB 2.0, и USB 1.1, притом и одновременно.
      До 20 USB устройств на одну ВМ, и на один хост тоже не больше 20. (насколько я понимаю, проблемой могут быть устройства, который с. точки зрения USB содержат в себе сразу несколько устройств)
      В списке поддерживаемых, кроме прочего, Aladdin HASP HL Drive, Aladdin Knowledge HASP HL 3.21, Aladdin HASP HL NetTime Software Protection Dongle и др.
      Поддерживается автоподключение — если к ВМ было подключено USB устройство, то после его извлечения и нового втыкания в сервер оно само подключается к той же ВМ.
    • Memory Compression — новый уровень абстракции оперативной памяти ВМ.
      Перед использованием файла подкачки (пока не понял, имеется в виду только vmkernel swap, или balloon тоже) будет так: часть памяти ВМ резервируется под кэш, и в этом кэше располагается ее же память, но сжатая гипервизором. Настраивается эта технология только через Advanced Settings.

    • Улучшилась виртуализация CPU - CPU scheduler improvements in 4.1.
      a) there were a lot of general scalability & performance improvements — reducing lock contention, general overhead, etc.
      b) We extended our optimizations for NUMA architectures to also optimize scenarios where thenumber of vcpus in a VM is larger than the number of cores in a single NUMA node on the host. In other words, for such VMs we are improving CPU fairness and memory locality.

    Дистрибутивы доступны на странице скачивания:
    http://downloads.vmware.com/d/info/datacenter_downloads/vmware_vsphere_4/4

    Сравнение функционала в различных редакциях
    Редакции Standard, Advanced, Enterprise и Enterprise Plus:

    http://www.vmware.com/products/vsphere/buy/editions_comparison.html

    Редакции Essentials, Essentials Plus, Advanced Acceleration Kit,
    Midsize Acceleration Kit (w/Enterprise) и Enterprise Plus Acceleration Kit:

    http://www.vmware.com/products/vsphere/buy/small_business_editions_comparison.html

    Еще из полезных ссылок:
    все то же самое, но официально и с отсылками на доку - What’s New in vSphere 4.1.

    Гайд по обновлению.

    Весь набор документации, как и раньше, тут - http://pubs.vmware.com.

    ESX ESXi APC

    Подсказали тут ссылку на интересный пост - Отключение хостов VMWare ESX/ESXi через APC PowerChute.

    Цитата:

    Чтобы избавиться от необходимости устанавливать APC PowerChute на каждую гостевую машину, можно использовать скрипт погашения хоста (с предварительным выключением виртуальных машин на нем), стартующий по команде PowerChute, установленного на отдельную виртуальную машину.

    Потребуется

    1. vSphere Management Assistant (vMA) - образ нужной виртуальной машины (на данный момент v4.0, требуется зарегистрироваться на сайте VMWare)
    2. APC PowerChute Network Shutdown - «парашют», версия для Linux (на данный момент v2.2.4, требуется зарегистрироваться на сайте APC)
    3. Скрипты «ESX/ESXi APC/APCUPSD Host Shutdown VI Perl Toolkit Script»:
      upsVIShutdown.pl (1.9 K) и ghettoShutdown.pl (5.1 K)

    4.1

    Download VMware vSphere 4.1.

    Список изменений везде уже доступен на английском, я опубликую чуть позже.

    вторник, 6 июля 2010 г.

    Microsoft Hyper-V + SCVMM Cost

    Оценка стоимости вариантов лицензирования виртуальной среды на базе Microsoft Hyper-V + SCVMM.

     

    Цитата:

    Использование виртуализации существенным образом меняет подход к лицензированию многих программных продуктов. Так, например, лицензии Microsoft Windows Server 2008 R2 Standard Edition и Enterprise Edition привязываются к физическому серверу, однако, последняя позволяет запускать до четырех экземпляров ОС Windows Server в виртуально среде на этом же сервер. Еще интересней дело обстоит с Windows Server 2008 R2 Datacenter Edition, которая привязывается к физическому процессору (сокету) и при условии лицензирования всех процессоров позволяет запустить неограниченное число виртуальных машин на одном физическом сервер.
    Схожие правила распространяются на пакеты лицензий System Center Server Management Suite Enterprise (SMSE) и System Center Server Management Suite Datacenter (SMSD), включающих в себя право на использование ПО семейства System Center: System Center Configuration Manager 2007 R2, System Center Data Protection Manager 2010, System Center Operation Manager 2007 R2, System Center Virtual Machine Manager 2008 R2 и д.р. как на физических серверах, так и в виртуальной среде.
    Вдобавок, Microsoft предоставляет решения по управлению серверами виртуализации для малого бизнеса: Microsoft System Center Virtual Machine Manager 2008 R2 Workgroup Edition и System Center Essentials 2010.
    Чтобы оценить преимущества каждого из вариантов лицензирования продуктов, я сделал небольшую таблицу в Excel.
    Для примера была взята абстрактная инфраструктура, которая включает в себя три двухпроцессорных сервера в одинаковой конфигурации. Количество виртуальных машин в инфраструктуре варьируется от 5 до 30. Предполагается, что машины размещаются на всех серверах равномерно.

    понедельник, 5 июля 2010 г.

    ESXi cli

    Вот тут — Unknown or Overlooked ESXi4′s Scripts and Commands — приведен интересный список (с кратким описанием) малоизвестных команд локальной консоли ESXi.

    Приведу просто список, с описанием самого, на мой взгляд, интересного.

    • BootModuleConfig.sh
    • auto-backup.sh
      This script is pretty straight forward. It does automatically a backup of you ESXi host. The backup is stored in /bootbank under the name: state.tgz
    • backup.sh
      This script allows you to backup the state of the host in a destination you defined as opposed to auto-backup.sh where it is by default in /bootbank
    • busybox (про него маленько вот тут есть — all about esxi)
    • cim-diagnostic.sh
    • dcui
    • firmwareConfig.sh
    • ft-stats
      This tool gives you stats about VMs that are in FT mode. The tool assists you in troubleshooting issues with FT. One of the parameters allows you to force FT even though it didn’t pass the requirements. that can be useful in a home lab.
    • hwinfo
    • ipkg
    • lspci
    • net-cdp
    • partedUtil
      This tool helps you troubleshooting issues with corrupt partition table for example. First you need to enumerate the storage devices: esxcfg-scsidevs -l Then you type in partedUtil get Devfs Path>
      The output looks like this: 1 128 157276349 251 0. 128 is the offset and 251 is the FB value for a VMFS partition type.
    • services.sh
      This script is used to start, stop or restart services listed in /etc/chkconfig.db. You could eventually edit the chkconfig.db to include extra services. On my nested ESXi host, the list contains the following services:
      /etc/init.d/ntpd
      /etc/init.d/hostd
      /etc/init.d/vobd
      /etc/init.d/slpd
      /etc/init.d/wsman
      /etc/opt/init.d/vmware-vpxa
      /etc/init.d/sfcbd-watchdog
      /etc/opt/init.d/vmware-aam
    • smbiosDump
      This tool will dump the SMBIOS info and it’s quiet interesting. VMware hypervisor’s BIOS vendor is Phoenix Technologies LTD. Did you know that?
    • stat
      This tool comes with Busybox. It displays some interesting stats for files and files systems. Do you want to know the block size set on a VMFS or NFS datastore? Type in stat -f your datatstore here>. I’ve tested that against a NFS and VMFS datastore in my home lab, here is the output:

      /sbin # stat -f /vmfs/volumes/QNAPNAS02NFSonSSD/
      File: "/vmfs/volumes/QNAPNAS02NFSonSSD/"
      ID: 0 Namelen: 127 Type: nfs
      Block size: 4096
      Blocks: Total: 38073304 Free: 18364512 Available: 18364512
      Inodes: Total: 9223372036854775807 Free: 9223372036854775807

      /sbin # stat -f /vmfs/volumes/QNAPNAS02iSCSI
      File: "/vmfs/volumes/QNAPNAS02iSCSI«
      ID: 0 Namelen: 127 Type: vmfs3
      Block size: 8388608
      Blocks: Total: 34528 Free: 31126 Available: 31126
      Inodes: Total: 9223372036854775807 Free: 9223372036854775807
    • vmkperf 
      If you have this kind of error message: «Performance data is currently not available for this entity.», you may use the following command: vmkperf resetall to reset events and counter which are not shared.

      Delete all snapshot

      Есть мнение — Changes to Snapshot mechanism "Delete All”  –, что актуальная версия ESX(i) нормально стала удалять снимки состояния по кнопке «Delete All».

      Вот например виртуалка с несколькими снимками состояния:

      Раньше по кнопке «удалить все» снимки применялись от последнего к предпоследнему, т.е.

      1. текущее состояние —> Snap 3
      2. Snap 3 —> Snap 2
      3. Snap 2 —> Snap 1
      4. Snap 1 —> в файл-диск ВМ

      Проблема такой схемы широко известна — куча места тратиться на каждую итерацию, ведь сначала два файла сольются, т.е. данные нижнего добавятся к данным верхнего (по сути — продублируются), и лишь потом нижний удалится.

      Сейчас же снимки состояния удаляются от первого. Т.е.

      1. Snap 1 —> в файл-диск ВМ
      2. Snap 2 —> в файл-диск ВМ
      3. Snap 3 —> в файл-диск ВМ
      4. текущее состояние —> в файл-диск ВМ

      А если файл диск ВМ «толстый», то он от слияния с файлом снимка состояния не изменяет размер.

      Synology DS1010+

      К вопросу о дешевом NAS хранилище - Synology DS1010+ – cheap NAS.

      Из комментариев:

      Пару месяцев назад экспериментировал с запуском вСферы с флэшки (по посту на этом сайте). Дэсктоп - Asus M4N78PRO / Phenom II X2 545. К моему удивлению гипервизор воспринял железо нормально, и у меня встал вопрос о хранилище.
      Дома больше года крутится Thecus 3200Pro(RAID5 - md - SiI3114 на борту). Экспортировал каталог через NFS. И пользую теперь в качестве сетевого хранилища.
      Пришлось, правда, подновить маршрутизатор до модели с гигабитными портами.
      По цене Thecus без дисков брал за 15000=. А это уже не 2-3 килограмма зелени, согласитесь!
      Правда количественных оценок дать сейчас не смогу - не экспериментировал. ;о(

      А затем Сергей Курков любезно предоставил данные тестирования:

      воскресенье, 4 июля 2010 г.

      OVF | OVA

      Если в клиенте vSphere выполнить File –> Export OVF Template, то мы увидим примерно следующее окно:

      Это настройки экспорта виртуальной машины. Притом “экспорт” предполагает, что виртуальная машина будет выгружена в одном из двух “универсальных” форматов – OVF или OVA.

      Оба формата описаны в одном и том же стандарте – DMTF Open Virtualization Format Specification. Суть стандарта – предоставить “универсальный” формат для переноса виртуальных машин между различными платформами виртуализации.

      Разница между ними в том, что ВМ в формате OVF представляет из себя несколько файлов (отдельно описание, отдельно диск в том или ином формате), а OVA – один файл, со сжатием.

      В общем, что именно использовать – не сильно принципиально, и определяется соображениями удобства.

      Однако, обратите внимание на кавычки вокруг слова “универсальный” для этих форматов. Дело в том, что само по себе наличие ВМ в формате, который понимается и ESX(i), и Xen и другими, не гарантирует ее успешный запуск. Ведь у разных гипервизоров отличается набор виртуального оборудования, и тут уже встает вопрос наличия драйверов под разные контроллеры IDE, SCSI, NIC и др.

      Так что пока данный стандарт в большей степени применим к переносу ВМ между гипервизорами одной платформы. По крайней мере, если администратор не выполнял подготовительных шагов по настройке гостевой ОС.

      По мотивам OVF? OVA? WTF?