воскресенье, 28 ноября 2010 г.

Linux –> Hyper-V

Из полезного, и немного забавного:

Все неоднозначно в схеме миграции физических Linux серверов в виртуальную среду гипервизора Microsoft Hyper-V, тем не менее, не попробовав говорить однозначно об этом сложно. … . В интернетах нет однозначного решения по такой миграции, основные варианты известны давно:

   1. Linux -> Vmware Converter 4 -> Vmware ESX -> VMDK2VHD -> Hyper-V.

Подробности см. Миграция физических Linux серверов в виртуальную среду гипервизора Microsoft Hyper-V.

Основные источники информации о vSphere

Давно хотелось сделать маленькую памятку – Основные источники информации о vSphere. Это вряд ли будет интересно давно работающими по этой теме специалистам, но ведь среди читающих этот пост будут и новички в данной теме.
Итак, перед нами встал какой-то вопрос касаемо ESX, ESXi, vCenter и прочего, что входит в состав vSphere. По собственному опыту рекомендую выжимку из многих и многих источников информации:
1) http://kb.vmware.com
База знаний VMware. Решать проблему не заглянув сюда – непрофессионально. Лезть сразу в гугл тоже не всегда лучше – все таки в базе знаний концентрация рецептов по теме выше, чем в целом по интернету – особенно по тексту ошибки.
image
2) http://pubs.vmware.com и сразу самая полезная ссылка http://pubs.vmware.com/vsphere-esxi-4-1-installable/
Страница с документацией по продукту.
image
Выбрав требуемый продукт (на примере ESXi):
image
Обратите внимание на вкладки:
image
Особо обращаю внимание на ссылку “Search an HTML library of all books in the main documentation set for the information you need” – она же вторая в начале второго пункта этого списка.
Это ссылка на HTML версию основной документации, с возможностью сквозного поиска. Офигенная штука.
image
3) Официальный форум VMware - http://communities.vmware.com. Поиск рулит, ну и вопрос задать тоже бывает полезно.
Русскоязычная ветка официального форума.
Обращаю ваше внимание на то, что во всех ветках форума есть вкладка Documents – иногда очень полезная.
image

4) Рускоязычные блоги. Перечислять все не буду, а если выбрать кого-то одного, то мне кажется, что лидирующим источником информации следует признать http://vmgu.ru.
Ограничиваться им не стоит – меня, к примеру, здорово выручает поиск в моем Google Reader, среди всех многих десятков блогов на которые я подписан (и по тому одному, который веду. Серьезно – регулярно ищешь что-то, а потом опа – ты же уже об этом и писал. С книжкой, кстати, та же фигня).
5) Если вам нужна справочная информация, то не проходите мимо еще и Technical Resource Center - http://www.vmware.com/vmtn/resources/.
image
Как то так.

VLAN + vSphere Distributed Switch + HP GbE2c Layer 2/3

Мне приходится вести довольно обширную переписку. Угадайте по какой теме :)

Слово “приходится” не означает, что я недоволен – мне нравится такое положение вещей.

Может быть, не всегда есть возможность ответить развернуто, а иногда ответ я и не знаю, но без внимания я не оставляю ни одного письма.

Что меня радует, иногда обращающиеся ко мне специалисты склонны и делиться знаниями. Вот как раз такой случай:

Настройка VLAN на vSphere Distributed Switch и блейд-свитче HP GbE2c Layer 2/3.

Давайте рассмотрим задачу организации сети с несколькими vlan на распределенном свитче.

Когда и кому это может понадобиться?

Представим себе следующий классический вариант – сервер с 2-мя сетевыми адаптерами. Один физический адаптер необходимо зарезервировать под служебные нужды VMWare, такие как Service Console и VMkernel. На базе же второго адаптера мы можем создать только один виртуальный свитч для проброса сети для виртуальных машин. А что делать, если виртуальным машинам необходимо пробросить как минимум две изолированных сети, а то и 3-4.

Ну или другой вариант – пусть мы озаботились заранее и купили сервер с четырьмя сетевыми интерфейсам. Но при постройке среды виртуализации сделали все правильно и один физический адаптер отвели под ServiceConsole, а другой под VMkernel Port. Остается два адаптера для проброса сетей виртуальным машинам. В большинстве случаев этого достаточно. Но вот появляется срочная задача прокинуть еще одну изолированную сеть в виртуальную среду.

Что делать? Пожалуй, самый очевидный и простой вариант – купить сетевую карту и на ее базе создать очередной виртуальный свитч. Но бывают ситуации, когда нет времени на долгий процесс закупки, или нет слотов в сервере под дополнительную сетевую карту и т.п. Вот тут на помощь нам приходят vlan. Именно настройка vlan на виртуальном и физическом свитче позволит вам через один физический интерфейс прокинуть несколько разных сетей виртуальным машинам.

Рассмотрим конкретную практическую задачу.

Есть хост ESX(блейд-лезвие), с четырьмя сетевыми интерфейсам подключенный в блейд-свитч HP GbE2c Layer 2/3. Один интерфейс ESX хоста, как описывалось выше, отведен под Service Console, а второй VMkernel Port для vMotion. Двум оставшимся интерфейсам соответствуют два распределенных свитча Distributed Switch 1&2, позволяющие вывести две группы виртуальных машины в две изолированных сети. Появляется третья группа виртуальных машин, которым необходима третья изолированная сеть. Решено настроить vlan`ы на одном из двух существующих распределенных свитчей.

Дополнительная сеть – это дополнительный трафик. После мониторинга становится понятно, что виртуальный свитч Distributed Switch2 менее нагружен и легко перенесет добавочный трафик, поэтому через него будут проброшены две сети. Distributed Switch 1 конфигурироваться не будет.

*При использовании большого количества vlan, рекомендую мониторить текущую и планировать будущую нагрузку. Можно пробросить несколько сетей с малой нагрузкой через один виртуальный свитч, а второй оставить под сеть с основным трафиком. Если же виртуальные машины генерируют примерно одинаковый трафик в каждую сеть, то следует размазывать нагрузку и конфигурировать по несколько vlan на каждый виртуальный свитч. Всегда помним, что каждый виртуальный свитч опирается на физический интерфейс с ограниченной пропускной способностью.

Теперь о прикладной задаче. При пробросе трех сетей для виртуальных машин это выглядит так:

clip_image002

Настройка очень проста. Каждая группа портов виртуального распределенного свитча, соответствующая отдельной изолированной сети, должна находиться в отдельном vlan`е. Порты-аплинки между свитчами, должны быть сконфигурированы как tagged порты (т.е. могут пропускать через себя трафик разных vlan`ов).

Для распределенного коммутатора Distributed Switch 2 необходимо сделать следующие настройки:

1. Создаем 2-е группы портов на одном распределенном коммутаторе.

clip_image003

2. В настройках 1-й группы портов в пункте VLAN указать VLAN Type = VLAN и задать VLAN ID (для текущего примера VID=6).

clip_image005

3. В настройках 2-й группы портов в пункте VLAN указать VLAN Type = VLAN и задать VLAN ID (для текущего примера VID=5).

clip_image007

4. В настройках Uplink-группы в пункте VLAN указать VLAN Type = VLAN Trunking. В поле VLAN trunk range указать VLAN ID, для vlan, созданных выше.

clip_image009

На этом вся конфигурации виртуальной среды завершена. Остается настроить физический блейд-свитч.

Ниже приведена настройка для свитча HP GbE2c Layer 2/3. Хосты ESX подключены к внутренним портам 1,2,9,10. Порт 21, 23 внешние аплинки в разные сети.

Включаем тегирование и задаем default vlan внутренних портов.

/cfg/port 1
tag e
pvid 5
/cfg/port 2
tag e
pvid 5
/cfg/port 9
tag e
pvid 5
/cfg/port 10
tag e
pvid 5

Создаем Vlan, включаем их, задаем имя и порты

/cfg/l2/vlan 5
ena
name “…”
def 1 2 9 10 21
/cfg/l2/vlan 6
Ena
name “…”
def 1 2 9 10 23

На этом настройка закончена.

 

thx Kirill Shusherin.

вторник, 23 ноября 2010 г.

VMware vForum 2010

26 в Москве будет очень интересное мероприятие. Подробности - VMware vForum 2010: одного дня будет мало.

Мысли вслух

Интересно, означает ли популярность появление твоей книги на торрентах?

понедельник, 15 ноября 2010 г.

vmlab.ge

Коллеги, нашего полку прибыло.

Представляю вашему вниманию новый русскоязычный блог — http://vmlab.ge.

Особенно рекомендую один из первых постов — VCDX «be or not to be». not YET !.

среда, 10 ноября 2010 г.

VMUG 2010, осень

Коллеги, напоминаю что уже в четверг состоится встреча VMware Usergroup Russia.

Все подробности, если вдруг кто не получил письмо, тут - Встреча VMware User Group Russia - осень 2010.

 

Я, признаться, протупил с этим постом – разумеется, нужно было его писать не в ночь на четверг - но что-то дела, текучка :-(

И от организации сего мероприятия я в этот раз отошел (кстати все благодарности адресуйте Антону Жбанкову, его роль в организации трудно переоценить).

Из разряда срочно в номер – ожидается очень, очень интересное выступление ближе к 16 часам VMware Project Horizon на осенней встрече VMware User Group.

Цитата:

На этот раз я расскажу про весьма перспективную технологию, о которой крайне мало публичной информации. Внутри компании разработки технологии носят название Проект «Горизонт». VMware Project Horizon – это довольно интересный взгляд на end user computing, способ управлять приложениями, профилями и данными, ключевым элементом которого является пользователь. То есть все многообразие корпоративных, публичных и SaaS приложений с различными учетными записями и доступом с совершенно любых устройств замыкается на Пользователе с его персональными данными, единым механизмом доступа к любым приложениям с сохраненим состояния при смене любого конечного устройства. Это не виртуализация рабочих мест (VDI), это портал самообслуживания а-ля AppStore для доступа к любым приложениям. На самом деле технология намного шире, но не о всем можно говорить, да к тому же проект постоянно дорабатывается и обрастает новыми особенностями.

Итак, завтра на встрече VMware User Group я расскажу про этот проект, а также проведу демонстрацию.

суббота, 6 ноября 2010 г.

тестовые центры для сдачи VCAP

Мне тут подсказали что в списке тестовых центров для продвинутой сертификации VMware появились центры в Москве (Academy of National Economy) и Новосибирске (Sibinfocenter).

image

Вроде как можно звонить, договариваться и заказывать.

Сайт Person VUE затруднился дать мне сбросить забытый пароль, и я не нашел сколько этот тест стоит

Thx bond-jimme.