Показанные сообщения отсортированы по релевантности запросу "уменьшить". Сортировать по дате Показать все сообщения
Показанные сообщения отсортированы по релевантности запросу "уменьшить". Сортировать по дате Показать все сообщения

четверг, 4 июня 2009 г.

запуск esx esxi 4 в ВМ

Есть что добавить к теме запуска vSphere на любимом ноуте - можно уменьшить минимальное количество памяти, необходимое для запуску ESX\ESXi 4. Полная инструкция:

Для установки ESX\ESXi 4 в ВМ под VMware Workstation или под ESX\ESXi 4:

  • Процессоры машины, на которой предполагается разворачивать эту "матрешку", должны поддерживать аппаратную поддержку виртуализации - Intel-VT \ AMD-V. И она должна быть включена в БИОС.
  • берем саму Workstation, вроде бы нужна версия не меньше 6.5.1.
    Я пробовал с 6.5.2
    Ну или ESX\ESXi 4.
  • Создаем ВМ со следующими параметрами:
    гостевая ОС - Red Hat Enterprise 5 64-bit
    Памяти минимум 2 ГБ
    scsi контроллер - LSI logic (я использовал не LSI SAS)
    для процессора в меню Execution Mode выставляем "Intel VT-x or AMD-V "
  • Открываем vmx любимым текстовым редактором, добавляем строку
    monitor_control.restrict_backdoor = true
    ВМ должна быть выключена в этот момент.

    И для ESX и для ESXi.
Если 2 ГБ памяти отдавать жалко, то после установки можно требования к памяти уменьшить:
Для ESX:
1. Установите ESX на ВМ минимум с 2 ГБ памяти
2. Залогиньтесь в Service Console и выполните
vi /etc/vmware/init/init.d/00.vmnix

3. Измените значение в следующей строке на нужное:

RequiredMemory=2064384

4. Теперь можно выключить ВМ и уменьшить выделенную ей память.

Для ESXi:

1. Установите ESXi на ВМ минимум с 2 ГБ памяти
2. Залогиньтесь в консоль через метод “unsupported”
3. Откройте в vi конфиг /etc/vmware/esx.conf и добавьте строку:

/vmkernel/minMemoryCheck = “false”

4. Теперь можно выключить ВМ и уменьшить выделенную ей память.

Есть мнение, что использование vi принципиально - якобы был случаи, когда nano корежил файлы.

суббота, 19 сентября 2009 г.

ESX(i) vmdk shrink

Как уменьшить размер vmdk файла - How to Shrink a VMDK file in ESX.
Суть:

Открываем disk.vmdk. Видим там что то вроде
# Extent description
RW 52428800 VMFS “foo-flat.vmdk”

Умножением RW на 512 получаем размер диска:
52428800 * 512 = 26 843 545 600 (25.6 ГБ).

Например, хотим уменьшить диск до 12 ГБ. Для этого меняем disk.vmdk с помощью текстового редактора (vi или nano):
# Extent description
RW 12582912 VMFS “foo-flat.vmdk”

Теперь делаем Storage VMotion или Clone этой ВМ, и после этой операции диск становится нужного размера.
Если у нас нет vCenter, т.е. эти операции недоступны, можно склонировать этот диск из командной строки:
# vmkfstools -i disk.vmdk disk_1.vmdk

Я попробовал.
WinXP до:
vmdk_shrink_1

Сделал по инструкции, чтобы уменьшить диск до 3 ГБ.

WinXP после:
disk_shrink_2

Может быть, экспериментировать на системном диске это плохая идея?

Напомню, что работающая альтернатива этому способу это использование VMware Converter для переконфигурирования ВМ. В частности, конвертор способен корректно уменьшить размер диска.

UPD.
попробовал на не системном диске для Windows Server 2008. Тоже убило раздел:
до:
shrink_2008_1
после:
shrink_2008_2

понедельник, 10 октября 2011 г.

Performance Best Practices for VMware vSphere 5.0


Что я узнал из документа Performance Best Practices for VMware vSphere 5.0:

 

Железо


Сервера лучше с аппаратной поддержкой и процессора и памяти (т.е. последнего поколения). Не забыть убедиться что эти фичи включены в БИОСе. БИОС должен быть последней версии.
NUMA лучше держать включенной (в некоторых BIOS это значит node interleaving = disabled).
Hyperthreading лучше включить.
Стораджи лучше с поддержкой VAAI. Стораджи вообще чрезвычайно важны, и к их выбору и настройке стоит подойти ответственно.
Рекомендуется повышать глубину очереди на HBA до максимума (http://kb.vmware.com/kb/1267).
Так же можно попробовать увеличить максимальное количество одновременных запросов на диск для каждой ВМ – http://kb.vmware.com/kb/1268.
С точки зрения дисковой подсистемы, лучше отключать всякие Power Managment функции (в ESXi и в БИОСе) – это может помочь уменьшить latency. А в следующей секции выясняется что и с точки зрения задержек сети это тоже рекомендуется.
Кстати, тут я узнал почему overhead, накладные расходы памяти, в пятерке заметно ниже чем в четверке. Оказывается, чтобы уменьшить объем памяти, резервируемый под обслуживание виртуального железа, стал создаваться отдельный файл подкачки, вида vmx-vmname.vswp.
Упоминается, что типы виртуальных дисков есть разные – но рекомендаций не дается Печальная рожица . Разве что “без снапшотов лучше”.
Я уже слышал об этом, но увидел здесь подтверждение -
New for vSphere 5.0, when ESXi is running on certain configurations of the Cisco Unified Computing
System (UCS) platform, DirectPath I/O for networking is compatible with vMotion, physical NIC sharing,
snapshots, and suspend/resume. It is not compatible with Fault Tolerance, NetIOC, memory overcommit,
VMCI, or VMSafe.

В случае если на ESXi работают несколько ВМ, получающие мультикаст трафик от одного источника – можно правкой конфига ВМ включить новую фичу SplitRX, оптимизирующую обработку сетевого стека, задействуя сразу несколько процессоров.
Если велики задержки в сети, можно попробовать использовать виртуальные сетевушки vmxnet3, но отключить для них “virtual interrupt coalescing”.

 

Гостевые ОС


VMware tools  - хорошо. Скринсейверы и прочие свистелки и перделки – плохо.
Якобы, в пятой версии улучшен механизм синхронизации времени через VMware tools. Ранее он выступал в качестве “лучше он чем ничего, хоть он и с тараканами”, а сейчас
“As of the version included in ESXi 5.0, the VMware Tools time-synchronization option is a suitable
choice. Versions prior to ESXi 5.0 were not designed for the same level of accuracy and do not adjust the
guest time when it is ahead of the host time.”
Если вдруг у вас будут ВМ с большим количеством виртуальных процессоров\ядер (восемь и больше), то их количество имеет смысл выставлять кратным числу физических ядер в одном NUMA-узле (разумеется, актуально лишь для серверов на NUMA платформах Opteron и Nehalem). Это связанно с тем, что ESXi 5 пытается создать виртуальный сервер тоже архитектуры NUMA. Большой разницы в производительности ждать не приходиться, но оптимальнее не мешать ему транслировать NUMA внутрь. Итак, у нас есть ВМ с 12 vCPU. Рекомендуется или дать ей 12 одноядерных vCPU, или пропорционально меньше vCPU но в каждом ядер столько же, сколько у физического NUMA узла.
У гостевых ОС могут быть собственные мнения по некоторым параметрам работы дисковой подсистемы. Один из факторов – максимальный размер одного блока IO. Если это значение маловато, это может привести к снижение производительности дисковой подсистемы. Может быть, его стоит увеличить.
К сожалению, в этом pdf за подробностями ссылаются на  http://kb.vmware.com/kb/9645697, в этой статье базы знаний за подробностями ссылаются на http://www.lsi.com/DistributionSystem/AssetDocument/documentation/insight_center/tech_trends/fusionmpt/FusionMPT_DevMgrUG.pdf . а туда меня не пустили без регистрации, которая не заработала.
Выравнивание файловой системы гостя – это хорошо. Напомню пару ссылок – что такое alligment, утилита для этого выравнивания уже существующих ВМ - Paragon Alignment Tool(TM) 3.0 can remote align partitions on VMs.
С точки зрения сети лучше использовать vNIC типа vmxnet 3 (на худой конец vmxnet 2, если третья версия не поддерживается для гостевой ОС. Ну или flexible если не поддерживается enhanced vmxnet).
Jumbo Frames для пятой версии поддерживаются vmxnet2,3, e1000.

Инфраструктура


Reservation, Limit и Shares надо использовать только если в них явно есть нужда.
Для базы данных vCenter есть следующие рекомендации:
Update statistics of the tables and indexes on a regular basis for better overall performance of the
database.
As part of the regular database maintenance activity, check the fragmentation of the index objects and
recreate indexes if needed (i.e., if fragmentation is more than about 30%).
Если под БД используется Microsoft SQL, то рекомендуется использовать recovery mode = Simple.
vCenter Web Client Server нормально установить на ту же машину, что и сам vCenter, если серверов под управлением vCenter меньше 33.
DRS запускает обсчет ситуации раз в 5 минут. Можно, хотя и не нужно Подмигивающая рожица, изменить это значение в конфигурационном файле vCenter – vpxd.cfg:
<config>
    <drm>
        <pollPeriodSec>
            300
        </pollPeriodSec>
    </drm>
</config>

воскресенье, 28 октября 2007 г.

Утилита для уменьшения размера vmdk.

Vizioncore обещает, что ее утилита vOptimizer сумеет помочь деле уменьшения размера диска, если реально задействованно меньше, чем занимает vmdk файл. Тут можно глянуть небольшой видеоролик(во флеше), чтобы оценить, какого с ней работать.

Добавил эту инфу в пост про все способы уменьшить диск ВМ.

среда, 9 февраля 2011 г.

thin shrink

Как вы знаете, в vSphere есть два типа дисков для виртуальных машин – “толстые” и “тонкие”, thick и thin.

Напомню ,что “тонкость” диска означает что после создания он занимает один блок VMFS, и растет лишь по факту записи данных гостевой ОС.

Довольно интересная тема для дискуссий– когда тонкие диски стоит использовать, но как факт стоит отметить – есть инфраструктуры где тонкие диски используются не только для тестовых ВМ.

Основная проблема тонких дисков – отсутствие возможности уменьшить диск, если гость сначала информацию какую-то записал, а потом удалил.

Вернее, такая возможность есть – но только вручную, см. thin shrink.

Однако описанная по ссылке процедура требует миграции дисков ВМ на другое хранилище, а это потенциальная проблема:

1) Мигрировать диски ВМ можно на горячую только если есть лицензия Storage vMotion. У кого ее нет – миграция дисков возможна только для выключенной ВМ => простой в ее работе.

2) “Чтобы продать что-либо ненужное, надо сначала купить что-либо ненужное”. Иногда просто некуда мигрировать ВМ большого объема.

 

Это все описание проблемы, с решением которой мне постучались в аську:

Добрый день! Хочу поделиться полученным опытом, надеюсь что он будет полезен ))
Недавно я задавал Вам вопрос о дисках виртуальных машин с параметром thin, которые не при разрастании отъедают место на сторедже. Я воспользовался Вашей рекомендацией по поводу sdelete, но делал не vmotion, а попробовал через бекапы … использовал софт от Veeam, с параметром развертывания ВМ в Force to thin …
Это дало положительный результат, ведь у меня на руках был и бекап ВМ и соответственно место отъедаемое на сторедже ее дисками уменьшилось.

Пожалуйста … я надеюсь что это станет полезным для тех,  у кого один или два хоста ESX, и сделать миграцию просто некуда …

Да сначала я сделал sdelete, потом сделал Бекап, снес старую ВМ с хоста и поднял ее из Бекап … вычурно конечно, но сработало …

Возможно, кому-то окажется полезным.

thx DjoN

пятница, 7 декабря 2007 г.

Про подсчет HA Failover Capacity.

Про подсчет HA Failover Capacity.

Засланный казачок ;) изнутри VMware информирует:

для ESX 3.02 (про 3.5 данных нет) применяется следующая схема подсчета т.н. HA Failover Capacity. Вспомнить, что такое HA и с чем его едят можно тут.

Итак - HA оперирует количеством «слотов» под ВМ. Считается по ресурсам CPU и оперативки. И считает это кол-во «слотов» следующим образом(на примере оперативки):

  • Имеем кластер. В кластере 4 хоста. В одном 8 ГБ памяти, в остальных больше - 16ГБ.
  • Имеем 12 РАБОТАЮЩИХ ВМ - учитываются только работающие. Находим наибольший объем оперативки, данный этим ВМ. Например, у одной виртуалки 2ГБ памяти, у остальных столько же или меньше.
  • Берем наибольшее значение оперативки ВМ(2 ГБ) и НАИМЕНЬШЕЕ - оперативки хоста(в этом примере 8ГБ). Делим второе на первое. Получаем 4 "слота". И распространяем это значение на прочие хосты, игнорируя(!), что памяти у них больше. И получаем, в итоге, что у нас есть возможность запустить 16 ВМ - умножив кол-во слотов на кол-во хостов кластера. Что, как вы видите, несколько далековато от реального положения дел.
  • Когда мы запустим 17 ВМ в этом кластере, то увидим сообщения “Insufficient resources to satisfy HA failover” и “current failover capacity will be shown as 0″

Дается несколько рекомендаций по предотвращению проблем:
  • в настройках кластера ставить “Allow Virtual Machines to be powered on even if they violate availability constraints” - чтобы мочь запустить виртуалки, даже если HA считает что не хватает ресурсов.
  • Если есть одна ВМ с сильно большИм объемом RAM, его стоит уменьшить. Или запускать эту ВМ на хосте не в кластере.
  • Для хостов же обратное - памяти много не бывает.
  • Резеврирование ресурсов процессора большее, чем его частота - ошибка.

Автор соглашается, что такая система далека от идеала, и говорит что в планах VMware ее поправить. Надеюсь, в ESX 3.5 это уже сделано - постараюсь выяснить.

Источник.

пятница, 19 октября 2007 г.

vOptimizer

vOptimizer FreeWare 4.0.41 - обещают, что эта бесплатная(когда она с ограничениями) утилита может уменьшить диск ВМ,
тут.

суббота, 19 сентября 2009 г.

ESX(i) vmdk shrink 2

К посту ESX(i) vmdk shrink.
Я проверил - если сначала уменьшить раздел, а потом диск - то операция проходит нормально.
Чего я не проверил - могут ли быть проблемы, если на этом диске фрагментированные данные.

Шаг 1: подключил к ВМ диск, отформатировал.
shrink_1

Шаг 2. Уменьшил раздел.
shrink_2

Шаг 3. Отключил диск от ВМ. Произвел манипуляции с помощью nano и vmkfstools.
shrink_3

Шаг 4. Подключил новый диск к ВМ, проверил работоспособность раздела на нем.
shrink_4



вторник, 3 мая 2011 г.

Transparent memory page sharing, vdi, large pages

Как вы, должно быть, знаете, у ESX(i) есть несколько технологий для повышения эффктивности использования памяти. (если кто не до конца в теме см. тут - Memory management).

Одна из технологий - Transparent memory page sharing, дедупликация оперативной памяти.
Гипервизор подсчитывает контрольную сумму страниц памяти виртуальных машин, находит одинаковые - и одинаковые страницы разных виртуалок в реальной оперативной памяти адресует в единственную копию.



По умолчанию, сканирование происходит раз в час, что должно быть достаточно хорошо для большей части случаев.

Однако вот тут - Increase VDI consolidation ratio with TPS tuning on ESX - описывается мнение что для VDI имеет смысл уменьшить частоту сканирования (с 60 до 10 минут). И довольно внушающая аргументация - часто много виртуальных рабочих станций одновременно включается, примерно в одно время на них начинают и заканчивают работать пользователи, часто в одно время случаются пики из за старта антивирусов и другого ПО. Если сканирование памяти будет быстрее отлавливать эти массовые изменения - экономия будет более эффективной.

Это первая часть поста.

Однако, есть нюанс касательно page sharing в целом, актуальный и для VDI при использовании Windows 7 - Large Pages.

Современные серверы позволяют операционным системам использовать большие страницы памяти (Large Pages). Операционные системы могу адресовать память страницами по два мегабайта, а не по четыре килобайта.
Это значительно сокращает размер таблицы адресов страниц, ускоряя работу с памятью когда этой памяти много. Обычно говорят о 10-20% повышении эффективности (см. Large Page Performance.)

Интересно, что сам ESX(i) вроде как поддерживает работу с большими страницами, и старается их использовать для памяти даже тех гостей, что сами по себе их использовать не обучены. (в том смысле что cам ESX(i) использует большие страницы для той памяти, что он выделил этому гостю, а сам гость работает по старинке "внутри" выделенного куска памяти). Правда, непонятно как это влияет на эффективность TPS.

Однако при использовании Large Pages эффективность дедупликации начинает уменьшаться, и очень значительно - найти абсолютно идентичные 2 мегабайта намного сложнее, чем идентичные 4 килобайта (см. немного подробнее на русском тут - Продолжаем говорить о памяти – Page Sharing).

Интересно, что при недостатке свободной ОЗУ на сервере ESX(i) начинает сам разбивать большие страницы на маленькие 4хкилобайтные, для возвращения эффективности Page Sharing.
(см. Transparent Page Sharing is not utilized under normal workloads on Nehalem based Xeon 5500 series CPUs.)


Известная мне теория гласит, что:
1) При использовании серверов на последней платформе (Nehalem у Intel и не знаю как называется у AMD), которые обладают поддержкой EPT\RVI
и при запуске современных ОС, умеющих работать с большими страницами

эти большие страницы используются, что приводит к околонулевой эффективности Page Sharing (исключая пустые страницы памяти, если они есть).

2) Можно отключить использование Large Pages.
Можно отключить  использование LP для всех ВМ хоста, при помощи настройки

Mem.AllocGuestLargePage to 0
Можно отключить использование LP для отдельной ВМ правкой ее конфига:
monitor_control.disable_mmu_largepages = TRUE

В этом  случае есть немалая вероятность что сервер начнет показывать, что свободной памяти стало больше - за счет дедупликации. Но может снизиться производительность. Однако, снижение производительности вероятно для ВМ с большим объемом ОЗУ (от 4 ГБ? от 8 ГБ?), и менее вероятно для ВМ с меньшими объемами.

Коллеги, если в теории я нигде не ошибся, остается тестировать ;-)

суббота, 15 августа 2009 г.

thin shrink

Интересный момент касательно thin дисков проясняют тут: Reclaiming unused VMDK space with storage thin provisioning.
Поясню, к чему это относится:

Когда мы создаем диск ВМ (например, в 100ГБ размером), мы выбираем тип файла-диска:
thick или thin.
В первом случае файл сразу резервирует под себя места на диске. 100 ГБ диск ВМ займет на системе хранения 100 ГБ.
Во втором случае файл создается нулевого размера, и растет по факту затребования места изнутри. Записали внутрь еще 500 мегабайт - он на них и вырос.

Это все хорошо. Плохо же то, что если мы внутри ВМ 500 МБ удалим, файл-диск не уменьшится. И если 5000 удалим, тоже не уменьшится. Сколько не удалим, не уменьшится, потому что с т.зрения схд удаления не происходила. Это гостевая ОС в своей файловой системе какие то блоки пометила как "их можно использовать". Получается, со стороны ESX(i) нельзя определить, какие из занятых блоков на самом деле свободны.

В общем, вот рецепт как отнять таки ранее востребованное, но потом освобожденное месте, т.е. как уменьшить vmdk файл в thin режиме:

  1. Скачиваем утилиту sdelete внутрь ВМ.
  2. Натравливаем ее на тот диск, где есть удаленные данные, командой
    sdelete - c E:
    это для диска E:\
  3. Теперь необходимо сделать Storage VMotion этой ВМ, и указав
    Change to Thin Provisioned Disk даже если диск еще не thin но вы хотите его таким сделать
    или можно указать
    Keep Disk Format
    если диск ВМ уже thin.
Как то так.

суббота, 26 февраля 2011 г.

thin vmdk shrik. Как уменьшить размер тонкого (thin) диска


Мне захотелось проверить и резюмировать то, как же можно схлопнуть тонкий диск.

Сначала резюме:
После стандартных действий по обнулению выделенных, а затем освобожденных блоков, следует выполнить миграцию "схопываемого" диска с выполнением одного из следующих условий:
  • миграция должна происходить между хранилищами на разных системах хранения.
    SAN -> NAS
    SAN -> локальные диски
    один SAN сторадж -> другой SAN сторадж;
  • миграция должна происходить пусть внутри одной системы хранения, но у VMFS хранилищ должны быть блоки разного размера;
  • миграция может происходить внутри одной СХД, между хранилищами с одинаковыми блоками - но с изменением кое-какой глубинной настройки. Только для ESXi.
А теперь подробности.
С недавно полученных гонораров за книгу я прикупил аж двухтеррабайтный диск в свою тестовую лабораторию, и ставши куда менее ограниченным в дисковом пространстве, решил поиграться со "схопыванием" тонкого диска, о нюансах которого был большой пост недавеча - thin shrink, VMFS blocksize.

Организация теста
Я создал 3 LUN на iSCSI СХД,
на двух из них VMFS с блоком = 8 МБ,
и на одном с блоком = 4 МБ.
Плюс к тому, добавил локальный диск с блоком размером 8 МБ на один из хостов.
И еще создал NFS-хранилище.

Развернул из шаблона виртуальную машину, с тонким диском, на хранилище с блоком в 8МБ. Диск тонкий, данных мало (рис.1).
Рис.1. тестовая ВМ, занимает мало места на хранилище с блоком 8 МБ
Следующий шаг - имитация разрастания тонкого диска и повода к схлопыванию. Копирую на диск ВМ данные объемом около 3 Гб, затем удаляю их (рис.2).

Рис.2. Добавление данных на диск ВМ, затем удаление


Очевидно, тонкий диск увеличивается, и не уменьшается(рис.3).
Рис.3. Тонкий диск увеличился
 Загружаем sdelete, применяем его внутри этой ВМ:
C:\>sdelete -c c:\

SDelete - Secure Delete v1.51
Copyright (C) 1999-2005 Mark Russinovich
Sysinternals - www.sysinternals.com

SDelete is set for 1 pass.
Free space cleaned on c:\


C:\>

И теперь необходимо выполнить Storage vMotion (ну или миграцию выключенной ВМ) для того, чтобы диск ВМ уменьшился.

Тестирование
Сама суть моего тестирования - проверить, а куда и откуда нужно мигрировать ВМ для того, чтобы SVmotion схлопнул ее тонкий диск.

Сейчас ВМ использует хранилище с iSCSI SAN, блок 8 МБ.
Тесты я планирую такие
1) Между LUN одной схд, один размер блока. SAN 8 MB -> SAN 8 MB
2) Между LUN одной схд, разный размер блока. SAN 8 MB -> SAN 4 MB
3) Между LUN схд и локальным хранилищем, один размер блока. SAN 8 MB -> local 8 MB
4) Между LUN схд и NFS-хранилищем. SAN 8 MB -> NFS
5)  Между LUN одной схд, один размер блока. SAN 8 MB -> SAN 8 MB, но попробовать через глубинную опцию принудительно использовать старый механизм копирования, схопывающий тонкие диски.

Для того чтобы слегка упростить себе задачу - я клонировал на исходном хранилище подготовленную к "схлопыванию" ВМ.

Итак, поехали.
1) миграция - внутри СХД, блоки на хранилищах одного размера. Схлопывания не произошло (рис.4).
Рис.4. Тест 1

2) миграция внутри СХД, блоки на хранилищах разного размера. Тонкий диск схлопнулся (рис.5).
Рис.5. Тест 2

3) миграция между СХД (между СХД и локальным диском), блок одного размера. Диск схлопнулся (рис. 6).
Рис.6. Тест 3


4) миграция с VMFS хранилища на NFS хранилище. Схлопывание произошло(рис.7).
Рис.7. Тест 4


5) Наконец, повторяем первый тест, но сначала зайдем на ESXi по ssh и выполним следующие команды:
~ # vsish
/> set /config/VMFS3/intOpts/EnableDataMovement 0

Эта настройка предписывает использовать только старый механизм перемещения данных - который решает нашу задачу.

Теперь запускаем миграцию между хранилищами внутри одной СХД, с одинаковым размером блока. Схлопывание произошло(!) (рис. 8).
Рис.8. Тест 5
Потом только стоит не забыть вернуть в ssh и восстановить значение ранее измененной настройки:


~ # vsish
/> set /config/VMFS3/intOpts/EnableDataMovement 1



Комментарии

Обратите внимание на связанный момент:
во всех случаях, кроме первого, использовался менее производительный механизм для миграции данных. Напомню картинку из исходных постов:

Вот если задействуется механизм, показанный красной линией, старый - он схлопывает тонкие диски.
А два более новых механизма - не схлопывают, зато работают быстрее.
Вот интересная страница коммьюнити VMware - Blocksize matters!
А там таблица:
Миграция между LUN одного стораджа, с задействованием нового и старого механизмов.
Разница в 4-5 раз. И это даже без VAAI.

Мораль - для скорости лучше, чтобы использовались новые механизмы.
Для "схлопывание" тонких дисков - обязательно нужно старый.

А для того, чтобы обычно использовались новые механизмы -  
блоки VMFS на всех наших хранилищах должны быть одного размера.
 И лучше, чтобы этот размер был бы 8 мегабайт - причин не делать так нет, а такой размер блока применим всегда.

среда, 10 октября 2007 г.

Всеобъемлющее пособие по методам изменения размера(уменьшения в т.ч.) vmdk файла.

Всеобъемлющее пособие по методам изменения размера(уменьшения в т.ч.) vmdk файла.

Вкратце:

  1. увеличить диск можно командой vmkfstools -X {какого размера сделать}G vm.vmdk Новый размер может быть только больше старого.
    1. После этого растянуть партицию в гостевой ос, загрузившись с live cd с соответствующей утилитой.
    2. То же, но растягиваем партицию, подмапив увеличенный диск к другой виртуалке, и натравив на нее diskpart.
  2. И увеличить, и уменьшить можно с помощью VMware Converter. Скачиваем, устанавливаем как приложение в гостевой ОС, делаем из нее ВМ(:) хотя она уже ВМ) с диском нужного размера.
  3. Наконец, можно взять Ghost(или другой софт работы с образами), подмапить второй винт к виртуалке(правильного размера, конечно), и перелить образ. Потом исходный диск убиваем, второй оставляем на его месте.
UPD. вот еще Vizioncore обещает, что ее утилита vOptimizer сумеет помочь в этом нелегком деле. Тут можно глянуть небольшой видеоролик(во флеше), чтобы оценить, какого с ней работать.