• Битва гипервизоров: VMware vs Hyper-V

    За последние 9 лет было написано множество статей на тему “какой гипервизор для виртуализации серверов лучше” и, как правило, каждая статья становилась очередным полем битвы сторонников разных вендоров. Все статьи, даже те, которые были написаны независимыми специалистами, имеют один серьезный недостаток – они устарели достаточно быстро и с выходом новых версии продуктов стали практически неактуальны. В рамках данного труда я сделал свежее сравнение двух лидеров рынка – VMware и Hyper-V – и планирую ответить на по-прежнему актуальный вопрос “кто же круче?”. Сразу отвечу на возражение “почему ты не рассматриваешь решения KVM, Xen, Nutanix и легион других?”. Все очень просто: меня интересует ровно то, что актуальней всего на рынке и пока доля продукта исчисляется в 1-2-3%  от общей массы, тратить  свое время на “неуловимого Джо” нет никакого желания.

    • Производительность Hyper-V: тюнинг и мониторинг

      hyperv2012Как известно, до определенного времени в сфере виртуализации серверов «правил бал» VMware со своим ESX. Теперь же, с выпуском Hyper-V Microsoft постепенно «наступает на пятки». Насколько успешно – вопрос, конечно, весьма спорный, учитывая, что VMware ESX существует на рынке намного дольше. Тем не менее, Hyper-V привлекает все большее и большее внимание по мере появления новых фич – таких, как Cluster Shared Volumes и Live Migration в Windows Server 2008 R2, или Dynamic Memory в готовящемся к выходу Service Пакет обновления 1.

      • Инструкция по настройке Hyper-V Server 2008 R2

        hyper-v

        Hyper-V Server 2008 R2 имеет большое преимущество перед другими версиями ОС, т.к является бесплатным гипервизиром. Единственный нюанс заключается в отсутсвии поддержки графического интерфейса, что несколько усложняет его настройку. Эта статья – пошаговая инструкция, как сделать Hyper-V Server 2008 R2 (далее просто сервер) более дружелюбным к нам, админам. Как настроить права доступа, когда есть задача подключиться к серверу через «Диспетчер Hyper-V»: Hyper-V Management Tool (далее HVMT). При  этом ситуации могу быть самые разные:  сервер не в домене, а рабочая машина в домене, обратная ситуация, либо случай с недоменными хостами. Так же мы поговорим о том как настроить удаленное управление дисковой подсистемой сервера через “Управление компьютером – Управление дисками и управление файловой системой через оснастку Управление общими ресурсами и хранилищами

        • Полностью виртуальная инфраструктура на Hyper-V

           

          В этой небольшой статье хотелось бы рассказать про свой опыт использования виртуализации инфраструктуры на базе Hyper-V из состава Windows Server 2008 R2. Статья будет также применима и к Windows Server 2008 (R1). А если конкретно, то хотелось бы рассказать про проблему полной виртуализации инфраструктуры. Под полной виртуальной инфраструктурой я подразумеваю среду, где Hyper-V развернут в конфигурации Failover Cluster и все серверы, включая контроллеры доменов, виртуализируется.

          Чтобы было более понятно, рассмотрим следующую инфраструктуру. Есть группа хостов с Windows Server 2008 R2. Вы из этих хостов собрали кластер и хотите перенести всю вашу серверную инфраструктуру из физического состояния в виртуальное. Но встает дилемма. Среди физических серверов, которые вы хотите перенести в среду виртуализации, есть контроллеры доменов. Тут вы вспоминаете, что кластер зависит от службы каталогов и получается, что вам нельзя создавать взаимозависимость: кластер виртуализации от службы каталогов и наоборот.

          Вообще данная проблема не нова. Но я ни разу не встречал описание решения данной проблемы, поэтому все-таки надумал поделиться своим опытом. Возможно данное решение уже где-то описано и просто-напросто я не правильно или невнимательно искал.

          Решение.

          Failover-кластеру без службы каталогов очень плохо. Хотя бы по той причине, что служба каталогов используется для аутентификации узлов в кластере.

          Вернемся к нашей инфраструктуре. Мы все-таки развернули кластер Hyper-V, перенесли все серверы, в том числе и контроллеры доменов, в виртуальную среду. Физические серверы либо задействовали в качестве узлов кластера, либо полностью вывели из эксплуатации. Виртуальные машины разместили на Cluster Shared Volume (CSV), дабы задействовать замечательную функцию Live Migration.

          Получилось следующее:

          В один прекрасный момент выключается электричество, а вместе с ним через некоторое время выключаются ваши физические хосты и виртуальные машины.

          Включают электричество, хосты Hyper-V начинают грузиться, а вот виртуальные машины не стартуют. Это происходит по следующей причине. Виртуальные машины являются ресурсами кластера, служба ClusterSvc должна, в соответствии с зависимостью ресурсов, поочередно их поднять (перевести в online-режим). Но служба кластеров сама зависит от службы каталогов, контроллеры доменов которой являются ресурсами кластера. Получается замкнутый круг.

          Есть традиционные способы решения данной проблемы:

          Использовать хотя бы один физический сервер для контроллеров доменов. Согласитесь, что при текущей производительности серверов, не совсем целесообразно потратить на контроллер доменов 5-10 тыс. долларов (с последующей утилизацией раз в 3-5 лет). Для инфраструктур, характеризующих себя как централизованные и средние по размерам, хотелось бы максимально утилизировать вычислительные ресурсы, абстрагироваться от аппаратного обеспечения, и все это сделать с минимальными затратами. Децентрализованные инфраструктуры могут такой проблемы не ощущать.

          Использовать хост Hyper-V как контроллер доменов. То есть, развертываем роль ADDS на одном из узлов Hyper-V. Это уже лучше, чем первый случай, но все же есть некоторые проблемы:

          Проблема безопасности и проблема делегирования полномочий. Если развернуть RWDC на Hyper-V хосте, то трудно будет ограничить администратора среды виртуализации от возможности воздействовать на службу каталогов. Сразу скажу, что здесь можно долго спорить на эту тему, поскольку можно сказать, что если есть физический доступ к хосту, то без проблем можно получить доступ к виртуальным машинам. И это верно. Поэтому оставлю тему безопасности за рамками данной статьи. Возьмем за веру, что проблема с безопасностью все же есть в этом случае. Также можно установить RODC и это решит некоторые проблемы с безопасностью, но возникают другие проблемы. Update: чуть позже накопал, что RODC не поддерживается на узлах кластера.  http://support.microsoft.com/kb/281662/en-us

          Проблемы с решением и локализацией проблем. Если вы совмещаете несколько ролей, то не всегда можно быстро определить причину возникновения проблемы в такой системе, а значит и время решения проблемы увеличивается.

          Проблема с лицензированием. Конечно, с лицензированием проблем здесь нет, но вот у вас проблемы появятся. Если хост Hyper-V выполняет какую-либо роль кроме виртуализации, то вы лишаетесь возможности в полной мере покрыть хостовой лицензией запущенные экземпляры виртуальных машин. Например, в случае с Standard-лицензией вообще лишаетесь возможности использовать хостовую лицензию для лицензирования одной запущенной виртуальной машины, а в случае с Enterprise – одной. То есть с Enterprise-лицензией можете лицензировать запуск не 4х виртуальных машин, а только трех.

          В оригинале это звучит так:

          * Если запущено максимально разрешенное количество экземпляров, экземпляр в физической операционной среде может использоваться только для запуска программного обеспечения виртуализации устройств, обеспечения служб виртуализации устройств или для запуска программного обеспечения для управления операционными средами и их обслуживания на лицензированном сервере.

           

          А теперь, как я решал данную проблему.

          Если есть взаимозависимость кластера от службы каталогов и службы каталогов от кластера, то нужно эту зависимость убрать. Вы просто не делаете виртуальные машины (с контроллерами доменов) ресурсами кластера. А если сделали это раньше, то удаляете соответствующие ресурсы из кластера и, при необходимости, переносите файлы виртуальных машин на локальные диски сервера.

          Тем самым вы решаете проблему взаимозависимости. Теперь контроллеры доменов живут в виртуальных машинах и эти виртуальные машины не являются ресурсами кластера. При отключении электричества все прекрасно стартует.

          Правда в этом случае мы привязываем контроллер домена к конкретному хосту и он (контроллер домена) не может быть перемещен на другой хост с помощью Quick Migration или Live Migration (хотя может быть перемещен другими способами). Но это не беда. Высокая доступность контроллеров доменов достигается совершенно другим способом – избыточностью. На необходимое количество контроллеров доменов могут повлиять многие факторы, здесь мы их обсуждать не будем.

           

          Некоторые рекомендации (и даже требования):

           

          1. Создавайте виртуальные машины с контроллерами доменов на дисках, не являющихся кластерными ресурсами. Это могут быть как локальные диски (DAS), так и диски с СХД.
          2. Режим запуска виртуальных машин: Always Automatically Turn On The Virtual Machine или Automatically Turn On The Virtual Machine If It Was Running When The Physical Server Was Stopped
          3. Для службы кластеров (ClusterSvc) необходимо произвести настройки восстановления. Те, что на вкладке «Восстановление» свойств службы ClusterSvc оснастки Services.msc. Для всех сбоев необходимо указать перезапуск службы. Не могу сказать какие конкретно значения для «Перезапуск служб через:» вам подойдут, необходимо подбирать их индивидуально. Я использовал 3 минуты.
          4. Сократите интервал отображения меню восстановления. Настроить можно с помощью апплета «Система» панели управления.На самом деле я слукавил, когда чуть выше сказал, что все прекрасно стартует. Не совсем. Может возникнуть дополнительная проблема.

          Проблема №2.

          Дело в том, что есть еще одна взаимозависимость: служба каталогов от DNS и DNS от службы каталогов.

          Возникает она по следующей причине. Контроллер домена, при старте, пытается произвести репликацию своих контекстов именования (это при условии, что контроллер в лесу не один): пока не произведет репликацию, не будет выполнять свои функции. Служба DNS, желая при старте работать с самыми актуальными данными, откладывает загрузку интегрированных в AD зон, до момента, когда служба каталогов реплицирует данные и оповестит об этом службу DNS. Репликация AD, как известно, зависит от DNS: контроллер домена пытается получить IP-адреса своих партнеров по репликации с помощью DNS. А DNS в это время не работает, поскольку ждет AD. AD ждет DNS, DNS ждет AD. В свою очередь от DNS также зависит кластер и аутентификация. Через какое-то время служба каталогов все-таки даст добро службе DNS и та загрузит зоны. Этот timeout зависит от количества разделов, которые обслуживает контроллер доменов и примерно составляет 20 минут для 5 разделов (для контроллеров с 2008 R2 я наблюдал намного меньшую задержку – 5 минут).

          20 минут для кого-то могут быть вполне допустимы, а для кого-то нет. Попробуем решить эту проблему.

           

          Способы:

           

          1. Использовать в качестве DNS сервера сервер с другой площадки. Скорее всего, в этом случае у вас не должно возникнуть и первой проблемы.
          2. Установить дополнительный физический сервер с ролью DNS. Этот сервер будет обслуживать вторичную зону для _msdcs корневого домена и доменную зону локального домена (главная задача разрешить DSAGUID партнера по репликации в FQDN и FQDN в IP-адрес) Этот способ конечно не подходит. Мы вернулись опять к проблеме с физическим сервером. В этом случае проще сразу развернуть физический контроллер доменов.
          3. Установить роль DNS на хосте Hyper-V? Можно, но получаем те же проблемы, что и обсуждались чуть выше.
          4. Отключить начальную репликацию. Это делается установкой значения Repl Perform Initial Synchronizations в 0 для ключа:

          HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Services\NTDS\Parameters.  Можно, но не рекомендуется. Не рекомендуется хотя бы по той причине, что таким образом происходит попытка решить проблему с существованием в лесу (или домене) нескольких FSMO. Лучше такой способ не использовать.

          Использовать не интегрированные в AD зоны (полностью или частично). Знаете да, какие преимущества дает хранение зон в AD? Если вам эти преимущества не нужны, то можете использовать и этот способ.

           

          Сделать так, чтобы имя партнера по репликации разрешалось без участия DNS-сервера. Как это можно сделать? Способов много. Дополнительно стоит сказать, что, начиная с Windows Server 2003 SP1, появилась функция name resolution fallback, на тот случай если не удастся разрешить DSAGUID контроллера домена. Цепочка следующая: GUID -> FQDN -> NETBIOS-имя. То есть, если не удается разрешить CNAME GUID, то происходит попытка разрешить FQDN, если и это не удается сделать, то происходит попытка получить IP по NETBIOS-имени.

           

          Поэтому проблему можно решить:

           

          • Использованием HOSTS-файла. В хост файл можно внести запись о партнере по репликации. Можно добавить как GUID._msdcs.<имя_корневого_домена>, так и FQDN:

          <IP-адрес партнера по репликации> <DSA GUID>._mcdcs.<имя корневого домена>
          <IP-адрес партнера по репликации> <FQDN партнера по репликации>

           

          • Использованием файла LMHOST. Внести в файл соответствующую запись NETBIOS.
          • Использованием WINS-сервера. Наверное, наиболее предпочтительный способ.
          • Использованием NETBIOS-широковещания для разрешения имени. Если контроллеры доменов в одном широковещательном домене и Netbios-over-TCPIP не отключен (включен по умолчанию), то с проблемой №2 вы вообще не должны столкнуться.

           

          Внося записи в файлы HOSTS и LMHOSTS, необходимо отдавать себе отчет в том, что такие изменения в скором времени вами забудутся, и, при возникновении проблем с разрешением имен, вы потратите дополнительное время на поиск причины. Поэтому тщательнейшим образом документируйте вносимые изменения. То же самое касается локального изменения реестра: лучше делать изменения централизовано, например, с использованием групповых политик, а иначе концов не сыщете.

          Надеюсь, что представленные в этой статье рекомендации, помогут вам.

           

          Как установить Hyper-V кластер: http://lmgtfy.com/?q=how+to+install+hyper-v+cluster

          О первоначальной репликации: http://support.microsoft.com/kb/305476/en-us

          О проблеме загрузки DNS-зон: http://support.microsoft.com/kb/2001093/en-us

          LMHOSTS: http://support.microsoft.com/kb/101927/en-us

          Ефимов Геннадий, MCP

        • Главная Virtualization, Windows, Без рубрики, Новое Hyper-V, Windows Server 2012, вебинар
          • Вебинар TechNet: Windows Server 2012 Hyper-V Replica

            Presentation_RightBox210 мая сего года в 17:00 по московскому времени пройдет вебинар TechNet, в рамках которого я расскажу о новой технологии, которая появляется в Windows Server 2012: Hyper-V Replica. Эта технология позволяет осуществлять репликацию виртуальных машин между географически разнесенными площадками, что позволяет повысить отказоустойчивость. При этом не требуется покупки какого-либо дополнительного оборудования или программного обеспечения, в отличие от существующих решений вроде Veeam Backup & Replication или репликации на уровне СХД.

            • Массовое развертывание виртуальных машин с использованием SCVMM2008R2 SP1

              massЕсли вы слышали о Hyper-V – то наверняка слышали и об инструменте под названием Microsoft System Center Virtual Manager, предназначенном, как ни странно, для управления виртуальными машинами. Вдаваться в описание я не буду – в интернетах о нем не писал разве что ленивый, я опишу одну конкретную задачу, на поиск решения которой я потратил достаточно много времени. Итак, задача: создать с помощью VMM много виртуальных машин, присвоить статические IP-адреса и прочие сетевые настройки (маска, шлюз, DNS, etc.) и ввести в домен. К сожалению, здесь не все так просто, как кажется.

            • Главная Virtualization, Без рубрики, Новое Virtualization, VMware, виртуализация
              • ESX CPU scheduler deepdive. Multicore-Aware Load Balancing.

                Архитектура CMP (chip mutiprocessor) привносит новые проблемы алгоритмам балансировки нагрузки ввиду различных вариантов исполнения кэша на чипе. Предыдущие поколения процессоров обычно были с частным L2 кэшем, а более новые имеют общий как L3, так и L2 кэш. Также, количество ядер, использующих общий кэш варьируется от двух до четырех и более. Кэш последнего уровня (LLC – last level cache) – кэш, после которого идет обращение к оперативной памяти. Поскольку задержка при доступе к LLC и RAM различается как минимум на порядок, поддержание высокого уровня cache-hit для LLC становится жизненно необходимым для высокой производительности.

                • Что год грядущий нам готовит? Краткий whatsnew по Hyper-V 3.0

                  Догоним и перегоним!

                  clip_image002Совсем недавно, на конференции Build было проанонсировано новое поколение ОС от Microsoft: Windows 8 и серверная ОС Windows Server 8. Среди прочих нововведений в Windows Server 8 присутствует новая версия гипервизора Hyper-V 3.0. И – это уже стало доброй традицией – в каждой новой версии гипервизора появляются все новые и новые фичи. Не побоюсь этого слова, я был удивлен, узнав, сколько же всего нового появилось в Hyper-V 3.0: это и одновременная миграция нескольких виртуальных машин, и Storage Live Migration, и репликация, и ресурсные пулы и многое другое. Надо сказать, что это еще даже не бета-версия, а только Developer Preview, поэтому какие фичи будут реализованы, какие – нет, и как именно это будет работать – пока невозможно сказать. Тем не менее, мы посмотрим, что нам показывают сейчас. Заранее извиняюсь за сумбур и отсутствие картинок – делать полноценный обзор пока не вижу смысла. Во всяком случае до выхода публичной бета-версии.

                   

                  Так и What’s, собственно говоря, new?

                  Нововведений, как уже было отмечено – просто масса. Среди них:

                  • Виртуальной машине можно назначить больше 4х виртуальных процессоров. Официально заявлено – до 32. Так же официально заявлено, что виртуальным машинам можно будет выделять до 512 Гб памяти.
                  • Прямой «проброс» PCI-устройств в виртуальные машины (SR-IOV). Теоретически это позволит виртуальным машинам работать с устройствами, в частности, сетевыми адаптерами напрямую. Опять же теоретически – это может повысить производительность и использовать внутри виртуальных машин «специфический» функционал устройств, доступный только с использованием нативных драйверов. Как это будет работать на самом деле – посмотрим.
                  • Выделение ресурсов виртуальным машинам через пулы – Resource Pools, аналогично как у VMware. Теперь можно не бояться, что одна виртуальная машина «съест» всю полосу пропускания сетевого интерфейса или Fibre Channel-адаптера.
                  • При удалении снапшотов виртуальных машин операция объединения (Merging) теперь происходит «на лету» и не требует завершения работы гостевой ОС.
                  • Second Level Page File – очень странное нововведение – своп памяти для виртуальных машин на уровне гипервизора. Не так давно Microsoft официально открещивалась от такой технологии, называя ее вредной – действительно, это может привести к «интересным» ситуациям. Поскольку гипервизор «не знает», как использует память гостевая ОС – в своп могут попасть страницы памяти ядра. Или же гостевая ОС может выгрузить в своп те страницы памяти, которые уже были выгружены в своп самим гипервизором. Такие «курьезы» могут привести к непредсказуемым последствиям – от падения производительности до «синего экрана смерти» в гостевой ОС. Остается лишь надеяться, что Microsoft все это учтет, и каким-то образом сможет избежать таких ситуаций. Возможно, посредством интеграционных компонент гипервизор сможет определять, какие страницы можно свопить, а какие – нет, а гостевая ОС будет «знать», какие страницы уже попали в Second Level Swap.

                  Подсистема хранения данных

                  Самое заметное из нововведений здесь – это появление виртуального Fibre Channel HBA. Теперь LUN’ы можно презентовать от СХД виртуальным машинам напрямую без использования passtrough-дисков. Виртуальные FC HBA, в свою очередь, можно объединять в виртуальные SAN-сети и привязывать к определенным физическим HBA. Это, в частности, позволяет без особых ухищрений реализовывать отказоустойчивую кластеризацию на уровне гостевых ОС.

                  Помимо этого, появился новый формат файлов виртуальных дисков – VHDX. Их объем может достигать 16 Тб (против 2 Тб у стандартных VHD), так же заявляется устойчивость к сбоям питания.

                  Еще стоит упомянуть поддержку Offloaded Data Transfer (ODX). Тоже достойная внимания фича: если раньше при копировании блоков данных внутри одного LUN’а или между LUN’ами одной СХД приходилось сначала считывать блок, передавать его по SAN, а затем передавать его обратно для записи – то теперь в этом отпадает необходимость: копирование блоков осуществляется внутри СХД, не нагружая и без того загруженную SAN-сеть и HBA.

                  Ну и самое интересное: теперь файлы виртуальных дисков могут находиться на SMB-шарах. Это может пригодиться тем, кому не по карману «полноценная SAN». Хотя я, если честно, не знаю, для чего это может пригодиться, когда в комплект Windows Server 8 входит бесплатный Microsoft iSCSI Software Target. Тем не менее, это работает – я проверял.

                  Сетевая подсистема

                  Множество нововведений касается сетевой подсистемы. Самая главная новость: компания Cisco Systems заявляет о разработке виртуального коммутатора Nexus 1000V для Hyper-V 3.0. До сих пор эта уникальная фича была эксклюзивом для VMware. Теперь же она появится и у Microsoft, и это означает официальное признание того факта, что Microsoft Hyper-V все-таки «созрел» для Enterprise, что бы там ни говорили конкуренты.

                  Сами виртуальные коммутаторы в Hyper-V 3.0 стали более функциональными. Теперь они поддерживают так называемые расширения (Extensions). Расширения – это специальные модули, разрабатываемые как Microsoft, так и сторонними разработчиками, позволяющие перехватывать или фильтровать трафик, проходящий через виртуальный коммутатор. К примеру, можно использовать стандартный Microsoft Network Monitor для анализа трафика на уровне виртуального коммутатора. А расширение Windows Filtering Platform позволяет фильтровать трафик с помощью правил Windows Firewall. Вскоре после релиза Windows Server 8 появится виртуальный коммутатор Cisco Nexus 1000V, о котором уже говорилось, и скорее всего следующая версия Forefront Threat Management Gateway тоже будет работать с расширениями для виртуальных коммутаторов.

                  Отказоустойчивость и надежность

                  Так же, ряд нововведений коснулся отказоустойчивости и надежности. В частности, заявляется, что failover-кластер теперь может содержать до 63 узлов и до 4000 виртуальных машин. Проверить это мне, увы, не удалось по очевидным причинам.

                  Что же касается Live Migration – тут есть целых три новости.

                  • Одновременная миграция нескольких виртуальных машин. До нынешнего времени виртуальные машины могут мигрировать между серверами только поочередно. Если запущена миграция одной из виртуалок – придется дожидаться ее окончания, и только потом мигрировать следующую. В Hyper-V 3.0 можно задать число виртуальных машин, которые могут мигрировать одновременно. Верхний предел вроде как не ограничивается – в любом случае, проще будет упереться в «потолок» пропускной способности сети.
                  • Для Live Migration теперь не требуется объединение серверов в отказоустойчивый кластер. До настоящего времени использование кластеров было необходимым требованием для Live Migration. Теперь это не требуется. Более того, не нужно покупать дорогие системы хранения данных или настраивать программный iSCSI Target – достаточно разместить файлы виртуальных дисков на SMB-шаре.
                  • Наконец-таки она появилась и у Microsoft – Live Storage Migration. Теперь и у Microsoft появилась возможность перемещать не только память виртуальных машин между серверами, но и перемещать файлы виртуальных дисков из одной локации в другую без простоев гостевой ОС. Если виртуальных дисков несколько – можно выбрать, какие из них куда перемещать.

                  И есть еще одна новая фича – Hyper-V Replica. Эта фича позволяет периодически реплицировать файлы виртуальной машины на другой сервер Hyper-V, и в случае необходимости – например, при аппаратном сбое или сбое питания – запустить реплику как полноценную виртуальную машину. Так же реплики позволяют делать откат состояния виртуальной машины – по аналогии со снапшотами, что тоже может оказаться полезным. Репликация осуществляется инкрементно (реплицируются только те блоки данных, которые изменились с момента последней репликации) с интервалом раз в час. Разумеется, этот интервал можно изменить. При создании реплик используется технология Volume Shadow Copy (VSS), поэтому копия получается консистентной. Это особенно важно, если внутри виртуальной машины используются, в частности, базы данных.

                  Заключение

                  Вот, собственно, такой кратенький обзор у меня получился. Прошу прощения за уровень 100 и за отсутствие скриншотов и вообще за стиль статьи «галопом по европам», но пока не вышла хотя бы публичная бета – я наверное воздержусь от глубокого копания. Все еще может измениться и не один раз. Какие-то из описанных фич возможно и выкинут, какие-то останутся, но будут работать по-другому, а возможно добавят что-то новое. Тем не менее, можно составить примерное представление – чего можно ожидать от Hyper-V 3.0. Меня не могут не радовать темпы роста функционала Hyper-V, и если раньше он заметно проигрывал конкурентам – то теперь имеются все шансы значительно сократить это отставание, и это признают уже даже такие гиганты, как Cisco Systems. От себя могу только пожелать удачи Microsoft, и пусть через год они нас не разочаруют!

                • Главная Virtualization, Без рубрики Virtualization, VMware, СХД, файловая система