Главная Networks, Virtualization Hyper-V, VLAN и все-все-все
  • Hyper-V, VLAN и все-все-все

    title

    В последнее время технология виртуализации перестала быть чем-то экзотическим и прочно вошла в нашу жизнь. Применение виртуализации в работе дает много полезных и часто очень нужных возможностей. Это и перераспределение ресурсов на ходу, и возможность сделать полное сохранение виртуальной машины перед внесением серьезных изменений в конфигурацию с возможностью отката состояния в случае провала, и консолидация инфраструктуры, которая значительно упрощает управление, и многое другое. В данной статье речь пойдет об одной конкретной ситуации, с которой столкнулся автор.

    На одном физическом сервере мы поднимали инфраструктуру из виртуальных машин, две из которых должны были работать во внутренней сети, а две других должны были быть подключены к внешним сетям (у нас подходит два канала от двух провайдеров). В качестве платформы виртуализации использовался Hyper-V на Windows Server 2008 Enterprise. Использование Enterprise редакции для платформы виртуализации позволяет по одной лицензии на хостовую машину установить еще 4 виртуальных сервера Windows Server 2008, что весьма выгодно в плане стоимости.

    На физическом сервере установлено две сетевые карты, поэтому сразу три канала подключить не получилось. Для того чтобы дать возможность виртуальным машинам работать со всеми тремя каналами, мы решили использовать технологию 802.1Q. В какой-то ситуации, возможно, будет проще приобрести еще одну сетевую карту, однако применение VLAN позволяет воплотить в жизнь много интересных сценариев.

    Сценарий, который мы применили, был достаточно прост:

    base shema

    На свитче создаются два VLAN, соответствующие двум провайдерам. В каждый VLAN добавляются access порты, в которые подключены провода, идущие от провайдеров, и то оборудование, которое должно смотреть в них напрямую (в данном случае, один служебный сервер, пара VPN железок и IP камера). Далее создается один транковый порт, в который подключается провод, идущий на хостовую машину. Через вторую сетевую карту хостовая машина имеет доступ к локальной сети. Таким образом, получается жесткое разделение сред и контроль над подключенным сетевым оборудованием.

    Теперь о реализации.

    В качестве свитча используется AT 9448T. Это управляемый 48 портовый свитч. Самый простой способ произвести настройку – подключиться через консольный порт тем же Putty. Достаточно просто выбрать вариант serial и установить скорость 115200. Появится черный экран, где надо будет нажать Enter, после чего появится приглашение. На всякий случай — стандартный логин/пароль у Телесинов – manager/friend (на старых свитчах, например, он был manager/Ctrl + ati).

    Стандартный интерфейс настройки выглядит так:

    at1

    Однако, можно переключиться и в режим CLI, нажав C, как написано в меню (чтобы вернуться обратно, необходимо набрать команду menu). Мне больше нравится интерфейс с меню, для повседневных операций он удобнее.

    Чтобы создать VLAN, необходимо зайти в меню VLAN Configuration, а там в Configure VLANs. Это меню позволяет создавать/изменять/удалять VLAN’ы. Сейчас необходимо создать. Для этого надо выбрать пункт Create VLAN и в появившемся меню настроить нужные параметры:

    at2

    Чтобы изменить параметр, необходимо нажать цифру, соответствующую нужному пункту.

    После того, как все настроено, необходимо нажать C — Create VLAN.

    Соответственно, Tagged Ports — порты на которых трафик маркируется, Untagged Ports — обычные порты, которые не маркируют трафик, то есть обычный access port.

    В данном случае, в Untagged Ports загонялись порты, в которые подключены линки от провайдеров, оборудование, которое должно смотреть напрямую в канал провайдера, а в Tagged Ports ставился порт, который подключается к хостовой машине, тот самый транк.

    Результат настройки приведен на рисунке:

    at3

    Теперь стоит сохранить конфигурацию. Для этого в главном меню надо нажать S – Save Configuration (этот пункт появляется после внесения изменений в конфигурацию). Дополнительно стоит включить RSTP (полезный протокол, например, позволит защититься от петель, он настраивается в меню Spanning Tree Configuration), настроить интерфейс (настраивается в меню System Administartion -> System Configuration), что позволит использовать SSH (настраивается в Security and Services), собирать информацию со свитча по SNMP (настраивается в System Administartion -> SNMP Configuration ). Но это все уже отдельная тема.

    Следующий этап настройки — научить виртуальные машины общаться с нашим свитчом.

    Для этого необходимо скачать с сайта производителя сетевой карты последнюю версию драйверов и утилит. В нашем случае это Intel Pro 1000 PM. Поэтому отправляемся на сайт Интела в раздел загрузки (http://downloadcenter.intel.com/default.aspx?lang=rus&iid=subhdr-RU+downloads) и выбираем нужное устройство. Качаем пакет (он называется Intel Ethernet Connections CD — http://downloadcenter.intel.com/Detail_Desc.aspx?agr=Y&ProdId=3019&DwnldID=18664&lang=rus). Он несет в себе последнюю версию драйверов, набор PROSet и ANS (advanced network services). После установки перезагрузка не требуется. Теперь PROSet не имеет отдельного меню и значка в трее, он интегрируется в диспетчер задач.

    Общие просетовские настройки:

    proset1

    Работа с VLAN:

    proset2

    Работа с teams:

    proset3

    Также, тут есть одна интересная тонкость.

    ans1

    ans2

    Одновременно к адаптеру может быть привязан либо ANS, либо протокол коммутации виртуальных сетей. Это означает, что если адаптер привязан к виртуальной машине, то настроить на нем VLAN или добавить его в Team не получится (этих вкладок тоже не будет), что, в принципе, логично.

    Поэтому, если адаптер используется Hyper-V, нужно убрать с него привязку, чтобы можно было произвести конфигурацию. Единственное, отвязывать интерфейсы надо аккуратно, желательно имея возможность физического доступа, если что-то пойдет не так. Самый идеальный вариант — IP KVM. У Dell, например, есть замечательная штука – iDRAC, которая дает полное удаленное управление физическим сервером.

    Собственно, теперь для выполнения нашей задачи необходимо создать два VLAN. Для этого на соответствующей вкладке PROSet необходимо нажать New и указать тот VID, который мы дали соответствующему VLAN’у при настройке свитча. После добавления обоих VLAN’ов будут созданы два виртуальных адаптера, которые уже можно будет забиндить виртуальным машинам.

    В результате получится следующая картина:

    adapters

    На ней:

    cbs и trunk – два физических адаптера. cbs – подключен к внутренней сети, trunk – к транковому порту на свитче.

    cbs_virtual – виртуальный адаптер, созданный в диспетчере виртуальной сети Hyper-V, который подключается к виртуальным машинам.

    VLAN_comcor и VLAN_tascom – соответственно виртуальные адаптеры, которые созданы при помощи PROSet на адаптере trunk и промаркированы соответствующими тегами.

    virtual_comcor и virtual_tascom – также виртуальные адаптеры, созданные в диспетчере виртуальной сети Hyper-V, которые подключаются к виртуальным машинам.

    Теперь приведу иллюстрацию глазами диспетчера виртуальной сети Hyper-V:

    manager

    Таким образом, для Hyper-V существует три сетевых адаптера, которые он может дать виртуальным машинам.

    И уже финальный шаг – привязка адаптера к виртуальной машине:

    web

    Здесь необходимо также указать VID того VLAN’а, к которому подключен данный интерфейс.

    Таким образом, получается, что данный сетевой адаптер подключен к транковому каналу и на основе маркировки кадров он определяется как входящий в VLAN, к которому подключен провайдер Комкор. Однако виртуальная машина ничего об этом не знает, для нее существует только линк до роутера провайдера.

    Данный подход, на мой взгляд, довольно прост и гибок, но при этом позволяет делать весьма сложные схемы коммутации.

    За сим все 🙂

    Отдельно, огромная благодарность Руслану Карманову и его УЦ «Advanced training», без их ICND1,2 было бы сильно грустно во всем этом разбираться. Естественно, это неприкрытая реклама углубленного курса  CCNA 😉

    • Рубрика: Networks,Virtualization
    • Автор: Дмитрий Макаров
    • Дата: Среда 24 Фев 2010

Комментарии

  1. Предвижу лютое мерянье длиной патчкорда.

    Начнем:

    А вот в vSphere сам интерфейс вообще настраивать не надо, достаточно порт в режим trunk перевести!!!1111одинодин 🙂

  2. Порт свитча, имеется в виду 🙂

  3. А я зато умею вкусные котлеты жарить!!!1111одинодин 😉

    вечером, можно будет и похоливарить:)

  4. а как в hyper-v всем этим рулить ?

    в esxi через его управлялку, а в core режиме ?

  5. To Николай:

    Я не работал с vSphere, поэтому мне сложно судить о том, как это реализовано там. Если Вы в деталях расскажете — будет интересно. Что же до данной ситуации, мне не кажется, что действия описанные в статье являются чем то мега-сложным или проблемным.

    To Dmitry:

    В hyper-v для этого предусмотрена замечательная оснатска. Также существует отдельный продукт — SCVMM, но это отдельная тема.

    Hyper-V в режиме core подразумевает, что управление ведется с рабочей станцией с установленной оснасткой. Я особо не заморачивался с core-режимом, могу посоветовать посмотреть эту запись — www.clevelus.ru/stati-i-o... -v-rezhime-core/ у Clevelus'а, если Вам интересна реализация именно с core-версией.

  6. Да в общем про vSphere и рассказывать нечего.

    1. Включить trunk на портах коммутатора

    2. Назначить VLAN ID порт-группам куда подключены сетевушки виртуальных машин

    Все. 1 минута.

    Работает кстати в бесплатном ESXi.

    В Enterprise редакции есть Virtual Distributed Switch т.е. общий для всех хостов и виртуальных машин кластера. Так там внутри есть trunking, т.е. можно нацепить на порт-группу несколько VLAN 🙂

    А еще можно вместо этого виртуального свича поставить виртуальный Cisco Nexus 1000... мечта цисковода.

    А в Hyper-V VLAN несколько странновато настраиваются, особенное веселье начинается при количестве хостов > 1

  7. 2Сергей.

    Это в общем то оффтоп тут, но транк можно делать и на группах портов стандартных виртуальных коммутаторов ESX (i).

  8. 1. Давайте про нексус не будем. Это безусловно хорошая штука, но вот только это уже совсем тяжелая артилерия. И стоимость у нее тоже соответствующая. Так что далеко не каждая компания позволит себе такой сценарий установки инфраструктуры виртуализации. Да и не у всех стоят такие задачи.

    2. Я описал только один из способов. До этого я например работал с вариантом, когда на хост шел один транковый линк и все виртуальные машины цеплялись к нему с назначением соответсвующего VID. Хостов тогда было больше 1, как вы заметили:) И собственно веселья никакого не начиналось.

    3. Если меряться возможностями, то тогда я могу привести в пример SC. В частности SCVMM, Ops Mgr и SCPDM, например. Которые реализуют удобный мониторинг, резервное копирование и дополнительные возможности, такие, например, как Self Service Portal, Library и т.д.

    Ну и наконец, я просто описал одну конкретную реализацию на Hyper-V, причем тут VMWare?

  9. Извиняюсь, только сейчас заметил. Опечатка — я имел ввиду SCDPM.

  10. Ну можно перечислить продукты вот отсюда — www.vmware.com/products/

    Информацию о возможностях конкурирующей платформы лучше всего брать в первоисточнике. Тогда про портал самообслуживания (www.vmware.com/products/l...er/features.html), бэкапы (www.vmware.com/products/s...er/features.html) и прочее разговор будет куда более предметным. Кстати, hyper-v научился корректно работать со снапшотами без останова виртуалок?

    А начали мы действительно хорошо 🙂

    Возвращаясь к теме работы с сетью, отмечу, что в ESX/vSphere управление VLAN'ами гораздо нагляднее. Физические и виртуальные адаптеры визуально разделены. Можно нагородить кучу слепых свитчей (здорово помогает при необходимости поднять кусок инфраструктуры для тестирования), и не запутаться при этом. А горячее переключение прокси-сервера (виртуалки) из одного VLAN в другой я выполняю каждый раз, когда пропадает линк на одном из двух наших интернет-каналов. (Был уверен, что в винде это тоже на горячую делается, но скриншот смутил.)

  11. А в чем проблема со снапшотами? Снапшоты прозрачно создаются и удаляются на рабочей машине. Точно такая же ситуация с применением снимка.

    Если вы про сам механизм создания:

    •Hyper-V приостанавливает (pause) вашу ВМ.

    •Создается резервная копия конфигурации ВМ (файла в формате VMC).

    •Для всех текущих виртуальных дисков (файлов VHD*) создаются новые разностные (Differencing) диски.

    •В свойствах ВМ старые диски заменяются на новые. (Теперь всегда имеем нетронутую копию дисков на момент создания снимка);

    •Работа ВМ возобровляется. (Все это происходит на лету — так что вы ничего не замечаете. Прерывания работы не происходит).

    •Как только ВМ возобновила работу, Hyper-V начинает сохранять в отдельный файл состояние ее оперативной памяти.

    •Во время этого процесса Hyper-V организует работу с памятью так, чтобы ВМ не вносила изменения в те области, которые еще не были сохранены. Для этого временно используется оперативная или виртуальная память основной системы.

    И конкретно про паузу, то в данном случае это во-первых by design, а во-вторых пауза не есть остановка машины в смысле shutdown.

    Насчет линейки продукции от VMWare я не заявляю, что она куцая или плохая. Я говорю именно о линейке от Microsoft, которая является единым логическим продуктом в данном случае и позволяет создать полностью однородную инфраструктуру.

    По-поводу горячего переключения, а в чем проблема у Hyper-V? Он точно также позволит вам переткнуть подключенную сеть либо сменить VID.

  12. Интересно а используют ли Hyper-V там где заключен SLA и за downtime или торможение машины с исполнителя слетает денюшка?

  13. Ну с учетом того, что снапшоты позиционируются как средство для отладки и разработки, а для резервного копирования есть другие сценарии, то, думаю, данный аспект не имеет значения.

  14. Ну и вообще попячсо уже со своей VMWare, задолбал.

  15. > Я говорю именно о линейке от Microsoft, которая является единым логическим продуктом в данном случае и позволяет создать полностью однородную инфраструктуру.

    Нет уж, позвольте. Холиварить так холиварить, и пусть хоть потоп 🙂

    Про создание снапшотов вопросов нет, есть вопросы про удаление снапшота, то бишь склейку сохраненной копии и дельты при включенной виртуалке (на hyper-v).

  16. А как еще можно склеить дельты при данной реализации функции снимков?

    Механизм создания я приводил выше.

    Естественно это будет требовать выключения машины и некоторого времени на обработку.

    По своему опыту скажу, что например на машине с 12 Гб памяти и 2-мя ксеонами 5420 склейка 54 снимков в один для виртуалки с тремя виртуальными хардами (100 Гб, 300 ГБ и 200 Гб), заняла около часа. С учетом этого дикого дерева снимков и разбивки по дельтам, помоему не плохой результат.

    Так что не совсем понятно, в чем именно суть претензий.

    Есть механизм, который нормально работает, нормально выполняет СВОИ задачи и в чем тут вообще тогда проблема?

  17. Суть претензий в том, что реализация VMWare позволяет удалять снапшот на лету. Прямо при включенной машине сохраненный диск склеивается с дельтой. Поэтому реализация MS вызывает недоумение.

    Разностный диск имеет свойство со временем сильно увеличиваться в размере, а останавливать серверы для такого «обслуживания» может быть нельзя по SLA, что тогда делать? Вот в VMWare об этом подумали.

  18. Давайте тогда определимся. как вы видите использование снапшотов? Вы хотите сказать, что на сложной системе с жетским SLA вы регулярно делаете снапшоты виртуальных машин? Или вы хотите использовать это средство для резервного копирования?

  19. по сути, для резервного копирования ВМ на vSphere альтернатив две:

    1) это агент в гостевой ОС, и резервное копирование по сети.

    2) какое то решение (родное VDR или одно из множества сторонних), которое предполагает создание снапшота на время резервного копирования.

    в отрыве от резервного копирование снапшоты для производственных ВМ использовать не стоит.

  20. Для Hyper-V мое видение резервного копирования:

    1) как и в 1-пункт поста Ихаила - резервное копирование внутри машины

    2) Родное решение - SCDPM

    все опять же будет зависить от конкретной ситуации.

    Что касается снапшотов, еще раз повторюсь мое видение их применения:

    — отладка системы, когда необходима возможность проверить несколько вариантов состояния.

    — проверка нового ПО.

    — жесткое тестирование на ошибки.

    Тоесть то, чем в продакшене обычно не занимаются.

  21. > как вы видите использование снапшотов?

    В производственной среде снапшоты используются для резервного копирования. Создал снапшот, забэкапил, удалил снапшот. С оговорками, разумеется — не все серверы так можно бэкапить. В случае с Hyper-V снапшот удаляется чисто формально, запись продолжает осуществляться в разностный диск. В случае же с ESX/vSphere создается новый файл диска, базовый и разностный(е) диски в него склеиваются, затем гипервизор перекидывает обращения на новый файл диска и удаляет исходные файлы — всё это без остановки ВМ.

    Однако мы отвлеклись от начальной темы, ну да ладно. Холивар так холивар 🙂

    P.S.

    > Вы хотите сказать, что на сложной системе с жетским SLA вы регулярно делаете снапшоты виртуальных машин?

    Этот вопрос напомнил заявления MS о том, что «живая миграция нужна 1-2% заказчиков». Но он обоснован, да. Как и встречный вопрос — а много ли контрактов с жесткими SLA заключено провайдерами Hyper-V?

  22. Ну тогда у нас принципиально разный подход к использованию снапшотов. Свое мнение я озвучил выше. Боюсь тут уже что-то бессмыслено говорить, поскольку мы опять уперлись каждый в свое видение ситуации.

    Насчет контрактов — не скажу. Это не моя тема. Если вам интересно — обратитесь к тем кто предоставляет такие услуги или более плотно связан с этим.

    Может быть Илья Кашапов вам даст какую-нибудь информацию на эту тему (насколько я помню в Мастерхосте они этим занимались тоже).

  23. У майкрософт хороший маркетинг, он может частично компенсировать отсутствие некоторого функционала, но лишь частично и некоторого... 🙂

  24. У вмваре хороший маркетинг, он может частично компенсировать отсутствие некоторого функционала, но лишь частично и некоторого... 😀

  25. Отмечаюсь в холиворе, по статусу положено. 🙂

  26. 🙂

  27. пора уже мастдай кричать или нет? 🙂

  28. попробуй )

  29. Проверено все работает.

    В качестве свичта использована циска. Порт выставлен в режим транка.

  30. ребята, я не работал со всем этим оборудованием и программками, особенно не работал с ESXi и vSphere, но скажу что мне все это как то не очень.а чаще всего я работаю с большим грейдером.

  31. ребята, я не работал со всем этим оборудованием и программками, особенно не работал с ESXi и vSphere, но скажу что мне все это как то не очень.а чаще всего я работаю с большим грейдером .

  32. Доброго времени всем.

    Подскажите, плиз, если у меня в аналогичной ситуации только один физический сетевой интерфейс и мне нужно пропустить на него трафик с двух разных VLAN.

    Создаю как у автора два виртуальных адаптера с маркировкой тегами, привязываю их к виртуальным машинам.

    А на саму хостовую машину я что по сети попасть не смогу получается? Поскольку теперь не удастся привязать физическому адаптеру отдельный IP-адрес.

    Или я что-то не так прикручиваю?

    Как решается вопрос?

  33. Takeshi, создай отдельный адаптер на вкладке VLAN и повесь на него адрес. Причем если ты можешь создать нетегированный VLAN.

  34. Takeshi, создай отдельный адаптер на вкладке VLAN и повесь на него адрес. Причем ты можешь создать нетегированный VLAN.

  35. Дмитрий, спасибо, создал сетевой адаптер через нетегированный VLAN. На хостовую машину теперь попадаю.

    Еще вопрос, если на созданный сетевой адаптер (через тегированный VLAN) навесить IP-адрес, он будет отвечать (пинговаться) при условии что нужный транк на свиче настроен?

    У меня не отвечают виртуальные адаптеры, ни в самом Hyper-V, ни созданные тегированные сетевые адаптеры в хостовой машине.

    Сейчас включен протокол коммутации виртуальных сетей Микрософт в свойствах сетевого адаптера (ANS соответственно отключен).

  36. Дмитрий, спасибо за совет.

    Создал сетевой адаптер через нетегированный VLAN, теперь на хостовую машину попадаю.

    Еще вопрос:

    Если на самой хостовой машине, на созданный через tagged VLAN, сетевой адаптер навесить IP-адрес, он будет отвечать, пинговаться (при условии что на свиче настроен нужный транк)?

    У меня не отвечают виртуальные адаптеры, ни забинденный в Hyper-V, ни созданный в хостовой машине. Вроде все так же указал.

    Да еще, на сетевых адаптерах включен протокол коммутации виртуальных сетей (Микрософт), ANS соответственно отключен.

  37. Что-то сообщения пропадают...

  38. 1. Да.

    2. Проверяйте конфигурацию.

    Протокол коммутации виртуальных сетей должен быть включен на виртуальных VLAN-адаптерах. (на рисунке itband.ru/wp-content/uplo...apters_thumb.jpg — это VLAN_comcor и VLAN_tascom)

    ANS должен быть включен на адаптере физическом адапетере с транком (на рисунке это адаптер trunk)

  39. Да, спасибо, все верно, все работает.

    Не на тот интерфейс транк прикручен был )))

  40. А вот у меня такой вопрос возник может быть кто-нибудь подскажет. Настроил по инструкции step by step Hyper-V + Failover Cluster. Все работает отлично, но при попытке динамической миграции виртуальной машины с одного хоста на другой, в настройках виртуальной машины пропадает галочка «Разрешить идентификацию виртуальной локальной сети (Vlan)».

  41. Извините был не прав. Настраивал параметры в диспетчере Hyper-V, а надо было в диспетчере кластера...

    О чем в мурзилке и писали...

    technet.microsoft.com/ru- ...2181 (WS.10).aspx

    Step 11

  42. В общем попробовал я Hyper-V и сравнивая c Vmware скажу следующее:

    Плюсы VMware :

    — полная виртуализация сети (в настройках VM все просто до «подключить патчкорт в свич»). В Hyper-V необходимы знания по сети (какой VLAN выставить). Это позволяет разграничить права пользователей на уровни ролей

    — удаленная настройка сети и сетевых интерфейсов, IP адресов VMware

    — работа с distributed switch. К сожалению SCVMM 2008R2 хотя и дает подключаться к Vmware Virtual Center, но с distributed switch работает не корректно и до патча KB982522 вообще вылетал, а после патча все VM-ки стоят в статусе «Incomplete VM Configuration» из-за distributed switch

    — на версии 3.5 возможно запускать 32 приложения на хостах без аппаратной виртуализации (что дает ОГРОМНЫЙ плюс для организаций с мощным, но устаревшим парком серверов).

    Плюсы Hyper-V:

    — очень большой выбор платформ для хоста. Везде где запустится Win 2008 R2 (c аппаратной виртуализацией) можно построить «черный ящик», на котором будут крутиться виртуальные сервера. Это дает для малого бизнеса возможность запустить офис на компьютере в 500$, собранный «на коленке». Для Vmware в HCL стоят только brend servers со стоимостью от 2500$.

    У меня были 3 супернавороченых сервера Supermicro (по 4 quadro-core Xeon/40Gb RAM), которые VMWARE напроч не хотел воспринимать и выходил в розовый экран, а на Hyper-V - пожалуйста.

    — поддержка всех сетевых карт, RAID (в том числе software RAID). Даже на дешевой сетевой Realtek TRL8168 (пусть даже без поддержки VLAN) вы запустите VM — на VMware — ФИГ ВАМ (там нужны очень длительные «пляски с бубном» по внедрению недокументированных драйверов, изменению ядра, что не каждому под силу по опыту).

    Так что оба гипервисора — хороши по свойму.

  43. PS: Еще — для SC VMM2008R2 как и для Hyper-V Manager БОЛЬШОЙ МИНУС — отсутствие возможности подключать с машины администратора Floppy & DVD (только образы из библиотеки или DVD хоста).В Vmware можно подключить как образ так и диск с компьютера администратора (что позволяет подключить образ инсталляционного диска за сотни км).

  44. мда...

    существует традиция раз в месяц доставать лопату и откапывать этот тред ))) скоро уже будет год этой традиции:)

  45. @43

    Инсталляционный диск за сотни км. — лучше все же скопировать на хост и подключить оттуда. Во избежание непредвиденного.

  46. вот вы некроманты...

  47. Добрый день, надеюсь увидите эту запись 🙂

    Встал вопрос — а как пробросить влан внутрь виртуальной машины (чтобы они там уже по тегу отбирались)?

    Есть linux gateway, на котором уж очень много вланов, хотим перенести в виртуальную среду, но не охота делать 16 адаптеров, да и настройки того же iptables придется перелопачивать... Вланы сортируются по 802.1q уже внутри машины, на порт им идет тегированные пакеты...

    Или по умолчанию, если не выбирать нужные влан, Hyper-V пробрасывает пакеты все, не только VLAN1? Стоит Hyper-V 2012.

  48. [...] гайд по настройке виртуальных сетей и подробная инструкция от Дмитрия Макарова.Похожие записи:Использование Live [...]

  49. Прошу помочь!

    Собрали в Hyper-V Server 2012 из двух карт NIC Teaming, поменяли режим на LACP, для работы с транковыми портами Cisco.

    «New-NetLbfoTeam -Name „LAN Team“ -TeamMembers ethernet,»ethernet 2" -TeamingMode lacp"

    Но сеть не работает, сервер не пингуется...

    Причем Teaming собранный в Windows Server 2008 работает.

    Как заставить работать NIC Teaming в Windows Server 2012 понимать тегированые порты? Protocol = LACP

  50. Подскажите пожалуйста, как реализовать схему, когда на сервер приходит BB IP + 4 SRV IP.

    Нужно, что бы хост и 3 вирт машины на hyper-v получали по одому IP. Спасибо

  51. Доброго времени суток! Для вашей задачи необязательно устанавливать PROSet. Виртуальные адаптеры VLAN_comcor и VLAN_tascom имеет смысл создавать, если хостовая машина будет выполнять функции маршрутизатора VLAN. Например, при установке на хост роли TMG. Тогда физический адаптер trunk подсоединяется к локальной сети, а TMG маршрутизирует трафик между VLAN, а также между VLAN и Интернетом. При установке роли Hyper-V в виртуальных адаптерах VLAN_comcor и VLAN_tascom отпадает необходимость. Hyper-V создает полноценную виртуальную сеть с поддержкой VLAN. Эта сеть замечательно интегрируется с физической сетью через транковый порт коммутатора. И чтобы присоединить к VLAN 10 или 11 виртуальную машину, достаточно в настройках ее сетевого адаптера просто указать номер нужной VLAN.

  52. Не работает, как Вы рассказываете.

Опубликовать

Я не робот.