Главная Storages, Новое NAS & SAN
  • NAS & SAN

    Kids__6_Bin_Storage_Drawer NAS – Network-attached Storage, «устройство хранения, подключенное к сети» и SAN – Storage Area Network, «сеть хранения данных» — это не просто «переставленные в разном порядке буквы»;), это две концепции организации и использования сетевого хранения данных.
    Часто приходится сталкиваться с принципиальным непониманием у клиентов разницы между NAS и SAN-подключением внешнего дискового массива, преимуществах и недостатках каждого из вариантов.
    Итак,  давайте вкратце, не влезая в дебри и частности, разберемся что есть что, чем отличается друг от друга и какие плюсы-минусы есть у каждого.

     

    Для начала разговора хотел бы немного побухтеть. Дело в том, что в России с известных пор за NAS, как за понятием, стойко закрепилась ассоциация: NAS – это пластмассовая коробка на пару винтов SATA, с примитивным тормозным процессором, и «гигабитным эзернетом», порой не обеспечивающим даже ста мегабит. В общем, все прелести китайской электроностроительной промышленности «в сборе».

    Спорить с человеком, который убежден, что NAS – это для домашних пользователей, а вот «файбер ченэл» — это да-а, это «энтерпрайз», это примерно как объяснять человеку, который видел только игрушечные машинки, возможности нормального грузовика.

    «То есть вы, как я понял, предлагаете нам этот груз везти… на автомобиле? Вы смеетесь? Он же развалится! – Ну почему развалится, вы понимаете, есть же БОЛЬШИЕ машины… — Да знаю я, видел, вон у Пашки из соседнего подъезда есть, большой такой самосвал. Но он же все равно пластмассовый. Вы шутите! Только не автомобиль!»

    Характерный пример состояния дел – статья «NAS» в русском разделе Википедии. Особенно показательно сравнить ее по объему, качеству и содержанию со статьей «Network Attached Storage» из основной, англоязычной Википедии.

    Итак, давайте отвлечемся от продукции мастеров художественного сверления текстолита из Поднебесной империи, и посмотрим «в корень», в то, что такое NAS и SAN в основах.

    Коротко определить разницу между NAS и SAN довольно просто. Если "файловая система" организуется и поддерживается на стороне сетевого хранилища данных, то это NAS. Если файловая система организуется на стороне хост-системы (сервера), то это "устройство с блочным доступом", и, как правило — SAN.

    NAS хорошо знаком большинству пользователей, использующих в локальной сети своей организации файловый сервер. Файловый сервер — это NAS. Это устройство, подключенное в локальную сеть и предоставляющее доступ к своим дискам по одному из протоколов «сетевых файловых систем», например CIFS (Common Internet File System) для Windows-систем (раньше называлась SMB — Server Message Blocks) или NFS (Network File System) для UNIX/Linux-систем.
    Остальные варианты встречаются исчезающее редко.

    SAN — устройство, с точки зрения пользователя или сервера, есть просто локальный диск.
    Обычные варианты протокола доступа к SAN-диску это протокол FibreChannel (FC) и iSCSI (IP-SAN). Для использования SAN в компьютере, который хочет подключиться к SAN, должна быть установлена плата адаптера SAN, которая обычно называется HBA — Host Bus Adapter.
    Этот адаптер представляет собой с точки зрения компьютера такую своеобразную SCSI-карту и обращается с ней так же, как с обычной SCSI-картой. Отсылает в нее команды SCSI и получает обратно блоки данных по протоколу SCSI. Наружу же эта карта передает блоки данных и команды SCSI, завернутые в пакеты FC или IP для iSCSI.
    На приведенном рисунке вы видите 1 диск, подключенный с NAS-устройства (внизу), и один диск, подключенный по SAN по протоколу iSCSI. Щелкайте по картинке для того, чтобы посмотреть ее в большем размере.

    pic1

    Здесь мы видим, как SAN-диск виден в диспетчере устройств. Microsoft iSCSI Initiator это софтверный (программный) адаптер протокола iSCSI, представляющийся системе как SCSI-карта, через которую идет обмен данными с SAN-диском.
    В случае FC на его месте находился бы HBA FC, он тоже является с точки зрения OS «SCSI-адаптером».

    pic2

    Когда мы подключаем компьютер к SAN, нужно сделать rescan all disks и вскоре в Disk Manager появится новый неотформатированный раздел. На нем обычным образом можно создать партицию, отформатировать ее и получить локальный диск, который физически будет являться выделенным разделом на большой системе хранения, и соединяться с компьютером оптическим кабелем FC или сетью gigabit ethernet в случае использования iSCSI.

    pic3 
    pic4

    Каковы же плюсы и минусы обеих этих моделей доступа к данным системы хранения?

    • NAS работает поверх локальной сети, используя обычное сетевое оборудование.
    • Он работает преимущественно с файлами и информацией, оформленной как файлы (пример: документы общего пользования, word- и excel-файлы).
    • Он позволяет коллективное использование информации на дисках (одновременный доступ с нескольких компьютеров).

    • SAN работает в собственной сети, для использования которой нужен дорогостоящий Host Bus Adapter (HBA).
    • Он работает на уровне блоков данных. Это могут быть файлы, но это могут быть и нефайловые методы хранения. Например, база данных Oracle на т.н. raw-partition.
    • Для компьютера это локальный диск, поэтому коллективное использование информации на SAN диске обычно невозможно (или делается очень сложно и дорого).

    Плюсы NAS:
    • дешевизна и доступность его ресурсов не только для отдельных серверов, но и для любых компьютеров организации.
    • простота и гибкость коллективного использования ресурсов.

    минусы NAS:
    • невозможно использовать «нефайловые» методы.
    • доступ к информации через протоколы «сетевых файловых систем» иногда медленнее, чем как к «локальному диску».

    Плюсы SAN:
    • можно использовать блочные методы доступа, хранение «нефайловой» информации (часто используется для баз данных, а также для почтовой базы Exchange).
    • «низкоуровневый» доступ к SAN-диску обычно более быстрый, чем через сеть, так как нет «оверхеда» на обеспечение дополнительного функционала разделения доступа и прочих возможностей.
    • Некоторые приложения работают только с «локальными дисками» и не работают на NAS (пример — MS Exchange)

    Минусы SAN:
    • трудно, дорого или вовсе невозможно осуществить коллективный доступ к разделу с двух и более компьютеров.
    • Стоимость подключения к FC-SAN довольно велика (около 1000—1500$ за плату HBA). Подключение по iSCSI (IP-SAN) гораздо дешевле, но требует поддержки iSCSI на дисковом массиве.

    Итак, что же общего между этими двумя методами? Оба этих метода используются для «сетевого хранения данных» (networking data storage).

    Что из них лучше? Единственного ответа не существует. Попытка решить задачи NAS с помощью SAN-системы, как и обратная задача, зачастую есть кратчайший путь потратить большие деньги без видимой выгоды и результата. Каждая из этих «парадигм» имеет свои сильные стороны, каждая имеет оптимальные методы применения.

    Разобравшись с отличиями NAS и SAN, вы застрахуете себя от появления неожиданных вопросов вида: «Мы купили дисковую систему хранения FC, но не можем разобраться, как же нам ее настроить так, чтобы два наших сервера работали с одним разделом с данными, лежащим на системе?»
    Короткий ответ: Никак. Либо приобретайте и устанавливайте на ваши сервера так называемую «кластерную файловую систему».

    Вопрос: Можно ли построить надежную и высокопроизводительную систему хранения на NAS?
    Ответ: Да, как и на SAN. Хороший пример «по-настоящему большой» системы хранения «энтепрайз-уровня» в виде NAS -  датацентр Oracle в городе Austin, Техас, США. Это крупнейшая в мире инсталляция Oracle, представляет собой (по состоянию на 2007 год) свыше 22 тысяч серверов Linux (еженедельный прирост около 100 серверов) с Oracle 10g RAC, хранящих и использующих данные с NAS-систем NetApp общим объемом свыше 10 петабайт, подключенных по NFS по Gigabit Ethernet.

    Обзорный видеоролик: www.youtube.com/watch?v=fjnkfLkYNis

    Выбор NFS NAS был определен тем, что создание, администрирование и обеспечение отказоустойчивой работы Oracle на NFS для такой огромной системы оказалось значительно проще и дешевле, при сравнимом с FC-SAN уровне быстродействия системы в целом.

    Romx

    http://blog.aboutnetapp.ru/

    • Рубрика: Storages,Новое
    • Автор: Romx
    • Дата: Вторник 30 Июн 2009

Комментарии

  1. X-Men убрал ваш коментарий.

    До тех пор, пока вы мне не сможете внятно объяснить, что вы хотели сказать в посте, который содержит несколько ссылок на ресурсы не по теме.

  2. «NAS хорошо знаком большинству пользователей, использующих в локальной сети своей организации файловый сервер. Файловый сервер — это NAS. Это устройство, подключенное в локальную сеть и предоставляющее доступ к своим дискам по одному из протоколов «сетевых файловых систем», например CIFS (Common Internet File System) для Windows-систем (раньше называлась SMB — Server Message Blocks) или NFS (Network File System) для UNIX/Linux-систем.»

    Все не верно. Файловый сервер — это НЕ NAS, а NAS — это НЕ файловый сервер. То, что выпускают в пластмассовых коробках это просто файловый сервер. У людей каша в голове, не запутывайте их еще больше. NAS подключается к хост-машине по iSCSI, а клиент видит NAS через хост-машину как сетевой диск. Сетевой диск это НЕ NAS. NAS это другая технология подключения дисковых систем, в отличие от DAS.

    CIFS и SMB это не одно и то же (в WS2008 уже SMB2).

  3. хотелось прояснить стоимость подлючения к san. сейчас двухголовый hba (как fc, так и iscsi) от dell обойдется в $700-800, основная же статья расходов — коммутатор и лицензии на порты подключения ($9-15K за пару ). та же циска позволяет лицензироваться по группам портов — экономим до 30% на одном коммутаторе. итого подключение четырёх серверов по резервируемой схеме обойдется в $15-20K + ~$750 за каждый дополнительный. не всё так мрачно и не сильно дороже, не сгущайте краски

  4. NAS:

    Э-э... Дорогой друг! Спасибо, что вы проиллюстрировали своим комментом то, насколько велика каша в головах у русскоязычных пользователей на эту тему. Это как раз то, о чем я писал в своем посте.

    Я бы рекомендовал вам, прежде чем спешить исправлять чужие «ошибки», получше познакомиться с теой, чтобы не выставлять свои знания в этой области на... ну-у... на всеобщее обозрение, так скажем. 🙂

    Для начала советую вам прочитать статью в английской Виипедии, ссылку на которую я привел в посте, там в общем все достаточно понятно, по крайней мере нет той беспомощной ерунды, которая написана на русской странице.

    Готов поспорить предметно, однако после того, как вы прочтете тему подробнее, и когда уже не будете утверждать, что «по iSCSI подключается сетевой диск».

    Спасибо 🙂

  5. Андрей:

    В данном случае, в этом посте, я не поднимаю тему стоимости подключения, это тема отдельного поста. Да, я знаю где взять HBA даже и по 200$, но это нисколько не меняет того факта, что, например, при подключении сервера к SAN вы никак (без приобретения лицензии на какой-нибудь MelioFS) не сможете подключить два и более сервера к одному разделу данных, например для организации отказоустойчивого кластера (речь не про quorum disk).

    Это то, с чем упорно сталкивются пользователи, покупающие их «первый SAN», один я ответил на подобные вопросы (и огорчил) уже не менее десятка раз.

    И именно показать то, что сущестуют разные задачи разные их решения — вот в этом была цель.

    Решать же все задачи с помощью использования исключительно устройств блочного доступа... «Когда в руке молоток — все вокруг кажется гвоздями».

    «Статьи расходов» же будут меняться в зависимости от вендора. У Cisco — одни, у Brocade — другие, у QLogic — третьи. Для коммутаторов — одни, для модульных директоров — другие. Рассмотрение полного бюджета SAN далеко выходит за рамки поста на популярном ресурсе.

  6. согласен надо было написать лично

    «может пригодится»

  7. А можете в качестве бонуса дать оперделение DAS? У меня после чтения статей в инете сложилось впечатление, что это аналог SAN.

  8. Нетрудно ответить © Ирландская «Старина мест» 🙂

    Главное отличие DAS от SAN и NAS — отсутствие в названии буквы N 🙂

    Нет, серьезно. DAS это не «Network».

    Это _одно_ устройство хранения, включенное проводом, пусть и длинным, в _один_ хост-сервер.

    Теоретически SAS, как протокол, имеет некоторые теоретические возможности создания SAS-сети с коммутацией, но на практике SAS-коммутаторов не водится пока.

    Да, можно рассматривать подключение одного хоста с FC HBA к одному FC-стораджу прямым проводом без коммутации, как DAS, но я склонен считать это просто неким «вырожденным случаем» SAN, также как мы считаем подключение одного компьютера к другому кроссоверным ethernet-кабелем или WiFi Adhoc — сетевым, хотя сети тут вроде и нет никакой.

  9. Статья конечно интересная, и кашеобразная 🙂 Свою лепту могу внести только в том плане, что для себя я таки выбрал SAN, и не аппаратный, а програмнный. После дооолгих мучений таки был выбран Starwind, хотя бы за бесплатность одной из версии, и простоты использования.

    И кстати, DAS — Direct Attached Storage. Всё понятно из названия 😉

  10. > Свою лепту могу внести только в том плане, что для себя я таки выбрал SAN, и не аппаратный, а програмнный.

    Ну SAN, или NAS, или что-то еще, выбирают обычно не «для себя», а для задачи. Что у вас за задача нигде не сказано, может для нее и дествительно StarWind хватит. Хотя бесплатных (да и не бесплатных) программных target-ов на рынке хватает.

    > И кстати, DAS — Direct Attached Storage. Всё понятно из названия

    Как видите не всё и не всем.

  11. Хостинг. И мы используем виртуализацию, а Starwind используем для организации shared storage. Плюс существования бесплатной версии в том, что мы имели возможность в течении нескольких месяцев протестировать возможности программы.

    Direct Attached Storage — подключение хранилища напрямую к серверу или компьютеру.

    timphillipsvblog.wordpres...s-vs-nas-vs-san — у этого дяди неплохие изображения и описания DAS, SAN, NAS.

  12. Два компьютера не могут использовать один DAS?

  13. > Два компьютера не могут использовать один DAS?

    Через один и тот же порт — нет.

    Аналогия: к одному COM-порту может быть подключно только одно устройство. А к одному Ethernet может быть подключено много.

    То есть подключение COM-COM это не «сеть», а Ethernet — «сеть».

  14. Абсолютно точно! А NAS — это DAS только подключённый к сети, тогда как SAN — решение совмещающее в себе всё лучшее из обоих технологий!

  15. Могу сказать точно одно, пока не пощупаешь руками, понять очень сложно)

  16. > Абсолютно точно! А NAS — это DAS только подключённый к сети, тогда как SAN — решение совмещающее в себе всё лучшее из обоих технологий!

    Поразительно, но неверно ни одно из трех утверждений. Попробуйте еще раз 😉

    > Главное понять чем «сеть» отличается от «не сеть», дальше будет проще 😉

  17. > Могу сказать точно одно, пока не пощупаешь руками, понять очень сложно)

    Главное понять чем «сеть» отличается от «не сеть», дальше будет проще 😉

  18. Скажем точнее не совсем верно написано. 🙂

    А можно сделать так: не будем критиковать, а напишем сами точнее, а мы покритикуем 😉 Как такой вариант?

  19. Кто чего напишет, выражайтесь яснее, пожалуйста? Ничего не понял.

  20. С русским у меня плоховато: давно не общался.

    Я имею в виду зачем критиковать всех, если можно написать и самому 😉

  21. > Я имею в виду зачем критиковать всех, если можно написать и самому

    Возможно вы не обратили внимание, что комментируете вы мою статью. 😉

  22. Да, прошу прощения) Надо бы обращать на это внимание в будущем )))))

  23. «Щелкайте по картинке для того, чтобы посмотреть ее в большем размере.»

    Размер картинки на сайте составляет 620px × 362px. Размер картинки по ссылке составляет 450px × 262px. А, Вы, говорите: «каша, каша...» 🙂

  24. Спасибо за статью.

    Поскольку ,кроме поделок типа «сетевой HDD», я не встречал NAS устройств интересно, как у них обстоит дело со взаимодейсвием с LDAP-серверами, например AD? Грубо говоря, могу ли я раздавать доступ к файлам на NAS пользователям из AD?

  25. Дело обстоит хорошо так как два основных производителя Enterprise NAS — компании EMC и NetApp, используют в своих NAS-системах не «реверс-инжиниринговую» SAMBA, а официально купленную у Microsoft спецификацию протокола CIFS (и SMB 2.0), а значит полностью поддерживают «нативно» все особенности протокола.

    Написаны руководства по применению и Best Practices, например в Technical Library компании NetApp:

    «Windows File Services Best Practices with NetApp Storage Systems»

    «Unified Windows and UNIX Authorization Using Microsoft Active Directory LDAP as a Directory Store»

    «Unified Windows and UNIX Authentication Using Microsoft Active Directory Kerberos»

    «How Network Appliance Devices Join Active Directory»

    Надо сказать, что NAS устройства «старшего класса» «вне России» очень популярны, и в настоящее время рынок объемов продаж NAS-систем даже обгоняет SAN-системы хранения.

  26. Хорошая статья, Автору спасибо!

  27. Статья хорошая. Из практики- NAS используется как раз как файловый сервер, SAN для failover сборки. Автору спасибо!

Опубликовать

Я не робот.