KDvr> Кто-нибудь уже имел счастье видеть вживую и работать с iSCSI SAN? А Hyper-V в MS Windows Server 2008 R2?KDvr> В первую очередь интересует работа таких дисковых массивов в связке с MS Windows Server 2008 R2.KDvr> Вопросов очень много. Литературы очень мало. KDvr> Как делать наиболее оптимально? KDvr> Как строить структуру сети? KDvr> Чем лучше соединять свич для приватной iSCSI сети с самим дисковым массивом (оптоволокно или витая пара 10ГБит)?KDvr> Как строить отказоустойчивость с точки зрения массива (RAID50 или RAID5 + RAID5 + 2HotSpare)?KDvr> Отказоустойчивость с точки зрения обвязки (два свича для приватной iSCSI сети и два контроллера)?KDvr> Если делать кластер из двух серверов на MS Windows Server 2008 R2, то как делать отказоустойчивое окружение? Имеется ввиду оптимальный набор компонентов и их соединение друг с другом.KDvr> Вообще мысль изначальная была в построений системы виртуализации серверов и клиентов на основе Hyper-V в MS Windows Server 2008 R2. Кто-нибудь видел вживую? Как работает? Отзывы (плевания?).KDvr> Обязательно-ли в качестве точки доступа к LUN iSCSI SAN использовать сервер или можно подключать прямо к клиентам? Можно-ли в таком случае настроить права доступа средствами дискового массива или лучше делать через домен?KDvr> Буду очень благодарен за любую информацию.
по виндам не скажу
из того что сейчас в работе (скоро сдача в продакшен, пока доделывается)
лефтхэнды (пара HP 4300 , итого 4 узла\полки) по iSCSI c линухами работают (шапка оракловая на пролиантах) ну и собственно ораклы
осложненно тем что нужно было вписаться в только что оборудованные серверные, особо инвестировать в сеть не было возможности
в идеале конечно нужно делать параллельно независимую сеть и привязывать её 10G линками к ядру
физика - голосую за оптику, она универсальна, хоть через этажи её прокидывай и кроссы
SFP-10G-SR/ SFP-10G-SR в каталисты
HP BLc 10Gb SR SFP+ Opt в пролианты
HP 5m Multi-mode OM3 LC/LC FC Cable (или другие мультимодные патчкорды LC-LC 50/125)
в каждой из двух серверных один сервер + два узла, в ядро сети (45е каты свежие) установлены 10G карты (по две в каждый каталист) , все компоненты привязаны 2 оптическими линками (по 1 карте)
была идея взять отдельные свитчи топ-он-зе-рэк но решили финально что если упадёт ядро то сервера полюбому будут не интересны ))
ядра этажей соеденины 10G оптикой между супервизорами каталистов
узлы лефтхэнда и сервера находятся в простом серверном вилане
по деталям настройки лефтхэндов можно поднять доку, не помню чем там закончились препитии с настройкой, помоему собрали все 4 узла в 1 массив который должен жить при смерти любых двух узлов (в наихудшем сценарии минус целиком одна серверная) , на нём сделали разделы под оба сервера + вмварную систему (параллельно делается)
на самих полках страйпсеты с избыточностью и спейрами (RAID 5)
предполагается что будет быкапиться снэпшотами которые скидываются на леточку тоже подключенную по 10G
по виртуализации - вмвара рулит (про виндовую хиперви ничего не скажу - просто не видел живьём), в детали не вникал (можно копнуть) но в общем люди занимающиеся вмварой довольны тем что им отдаётся по iSCSI от лефтхэндов
насчёт раздачи iSCSI напрямую пользователям - лично мне сомнительно, это же блочное устройство, оно само по себе домены и ACL не поддерживает, оно вообще на более низком уровне работает. Только если искать что-то что имеет встроенную самбу и умеет в домен добавляться, но это уже не iSCSI будет а обычный файлосервер...
зы перечитал, это не реклама лефтхэнда
есичо