Archive for Сентябрь 2011

Еще несколько слов про MPHA: исправления

Досадная недоработка в конфигураторе NetApp, не позволяющая купить FAS3210 без сконфигурированного MPHA, для которого требовалась дополнительная карта портов SAS, занимающая один из двух слотов расширения контроллера, и, например, мешавшая получить в 3210 и 10GB Ethernet и Flash Cache разом, в одной системе –  устранена.

Ранее опубликованный пост исправлен, и, так как он оказался, неожиданно для меня, весьма резонансным, этим отдельным постом я хочу привлечь внимание к этому исправлению.

Теперь нет нужды в хитрых маневрах, чтобы купить FAS3210 с 10G Ethernet и Flash Cache (по факту, весьма популярный вариант), конфигуратор исправлен, и теперь такую конфигурацию можно без проблем сконфигурировать и заказать.

Vox Populi: Сколько лет вашей системе хранения NetApp?

Очередной вопрос к читателям. Хотя я стараюсь писать для, скажем так, “начинающих пользователей” и newbie-админов систем хранения, по крайней мере именно таким я вижу “целевую аудиторию” этого блога. Ведь большинство тем, которые я тут пишу, откровенно говория, скорее всего не очень интересны опытным пользователям, которые все это уже должны и так хорошо знать, поэтому, как мне видится, результат должен быть смещен в сторону новых систем.

Но все же: Сколько лет используемой у вас системе хранения NetApp? Если систем несколько, то давайте считать, что вопрос относится к наиболее старшей из этих нескольких.

[poll id="5"]

Тема опроса отчасти навеяна неожиданно высоким уровне postwarranty систем в самом первом опросе такого рода в блоге.

Две моих любимых новинки в VSC 2.1.1

В сегодняшнем переводе о двух самых показавшихся ему интересными новинках VSC 2.1.1 рассказывает блоггер NetApp Luke Reed. (Я объединил два его поста, про первую и вторую фичу, в один, для полноты).

 

VSC 2.1.1 – Мои любимые новые фичи

Posted by luker on Sep 9, 2011 5:44:16 AM

Вчера (8 сентября, прим romx) NetApp выпустил новую версию своего плагина дляvSphere –  Virtual Storage Console (VSC).

Среди всех новых возможностей этой версии, две моих любимых это:

Добавление уже существующего датастора на новые сервера ESX в кластерах или датацентрах.

Если вы уже использовали VSC для создания датасторов, вы знаете, как с его помощью это делается быстро и просто, запустили мастер, и он создаст новый том FlexVol, экспорт его через NFS, смонтирует его на каждый сервер ESX в кластере, и создаст на нем датастор, все в одну операцию.

Недостаток тут в том, что если какой-то из ваших серверов ESX в этот момент выключен, на обслуживании или в standby, то VSC, в ходе этой процедуры создания, пропустит этот хост, так как он конфигурирует датасторы только на хостах в онлайне.

Аналогичная беда случается, если вы решите добавить новый сервер в кластер позже, после того, как VSC добавит его членам датастор.

Единственным выходом до сих пор было вручную подключать датасторы на необходимые сервера. В случае датастора по протоколу NFS, вам надо было добавить IP-адрес VMKernel на эти сервера, затем вручную смонтировать датастор на сервер.Для датастора по протоколу VMFS, вам надо было добавить WWN или IQN этих серверов в iGroup, затем сделать rescan на серверах ESX, чтобы обнаружить и подключить новый для этого сервера датастор.

Теперь, с использованием VSC 2.1.1 это все делается гораздо проще.

Когда вы выбираете хост в vSphere Client inventory, вы увидите новую кнопку, под названием “Mount Datastores”.

image

Щелкнув ее вы откроете мастер, который покажет вам датасторы, уже подключенные на других хостах кластера.

image

Отметьте, что он покажет только датасторы с того контроллера системы хранения, который настроен на работу с VSC.

Так что просто выберите тут датастор, который вы хотите подключить данному серверу, и жмите OK. VSC пойдет и автоматически выполнит все шаги по подключению уже существующего датастора к выбранному серверу ESX. Это работает, заметьте, как для NFS, так и для VMFS!

image

Отлично сделано!

 

 

Другая моя любимая новая фича VSC 2.1.1, это новая операция “Reclaim Space”, или возвращение в пул свободных блоков на системе хранения места, высвобожденного после удаления данных внутри виртуальной машины.

Эта новая возможность работает (пока) только для виртуальных машин Windows на файловой системе NTFS, лежащих на датасторе, подключенном по NFS, и требует версию ONTAP 7.3.4 или новее, она возвращает системе хранения место, высвобожденное в результате удаления файлов внутри виртуальной машины.

Вот пример того, как это работает. Я создал 10 VM, каждая размером 10GB в формате Thin VMDK.

Установленная в них Windows 2003 заняла примерно 5GB, и так как я делал VM с помощью функции “Create Rapid Clones” из VSC, они получились уже в дедуплицированном формате.

Теперь я скопировал примерно по 5GB данных в каждую VM (я использовал разные образы ISO, куски моей библиотеки iTunes, и так далее), а затем удалил эти данные из каждой VM.

После этого я получил примерно 60GB занятого пространства в датасторе этих VM:

image

Каждый из Thin VMDK раздулся примерно до 10GB, несмотря на то, что после копирования данных я эти данные с диска VM удалил.

image

Также отметьте, что такие раздувшиеся VMDK также будут, например, дольше копироваться при Storage vMotion, так как ему придется копировать дополнительные “занятые” блоки. Разумеется то же самое будет и с репликацией SnapMirror, репликации придется копировать дополнительные блоки, несмотря на то, что они заняты уже удаленными в файловой системе файлами.

А теперь давайте задействуем операцию Reclaim Space, щелкнув правой клавишей по датастору и дойдя до пункта меню Reclaim Space, как показано а скриншоте.

image

Появится окно Reclaim Space. Займет несколько секунд процедура проверки датастора, и создания списка VM, для которого будет производиться операция.

image

Также вас предупредят, что для проведения процедуры потребуется выключение VM. После нажатия OK, виртуальные машины будут остановлены на время проведения операции.

image

Затем начинается процесс Reclaim Space. На моем тестовом стенде этот процесс занял примерно 3 минуты на 10 VM.

image

После выполнения процесса, занятое на датасторе место уменьшилось с 60GB до примерно 15GB (экономия составила 45GB), а диски  VMDK виртуальных машин сжались с 10GB, обратно до 5GB.

image

image

Круто? ;)

NetApp Innovation 2011 – 4 октября!

Напомню, кто пропустил, или кто не пропустил, но за месяц успел за текучкой забыть. Во вторник, через неделю – NetApp Innovation 2011 в Москве.

netapp-468х60

Кто в Москве - занесите в свои расписания, зарегистрируйтесь, если еще не, и запланируйте следующий вторник под это событие целиком.

Программу можно посмотреть тут:

Программа NetApp Innovation 2011, Москва, 4 октября, 2011, Lotte Hotel.

Тема года – виртуализация.

Вышел Data ONTAP 8.1 RC

Вышел долгожданный 8.1

Напомню, что по введенной с июля 2010 года модели именования релизов, выпуск под названием RC (Release Candidate) является полноценным релизом, оттестированным и готовым в продакшн.

Цитата с сайта:

Release Candidate (RC)

All Data ONTAP releases are made available first as release candidates (RCs). The RC classification indicates that NetApp has completed the internal testing of the major release. RCs are provided primarily to customers who want to start exploring the major or maintenance releases for either new features or bug fixes early on. RC releases are fully tested and are suitable for production usage. (выделение мое, romx)

NetApp might provide multiple RCs, as necessary, to address any specific issues found before the release becomes a general availability (GA) release. NetApp Global Services (NGS) provides support for RCs. After RCs move to GA, all maintenance and patch releases are based on the GA release and not on the RC.

Релизы “цифра после запятой” (Major Release) выходят каждые 18 месяцев, после их выпуска, каждые 6 месяцев выпускаются так называемые Maintenance Release.

image

Список изменений довольно велик и существеннен. Очень много важных изменений, поэтому далее я собрал почти все значимое, в кратком переводе. Порядок пунктов хаотичный и не слишком системный, просто FYI.

Continue reading ‘Вышел Data ONTAP 8.1 RC’ »

OnCommand System Manager 2.0

В прошедший четверг хануманово воинство сотрудники софтверного подразделения компании NetApp зарелизили System Manager 2.0.

Так что уже можно начинать бояться привыкать.

image

Если вы видели прежний System Manager 1.1, то имейте ввиду, что новый System Manager это полностью наново переписанный продукт, это web-приложение, исполняемое на вашем компьютере в браузере, с явой и флэшом, установленное в локальный веб-сервер.

image

Обратите внимание, в версии Data ONTAP 8.1, релиз-кандидат которой также вышел на днях, NetApp полностью отказался от FilerView, старого-доброго, всеми ругаемого, но все же исправно работающего встроенного web-интерфейса системы хранения. Теперь единственным GUI для администрирования NetApp будет вот этот вот System Manager 2.0

Скачивать с NOW (NetApp Support), где скачивается весь софт, под названием OnCommand System Manager 2.0. Есть версия под Linux и Windows. Требует браузера от IE7 и Firefox 3.6, Java Runtime Engine, Adobe Flash, и все такое прочее.

Да, имейте ввиду, оно работает под 32-bit и 64-bit версиями Windows, но только под 32-bit Linux, как этого выдающегося результата удалось добиться нашим любимым сыновьям Ганеша можно только догадываться.

UPD: Ну началооооось…. Через час после публикации релиза, который до того несколько месяцев публично тестировался как beta, они уже нашли первую критичную багу, могущую вызвать потерю пользовательских данных, потребовавшую пересборки релиза.

UPD2: …На следующий день – вторую. Так что если вы скачивали SM2.0 сразу после его выпуска, в четверг, на прошлой неделе, то меняйте на тот, что был переопубликован в воскресенье, 25.09.

Еще несколько слов про MPHA

Ранее я уже писал о том, что такое Multi-Path High Availability (MPHA) – методе подключения дисковых полок к контроллеру, сделав перевод официального FAQ. Однако обещал, что чуть позже напишу еще некоторые мои соображения на этот счет. Вот они.

Кратко, для “введения в суть”: MPHA это, на сегодня, настоятельно рекомендованный способ избыточного и отказоустойчивого подключения дисковых полок к контроллерам на системе хранения NetApp. Суть его состоит в том, что каждый “стек” полок подключается не просто парой избыточных кабелей в два порта каждого стека полок, но четырьмя кабелями, одной парой с одного конца стека, а второй – с противоположного конца, задействуя не два, а четыре инициатор-порта на каждом из кластерной пары контроллеров (поясняющие схемы можно посмотреть в статье по ссылке выше). ??того, на два контроллера, работающих с двумя стеками полок, получается восемь портов и восемь путей к дискам (с одним стеком, соответственно, четыре).

Такая схема обладает большей надежностью, так как позволяет решить проблему со сбоем или обрывом соединения в дисковой полке посередине большого стека, проблем в интерфейсном модуле полки, или межполочном соединении, или же отказу пути, который приводит к необходимости кластерного файловера и перебросу данного дискового стека на контроллер-партнер. Кроме того, так как оба пути, и в “голову”, и в “хвост” стека, активны, это может, потенциально, повысить пропускную способность канала от контроллера к дискам, если система “забила” потоком данных один из этих путей.

Проблема тут возникает для систем “малого класса”, а именно для FAS2040, у которой всего два порта SAS на систему (один на контроллер), и FAS3210, которая, как вы помните, имеет два порта SAS в контроллере и всего два слота расширения (и нет возможности поставить блок расширения портов IOXM, который есть только для 3240/3270).

FAS2040 совсем не может использовать “классический” рекомендованный вариант MPHA, а FAS3210 может его использовать только в варианте с дополнительной платой интерфейсов SAS, которая занимает один из двух слотов расширения.

(исправлено 30.09 romx, Теперь эта проблема в конфигураторе с неотключаемым для 3200 MPHA изменена)


Таким образом у покупателя FAS3210, например, есть выбор поставить в оставшийся слот плату Flash Cache ??Л??, например, 10Gb Ethernet, но НЕ одновременно.
Проблема заключается в том, что, если ранее, MPHA в конфигураторе была отключаемой опцией, и можно было снять эту галку в чекбоксе, и при этом освобождался искомый слот, то теперь, увы, MPHA это обязательная опция конфигурирования, и, следовательно, в один слот из двух у 3210 в обязательном порядке будет поставлена карта SAS-портов, оставляя доступной пользователю и его выбору только один слот.
??менно этим объясняется отказ пресейла партнера NetApp отключить MPHA и сделать вам, допустим, FAS3210 с Flash Cache и 10Gb Ethernet одновеменно. Ему просто не дает это сделать конфигуратор.

Однако вариант подключения без MPHA, хотя MPHA и настоятельно рекомендуемый, навязываемый конфигуратором и “обязательный”, как о нем пишет переведенный ранее FAQ, все же работает, поддерживается NetApp, и, более того, именно такой вариант сконфигурирован, например, в конфигурации FlexPod (что можно посмотреть в опубликованной спецификации на FlexPod), где используется как раз 3210, как раз с Flash Cache ?? двухпортовой 10Gb Ethernet Unified Target card в одном контроллере (и без MPHA полок, соответственно).

То есть, безусловно, MPHA это хорошо, это правильно, но отказ от всех других вариантов подключения это, как я понимаю ситуацию, политическое, а не техническое решение (по крайней мере на сегодняшний день).

Несколько A на различные Frequently Q:

Q: Означает ли, что отказавшись от MPHA мы получим не-multipath или не-high available подключение полок, а, следовательно, “единую точку отказа” и прочие корпоративные IT-ужасы?

A: Нет, не означает. Не-MPHA подключение также и отказоустойчивое и многопутевое, просто в некоторых специальных случаях сбоев для продолжения доступа к данным при подключении не-MPHA может потребоваться cluster failover, а MPHA сможет работать по дополнительному оставшемуся пути, не проводя cluster failover, и, тем самым, экономя время и не обрывая CIFS-сессии, например. Для небольших систем хранения, например на всего одну-четыре полки на систему, случаи такого вида сравнительно малораспространены. Стоит ли жертвовать ради потенциального устранения этих редких случаев одним слотом из двух на 3210 – решать вам.

Q: Обязательно ли использование MPHA?

A: NetApp считает что обязательно (см. FAQ) для тех систем, где MPHA может быть реализован (исключение, таким образом, только для 2040). Но варианты без MPHA по прежнему поддерживаются. Решение, как я понимаю, за пользователем.

Q: Как же нам все же получить FAS3210 с Flash Cache и 10G Ethernet?

A: Проблема с конфигуратором существовала, но сейчас ее нет. Сейчас в штатном режиме можно получить от партнера спецификацию 3210 с двумя любыми картами внутри, без MPHA. (исправлено 30.09 romx.)
Попросите сконфигурировать вам FAS3210 с Flash Cache и закажите в том же заказе дополнительно плату 10G Ethernet, которая придет отдельно, не установленная в контроллер. Далее вы сможете самостоятельно вынуть карту портов SAS и поставить на ее место карту 10G Ethernet, далее подключите дисковые полки в обычной, не-MPHA, в “традиционной” отказоустойчивой, двухпутевой конфигурации.

Q: Не даете ли вы в данном случае дурного совета?

A: Даю :) Помните, что вы читаете не официальный блог NetApp, а просто заведомо ложные, порочашие измышления на тему, данный пост написан не сотрудником NetApp, и NetApp не несет ответственности за что либо публикуемое в данном блоге. Вышеприведенный совет не является официальной рекомендацией NetApp. Хотя подключение не-MPHA в настоящее время по прежнему поддерживается в существующих системах хранения, и отказ он MPHA на системе хранения не является причиной отказа в поддержке.

Q: Но, все-таки…

A: См. спецификацию FlexPod, валидированную Cisco и NetApp, с использованием FAS3210 без MPHA, в как раз описываемой конфигурации с Flash Cache и 10G Ethernet.

NetApp Virtual Storage Console 2.1.1

Давно у нас не было переводов по средам. ?? вот сегодня – перевод, посвященный выходу в начале сентября новой версии Virtual Storage Console – VSC – плагина к VMware vCenter, позволяющего непосредственно из среды vCenter управлять системой хранения NetApp.

Это бесплатный продукт, и однозначный мастхэв, если вы используете систему хранения NetApp вместе с VMware.

А вот, что появилось нового. Для начала – сам VSC 2.1

image

image

А что нового – в посте Криса Гебхарда.

NetApp Virtual Storage Console 2.1.1 - Now Available

Posted by Chris Gebhardt on Sep 8, 2011 5:18:01 AM

Конечно, мне тоже кажется, что за последнее время я говорю в своем блоге “я рад объявить о выходе” довольно часто, но в данном случае я правда рад и счастлив рассказать о выходе этого продукта! Сегодня (8.09) NetApp выпускает в свет новую версию Virtual Storage Console 2.1.1. Выход этой версии на самом деле довольно важное событие и новые технологии помогут пользователям в их работе с их серверными и десктопными виртуальными системами. Ниже список новых возможностей этой версии VSC 2.1.1.  Я хотел бы особо выделить некоторые из новых возможностей, которые, как мне кажется, наиболее важные, но так получается, что мне придется выделить почти все. Этот релиз, несмотря на минорность, на самом деле очень важен, так как начал поддерживать vSphere 5 и View 5, и ряд новых технологий, которые позволят пользователям улучшить эффективность хранения с помощью thin provisioning для виртуальных машин, а также улучшить ряд аспектов эксплуатации, развертывания и обслуживания виртуальных инфраструктур.

На протяжении следующих нескольких недель я опубликую у себя в блоге демонстрации работы некоторых новых возможностей VSC 2.1.1.

Скачать  VSC можно по ссылке: http://now.netapp.com/NOW/download/software/vsc_win/2.1.1/ <- У вас должен быть логин на NetApp NOW для скачивания!

??так, что нового:

Virtual Storage Console 2.1.1 включает в себя все что уже было выпщено в VSC 2.1, плюс добавлены новые возможности. Список ниже объединяет новинки 2.1.1 и 2.1:

  • Поддержка vSphere 5.0, включающая vCenter Server 5.0 и ESXi v5.
  • Базовый модуль Virtual Storage Console переименован в Monitoring and Host Configuration для лучшего понимания его функций.
  • Панель Monitoring and Host Configuration Tools теперь имеет две кнопки для скачивания и установки утилит MBR tools: одна для хостов ESXi, другая для ESX. Выберите соответствующую вашей системе версию.
  • В Monitoring and Host Configuration добавлены следующие возможности:
    • Можно назначить хост как skipped
    • Отображаются контроллеры системы хранения, работающие в 8.х Cluster-Mode
    • Обеспечивается быстрый поиск (discovery), кроме того, discovery может работать как фоновый процесс
    • Отображается информация о статусе хоста, в колонке Status Reason для хостов
  • Модуль Provisioning and Cloning теперь умеет следующее:
    • Высвобождает свободное место (reclaiming space) после удаления данных в guest OS *
    • Предотвращает неверное смещение партиции VM перед клонированием
    • Позволяет задать число CPU и настройки оперативной памяти для новых виртуальных машин
    • Умеет добавлять существующие датасторы новым серверам ESX в кластерах и датацентрах *
    • Сохранение учетных данных View Server для клонирования
    • Позволяет клонировать датасторы в пределах всего сайта vSphere
    • Поддерживается создание, именование, управление виртуальных машин в новых пулах View Server
    • Поддерживает импорт в Citrix XenDesktop и VMware View (расширен API)
    • Сохраняются настройки BIOS при клонировании из шаблона
    • Система хранения добавляется из под доменного аккаунта
    • Catalog-based API provisioning
    • Поддерживается Citrix XenDesktop 5.0
    • Поддерживается Data ONTAP 8.1.0 (7-Mode)
    • Поддерживается VMware View 4.6 и 5.0

 

* Об этом подробнее в следующем переводе, прим. romx

Multistore и использование vFiler

Ну и, чтобы не превращать этот блог в одни сплошные опросы, вот вам сегодня и новая статья.

Я уже писал в этом блоге о такой любопытной штуке в системах NetApp, как так называемый Multistore, или возможности создать в одном “физическом” файлере множество “логических”, виртуальных, так называемых vFilers. Хотя эта опция существует аж с 2002 года, она все еще, как я заметил, не слишком популярна и даже не слишком известна.

В двух словах, Multistore (можете также посмотреть мою заметку о нем ранее) это способ создать “виртуальные мини-нетаппы” внутри физического, которые будут почти полностью такие же, как и физические, за исключением отсутствия в них протокола FC, но с наличием iSCSI, NFS, CIFS и так далее, если они лицензированы на “большом” нетаппе.

Такие “виртуальные файлеры” можно применять, например, при необходимости разделять данные по зонам безопасности (secure multi-tenant). Например на одной системе хранения могут располагаться виртуальные файлеры с данными внутренней сети, и “внешние”, например для DMZ или данными внешнего вебсайта, или же между разным клиентами, использующими один сторадж (что полезно, например, при построении “облака”). ??золяция между такими виртуальными файлерами достаточно безопасна для такого использования и независимый аудит безопасности показал отсутствие проблем с безопасностью и изоляцией данных. vFiler также может располагаться в своем собственном IP space, то есть независимо маршрутизируемом пространстве, и даже на отдельном физическом интерфейсе.

Другой популярный способ использования Multistore это включение системы хранения в многодоменную сеть. Один физический NetApp FAS может быть включен как член домена только в один домен (не рассматриваем сейчас ситуацию с доверительными междоменными отношениями), поэтому для организации с несколькими доменами или лесами потребуется либо купить отдельные стораджи для каждого домена, либо воспользоваться таким “партиционированием”, и включить в домены виртуальные файлеры, базирующиеся на одном физическом.

Наконец, как я также уже немного рассказывал ранее, с помощью vFilers можно использовать сравнительно новую возможность, под названием NetApp Data Motion.

Data Motion это возможность делать с виртуальными системами хранения vFiler то же, что VMware делает с виртуальными машинами при VMotion, то есть не прерывая их работы мигрировать их с одного физического контроллера на другой. Эта возможность работает для любых приложений, использующих сторадж NetApp с Data Motion, не обязательно для виртуальных машин, например. Также обратите внимание, что при такой миграции мигрируют, например, и отношения репликации. То есть если у вас мигрируемый vFiler располагался на контроллере fas1, и реплицировал через SnapMirror свои данные в резервный датацентр на контроллер drnetapp, а потом был мигрирован с помощью Data Motion на контроллер fas2, например чтобы снизить нагрузку на загруженный fas1 и сбалансировать ее на недогруженный fas2, то его данные по прежнему будут, без вмешательства администратора и перенастройки, реплицироваться на drnetapp уже с контроллера fas2.

Но для того, чтобы всем этим воспользоваться, надо, во-первых, vFiler-ы создать.
Continue reading ‘Multistore и использование vFiler’ »

Vox Populi: Как бы вы отнеслись к появлению рекламы в блоге?

??так, время снова “голосовать сердцем”.

[poll id="1"]

Не секрет, что реклама позволяет жить многим интернет-ресурсам, сайтам и блогам.
В этом блоге с самого его начала, с 2007 года, вот уже 4 года, никогда не было никакой рекламы (за исключением редких “профильных” объявлений о проведении семинаров или иных подобных мероприятий, о которых меня лично просят). Никакой рекламы “для заработка” тут никогда не было. Не то чтобы мне было в тягость платить 200 рублей в месяц на хостинг, но… Может я неправ и чересчур щепетилен и старомоден в отношении рекламы в блогах?

ЗЫ. Когда я публикую опрос, то, чтобы проверить, что все работает хорошо, я сам за какой-нибудь ответ голосую. В этом опросе я проголосовал за “горите в аду”, между прочим, совершенно искренне. ;)