Archive for Май 2010

Полезные команды: nfsstat

Несколько ранее я рассказывал уже о средствах анализа нагрузки системы по протоколу CIFS, например с помошью команды cifs top. Для анализа статистики нагрузки протокола NFS пригодится команда nfsstat.

В своем обычном виде команда nfsstat показывает общую статистику по всму трафику NFS и RPC, и полезна при настройке и поиске ошибок сетевой передачи. Однако, если вы включите в системных опциях Data ONTAP по умолчанию выключенную опцию nfs.per_client_stats.enable, то вам будет доступна статистика отдельно по каждому клиенту NFS (под клиентом понимается хост, но не пользователь).

Включим учет статистики раздельно по клиентам:

fas1> options nfs.per_client_stats.enable on

fas1> nfsstat –h [ip | hostname] – покажет статистику отдельно по конкретному клиенту

fas1> nfsstat –l – покажет статистику по 256 клиентам по убыванию NFS-активности

Подробнее о команде:
http://now.netapp.com/NOW/knowledge/docs/ontap/rel732_vs/html/ontap/cmdref/man1/na_nfsstat.1.htm

О “технологическом лидерстве”

В блоге у коллеги увидел показательную картинку:

image

Это, конечно, кто  следит за новостями, в связи с новой, грандиозной программой гарантий экономии пространства на системах хранения EMC, аж на 20% :)
(Любопытно, что NetApp, на тех же системах EMC, подключенных к NetApp V-series, гарантирует целых 35%)

К чести EMC следует признать, что, согласно данным приведенным на картинке, разрыв неуклонно сокращается ;)

Комическая история вопроса:

Storage Shenanigans*” – Chuck Hollis, Vice-President, Global Marketing CTO, EMC Corporation – 30 sep 2008

“…What we’re not pleased with is the sleazy marketing campaign. If EMC were to do something similarly tacky, I’d probably quit in protest.” – Chuck Hollis, 12 dec 2008
(“…Вот что нас не устраивает в этой грязной маркетинговой кампании. Если EMC  сделает что-нибудь похожее, я, возможно, подам в отставку в знак протеста”)


* Shenanigans (eng.) – мошенники, махинаторы

PS. Повторю вслед за уже упомянутым блоггером RecoveryMonkey: “Я лично ничего не имею против EMC как компании и их систем хранения. Но проблема состоит в том, какими методами они их продают, как “маркетят” и насколько корректно проводят сравнение своей продукции с конкурентами.”

FlexShare - управление приоритетами томов

FlexShare это технология управления приоритетами в обслуживании томов данных, своеобразный квази-QoS (хотя и не QoS в чистом виде). Эта технология входит во все современные версии Data ONTAP, бесплатна, однако сравнительно малоизвестна.
FlexShare задает отноительный приоритет (а не абсолютный, как в “чистом” QoS) обслуживания для томов данных. Если с ее помощью вы зададите пониженный приоритет томам данных, используемым для, например, хранения дистрибутивов, образов виртуальных машин, резервных копий, и прочих данных, время доступа к которым не является для ваших задач критичным, и наоборот, повысите приоритет для томов с базой данных или критичными для бизнеса виртуальными машинами, то контроллер будет распределять свое “внимание” и процессорные “тики” не равномерно, как по умолчанию, а в соответствии с заданными приоритетами. В результате вы сможете несколько улучшить показатели быстродействия для критичных данных.

no FlexShare

no FlexShare


with FlexShare

with FlexShare

Давайте рассмотрим подробнее, что она умеет и как ей пользоваться.
Для того, чтобы глобально включить ее на контроллере надо дать в консоли команду:

fas> priority on

Для более детального управления следует воспользоваться командой priority set:

fas> priority set volume vol1 level=high system=low cache=reuse

Эта команда указывает высокий приоритет обслуживания тома vol1 для операций пользователей и приложений, устанавливает для данного тома пониженный приоритет системным задачам его обслуживания, а также задает политику использования кэша с более быстрым сбросом (flush) его содержимого, по сравнению c политикой по-умолчанию.
Уже установленные приоритеты можно посмотреть с помощью команды:
fas> priority show volume

Остальные опции команды priority вы как всегда можете найти во встроенном хелпе и в выводе команды help priority.

Результаты тестирования FC и Software iSCSI под MS Hyper-V R2

Компания NetApp опубликовала результаты тестирования 4Gb FC и Software iSCSI по 1Gb Ethernet и 10Gb Ethernet в среде MS Hyper-V R2 с использованием своей системы хранения NetAp FAS3160A (система midrange-класса).

Тестирование производилось с помощью IOmeter (о котором я уже не раз писал в блоге), с 4 хост-серверов IBM x3550 (1x Quad-core Intel Xeon E5420, 2,5GHz), на каждом из которых бы установлен Windows 2008 R2 c Hyper-V role и 8 виртуальными машинами в каждом, с Windows 2008 64-bit Enterprise edition (итого 32 виртуальных машины). ??нтерфейсы каждого сервера: FC – QLogic QLE2462, Gigabit Ethernet – Intel PRO/1000 PT dual port, 10G Ethernet – Intel Ethernet Server Adapter X520, включались в коммутаторы Brocade 200E, Cisco 4948 Ethernet Switch и Fujitsu XG1200 соотвественно.
Особое внимание при тестировании уделялось получению результатов, приближенных к “боевым”, позволяющим использовать их для оценки реальной, “живой” инфраструктуры Hyper-V.

??спользовался паттерн: 100% Random, 75% Read, 4KB и 8KB Request size.

Тесты показали сравнительно незначительную разницу между всеми тремя вариантами (4Gb FC, 1Gb software iSCSI, 10Gb software iSCSI) как в IOPS, так и в Latency. Дополнительная загрузка задачи softwre iSCSI initiator составила 3-5 процентов, в том числе и на 512 outstanding IOs (очень высокая загрузка), и разница со значением загрузки при использовании FC уменьшалась с повышением объемов загрузки (Outstanding IOs).

Показательно почти полное отсутствие значимого отличия по быстродействию между 4Gb FC и 1Gb iSCSI на рассматриваемой задаче.
Отсутствие значительной разницы между 1Gb Ethernet и 10Gb Ethernet по видимому связано с тем, что Software iSCSI initiator на 10G Ethernet перестал быть эффективен, и, возможно, следует рассмотреть использование iSCSI HBA для таких высокоскоростных решений.
Также сравнительно небольшую разницу дает включение и использование Jumbo Frames как на 1G Ethernet, так и на 10G Ethernet, что скорее всего говорит о специфике Hyper-V R2 в этом вопросе.

Лимит по производительности системы хранения FAS3160A для такой конфигурации не был достигнут.

Подробности и полный документ по результатам –тут:
http://www.netapp.com/us/library/technical-reports/tr-3846.html

Скорость RAID Reconstruction

При выходе из строя жесткого диска система начинает процесс RAID reconstruction. Время его завершения зависит от загрузки системы задачами ввода-вывода и установленного приоритета задачи реконструкции. Это приоритет (вернее степень влияния на производительность системы в целом задачей реконструкции) может быть настроен с помощью системной опции:

fas1> options raid.reconstruct.perf_impact [high | medium | low]

Обратите внимание, эта опция и ее изменение глобально (для всех RAID-групп системы в целом), и, что важно, не работает для уже запустившейся reconstruction. То есть увидеть слишком долгий процесс восстановления, поменять ее на high и ждать, что процесс ускорится, не стоит.

По умолчанию она установлена в medium, и менять ее стоит только если вы в самом деле хорошо представляете зачем вы это делаете.

About NetApp: 3 года “в эфире”

А сегодня я не буду вам рассказывать ничего полезного, сегодня я просто похвастаюсь и отмечу знаменательную дату.

Ровно 3 года назад я начал вести этот блог, и, удивительное дело, веду до сих пор.
За небольшим перерывом в первой половине 2008 года, когда я считал что завязал с IT, и отправился путешествовать с рюкзаком по Юго-Восточной Азии и ??ндии, я пишу тут о системах хранения NetApp, о технологиях и продуктах этой компании, о разных технических штучках-дрючках.

Как я уже писал на страничке about, я с 2007 года не работаю официально ни на NetApp, ни на какую-либо компанию-партнера NetApp, и в выборе тем и мнения абсолютно свободен, хотя, не стану скрывать, поддерживаю отношения разной степени дружественности как с московским NetApp, так и с некоторыми российскими компаниями, занимающимися их продуктами.

Зачем же все это вот это все тебе, о чем ты тут три года пишешь, по два поста в неделю, неужели не надоело?” – спросит меня придирчивый мой читатель.

Не знаю, насколько это прозвучит убедительно, но мне на самом деле это интересно.
Главная причина, почему именно NetApp (а мне приходилось работать с разными компаниями и разными системами хранения) в том, что я убежден, и за три года этого блога, не считая 7 лет работы с системами NetApp вообще, я ни разу не разочаровался, что выбрал “играть” именно с этой командой.
Я на самом деле считаю, что на сегодняшний день NetApp это самая перспективная и высокотехнологичная компания на всем рынке систем хранения данных. Это компания, которая все эти годы постоянно придумывала что-то новое, а не просто торговала терабайтами в ящиках. Это по-настоящему “технологическая” и “инженерная” компания, мыслящая в первую очередь “инженерно”, а не маркетингово, и не “ебитдово”, что чрезвычайно импонирует мне, как человку прежде всего “инженерного” склада.

Разумеется, в индустрии систем хранения существуют многочисленые молодые “стартапы”, которые еще более “инженерные”, но я не знаю другой такой компании, которая проработала 17 лет, вошла бы в тройку крупнейших производителей  мире, и при этом не “зажирела”, осталась бы способной не просто клишировать придуманное n-лет назад, наращивая цифры “прибыли до выплаты отчислений” и бонусов отделу продаж и топ-менеджменту, торгуя чужими железками по OEM-соглашениям, а на самом деле придумывала бы что-то “не как у всех”, что-то по-настоящему новое, умея на самом деле, а не на словах “Not just ???Think’, but Think Different”.

В конце 2007 года,  после трудных раздумий, как я сейчас понимаю “сняв на максимуме”, я оставил работу ведущим инженером в крупной московской компании-партнере NetApp, и отправился “заниматься собой”, в долгое путешествие по Азии, без планов возвращаться. Но “бывших айтишников не бывает”. :)

“Дауншифтинга” не получилось, скорее это “сайдшифтинг”. Я живу в Таиланде, в городе Чианг Май, занимаюсь “удаленным консалтингом”, переводами, и периодически разъезжаю по местностям и странам вокруг, которых, чем больше я узнаю, тем больше понимаю, что “на мой век – хватит”. О “неработе” я пишу в отдельном блоге в Живом Журнале (http://romx.livejournal.com).
Нынешняя мобильность жизни и повсеместность средств связи и протянутости интернета позволяет в работе практически не задумываться о “географическом местоположении” работника, осталось чтобы эта мысль наконец нашла массового работодателя. ;)

PS. ?? да, кстати, пользуясь случаем, по личному опыту могу уверить вас, что в классическом фотобанковском “визуальном клише” удленного работника в виде человека сидящего с ноутом в шезлонге на пляже у моря нет ни грана правды. Во-первых на солнце на экране ничего не видно. Во-вторых песок сыплется в клавиатуру. В общем я пробовал: “Everybody lies” ;)

PAM - Performance Acceleration Module

Вот уже пару лет как у NetApp в номенклатуре продуктов находится интересный, но все еще не слишком известный широкому кругу пользователей продукт – PAM – Performance Acceleration Module, а в прошлом году к нему в компанию добавился еще один вариант – PAM-II (ныне Flash Cache).

Давайте разберемся подробнее что это, чем полезно и как применяется.

Первое, что следует понимать, чтобы разобраться в том, что есть PAM и как его применяют:
PAM это не SSD!

PAMII

Широкое распространение SSD (даже этот пост пишется на ноутбуке с SSD) привело к тому, что любой продукт так или иначе использующий память для хранения данных называется “SSD”.

Давайте разберемся, что такое SSD, и чем PAM не SSD.

Continue reading ‘PAM - Performance Acceleration Module’ »

VMware на NFS: Best Practices

Я уже не раз в этом блоге расказывал о плюсах и преимуществах развертывания хранилища данных для VMware ESX/VSphere на системе хранения по NFS.
(раз, два, три, четыре)
Это все еще не так широко распространенный среди пользователей вариант решения, как FC или, например, iSCSI, но он завоевывает все большую популярность, так как ряд преимуществ такого варианта безусловно полезны в работе и эксплуатации, а потери производительности по сравнению с FC сравнительно невелики (при значительно большем удобстве и более низкой цене решения).

О таком варианте часто пишут и NetApp и EMC, так как они являются двумя основными производителями NAS-систем c NFS.

Появился и “вендоронейтральный” документ от самой VMware.

Скачать можно тут:
http://vmware.com/files/pdf/VMware_NFS_BestPractices_WP_EN.pdf