Сравнительное тестирование HDS AMS2100 и NetApp FAS2240-2
Нам пишут наши читатели:
Оригнал здесь, перепечатывается оттуда по согласию с автором: http://ua9uqb.livejournal.com/79872.html
Не так давно довелось мне протестировать две системы хранения данных, делюсь результатами. В тесте принимали участие системы начального уровня NetApp FAS2240 и Hitachi AMS2100.
Надо понимать, что системы эти сравнимы довольно условно, так как AMS - обычное, бедное по функционалу блочное хранилище, в отличии от сильно мозговитого, "всё-всё умеющего" NetApp-а. Конфигурации системы, методики тестирования, и прочие тюнинги, были согласованны со специалистами вендоров.
Немного подробностей по методике:
1. Тестирование проводилось программой IOMeter версии 2006.07.27 для Windows.
2. Подключение СХД Hitachi AMS2100 производится посредством FC4G, протокол FC
Cостав LUN и томов СХД
Raid10 8 x 450gb 15k 3.5’ Usable: 1.5Tb Lun: 700Gb
Raid6 8+2 450gb 15k 3.5’ Usable: 3.1Tb Lun: 700Gb
3. Подключение СХД NetApp FAS2240 производится посредством 10Ge, протокол iscsi
Состав LUN и томов СХД
RaidDP 9+2 x 600gb 10k 2.5’ Usable: 4.33Tb Lun: 700Gb
4. Тесты проводится в режиме файловой системы NTFS 4к, выравнивание партишина 64к;
5. Настройки программы IOMeter:
• Worker’s – 4
• Target – 16 (в каждом из Worker’s)
• Disk Size – 200000000 (100Gb)
• Ramp Up Time – 600 сек
• Run Time – 30 мин
6. Фиксация результатов каждого теста для IOMeter длиться 30 минут начиная с 10-й и заканчивая 40-й минутой теста;
7. Профили нагрузок(название профилей условное), используемые для тестирования IOMeter следующие:
Нагрузка характерная для приложений ORACLE
• размер блока 8КБ;
• соотношение количества операций чтения/запись 30/70;
• характер нагрузки – 100% случайный доступ;
Нагрузка характерная для VMware:
• размер блока 4КБ;
• соотношение количества операций чтения/запись 40/60;
• характер нагрузки – 45% линейный и 55% случайный доступ;
Нагрузка характерная для операций Backup:
• размер блока 64КБ;
• 100% последовательное чтение;
Табличка довольно прозрачная, поэтому никаких выводов делать не буду.
NetApp FAS2240(в центре, где куча вертикальных планочек, и жёлтая наклейка сверху):
Hitachi AMS2100
PS. Дополнительно проводилось тестирование программой IOZone, порядок цифр примерно тот же, если будут интересующиеся, выложу результаты.
PPS. Пост навеян коментом френдессы balorus к посту про сервер Sun T4-4 :-)
PPPS. Мой выбор был бы NetApp, если бы Хитача в те же деньги не уложила сильно больше шпинделей. А так же не ещё один сильно политический нюанс, который очень сложно перебить даже теми волшебными, и крайне необходимыми нам штуками, которые NetApp умеет делать очень хорошо, а AMS не умеет в принципе.
Добрый день!
Может я не прав, но на мой взгляд тестирование не равноценно. Попытаюсь обьяснить. На AMS2100, можно так жпе использовать Dynamic Provisioning, собрать пул из трех raid group 6+2, взять карточки с теми же 10Ge, и затем проводить тестирование….
А так же на мой взгляд в описании не хватает описания аппратно програмного комплекса на котором исполнялся IOMeter.
Я думаю что результаты полученные таким образом были бы намного полезнее.
З.Ы. А в принципе при необходимом опыте и желании можно получить НЕОБХОД??МЫЕ на данный момент результаты тестирования…
Все зависит от задачи поставленной перед тестированием. :)
Yurii:
“Никогда не доверяй результатам, которые не подделал собственноручно” вы хотите сказать? ;)
> А так же на мой взгляд в описании не хватает описания аппратно програмного комплекса на котором исполнялся IOMeter.
А как “аппаратно программный комплекс” может повлиять на результаты, когда он одинаков при тестировании обеих систем хранения?
> На AMS2100, можно так жпе использовать Dynamic Provisioning, собрать пул из трех raid group 6+2, взять карточки с теми же 10Ge, и затем проводить тестирование
Что даст Dynamic Provisioning в данном случае?
А разве вариант с группой RAID-6 8+2 нерекомендуемый HDS?.
Разница в bandwith интерфейсов в конфигурации на столь небольшом числе дисков ничтожна.
Ну я понял, ваша позиция, что у нас “пулеметы не той системы” ;)
Не могли бы вы выложить результаты iozon’а ?
Евгений:
В следующем после процитированного мною поста в журнале автора приводятся результаты iozone. Ссылку на его журнал я дал, посмотрите там.
romx:
>“Никогда не доверяй результатам, которые не подделал собственноручно” вы хотите сказать? ;)
Ни разу не так, мне реально интересны результаты тестов, но при этом хотелось бы максимально приближенной конфигурации…
> А как “аппаратно программный комплекс” может повлиять на результаты, когда он одинаков при тестировании обеих систем хранения?
мне интересна данная информация, действительно….
> Что даст Dynamic Provisioning в данном случае?
увеличит загрузки процессоров обслуживающих петли, но позволит использовать больше шпинделей единовременно….
> Разница в bandwith интерфейсов в конфигурации на столь небольшом числе дисков ничтожна.
просто хотелось бы максимально приближенной конфигурации…
> Ну я понял, ваша позиция, что у нас “пулеметы не той системы” ;)
нет, у вас “пулеметы очень правильной системы”, но и другие так же по своему “правильной системы” и каждая “правильная система” хороша в свои целях и задачах….
З.Ы. ?? ни в коей мере не имел намериния сказать что, какая-то из систем лучше, а какая-то хуже, я хотел бы получить данные по тестированию в максимально приближенной конфигурации… и полное описание системы тестов…
romx:
>“Никогда не доверяй результатам, которые не подделал собственноручно” вы хотите сказать? ;)
К моему величайшему сожалению, я не имею возможности “подделать результаты собственноручно” для систем NetApp, по политическим мотивам, мне вряд ли удастся получить систему NetApp на тестирование, и уж тем более в эксплуатацию….
Поэтому я с большим интересом читаю Ваши посты…. надеюсь что в будущем сможет пригодиться….
Yurii:
> но при этом хотелось бы максимально приближенной конфигурации…
Приближенному к чему? У каждого будет свое приближение, невозможен тест удоветворяющий сразу всех. Но можно устранить, в ходе его проведения, максимум “тонких мест” тестирования. В данном тесте, насколько я понимаю тему, тест проведен весьма корректно. Я лично не вижу в нем явных ошибок метода.
Насчт деталей, рекомендую связаться непосредственно с автором, ссылку в самом начале я привел.
а почему райд группы такие короткие? вы думаете, что результаты будут аналогичны при удвоении количества шпинделей?
panvartan:
У которой из систем короткие? Размер групп взят рекомендованный вендорами обоих систем.
Действительно, нужно выбирать правильные пулеметы для получения “правильного” результата…
Взять для сравнения две системы одного позиционирования, но одной из которых сто лет в обед, и ей уже объявлена замена, а другая - свежачок, с момента анонса и полгода не прошло. ?? убедительно, с циферками и фактиками, доказать, что NetApp впереди планеты всей…
Дорогой Юрий,
если у вас есь претензии такого плана, то вы можете высказать их непосредственно автору проведенного тестирования, страницу на исходный текст которого я привел.
В данном случае автор тестировал ровно два конкретных предложения, которые рассматривались его компанией для реализации конкретного проекта. ??менно это сравнение, этих двух предложений и было целью тестирования. Отчего для данного проекта были выбраны именно эти системы вы также можете спросить непосредственно у автора.
С уважением, romx.
romx
У автора был конкретный проект, конкретные предложения и конкретная цель - бесспорно. Но ведь у вас не было тех же самых проекта, предложений, и цели, верно? Поскольку вы зарепостили результаты в своем блоге, я предположил, что у вас тоже была какая-то цель, и, впридачу, предположил, что цель эта была не в том, чтобы оценить пригодность двух систем для конкретного проекта, а в том, чтобы очередной раз показать читателям блога, что NetApp крут.
Дальше я вспомнил, что совсем недавно вы упоминали другое сравнение систем, в котором систему NetApp “победили”. ?? разнесли его в пух и прах, поскольку, на ваш взгляд, оно было некорректным и предвзятым. Тепершнее же сравнение, также некорректное, вы так эмоционально комментировать почему-то не стали, и разместили as is - “корова не моя, и претензии не ко мне”.
Так почему же авторов тестирования, в котором NetApp проиграл, вы с дерьмом смешали, а автора тестирования, в котором NetApp победил - нет?
Дорогой Юрий,
вы здесь в блоге новичок, как я вижу, поэтому обещаю первое время относится со снисхождением. Но, во-первых, я бы рекомендовал вам прикрутить фитилек, ибо коптит. Это намек, что ваш тон тут на грани, а часто и за гранью допустимого в приличном месте. Если вы не научитесь приличным манерам - я не смогу позволить вам тут комментировать. Это что касается “во-первых”.
Во-вторых. О тестировании “том” и “этом”. В “том” тестировании (мы говорм сейчас, уточню для присутствующих, о тестировании, которое провела компания Oracle своей системы 7320) было допущено несколько весьма грубых нарущений методики тестирования. А так как специалисты, его проводившие, вряд ли могут пожаловаться на недостток знаний, и не могут сослаться на “недосмотр” и “непонимание”, то налицо грубое, намеренное нарушение корректности тестирования, _в принципе_.
??менно на эти нарушения я в том посте и указал. Отмечу, что там речь не шла о _сравнительном_ тестировании. Там было тестирование _одной_ системы, которую веьма произвольно и надуманно сравнили _после_ с какой-то другой, тестирование которой проводилось другими людьми и в других условиях.
Также крайне некорректно было приводить сравнение цен, хотя бы потому, что цены на обе эти системы по условиям тестированияне НЕ объявлялись, и корректного сравнения провести было в принципе нельзя.
??менно этим объясняется моя критика того “сравнения”.
Напротив, в процитированном выше сравнительном тестировании, цель была именно в сравнительном тестировании (для автора), однако, лично для меня, прежде всего, были интересны абсолютные результаты 2240-2 (впрочем, относительные имели тоже ненулевой (но небольшой) интерес, особенно разница на разных workloads).
Кроме того я с большим удовольствием увидел методологически правильное и “чистое” сравнительное тестирование, что, к сожалению, большая редкость.
Тот факт что кто-то кого-то там победил, и насколько, имеет сугубо вторичную ценность.
К сожалени я не могу сказать того же о тестировании Oracle, которое, см. выше, крайне методологически некорректно и спекулятивно.
О том и пост.
Я ответил на ваш вопрос?
С уважением,
romx.
Romx - большое спасибо за перепост. Очень забавно, что у читающих он вызвал неприязнь, я как то надеялся на более спокойную реакцию…
Не совсем понятно, в каком месте таблицы видно, что нетап “порвал” хитачу? Мне лично видится, что результат более или менее сравним, и в какой то степени предсказуем - одна немного быстрее линейно читает, другая немного быстрее рандомно пишет.
Про сервис, предоставляемый системами, я таки зря не написал, вот там да, там уже появляются преимущества и недостатки.
Тесты проводились с сервера HP DL360, E5540, 4gb, FC-Emulex, 10Ge-QLogic, Windows2003R2.
ua9uqb:
Это обычное дело. Если побеждает не та, за кого мы болеем, то значит результаты подделаны и “пулеметы не той системы”. :)
Ребята, а кто победил(зачёркнуто) на чём реализовали то в итоге? Как оно сейчас живёт? (по посту непонятно сколько времени прошло с момента запуска в эксп).
romx, прошу прощения если не по адресу, но тут как то спокойнее =)
slu_x3m:
Судя по тому, что исходный пост был опубликоан две недели назад, думаю, что рано говорить о результате.
slu_x3m:
Пока ни кто не победил, тестирование завершено, стало окончательно понятно какие конфигурации нам необходимы. Ждём окончательное предложение от вендоров.
Лично я и разработчики склоняются к NetApp, SYSDBA немного колеблется, он работал только с блочными хранилками, опасается, хотя сервисом был впечетлён, до последнего не верил в возможность клона с “боевого оракла” :-)
К сожалению из предыдущих предложений чувствую, что в NetApp, с необходимым количеством шпинделей, мы не пролазим. Бюджет сильно ограничен, а IOPS-ы надо получить, и тут уже не до “моментальных клонов” :-(