- Общее время выполнения тестов около 16 часов в следующем порядке:
- Последовательная предварительная подготовка (~2:15)
- Последовательные тесты на 16x JBOD, 2x 8DR10, 2x 8DR5 (~2 часа)
- Случайная предварительная подготовка – 2 части (~4:30)
- Случайные оптимальные тесты на 16x JBOD, 2x 8DR10, 2x 8DR5 (~3 часа)
- Случайные тесты восстановления на 1x 16DR10, 1x 16DR5 (~2:30)
- Задержка случайной записи для оптимального режима и восстановления для 1x 16DR5 (~1:40)
Первый раздел метрик производительности посвящен пропускной способности карты в режимах JBOD, RAID10 и RAID5. Поскольку MegaRAID 9670W-16i предлагает слот PCIe Gen4 x16, его пиковая производительность составит около 28 ГБ/с в одном направлении, и именно здесь слот Gen4 достигает своего предела. Для сравнения, SSD U.2 Gen4 подключается через соединение x4 и может достигать пиковой скорости около 7 ГБ/с, и именно здесь большинство корпоративных накопителей достигают своего предела для рабочих нагрузок чтения.
С учетом сказанного, MegaRAID 9670W полностью насыщает слот, к которому он подключен. При рассмотрении производительности чтения конфигурация JBOD показывает 28,3 ГБ/с, RAID10 — 28 ГБ/с, а RAID5 — немного ниже. Когда мы переключаем внимание на производительность записи, базовый уровень JBOD составляет 26,7 ГБ/с, в то время как конфигурация RAID10 показала 10,1 ГБ/с, а RAID5 — 13,2 ГБ/с. При рассмотрении разделения одновременного трафика чтения и записи 50:50 конфигурация JBOD показала 41,6 ГБ/с, RAID10 — 19,6 ГБ/с, а RAID5 — 25,8 ГБ/с.
| Рабочая нагрузка | JBOD (МБ/с) | RAID 10 – Оптимальный (МБ/с) | RAID 5 – Оптимальный (МБ/с) |
|---|---|---|---|
| Максимальное последовательное чтение | 28 314 | 28 061 | 28 061 |
| Максимальная последовательная запись | 26 673 | 10 137 | 13 218 |
| Максимальное последовательное чтение:запись 50:50 | 41 607 | 19 639 | 25 833 |
При переключении внимания на небольшие блочные случайные передачи мы видим, что MegaRAID 9670W хорошо показал себя в производительности чтения по сравнению с базовым показателем JBOD в 7 млн IOPS. Эта скорость снизилась примерно вдвое (3,2 млн IOPS) во время операции восстановления, если один SSD вышел из строя в группе RAID. Что касается производительности случайной записи, то базовый показатель JBOD составил 6,3 млн IOPS против 2,2 млн у RAID10 и 1 млн у RAID5. Эти показатели не претерпели значительного снижения, когда SSD вышел из строя из группы, и RAID-карта была вынуждена восстанавливаться. В этой ситуации RAID10 не изменился, хотя RAID5 снизился с 1 млн до 788 тыс. IOPS.
В рабочей нагрузке 4K OLTP со смешанной производительностью чтения и записи базовый показатель JBOD составил 7,8 млн IOPS против 5,6 млн IOPS у RAID10 и 2,8 млн IOPS у RAID5. Во время восстановления RAID10 снизился с 5,6 млн до 2,4 млн IOPS, а RAID5 — с 2,8 млн до 1,8 млн IOPS.
| Рабочая нагрузка | JBOD | RAID 10 – Оптимальный | RAID 5 – Оптимальный | RAID 10 – Восстановление | RAID 5 – Восстановление |
|---|---|---|---|---|---|
| Случайное чтение 4 КБ (IOPs) | 7 017 041 | 7 006 027 | 6 991 181 | 3 312 304 | 3 250 371 |
| Случайная запись 4 КБ (IOPs) | 6 263 549 | 2 167 101 | 1 001 826 | 2 182 173 | 788 085 |
| OLTP 4 КБ (IOPs) | 7 780 295 | 5 614 088 | 2 765 867 | 2 376 036 | 1 786 743 |
Еще одним важным аспектом производительности RAID является то, насколько хорошо хранилище ведет себя между оптимальными условиями и производительностью восстановления в случае сбоя накопителя. Если производительность или задержка значительно снизятся, отзывчивость приложений может стать проблемой. Для этого мы сосредоточились на задержке случайной записи 4K в RAID5 в оптимальном режиме и режиме восстановления. В целом задержка оставалась довольно схожей, что именно то, что вы хотите видеть в системе хранения данных производственной среды.
Мы не только оценили общую производительность каждого режима с помощью метрик производительности в определенный момент времени, которые также включали производительность RAID-карты во время операции восстановления, но и провели тесты для определения общего времени восстановления. Здесь в RAID10 извлечение 6,4 ТБ SSD из группы RAID и его повторное добавление заняло 60,7 минуты для RAID10 со скоростью восстановления 10,4 мин/ТБ. Группа RAID5 заняла 82,3 минуты со скоростью 14,1 мин/ТБ.
Заключение
Честно говоря, мы подошли к этому обзору с некоторым скептицизмом и поднятой бровью. Мы давно не слышали о предложениях RAID-карт для NVMe SSD, за исключением зарождающегося класса решений, разработанных на основе GPU. Поэтому нам пришлось задать фундаментальный вопрос: может ли аппаратный RAID вообще существовать для NVMe SSD?
Sandy Yang/Global Strategy Director
WhatsApp / WeChat: +86 13426366826
Email: yangyd@qianxingdata.com
Website: www.qianxingdata.com/www.storagesserver.com
Сфера деятельности:
Дистрибуция ИКТ-продукции / Системная интеграция и услуги / Инфраструктурные решения
Обладая более чем 20-летним опытом дистрибуции ИТ-продукции, мы сотрудничаем с ведущими мировыми брендами, чтобы поставлять надежные продукты и профессиональные услуги.
«Используя технологии для построения интеллектуального мира» Ваш надежный поставщик услуг ИКТ-продукции!



