Semenalidery.com

IT Новости из мира ПК
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Ssd raid 1

RAID массив из SSD дисков

Приветствую всех, уважаемые читатели блога Pc-information-guide.ru! В этой статье я вновь затрону тему SSD дисков. Если в 2010 году твердотельных накопителей (SSD) по всему миру продали на сумму 2.3 млрд $, то уже в 2014 эта сумма выросла до 7.2 млрд $. Твердотельные диски применяются не только для создания мощных игровых ПК, их устанавливают в высокопроизводительные рабочие станции — где требуется большая скорость чтения: системы обработки медиаконтента, базы данных.

SSD диск превосходит обычный винчестер (HDD) по скорости чтения и записи блоков размером 4к. А ведь в этом и состоит основная нагрузка операционной системы на диск. Средний HDD при таких операциях выдает скорость около 1 мегабайта в секунду. Средний «твердотельник» окажется быстрее в десятки раз: 20-40 мегабайт в секунду. Но, не всё так хорошо. SSD диск имеет ограничение в количествах раз, когда вы записали или перезаписали данные, после которого он перестанет работать. У обычного HDD это количество раз — намного выше.

Чтобы повысить надежность хранящихся на SSD данных, придумали делать SSD RAID. Интегрированные RAID контроллеры присутствуют на любой «вменяемой» современной материнской плате. Поэтому есть 3 повода, чтобы сделать рейд из таких дисков:

  • для улучшения надежности. За это отвечает RAID 1;
  • для повышения скорости передачи данных. Для этого можно сделать RAID 0;
  • всё и сразу. За это у нас отвечает RAID 10.

Начнем с RAID 0. Повышать скорость и без того высокоскоростного SSD диска — придет в голову не каждому, но уж если пришло, тогда вам надо знать, что улучшения будут заметны лишь при простых файловых операциях, например при действиях с файлами формата avi. В большинстве же приложений производительность обычно ограничивается центральным процессором, причем чаще всего скоростью какого-нибудь одного ядра. Важно, что скорость чтения записи мелких блоков данных все равно не поменяется:

При этом, конфигурация из одного SSD будет проще в использовании, ведь его прошивку легко обновить, а массив надо будет еще разобрать. Плюс ко всему, будет затруднена диагностика в случае появления проблем. И уж если вы собрались использовать рейд массив из SSD для установки туда игр — оно того не стоит, сильно лучше не станет. Время загрузки игровых локаций будет примерно таким же, как при использовании одного SSD диска, только для создания массива вам придется потратиться на дополнительный твердотельный накопитель.

И это еще без учета недостатков RAID 0 массива, как такового. Про преимущества и недостатки различных типов RAID массивов я уже рассказывал в статье про создание RAID массива из HDD, не буду повторяться. Да и сама процедура создания массива из SSD — ничем не отличается от таковой, в случае с обычными жесткими дисками. Поэтому, рекомендую прочитать.

Хорошо, с RAID 0 разобрались. А есть ли смысл делать RAID 1 из SSD накопителей, спросите вы? Тут очень спорная ситуация. Теоретически создание массива первого уровня повысит надежность хранимых на твердотельных дисках данных. Массив RAID 1 спокойно переносит выход из строя любого одного диска, но ведь у SSD дисков ограниченное количество циклов перезаписи!

Появляется опасность возникновения ситуации, при которой оба диска могут выйти из строя, пускай и не одновременно, а один за другим, с небольшим интервалом по времени. Ситуация усугубляется, если твердотельные накопители одной модели, куплены в одно время и ранее не использовались.

А вот RAID 10 на 4-х SSD (минимальное необходимое количество) нивелирует недостатки предыдущих двух конфигураций. Тут вам и скорость — ничуть не хуже, чем у RAID 0. И надежность — на уровне. Согласитесь, выход из строя одновременно 3-х SSD накопителей в RAID массиве уже менее вероятен. А к поломке любых 2-х из них RAID 10 «относится» спокойно. В случае чего, вы успеете заменить их на исправные.

Какой SSD выбрать для создания массива?

Учитывая особенности массивов с чередованием, наиболее логично будет выбрать какие-нибудь стабильные и испытанные SSD, от которых уж точно можно не ждать неприятных «сюрпризов» в самый неподходящий момент. Таких дисков полно. Можете зайти в «яндекс маркет» и отсортировать их по количеству отзывов. В отзывах о популярных моделях вы с большой вероятностью найдете информацию о том, как ведет себя данный диск в массиве.

Когда делаете рейд, полезно проверять состояние SSD накопителей с помощью параметров SMART, чтобы контролировать появление ошибок в прошивках и контроллерах. Хорошим вариантом будет SSD, основанный на контроллерах SF (SandForce) — эти модели опробовали много пользователей, а ошибки были исправлены на программном и аппаратном уровнях.

SSD, основанные на SF контроллерах, обладают мощным набором параметров SMART, в результате чего вы сможете получить всю необходимую информацию о его состоянии. «Бонусом» также будет наличие большого количества технологий, в том числе «RAISE» и «DuraWrite», которые продляют долговечность флеш-памяти. В общем, по надежности такие SSD будут самым лучшим вариантом.

Могу порекомендовать поискать SSD на контроллере SF-2281. При этом, фирмы-производители могут быть разные. Кто-то предпочитает Intel за их качество, а кому-то придется «по душе» более дешевый Kingston HyperX. Но учтите, что модели с объемом в 480 Гб могут оказаться медленнее тех, что имеют на борту всего 240 Гб. Всё дело в том, что для первых — используется восьмикратное чередование NAND, а это вносит некоторые задержки.

Ssd raid 1

Один SSD против двух в RAID | Результаты тестов

Скорость последовательного чтения и записи

Как и ожидалось, конфигурации из двух SSD на 128 Гбайт и 256 Гбайт в RAID 0 в нашем тесте последовательного чтения с лёгкостью обошли одиночные накопители. По сути, два диска ёмкостью 256 Гбайт с чередованием данных обеспечивают примерно вдвое более высокую производительность, чем один SSD. Два SSD по 128 Гбайт не так сильны в последовательной записи, но этого следовало ожидать, учитывая результат отдельного накопителя Samsung 840 Pro 128 Гбайт.

Согласно характеристикам Samsung, модель Samsung 840 Pro 128 Гбайт демонстрирует меньшую скорость чтения и записи, чем более ёмкие версии. Итак, мы получаем стабильные результаты.

Скорость произвольных операций блоками по 4 Кбайт (AS-SSD)

В настольных системах вы чаще всего сталкиваетесь с низкой глубиной очереди. Все конфигурации в этом случае работают почти одинаково. Фактически объединённые накопители даже немного медленнее, чем одиночные диски. Это происходит потому, что мы заполняем полосу пропускания флэш-памяти NAND. Для распределения нагрузки между несколькими устройствами на нескольких каналах необходим параллелизм.

Сразу после перехода на очень высокую глубину разница между работой обеих конфигураций и одиночными накопителями в RAID 0 становится более заметной. Жаль, что такие условия не характерны для задач, исполняемых на обычных ПК, и такие показатели Samsung 840 Pro можно наблюдать в основном в корпоративных средах.

Скорость произвольного чтения и записи блоками по 4 Кбайт (Iometer)

Наш тест Iometer очень хорошо демонстрирует связь между глубиной очереди и скоростью произвольного чтения и записи.

Диаграммы ниже отражают зависимость средней скорости передачи данных от глубины очереди, которая может составлять от 1 до 32. Как видно из измерений, в произвольном чтении блоками по 4 Кбайт лидируют две конфигурации RAID 0. С результатами скорости записи ситуация не так очевидна. Samsung 840 Pro на 512 Гбайт обходит два SSD ёмкостью 128 Гбайт, которые сами по себе лишь немного быстрее, чем одиночный SSD на 256 Гбайт.

Однако график роста производительности на разных глубинах очереди более нагляден. Операции чтения при низкой глубине очереди, похоже, снова ограничены возможностями NAND-памяти, и преимущества RAID 0 проявляются лишь при значительной степени параллелизма конфигурации. Запись даёт более высокую нагрузку: два накопителя по 256 Гбайт едва обходят один SSD на 512 Гбайт, а два Samsung 840 Pro по 128 Гбайт работают чуть быстрее, чем накопитель на 256 Гб.

Результаты тестов показывают, что все конфигурации с одним накопителем обеспечивают более низкий показатель времени доступа, чем объединённые массивы. Однако различия совсем небольшие.

Тесты различных профилей ввода/вывода (Iometer)

Диаграммы представляют среднюю производительность на глубине очереди от 1 до 32 в трёх тестовых профилях: базе данных (Database), веб-сервере (Web server) и рабочей станции (Workstation).

В тестовом профиле веб-сервера Iometer два массива RAID 0 явно обгоняют одиночные накопители на любой глубине очереди. Угадайте, какая модель доступа преобладает в этом тесте? Правильно, 100% чтение.

Тем не менее, профили базы данных и рабочей станции показывают меньшее масштабирование производительности при глубине очереди до восьми. До этого момента Samsung 840 Pro ёмкостью 512 Гбайт работает примерно так же, как два SSD по 256 Гбайт в RAID 0. Такая же тенденция прослеживается и для одного SSD на 256 Гбайт и двух объединённых дисков по 128 Гбайт.

PCMark 7 и PCMark Vantage

Синтетические тесты PCMark 7 и PCMark Vantage демонстрируют практически идентичную производительность всех конфигураций SSD. Более заметные различия наблюдаются при отдельных рабочих нагрузках, но они, похоже, взаимоисключаемы.

Тест копирования AS-SSD и общая производительность

Копирование файлов – это операция, для выполнения которой хорошо иметь производительную систему данных, такую, как SSD в конфигурации RAID. В трёх тестах копирования два SSD в связке превысили ограничения интерфейса SATA 6 Гбит/с, показав более высокую пропускную способность, чем может обеспечить любой накопитель в одиночку.

Благодаря превосходной производительности массивы RAID 0 выигрывают в ряде синтетических тестов как по общему баллу AS-SSD, так и по производительности в условиях нагрузок, свойственных настольным системам. Но всё не так-то просто: реалистичные тесты рисуют иную картину. Высочайшая пиковая скорость последовательной передачи данных в синтетических тестах не обязательно означает такие же показатели в реальности.

Реалистичные тесты: Загрузка и выключение Windows 8

Быстрее всего наша тестовая система под управлением Windows 8 загружается на одном Samsung 840 Pro 256 Гб, за ним следует модель ёмкостью 512 Гбайт. Два массива RAID 0 занимают третье и четвёртое места, а замыкает список один накопитель на 128 Гбайт. Тем не менее, разница между первым и последним местом составляет всего 1,1 секунды.

При выключении Windows 8, лидирует массив RAID из двух SSD по 128 Гбайт. Опять же, перевес незначительный. Разница между первым и последним местом составляет всего лишь 0,4 секунды.

Реалистичные тесты: Загрузка Windows 8 и Adobe Photoshop

Наш третий реалистичный тест показывает почти такой же результат, что и первые два. Нет практически никакой разницы между конфигурациями из одного SSD или двух в RAID 0. В данном тесте мы загружаем Windows 8, запускаем Adobe Photoshop CS6 и загружаем изображение.

Реалистичные тесты: Пять приложений

При проведении четвертого и последнего реалистичного теста мы вновь испытали дежавю. После загрузки Windows 8 мы запустили несколько приложений. Различные конфигурации SSD ведут себя идентично, лишь Samsung 840 Pro ёмкостью 512 Гбайт показал незначительный отрыв.

Один SSD против двух в RAID | RAID 0 — отличный вариант для тестов, но не в реальном мире

Читать еще:  Смена пароль wifi

Забавная вещь тестирование SSD. Вы можете целый день запускать синтетические испытания, создавая нереальные рабочие нагрузки, которые раскрывают твердотельные накопители с одной стороны. Затем вы можете провести реалистичные тесты, которые рисуют совсем другую картину.

Для энтузиастов зачастую лучше всего подходит золотая середина. Большинство выполняемых задач действительно включают в себя основные операции, такие как открытие веб-браузера, редактирование изображений, работа с электронной почтой и просмотр видео. Но иногда от наших систем требуется более высокая производительность, например, для компиляции большого проекта, перемещения десятков гигабайт медиафайлов или захвата несжимаемых файлов AVI для анализа FCAT. В таких случаях хочется получить требуемое быстродействие.

Как мы и ожидали, два твердотельных накопителя в массиве RAID 0 демонстрируют феноменальные показатели последовательного чтения и записи. В обоих тестах показатели RAID 0 из двух Samsung 840 Pro по 256 Гбайт достигают почти 1 Гбайт/с. В значительной степени из-за ограничений интерфейса SATA 6 Гбит/с показатели одиночных накопителей достигают чуть более половины этих значений.

Конфигурации на базе RAID, несомненно, лидировали в первом тесте, показывая исключительные результаты в рамках последовательного чтения и записи, однако для одиночных накопителей игра ещё не была проиграна. Отдельные твердотельные накопители отвоевали позиции в последующих тестах, даже показав в некоторых из них лучшие результаты. Хорошим примером является скорость произвольных операций ввода/вывода. Накопители с чередованием данных, безусловно, обеспечивают больше IOPS, но только в случае, если вы даёте более четырёх команд сразу. Очерёдность в 32, 16 или даже 8 команд совсем не характерна для настольных ПК или рабочих станций. В результате на практике разница в производительности выражена гораздо меньше.

Одиночные SSD неоднократно лидировали в проведённых нами тестах. Разницу в производительности при перезагрузке и выключении Windows 8, а затем при запуске различных приложений в лучшем случае можно назвать минимальной, а на практике она вообще не заметна. Иногда отдельные накопители даже умудрялись превзойти RAID массивы.

Если вы планируете обновление и хотите знать, стоит ли покупать пару SSD по 128 Гбайт и объединять их в RAID 0 или, например, просто купить один накопитель ёмкостью 256 Гбайт, ответ для нас очевиден: один накопитель большей ёмкости лучше. К примеру, в данный момент приобретение пары SSD Samsung 840 Pro по 128 Гбайт обойдется вам в $300. Модель ёмкостью 256 Гбайт стоит $240 (может быть, поэтому её сейчас и нет в наличии). Также встаёт вопрос о надёжности. Если один из дисков в конфигурации RAID 0 даёт сбой – то это касается всего массива. По крайней мере, в качестве основного системного накопителя один SSD является более безопасным вариантом.

Есть, конечно, и исключения. Предел интерфейса SATA 6 Гбит/с в настоящее время составляет 500+ Мбайт/с для чтения и до 500 Мбайт/с для записи. Иногда этого просто недостаточно. В качестве примера возьмите необработанные видеоролики в формате AVI, упомянутые ранее. Чтоб не пропускать кадры, мы используем четыре Crucial m4 в RAID 0. В этом случае RAID 0 – обязательное условие, и тот факт, что в массиве находится только отснятое видео, означает, что сбой массива приведет к относительно поверхностным потерям (за исключением стоимости диска). Если вы используете подобное приложение, то наверняка знаете, что один накопитель большого объёма не справится с такой задачей.

Ssd raid 1

Планирую приобретение сервера под цели веб-сервера. Возникла дилемма. Хочу использовать 2 x SSD (raid 1) под систему и базу данных, и 2 x SSD (без рейда) под статику. Не могу прийти к согласию между софтовым и железным рейдом. Будет ли от него польза при использовании SSD в данном контексте?
Экономия ни когда не помешает, а лишние €500 на дороге не валяются 🙂

Hard raid: LSI MegaRAID 9271-4i bulk, 4 x SATA III/SAS II internal hardware RAID, 1024MB cache, up to 128 hard drives via expander backplane, support for SSD CacheCade 2.0 write and read caching + LSI CacheVault voor 9266-9271 series. Стоимость: € 493

Привет.
В твоем случае пофиг. Возможно даже HW рэйд будет хуже.
Ммм, резкое заявление, а более развернуто и аргументированно?
Только без теорий

Аппаратный контроллер во многом хорошь тем что имеет кэш-память, которая в случае ssd не нужна.

Мои мысли, почему в ДАННОМ случае не стоит заморачиваться аппаратным рэйдом.

Давайте посмотрим на плюсы и минусы:
Минусы:
-дороже
-дополнительная точка отказа
-дополнительные задержки при записи
-ВОЗМОЖНЫЙ больший износ SSD из-за специфики работы контроллера с дисковым пространством

Плюсы:
-не вижу очевидных плюсов

Опять же, все это ИМХО, и для конкретного случая.
Раз нет плюсов и только минусы, то смысл городить огород?

sladkydze, Купите ради интереса Intel 530 и погоняйте их через рейд, я думаю вашему удивлению не будет предела.

Scumtron, Однозначно использовать!

И вообще, lsi использовать не буду больше 🙂 лучше адаптек.

А у меня опыт показывает обратное. Юзаю только LSI.

———- Post added 09-09-2014 at 11:05 ———-

sladkydze, Купите ради интереса Intel 530 и погоняйте их через рейд, я думаю вашему удивлению не будет предела.
У меня уже все давно есть и протестировано. Гонял неоднократно. Особого профита нет.

В современных SSD есть контроллеры, которые по сути собирают RAID0 из микросхем внутри диска. Там так же есть память для кэша, причем в достаточно больших объемах, порядка 512 мегабайт. 1 гигабайта.

Я бы поддержал аппаратный контроллер, если бы от него в ДАННОМ примере был толк. Но я толка не вижу.

Давайте посмотрим на плюсы и минусы:
Минусы:
-дороже
-дополнительная точка отказа
-дополнительные задержки при записи
Точка отказа? Простите, вы про что, и какие задержки, по вашему кеш для чего?
-ВОЗМОЖНЫЙ больший износ SSD из-за специфики работы контроллера с дисковым пространством

Я вас наверное очень удивлю, но современные hw контроллеры прекрасно знают как работать с ссд и как ее ( эту работу )оптимизировать.

Точка отказа? Простите, вы про что, и какие задержки, по вашему кеш для чего?

Я вас наверное очень удивлю, но современные hw контроллеры прекрасно знают как работать с ссд и как ее ( эту работу )оптимизировать.
Огласите, пожалуйста модели этих контроллеров и их примерную цену.

Также, проводили тестирование, особой разницы не заметили. Сейчас на серверах с SSD только софтовый RAID.

Точка отказа? Простите, вы про что, и какие задержки, по вашему кеш для чего?

Точка отказа значит то, что в случае наличие контроллера и его выхода из строя человек получает геморрой. Если сервер покупается для себя, это критично, поскольку быстро поменять на аналогичный нет возможности.

Кэш контроллера бессмысленен, когда идет речь о ssd в raid1. Мы такое тестировали не раз. А мы как раз и используем только контроллеры LSI.

При конфигурации ТС-а, нет смысла тратить лишние деньги.

Наши тесты:
Softraid 10 (4 ssd):
dd (write) — 285
dd (read) — 650

Hardraid 10 (4 ssd):
dd (write) — 460
dd (read) — 1100

Диск: Intel DC S3500
Контроллер: LSI MegaRAID SAS 9361-4i

SSD + Hard Raid имеет место быть, если этот SSD используется как кэш.
Берем кучу HDD или SAS и втыкаем через LSI Raid 10 — SSD Кэш
http://www.truesystem.ru/upload/content-files/cachecade.png
Получаем скорость и надежность.
Работать чисто с SSD рано или поздно выстрелит, да и объемы слишком малы..

Ради интереса делал Hard Raid 10 из 4 SSD, кайфа мало :crazy:
Вернее денег потрачено больше, чем кайф от того что получилось )))

Огласите, пожалуйста модели этих контроллеров и их примерную цену.

Топ прочитайте, там все написано

Если диск работает со скоростью кэша, то смысл, сначала загонять в кеш, чтобы потом переписать на диск? Не проще ли, сразу на диск?
К тому же, как заметил sladkydze, Современные SSD-диски действительно имеют встроенный кэш, который наилучшим образом оптимизирован для работы именно с теми микросхемами, которые установлены в диске.
Со скоростью кеша? Это что за ссд такие у тс, который работают со скоростью рам кеша?
А в строенный кеш есть в самом простом сата, вот только его выключают, во избежания.

Valmon , тут надо немного на землю опуститься. Я вот очень сомневаюсь, что автор будет писать на свои SSD диски на скорости 600 мегабайт в секунду. И даже оооочень сомневаюсь, что там часто 100 мегабайт в секунду будет. Тогда какая разница, пишут эти SSD 1300 мб в секунду или 650?

Вот стоят машины в пробке, Ока рядом с Ламборджини 🙂 И чего? 🙂 У нас тут похожая ситуация.
Для реального использования разницы не будет. Так зачем платить больше?
Утверждение касается конкретно данного случая у автора.

Valmon , тут надо немного на землю опуститься. Я вот очень сомневаюсь, что автор будет писать на свои SSD диски на скорости 600 мегабайт в секунду. И даже оооочень сомневаюсь, что там часто 100 мегабайт в секунду будет. Тогда какая разница, пишут эти SSD 1300 мб в секунду или 650?

Вот стоят машины в пробке, Ока рядом с Ламборджини 🙂 И чего? 🙂 У нас тут похожая ситуация.
Для реального использования разницы не будет. Так зачем платить больше?
Утверждение касается конкретно данного случая у автора.
Автору вообще для его целей голые SSD противопоказаны. SOFT или HARD без разницы.
А SSD кэш имеет место быть в инфраструктурных системах виртуализации.

Наши тесты:
Softraid 10 (4 ssd):
dd (write) — 285
dd (read) — 650

Hardraid 10 (4 ssd):
dd (write) — 460
dd (read) — 1100

Диск: Intel DC S3500
Контроллер: LSI MegaRAID SAS 9361-4i

У ТС-а 2 SDD и RAID1. Коллеги, не забываем, что тут обсуждение конкретного случая идет. Мы не HiLoad-систему собираем, а вполне обычную.

Использовать RAID-1 стоит однозначно. Вопрос только в том, программный или аппаратный.

Но для того, что бы сравнивать надо хотя бы понять, какую ОС использует ТС?

В венде софтварный RAID — ужасен, во FreeBSD/Linux — немного лучше.

Но при любом раскладе если данные критичны и перезагрузка по питанию/сбою ядра возможна, а потеря даже 10-20 строк в таблицах — чревата проблемами с деньгами — ВАМ ОДНОЗНАЧНО НУЖЕН АППАРАТНЫЙ РЕЙД С БАТАРЕЙКОЙ.

Ибо что софтварный рейд, что аппаратный без батарейки, при перезагрузке могут потерять несколько сот мегабайт данных, которые будут потеряны безвозвратно.

Алсо, в данном случае от аппаратного рейда будет польза в первую очередь из-за кэша с батарейкой.

Недавно настраивали RAID из 24x SSD, контроллер сам рекомендовал отключить кэш.
Кэш на дисках или кэш контроллера? Дисковый кэш отключает сам по себе почти любой серьезный RAID контроллер.

Жалко, кстати, что нет какой-нить быстрой-быстрой энергонезависимой памяти (типа кристаллов ZMC у Adaptec), чтобы прицепить ее для кэша софт рейда. Хотя, боюсь, в Linux с его страничным кэшем такое фиг интегрируешь.

Читать еще:  Wifi настройка скорости

Так никто не говорит, что аппаратный рейд — это плохо 🙂 Но автор как бы намекнул, что не мешало бы скроить, если есть такая возможность. А в данном случае она есть.

По данным в кэше SSD дисков, так сейчас есть диски, сохраняющие этот кэш внутри себя при потере питания.

Так никто не говорит, что аппаратный рейд — это плохо 🙂 Но автор как бы намекнул, что не мешало бы скроить, если есть такая возможность. А в данном случае она есть.

По данным в кэше SSD дисков, так сейчас есть диски, сохраняющие этот кэш внутри себя при потере питания.
Это slc диски, в них то ли кондсаторы стоят, то ли литиевые батарейки

Проблема не столько в кэше самих дисков, его можно отключить при желании, а в поведении страничного кэша почти любой современной ОС, когда данные пушатся блоками (когда наберется 10-20-50 записей или пройдет какое-то время), а не по мере реальной записи.

То есть, пишет тут MySQL что-то на диск раз запсисал — данные еще в памяти, два записал — снова в памяти, три записал — пошел пуш на диск. И ели до реального пуша данных еще не дошло и кончилось электричество — с данными можно прощаться. Ну и файловая система может разлететься, журнал ФС пишется зачастую даже чаще чем реальные данные.

Жалко, кстати, что нет какой-нить быстрой-быстрой энергонезависимой памяти (типа кристаллов ZMC у Adaptec), чтобы прицепить ее для кэша софт рейда. Хотя, боюсь, в Linux с его страничным кэшем такое фиг интегрируешь.
Жалко открытого софта такого нет, который бы зеркалил кеш на двух нодах))

Проблема не столько в кэше самих дисков, его можно отключить при желании, а в поведении страничного кэша почти любой современной ОС, когда данные пушатся блоками (когда наберется 10-20-50 записей или пройдет какое-то время), а не по мере реальной записи.

То есть, пишет тут MySQL что-то на диск раз запсисал — данные еще в памяти, два записал — снова в памяти, три записал — пошел пуш на диск. И ели до реального пуша данных еще не дошло и кончилось электричество — с данными можно прощаться. Ну и файловая система может разлететься, журнал ФС пишется зачастую даже чаще чем реальные данные.

Потому надо юзать хорошие фс (с).

ZFS с copy on write. Включать у MySQL O_DIRECT и бекапиться (благо с zfs это вопрос скорости канала да и только).

Аппаратный контроллер от этого кстати не защищает. Более того, у контроллера может быть глюк (было у нас пару раз с адаптеками) и этот глюк лечится только прошивкой новой фирмвари, которую прошивать на свой страх и риск, ибо гарантия снимается (собственно как и с ссд, но если ссд дешевые есть, контроллеры приличные все еще в 500 евро гуляют). Баттарейка может выйти из строя и если не настроена оповещалка — будет неприятный сюрприз. Даже сами производители пишут «бекап обязателен».

Плюс зачем дополнительная точка отказа в системе, которую дорого заменить? А вдруг слетел контроллер к чертям собачьим, а новый такой уже не купить, а у Вашего была проприетарная милая такая разметочка страпов?

Имхо намного логичней попросить 2 луча и в стойке и поставить сервер с 2мя БП — это как раз убирает еще одну единую точку отказа и позволяет сэкономить в будущем. Райд для ССД не нужен.

Оттюненный софтовый райд (да, его надо тюнить и правильно размечать, чтобы он православно лег на диск и на него можно было также правильно положить LVM в те самые 4к) будет перформить довольно близко к хардварным райдам, но вот геморроя с ним будет намного меньше, стоимость дико дешевле а возможностей поболее. И уж тем более, если это ZFS, будет намного проще управляться raw дисками.

Хард райд перформит быстрее в случае старых фс (типа ext2/3/4 или ufs), которые меньше опираются на память (кэширование делает ось). Для ZFS разницы не будет или же наоборот будут проблемы (в ZFS так и указано, что лучше не класть поверх хардвейр райда, т.к. это единая точка отказа ЗА пределами компетенции ZFS). Хотя мы например используем два raid0 и в zmirror, очень шустро работают).

Максимальная производительность SSD на LSI контроллерах

Максимальная производительность SSD на LSI контроллерах

Добрый день! Уважаемые читатели и и гости одного из крупнейших IT блогов России Pyatilistnik.org. В прошлый раз мы с вами рассматривали ситуацию, где у нас неправильно определялось оборудование в операционной системе и высвечивался код ошибки 10. Сегодня я хочу вам показать, как правильно настраивать на RAID контроллере LSI массивы с SSD, чтобы добиваться максимально производительности, можно назвать, это «Best practices» для связки SSD и LSI.

Постановка задачи

У меня есть не самый новый RAID контроллер LSI 9280-16i4e, это старенькая модель у которой всего 512 МБ кэша DDR 2 и чипом LSISAS2108 с интегрированным XOR процессором Power PC 800 МГц. Из этого можно понять, что он не особо предназначен для SSD, но и из него мы выжмем максимум. В моем примере я хочу создать массив из 6 SSD Dell, и добиться от него максимальной производительности.

Best practices для SSD+LSI

Данная статья будет чем-то похожа на аналогичную, про «Best practices для HP P410i», там я так же прокачивал скорость своих SSD дисков. Создавать я в своем примере буду RAID-0, так как на моем тестовом стенде мне нужна максимальная производительность и я не очень боюсь потерять эти данные, если кто не в курсе RAID-0, это объединение всех дисков в один массив, за счет чего достигается максимальная производительность, но минимальная отказоустойчивость, так как при выходе одного SSD, весь массив развалится, но сейчас очень сложно ушатать SSD диск, так как его ресурс очень большой, проверить его можно вычислив DWPD и TBW.

Давайте проведем восемь экспериментов:

  1. Тестирование одного SSD диска с базовыми параметрами предлагаемыми LSI контроллером
  2. Тестирование одного SSD диска с базовыми настройками, но измененным размером Stripe
  3. Тестирование одного SSD с рекомендуемыми настройками и базовым Stripe
  4. Тестирование одного SSD с рекомендуемыми настройками, но измененным размером Stripe
  5. Тестирование шести SSD дисков в массиве RAID-0 с базовыми настройками и стандартным размером Stripe
  6. Тестирование шести SSD дисков в массиве RAID-0 с базовыми настройками, но измененным размером Stripe
  7. Тестирование шести SSD дисков в массиве RAID-0 с рекомендуемыми настройками и стандартным размером Stripe
  8. Тестирование шести SSD дисков в массиве RAID-0 с рекомендуемыми настройками, но измененным размером Stripe

Создавать RAID массивы я буду через утилиту MegaRAID Storage Manager (MSM) и производить замер скорости SSD дисков в утилите CrystalDiskMark. В качестве хостовой операционной системы будет выступать Windows Server 2016.

Открываем утилиту MSM, я перехожу в раздел «Logical«, тут я вижу свои 6 SSD дисков Dell, они имеют статус Unconfigured Good (Не размечены).

Первый замер скорости будет с одним SSD и всеми базовыми параметрами. Выбираю свой RAID контроллер LSI 9280-16i4e, щелкаю по нему правым кликом и из контекстного меню я выбираю пункт «Create Virtual Drive

Выбираю режим «Advanced» и нажимаю «Next».

В RAID level выбираем RAID-0, кстати про разные виды RAID вы можете почитать мою статью. Из «Selrct unconfigured drives» вы через кнопку «Add» переносите диск в «Drive Group» и нажимаете кнопку для создания «Create Drive Group«.

После того. как будет создана «Drive Group» нажимаем кнопку «Next«.

Оставляем все настройки как есть, это:

  • Initialization — No Initialization
  • Stripe size — 256 kb
  • Read Policy — Always Read Ahead
  • Write policy — Write Back
  • I/O policy — Direct IO
  • Access policy — Read Write
  • Disk cache policy — Disable

Нажимаем кнопку «Create Virtual Drive» для создания массива.

Все мой RAID-0 создан, просто нажимаем «Next«.

Далее «Finish«. Вы должны увидеть «The virtual drive successfully created«.

В списке на вашем LSI 9280-16i4e вы можете увидеть новую группу.

Открываем оснастку управление дисками, для этого в окне «Выполнить» введите команду «diskmgmt.msc».

Создаем обычный том.

Тестирование производительности SSD на LSI контроллере

Тест №1.

Открываем CrystalDiskMark, выбираем наш диск, у меня это E:, тестировать я буду в три подхода 2-х гигабитным файлом. Нажимаем «All».

Начинается тестирование вашего SSD диска, процесс занимаем минут 5. Результаты по скорости копирования и чтения, а так же количество IOPS при разных видах, вы видите на скриншоте. При таком раскладе мой RAID контроллер LSI 9280-16i4e выдал максимально 52 000 IOPS на чтение и 36 000 IOPS на запись, среднячок.

Тест №2

Во втором тесте мы оставим наш виртуальный раздел в RAID-0, со всеми настройками кэширования, но единственное увеличим размер Stripe с 256 кб на 512 кб. Для этого в утилите MSM найдите ван виртуальный диск, щелкните по нему правой кнопкой мыши и выберите пункт «Delete Virtual Drive«.

Соглашаемся и удаляем наш виртуальный диск.

После чего создаем новый, как я описывал выше, единственное в «Stripe size» выберите значение 512 кб. Размечаем том и начинаем тестирование.

В итоге слегка подросла скорость чтения и записи при последовательном обращении, хочу отметить, что размер страйпа нужно выбирать исходя из специфики данных, это будет влиять на производительность.

Тест №3

Теперь опять удаляем текущий виртуальный диск и создаем уже, так как нужно с правильными настройками под SSD диск, чтобы максимально ускорить связку контроллера LSI и ваш твердотельный носитель. Тут вся соль заключается в правильных настройках политики и кэширования.

На шаге создания «Create Virtual Drive» выберите:

  • Stripe Size — 256 kb
  • Read Policy — NoRead Ahead
  • Write Policy — Write Trough
  • I/O Policy — Direct IO
  • Disk cache policy — Enable

Делаем тестирование в CrystalDiskMark. В результате мы слегка потеряли в последовательном чтении и записи, но посмотрите какой прирост производительности по операциям ввода/вывода и это с учетом того, что у меня просто древний контроллер, который с ссд дисками и не очень, то и дружен. Как видите только по чтению +8000 IOPS на 4Kib Q8t8, а на 4Kib Q32t1 +17 000 IOPS.

Тест №4

  • Stripe Size — 512 kb
  • Read Policy — NoRead Ahead
  • Write Policy — Write Trough
  • I/O Policy — Direct IO
  • Disk cache policy — Enable

Как видим при размете страйпа в 512 кб, чуть выше показатели по всем пунктам, в таком виде SSD максимально производителен, но вы можете еще поиграться с размером страйпа.

Читать еще:  Роутер работает но не раздает wifi

Тест №5

Тестирование шести SSD дисков в массиве RAID-0 с базовыми настройками и стандартным размером Stripe. Удаляем старый раздел и опять начинаем создавать новый, в режиме «Advanced», на вкладке «Create Drive Group» выберите RAID 0 в «RAID Level» и перенесите в новую группу все ваши твердотельные диски, после чего нажмите «Create Virtual Drive».

Оставляем настройки все как есть по умолчанию и создаем массив.

  • Initialization — No Initialization
  • Stripe size — 256 kb
  • Read Policy — Always Read Ahead
  • Write policy — Write Back
  • I/O policy — Direct IO
  • Access policy — Read Write
  • Disk cache policy — Disable

Размечаем новый том и приступаем к замерам производительности в CrystalDiskMark. Как видите за счет страйпа из шести SSD, скорость последовательного чтения и записи подросли, и тут я уже упираюсь в свой тестовый сервер, так как он больше не может через себя прокачать. 875 MB/s пока предел, давайте попробуем увеличить размер страйпа.

Тест №6

Тестирование шести SSD дисков в массиве RAID-0 с базовыми настройками, но измененным размером Stripe

  • Initialization — No Initialization
  • Stripe size — 512 kb
  • Read Policy — Always Read Ahead
  • Write policy — Write Back
  • I/O policy — Direct IO
  • Access policy — Read Write
  • Disk cache policy — Disable

Тут мы слегка увеличили количество операций ввода/вывода при чтении, но слегка потеряли на записи.

Тест №7

Тестирование шести SSD дисков в массиве RAID-0 с рекомендуемыми настройками и стандартным размером Stripe

  • Stripe Size — 256 kb
  • Read Policy — NoRead Ahead
  • Write Policy — Write Trough
  • I/O Policy — Direct IO
  • Disk cache policy — Enable

Как говорится почувствуйте разницу, просто резкое увеличение операций ввода/вывода, особенно на запись.

Тестирование скорости RAID 00


Еще мне интересно было протестировать скорость RAID 00 против RAID 0, так как LSI пишет, что он быстрее обычного страйпа, на деле это не так, у меня он оказался медленнее.

  • Stripe Size — 256 kb
  • Read Policy — NoRead Ahead
  • Write Policy — Write Trough
  • I/O Policy — Direct IO
  • Disk cache policy — Enable

Объединение 2-х дисков в 1: настройка RAID-массива на домашнем компьютере (просто о сложном)

Доброго дня!

При подключении нескольких дисков к компьютеру (ноутбуку) — каждый из них появляется под своей буквой (C, D, E и др.) и представляет из себя отдельный независимый накопитель. Но объединив эти диски в RAID-массив — можно из двух дисков по 1 ТБ (например) получить единый накопитель на 2 ТБ (причем, с удвоенной* скоростью работы!) .

Согласитесь, звучит заманчиво?! Однако, многим пользователям слово «RAID» — либо вообще ничего не говорит, либо напоминает что-то такое отдаленное и сложное (явно-недоступное для повседневных нужд на домашнем ПК/ноутбуке). На самом же деле, все проще, чем есть. 👌 (разумеется, если мы не говорим о каких-то сложных производственных задачах, которые явно не нужны на обычном ПК)

Собственно, ниже в заметке попробую на доступном языке объяснить, как можно объединить диски в эти RAID-массивы, в чем может быть их отличие, и «что с чем едят».

Настройка RAID

Основы, какими могут быть RAID массивы (т.е. то, как будем объединять диски)

Возьмем для примера 2 диска (речь может идти о любых накопителях: HDD, SSD и пр.) . Объединить их между собой можно по двум основным схемам:

  • вариант 1 : когда их объем суммируется, и мы получаем один большой диск (т.е. в Windows и в BIOS он будет отображаться как один накопитель!). Такую схему принято называть RAID 0;
  • вариант 2 : когда эти два диска будут являться копиями друг друга (т.е. зеркальными). Так делают для повышения надежности хранения информации. Эта схема называется RAID 1.

Обратите внимание также на табличку ниже.

  1. объем дисков «складывается» в единое целое (например, при подключении двух дисков по 500 ГБ — получите 1000 ГБ);
  2. скорость работы с RAID-массивом повышается (например, при объединении 2-х дисков — последовательная скорость увел. в 1,5-2 раза!);
  3. снижается надежность: при выходе из строя любого из дисков — данные будут утеряны.
  1. данные клонируются на всех дисках в RAID массиве (т.е. если выйдет из строя один диск — копии файлов можно найти на другом);
  2. скорость работы с накопителями не изменяется (такая же как при работе с одним из дисков).

Разумеется, видов RAID-массивов гораздо больше (RAID 5, RAID 6, RAID 10 и др.), но все они представляют из себя разновидности вышеприведенных (и, как правило, в домашних условиях не используются).

Пару слов о дисках и мат. плате

Не все материнские платы поддерживают работу с дисковыми массивами RAID. И прежде, чем переходить к вопросу объединению дисков, необходимо уточнить этот момент.

Как это сделать : сначала с помощью спец. утилит (например, AIDA 64) нужно узнать точную модель материнской платы компьютера.

Далее найти спецификацию к вашей мат. плате на официальном сайте производителя и посмотреть вкладку «Хранение» (в моем примере ниже, мат. плата поддерживает RAID 0, RAID 1, RAID 10).

Спецификация материнской платы

Если ваша плата не поддерживает нужный вам вид RAID-массива, то у вас есть два варианта выхода из положения:

  1. воспользоваться программным способом поднятия RAID из-под Windows;
  2. приобрести спец. контроллер и установить его в PCI слот. Как правило, для его корректной работы необходимо также будет до-установить драйвер.

RAID-контроллер (в качестве примера)

Важная заметка : RAID-массив при форматировании логического раздела, переустановки Windows и т.д. — не разрушится. Но при замене материнской платы (при обновлении чипсета и RAID-контроллера) — есть вероятность, что вы не сможете прочитать информацию с этого RAID-массива (т.е. информация не будет недоступна. ).

Что касается дисков под RAID-массив :

  1. в общем-то, можно использовать как жесткие диски (HDD), так и твердотельные накопители (SSD);
  2. не всегда нужно брать диски одинакового объема и одной модели (хотя это очень желательно). Например, если вы хотите сделать зеркальную копию своего диска (RAID 1) — можно взять диск или равный по объему, или больше;
  3. при создании RAID-массива — в большинстве случаев, информация с дисков (участвующих в этом) будет удалена.

Пример настройки RAID 0 в BIOS

Разумеется, в одной заметке вряд ли возможно показать настройки для разных мат. плат и способы объединения в RAID (в зависимости от вашего железа могут быть некоторые особенности). В примере ниже, я рассмотрю создание RAID 0 массива с применением современной технологии Intel Rapid Storage Technology .

Важно : при этом способе информация с дисков будет удалена!

Примечание : создать RAID-массив можно и из-под Windows (например, если вы хотите в целях безопасности сделать зеркальную копию своего диска).

1) И так, первым делом необходимо подключить диски к компьютеру (ноутбуку). Здесь на этом не останавливаюсь.

2) Далее нужно зайти в BIOS и установить 2 опции:

  • параметр SATA Mode Selection перевести в режим RAID (обычно он находится в разделе «Advanced») ;
  • Boot Mode Selection перевести в UEFI (раздел «Boot») .

Затем нужно сохранить настройки (чаще всего это клавиша F10) и перезагрузить компьютер.

Настройки BIOS — RAID

3) После, следует снова зайти в BIOS и открыть вкладку Intel Rapid Storage Technology (обычно это раздел «Advanced») .

Intel Rapid Storage Technology

4) В этой вкладке должны отображаться все подключенные накопители. Для создания RAID-массива из них (не обязательно из всех) — нажмите по Create RAID Volume .

Create RAID Volume

5) Теперь нужно указать:

  1. Name — имя массива, может быть любым;
  2. Rapid Level — тип массива, в своем примере я выбрал RAID 0 (т.е. объединение 2-х дисков в 1 с целью увеличения объема и скорости работы) ;
  3. Select Disk — выбор дисков (просто нужно отметить крестиками накопители, которые участвуют в объединении).

После нажатия на кнопку Create Volume — RAID-массив будет создан, им можно будет пользоваться как обычным отдельным накопителем.

6) Если приступить к установке Windows 10 (например) — то в шаге выбора диска вы увидите обычную надпись вида «Незанятое пространство на диске» составляет столько-то. (при объединении в RAID 0 двух дисков по 1 ТБ — общий объем получится 1863 ГБ, см. скрин ниже) .

Т.е. на этом этапе можно создать логический раздел (и не один) и устанавливать систему как на обычный жесткий диск (забыв о слове RAID совсем. ) .

Незанятое пространство на диске — установка ОС Windows 10

Как создать RAID 0, RAID 1 программно (в ОС Windows 10)

Создать RAID-массив можно как с помощью средств BIOS, так и программно — при помощи инструментов в ОС Windows. Причем, такой вот программный способ не требует даже спец. материнской платы, поддерживающей работу с RAID-массивами.

Рассмотрю ниже пару конкретных примеров.

1) Покупаете и устанавливаете еще один-два диска (в зависимости от задач). Если ваша цель обезопасить свои данные (т.е. создание RAID 1) — то их объем должен быть равен (или быть больше) вашего основного накопителя;

2) Открываете управление дисками (для этого нужно: нажать Win+R, и в появившемся окне ввести команду diskmgmt.msc).

3) Теперь действия могут несколько отличаться.

Вариант 1 : допустим вы хотите объединить два новых диска в один, чтобы у вас был большой накопитель для разного рода файлов. В этом случае просто кликните правой кнопкой мышки по одному из новых дисков и выберите создание чередующегося тома (это подразумевает RAID 0). Далее укажите какие диски объединяете, файловую систему и пр.

Примечание : зеркальный том — это RAID 1.

Создать чередующийся или зеркальный том

Когда RAID-массив будет готов — в «Моем компьютере» у вас появится один логический диск, размер которого будет равен сумме объединенных дисков (в моем примере 3725,9 ГБ x 2 = 7,27 ТБ) .

Вариант 2 : если же вы беспокоитесь за сохранность своих данных — то можно подключенный к системе новый диск сделать зеркальным вашему основному диску с ОС Windows, причем эта операция будет без потери данных (прим.: RAID 1).

Для этого, когда зайдёте в управление дисками — кликните правой кнопкой мышки по тому разделу диска, для которого хотите создать копию — в появившемся меню выберите «Добавить зеркало» , и укажите какой диск будет им являться (в моем случае это диск 1 ) .

4) После Windows начнет автоматическую синхронизацию накопителей: т.е. с выбранного вами раздела все данные будут также скопированы на новый диск.

5) В общем-то, всё, RAID 1 настроен — теперь при любых изменениях файлов на основном диске с Windows — они автоматически будут синхронизированы (перенесены) на второй диск.

Вероятность одновременного выхода из строя 2-х дисков — крайне маловероятна, если только не учитывать фактор постороннего вмешательства (сильный удар, затопление, пожар и т.д.).

6) Удалить зеркало, кстати, можно также из управления дисками : пример на скрине ниже.

Ссылка на основную публикацию
Adblock
detector