Semenalidery.com

IT Новости из мира ПК
0 просмотров
Рейтинг статьи
1 звезда2 звезды3 звезды4 звезды5 звезд
Загрузка...

Ssd в raid

Ssd в raid

Один SSD против двух в RAID | Результаты тестов

Скорость последовательного чтения и записи

Как и ожидалось, конфигурации из двух SSD на 128 Гбайт и 256 Гбайт в RAID 0 в нашем тесте последовательного чтения с лёгкостью обошли одиночные накопители. По сути, два диска ёмкостью 256 Гбайт с чередованием данных обеспечивают примерно вдвое более высокую производительность, чем один SSD. Два SSD по 128 Гбайт не так сильны в последовательной записи, но этого следовало ожидать, учитывая результат отдельного накопителя Samsung 840 Pro 128 Гбайт.

Согласно характеристикам Samsung, модель Samsung 840 Pro 128 Гбайт демонстрирует меньшую скорость чтения и записи, чем более ёмкие версии. Итак, мы получаем стабильные результаты.

Скорость произвольных операций блоками по 4 Кбайт (AS-SSD)

В настольных системах вы чаще всего сталкиваетесь с низкой глубиной очереди. Все конфигурации в этом случае работают почти одинаково. Фактически объединённые накопители даже немного медленнее, чем одиночные диски. Это происходит потому, что мы заполняем полосу пропускания флэш-памяти NAND. Для распределения нагрузки между несколькими устройствами на нескольких каналах необходим параллелизм.

Сразу после перехода на очень высокую глубину разница между работой обеих конфигураций и одиночными накопителями в RAID 0 становится более заметной. Жаль, что такие условия не характерны для задач, исполняемых на обычных ПК, и такие показатели Samsung 840 Pro можно наблюдать в основном в корпоративных средах.

Скорость произвольного чтения и записи блоками по 4 Кбайт (Iometer)

Наш тест Iometer очень хорошо демонстрирует связь между глубиной очереди и скоростью произвольного чтения и записи.

Диаграммы ниже отражают зависимость средней скорости передачи данных от глубины очереди, которая может составлять от 1 до 32. Как видно из измерений, в произвольном чтении блоками по 4 Кбайт лидируют две конфигурации RAID 0. С результатами скорости записи ситуация не так очевидна. Samsung 840 Pro на 512 Гбайт обходит два SSD ёмкостью 128 Гбайт, которые сами по себе лишь немного быстрее, чем одиночный SSD на 256 Гбайт.

Однако график роста производительности на разных глубинах очереди более нагляден. Операции чтения при низкой глубине очереди, похоже, снова ограничены возможностями NAND-памяти, и преимущества RAID 0 проявляются лишь при значительной степени параллелизма конфигурации. Запись даёт более высокую нагрузку: два накопителя по 256 Гбайт едва обходят один SSD на 512 Гбайт, а два Samsung 840 Pro по 128 Гбайт работают чуть быстрее, чем накопитель на 256 Гб.

Результаты тестов показывают, что все конфигурации с одним накопителем обеспечивают более низкий показатель времени доступа, чем объединённые массивы. Однако различия совсем небольшие.

Тесты различных профилей ввода/вывода (Iometer)

Диаграммы представляют среднюю производительность на глубине очереди от 1 до 32 в трёх тестовых профилях: базе данных (Database), веб-сервере (Web server) и рабочей станции (Workstation).

В тестовом профиле веб-сервера Iometer два массива RAID 0 явно обгоняют одиночные накопители на любой глубине очереди. Угадайте, какая модель доступа преобладает в этом тесте? Правильно, 100% чтение.

Тем не менее, профили базы данных и рабочей станции показывают меньшее масштабирование производительности при глубине очереди до восьми. До этого момента Samsung 840 Pro ёмкостью 512 Гбайт работает примерно так же, как два SSD по 256 Гбайт в RAID 0. Такая же тенденция прослеживается и для одного SSD на 256 Гбайт и двух объединённых дисков по 128 Гбайт.

PCMark 7 и PCMark Vantage

Синтетические тесты PCMark 7 и PCMark Vantage демонстрируют практически идентичную производительность всех конфигураций SSD. Более заметные различия наблюдаются при отдельных рабочих нагрузках, но они, похоже, взаимоисключаемы.

Тест копирования AS-SSD и общая производительность

Копирование файлов – это операция, для выполнения которой хорошо иметь производительную систему данных, такую, как SSD в конфигурации RAID. В трёх тестах копирования два SSD в связке превысили ограничения интерфейса SATA 6 Гбит/с, показав более высокую пропускную способность, чем может обеспечить любой накопитель в одиночку.

Благодаря превосходной производительности массивы RAID 0 выигрывают в ряде синтетических тестов как по общему баллу AS-SSD, так и по производительности в условиях нагрузок, свойственных настольным системам. Но всё не так-то просто: реалистичные тесты рисуют иную картину. Высочайшая пиковая скорость последовательной передачи данных в синтетических тестах не обязательно означает такие же показатели в реальности.

Реалистичные тесты: Загрузка и выключение Windows 8

Быстрее всего наша тестовая система под управлением Windows 8 загружается на одном Samsung 840 Pro 256 Гб, за ним следует модель ёмкостью 512 Гбайт. Два массива RAID 0 занимают третье и четвёртое места, а замыкает список один накопитель на 128 Гбайт. Тем не менее, разница между первым и последним местом составляет всего 1,1 секунды.

При выключении Windows 8, лидирует массив RAID из двух SSD по 128 Гбайт. Опять же, перевес незначительный. Разница между первым и последним местом составляет всего лишь 0,4 секунды.

Реалистичные тесты: Загрузка Windows 8 и Adobe Photoshop

Наш третий реалистичный тест показывает почти такой же результат, что и первые два. Нет практически никакой разницы между конфигурациями из одного SSD или двух в RAID 0. В данном тесте мы загружаем Windows 8, запускаем Adobe Photoshop CS6 и загружаем изображение.

Реалистичные тесты: Пять приложений

При проведении четвертого и последнего реалистичного теста мы вновь испытали дежавю. После загрузки Windows 8 мы запустили несколько приложений. Различные конфигурации SSD ведут себя идентично, лишь Samsung 840 Pro ёмкостью 512 Гбайт показал незначительный отрыв.

Один SSD против двух в RAID | RAID 0 — отличный вариант для тестов, но не в реальном мире

Забавная вещь тестирование SSD. Вы можете целый день запускать синтетические испытания, создавая нереальные рабочие нагрузки, которые раскрывают твердотельные накопители с одной стороны. Затем вы можете провести реалистичные тесты, которые рисуют совсем другую картину.

Для энтузиастов зачастую лучше всего подходит золотая середина. Большинство выполняемых задач действительно включают в себя основные операции, такие как открытие веб-браузера, редактирование изображений, работа с электронной почтой и просмотр видео. Но иногда от наших систем требуется более высокая производительность, например, для компиляции большого проекта, перемещения десятков гигабайт медиафайлов или захвата несжимаемых файлов AVI для анализа FCAT. В таких случаях хочется получить требуемое быстродействие.

Как мы и ожидали, два твердотельных накопителя в массиве RAID 0 демонстрируют феноменальные показатели последовательного чтения и записи. В обоих тестах показатели RAID 0 из двух Samsung 840 Pro по 256 Гбайт достигают почти 1 Гбайт/с. В значительной степени из-за ограничений интерфейса SATA 6 Гбит/с показатели одиночных накопителей достигают чуть более половины этих значений.

Конфигурации на базе RAID, несомненно, лидировали в первом тесте, показывая исключительные результаты в рамках последовательного чтения и записи, однако для одиночных накопителей игра ещё не была проиграна. Отдельные твердотельные накопители отвоевали позиции в последующих тестах, даже показав в некоторых из них лучшие результаты. Хорошим примером является скорость произвольных операций ввода/вывода. Накопители с чередованием данных, безусловно, обеспечивают больше IOPS, но только в случае, если вы даёте более четырёх команд сразу. Очерёдность в 32, 16 или даже 8 команд совсем не характерна для настольных ПК или рабочих станций. В результате на практике разница в производительности выражена гораздо меньше.

Одиночные SSD неоднократно лидировали в проведённых нами тестах. Разницу в производительности при перезагрузке и выключении Windows 8, а затем при запуске различных приложений в лучшем случае можно назвать минимальной, а на практике она вообще не заметна. Иногда отдельные накопители даже умудрялись превзойти RAID массивы.

Если вы планируете обновление и хотите знать, стоит ли покупать пару SSD по 128 Гбайт и объединять их в RAID 0 или, например, просто купить один накопитель ёмкостью 256 Гбайт, ответ для нас очевиден: один накопитель большей ёмкости лучше. К примеру, в данный момент приобретение пары SSD Samsung 840 Pro по 128 Гбайт обойдется вам в $300. Модель ёмкостью 256 Гбайт стоит $240 (может быть, поэтому её сейчас и нет в наличии). Также встаёт вопрос о надёжности. Если один из дисков в конфигурации RAID 0 даёт сбой – то это касается всего массива. По крайней мере, в качестве основного системного накопителя один SSD является более безопасным вариантом.

Есть, конечно, и исключения. Предел интерфейса SATA 6 Гбит/с в настоящее время составляет 500+ Мбайт/с для чтения и до 500 Мбайт/с для записи. Иногда этого просто недостаточно. В качестве примера возьмите необработанные видеоролики в формате AVI, упомянутые ранее. Чтоб не пропускать кадры, мы используем четыре Crucial m4 в RAID 0. В этом случае RAID 0 – обязательное условие, и тот факт, что в массиве находится только отснятое видео, означает, что сбой массива приведет к относительно поверхностным потерям (за исключением стоимости диска). Если вы используете подобное приложение, то наверняка знаете, что один накопитель большого объёма не справится с такой задачей.

RAID из SSD — находка или бессмыслица?

Страницы материала

Оглавление

Вступление

Все знают, что SSD это здорово. Многие также считают, что RAID массивы – залог высокого быстродействия. А хотели ли вы собрать RAID из SSD? Или может быть прикидывали, что выгоднее: приобрести один большой диск, либо наладить совместную работу нескольких маленьких?

Данный материал должен помочь определиться с выбором.

Читать еще:  Совместимость ssd с материнскими платами

реклама

Участники тестирования

Новых накопителей в этот раз не будет. Все они уже участвовали в более ранних статьях. Разница лишь в их количестве.

OCZ Vertex 3 Max IOPS, 128 Гбайт


реклама

Прошивка перед тестированием в массивах была обновлена до версии 2.22. Кстати, CrystalDiskInfo 5.0 научился видеть параметры дисков внутри RAID.

Crucial M4, 64 Гбайта


Данный SSD участвовал в статье о накопителях Plextor и проявил себя как весьма шустрый для такого объема накопитель. Основная задача – проверить, как массив из маленьких дисков справится с одним большим.

Использовалась последняя доступная прошивка, а именно 000F.

WD Caviar Blue, 500 Гбайт


Этот уже в полном смысле слова ветеран был протестирован в обзоре кэширующих SSD, а знакомство с линейкой AAKX состоялось еще в 2010м году. Несмотря на то, что Western Digital уже вовсю осваивает терабайтные «блины», этот жесткий диск еще не снят с производства. Возраст же работающих у людей «винчестеров» достигает десятка лет, многие не меняют их до момента поломки, так что можно утверждать, что модель двухлетней давности будет быстрее среднестатистического диска. Если это ваш случай, можете прикинуть, насколько SSD будут быстрее.

Значения S.M.A.R.T. с момента прошлого знакомства «подросли», тем не менее, накопитель в хорошем состоянии.

Сводная таблица технических характеристик

реклама

Тестовый стенд и методика тестирования

Тестовый стенд:

  • Материнская плата: ASRock Z68 Extreme7 Gen3 (BIOS 1.30);
  • Процессор: Intel Core i7-2600K, 4.8 ГГц (100 х 48);
  • Система охлаждения: GELID Tranquillo Rev.2;
  • Оперативная память: G.SKILL Ripjaws Z, F3-17000CL9Q-16GBZH (1866 МГц, 8-10-9-26 1N) 2×4 Гбайта;
  • Жесткий диск: WD Caviar Blue, WD3200AAKX-001CA0, 320 Гбайт;
  • Видеокарта: ASUS GTX 580 DirectCu II, 1.5 Гбайт GDDR5;
  • Блок питания: Hipro HP-D6301AW, 630 Вт.

Запись процесса загрузки системы и внутриигровых видео осуществлялась через HDMI с помощью ТВ-тюнера AVerMedia AVerTV CaptureHD на другом ПК.

Системное ПО:

  • Операционная система: Windows 7 x64 SP1 Ultimate RUS;
  • Обновления операционной системы: все на 08.03.2012, включая Direct X;
  • Драйвер для видеокарты: NVIDIA GeForce 295.73;
  • Драйвер для SATA контроллера: Intel RST 11.1, контроллер работает в режиме RAID.

реклама

Набор тестовых приложений следующий:

  • Crystal Disk Mark 3.0 x64. Завоевавший популярность тест, который позволяет измерить скорость диска в восьми режимах: чтение и запись при последовательном доступе, в случайном режиме крупными блоками по 512 Кбайт, мелкими блоками по 4 Кбайта и те же 4-Кбайтные запросы при длине очереди к диску в 32 запроса (проверка эффективности работы NCQ и механизмов распараллеливания нагрузки). Использовались настройки по умолчанию, а именно пятикратный прогон несжимаемых данных на участке 1000 Мбайт.
  • PCMark 7 x64. Последняя версия тестового пакета Futuremark.
  • Intel NAS Performance Toolkit 1.7.1. NASPT – очень мощный тест, сопоставимый по функционалу с IOMeter и разработанный прежде всего для тестирования сетевых накопителей. Вполне пригоден и для тестирования локальных дисков.
  • FC-test 1.0 build 11. Программа работала над двумя NTFS разделами, представляющими собой все доступное для форматирования пространство, разделенное пополам. Перед началом каждого замера компьютер перезагружался, весь процесс полностью автоматизирован.

Тестируем массив из SSD на RAID-контроллерах нескольких поколений

Когда сегодня заходит речь о производительности системы хранения обычно разговор сразу переходит на современные накопители SSD. При этом лидерами являются устройства с интерфейсом PCIe, способные обеспечить на последовательных операциях скорости на уровне нескольких гигабайт в секунду. Если же говорить о моделях с SATA, то здесь у быстрых устройств можно увидеть производительность до 600 МБ/с. На случайных операциях разница между этими классами тоже есть, но она уже менее заметна.

При этом продукты стандартного формата 2,5’’ с интерфейсом SATA имеют несколько преимуществ – они обычно дешевле, могут работать практически в любой системе нескольких последних поколений, из них удобно делать массивы для обеспечения большой емкости СХД (и/или повышения отказоустойчивости), их можно устанавливать в большом количестве в стандартные корпуса.

Использовать чипсетный RAID не очень интересно, так что в этот раз посмотрим, насколько хорошо аппаратные RAID-контроллеры могут работать в подобных конфигурациях. Заметим, что использованное оборудование преимущественно относится скорее к среднему массовому сегменту, чем к наиболее производительным продуктам. Все-таки на рынке уже есть контроллеры и накопители с интерфейсами SAS и PCIe, но это уже совсем другой ценовой уровень.

Выбранные условия тестирования, конфигурации и инструменты наверняка вызовут много вопросов, которые можно будет обсудить и наметить направления для следующих материалов. Все-таки подобные тестирования имеют слишком много вариантов и тонкостей настройки (в том числе и в зависимости от задач), что охватить их все в одной публикации просто невозможно.

Конфигурация тестовой системы была следующей:

материнская плата Asus Z87-A

процессор Intel Core i7-4770

32 ГБ оперативной памяти

отдельный SSD для операционной системы

В роли SSD-накопителей выступали четыре Samsung 850 EVO второго поколения по 1 ТБ. Отметим отдельно, что накопители перед этим отработали около семи месяцев в сервере с Linux и никогда не знали TRIM (и по время проведения данных тестов они этого тоже не узнали). При этом прошлая нагрузка была преимущественно на чтение. Объем проведенной записи не превышал двух емкостей диска. По всем параметрам накопители были в отличном состоянии.

Контроллеров удалось найти сразу пять – четыре модели от Adaptec/Microsemi и один от LSI/Broadcom (на фото попали не все):

Первый, конечно, уже морально устарел, однако по факту еще много где используется. Так что будет интересно посмотреть, насколько эффективно он сможет работать с новыми накопителями. Второй уже имеет 6 Гбит/с порты и работает на шине PCIe 3.0, так что вполне актуален. Третий представляет собой последнее поколение «классических» решений Adaptec и поддерживает 12 Гбит/с интерфейс для дисков SAS. Реализованную в данной модификации технологию maxCache в этой статье мы использовать не будем. SmartRAID был представлен в конце прошлого года и относится к актуальному поколению RAID-решений компании. К сожалению, он использует новую разметку и схему хранения конфигурации и поэтому не может быть использован для замены прошлых моделей с сохранением данных на дисковых томах. MegaRAID 9361-16i можно считать представителем актуальной линейки продуктов LSI для массивов с накопителями SATA и SAS.

SSD подключались через обычный бекплейн с раздельными каналами для каждого диска. От бекплейна к контроллеру шел один стандартный кабель SAS на четыре канала.

На контроллерах, если не указано обратное, были активированы кэши на чтение и на запись. Все контроллеры имели резервные батареи. Том создавался заново на каждом контроллере, хотя по факту серии 6-7-8 у Adaptec позволяют переносить его без потери данных «в любом направлении».

Поскольку мы ходим протестировать в основном контроллеры, то в качестве основной конфигурации для дискового массива был выбран RAID0 с блоком 256 КБ. При этом надо отметить, что подобное решение может быть использовано и на практике, когда хочется иметь относительно большой и быстрый массив на небольшие деньги. Конечно при условии, что есть резервные копии и время простоя не критично. Да и заявленные производителями цифры по надежности SSD все-таки внушают доверие.

В качестве тестового пакета выступал уже очень немолодой, но все еще пользующийся популярностью IOMeter. Прежде всего, отметим, что опций по выбору конфигураций как массива, так и собственно теста слишком много. С этой стороны это хорошо – вы можете подобрать их исходя из требований своих приложений. С другой – это делает бессмысленно долгим их перебор в рамках одной статьи. Так что были выбраны шесть вариантов шаблонов – три (чтение, запись, 50% чтения и 50% запись) на последовательные операции блоками по 256 КБ (совпадающим с размером блока массива) и три на случайные операции с блоками 4 КБ (наиболее часто используемый размер). В первой группе будем ориентироваться на МБ/с, во второй – на IOPS. Во время тестов использовался один worker, в настройках указывалось для Outstanding I/O значение 32. Тесты проводились на неразмеченном «сыром» томе.

BIOSы, драйвера и программное обеспечения для контроллеров использовались последний версий на момент проведения тестов.

Для начала посмотрим на результаты одного SSD, полученные на встроенном в материнскую плату контроллере.

Итак, один диск показывает скорость линейного чтения около 400 МБ/с и линейной записи около 160 МБ/с. На случайных операциях получается примерно 95 000 IOPS на чтении и 7 500 IOPS на записи. Для «использованных» устройств это, пожалуй, неплохие результаты. Напомним, что если оценивать современные жесткие диски, то можно рассчитывать примерно на 150-250 МБ/с на линейных операциях и 100-200 IOPS на случайных.

На следующих графиках представлены результаты тестирования массива со стандартными для дисковых массивов настройками контроллеров – когда для тома используется и кэш самого контроллера. Заметим, что при организации тома на SSD некоторые производители рекомендуют не использовать кэш контроллера для увеличения производительности и снижения задержек. Этот вариант мы рассмотрим далее.

Итак, на линейном чтении мы ожидаемо видим пропорциональный количеству дисков в массиве рост. Все контроллеры показывают около 1 600 МБ/с. А вот на записи и смешанной нагрузке уже можно что-то выбрать исходя из своих требований и возможностей. Даже немолодой Adaptec ASR-6805 смотрится не так уж и плохо в этом сценарии.

А вот случайные операции существенно меняют картину. Здесь уже играют роль возможности установленного на контроллерах процессора и можно увидеть существенные отличия. Старший контроллер Adaptec уже явный аутсайдер. Да и ASR-7805 тоже уже не может обеспечить существенного роста на случайном чтении и записи. Так что если важен именно такой сценарий — стоит смотреть на контроллеры последних поколений. Хотя и они способны только в два раза улучшить IOPS на чтении и записи при использовании четырех SSD. Отметим также, что на смешанной нагрузке заметно лучше других выступили Adaptec SmartRAID 3152-8i и LSI 9361-16i.

Посмотрим теперь, что будет если не использовать кэширование на контроллерах. Для модели Adaptec SmartRAID 3152-8i здесь используется специальный предусмотренный производителем режим SSD IO bypass.

На последовательных операциях чтения результаты мало отличаются от приведенных выше, что вполне ожидаемо. На записи контроллеры при отключении кэша ведут себя по разному и скорость может значительно меняться, так что стоит обратить внимание на тип нагрузки и подобрать оптимальный вариант

Еще более интересно выглядят цифры в сценарии случайных операций. Отключение кэша может существенно увеличить скорость доступа на чтении, но и в два раза снижает IOPS на операциях записи. Так что если не стоит задачи снижения времени отклика на большой нагрузке чтением, лучше оставить кэш включенным.

Заметим, что были протестированы только «крайние» варианты — включение кэшей и на чтение на запись и полное отключение кэширования. В реальности у контроллеров есть независимые настройки на чтение и запись, так что конфигураций можно получить больше. Учитывая, что параметры массива можно менять и «на лету» без потери данных, можно самостоятельно подобрать оптимальный для сценария применения вариант. Кроме того, и сами контроллеры могут иметь множество опций «тонкой настройки», которые стоит хотя бы быстро просмотреть.

Подведем итоги. «Бытовые» SATA SSD при работе с RAID-контроллерами чувствуют себя достаточно хорошо. Для раскрытия их возможностей желательно использовать контроллеры последних поколений, способные обеспечить высокие IOPS на случайных операциях. При этом существенное влияние на результаты оказывают настройки тома на контроллере и очень желательно подбирать их исходя из потребностей задач, поскольку «сделать хорошо» одновременно для всех сценариев невозможно.

В качестве бонуса — результаты тестирования конфигурации RAID5 на контроллере Adaptec ASR-7805 на том же оборудовании.

Как настроить RAID 0 массив и установить на него Windows 10. Или как увеличить быстродействие дисковой системы в два раза

Как настроить RAID 0 массив и установить на него Windows 10. Или как увеличить быстродействие дисковой системы в два раза

Как вы догадались, сегодняшняя статья о создании и настройке дискового массива RAID 0 состоящего из двух жёстких дисков. Задумал я её несколько лет назад и специально приобрёл два новых винчестера SATA III (6 Гбит/с) по 250 ГБ, но в силу сложности данной темы для начинающих пользователей пришлось её тогда отложить. Сегодня же, когда возможности современных материнских плат подошли к такому уровню функциональности, что RAID 0 массив может создать даже начинающий, я с большим удовольствием возвращаюсь к этой теме.

Примечание : Для создания RAID 0 массива можно взять диски любого объёма, например по 1 ТБ. В статье, для простого примера, взяты два диска по 250 ГБ, так как свободных дисков другого объёма не оказалось под руками.

Включаем компьютер и входим в БИОС с помощью нажатия клавиши DEL при загрузке.

Идём на вкладку Advanced, опция SATA Configuration.

Опцию SATA Mode Selection выставляем в положение RAID

Для сохранения изменений жмём F10 и выбираем Yes. Происходит перезагрузка.

Если вы подключили в БИОС технологию RAID, то при следующей загрузке на экране монитора появится предложение нажать клавиатурное сочетание (CTRL-I), для входа в панель управления конфигурации RAID.

Ещё в данном окне отображены подключенные к портам 4 и 5 наши жёсткие диски WDC, пока находящихся не в RAID-массиве (Non-RAID Disk). Жмём CTRL-I и входим в панель настроек.

Здесь производим основные настройки нашего будущего RAID 0 массива.

Name : (Имя RAID-массива).

Нажмите на клавишу «пробел» и введите имя.

Пусть будет «RAID 0 new» и жмём Enter. Передвигаемся ниже с помощью клавиши Tab.

RAID Level : (Уровень RAID).

Мы создаём RAID 0 (stripe) — дисковый массив из двух жёстких дисков с отсутствием избыточности. Выберите этот уровень стрелками на клавиатуре и нажмите Enter.

Опускаемся ниже с помощью клавиши Tab.

Оставляем как есть.

Выставляется автоматически. Объём двух наших винчестеров 500 ГБ, так как мы используем уровень RAID 0 (stripe) и два наших жёстких диска работают как один. Ж мём Enter.

Больше ничего не меняем и передвигаемся к последнему пункту Create Volume и жмём Enter.

WARNING: ALL DATA ON SELECTED DISKS WILL BE LOST.

Are you sure you want to create this volume? (Y/N):

ВНИМАНИЕ: ВСЕ ДАННЫЕ на выбранных дисках будут потеряны.

Вы уверены, что хотите создать этот объем ? (Y / N):

Жмём Y (Да) на клавиатуре.

RAID 0 массив создан и уже функционирует, находится со статусом Normal (нормальный). Для выхода из панели настроек жмём на клавиатуре клавишу Esc.

Are you sure you want to exit (Вы уверены что хотите выйти? Нажимаем Y (Да). Происходит перезагрузка.

Теперь при каждой загрузке компьютера на экране монитора на несколько секунд будет появляться информация о состоянии нашего RAID 0 массива и предложение нажать сочетание клавиш (CTRL-I), для входа в панель управления конфигурации RAID.

Установка Windows 10 на RAID 0 массив

Подсоединяем к нашему системному блоку загрузочную флешку Windows 10, перезагружаем компьютер, входим в БИОС и меняем приоритет загрузки на флешку. А можно просто войти в меню загрузки компьютера и выбрать загрузку с установочной флешки Windows 10 (в нашем случае Kingston). В меню загрузки можно увидить созданный нами RAID 0 массив с названием «RAID 0 new».

Принимаем условия лицензии и жмём Далее.

Выборочная: Только установка Windows (для опытных пользователей)

Можете создать разделы в этом окне или сделать это после инсталляции операционной системы, без разницы.

Windows 10 установлена на RAID 0 массив.

Идём в Управление дисками. Операционная система Windows 10 видит пространство двух наших жёстких дисков по 250 ГБ как один жёсткий диск объёмом 500 ГБ.

Диспетчер устройств. В дисковых устройствах находится наш RAID 0 массив.

Ну а теперь, самое главное, проводим тесты скорости работы RAID 0 массива.

Ssd в raid

Планирую приобретение сервера под цели веб-сервера. Возникла дилемма. Хочу использовать 2 x SSD (raid 1) под систему и базу данных, и 2 x SSD (без рейда) под статику. Не могу прийти к согласию между софтовым и железным рейдом. Будет ли от него польза при использовании SSD в данном контексте?
Экономия ни когда не помешает, а лишние €500 на дороге не валяются 🙂

Hard raid: LSI MegaRAID 9271-4i bulk, 4 x SATA III/SAS II internal hardware RAID, 1024MB cache, up to 128 hard drives via expander backplane, support for SSD CacheCade 2.0 write and read caching + LSI CacheVault voor 9266-9271 series. Стоимость: € 493

Привет.
В твоем случае пофиг. Возможно даже HW рэйд будет хуже.
Ммм, резкое заявление, а более развернуто и аргументированно?
Только без теорий

Аппаратный контроллер во многом хорошь тем что имеет кэш-память, которая в случае ssd не нужна.

Мои мысли, почему в ДАННОМ случае не стоит заморачиваться аппаратным рэйдом.

Давайте посмотрим на плюсы и минусы:
Минусы:
-дороже
-дополнительная точка отказа
-дополнительные задержки при записи
-ВОЗМОЖНЫЙ больший износ SSD из-за специфики работы контроллера с дисковым пространством

Плюсы:
-не вижу очевидных плюсов

Опять же, все это ИМХО, и для конкретного случая.
Раз нет плюсов и только минусы, то смысл городить огород?

sladkydze, Купите ради интереса Intel 530 и погоняйте их через рейд, я думаю вашему удивлению не будет предела.

Scumtron, Однозначно использовать!

И вообще, lsi использовать не буду больше 🙂 лучше адаптек.

А у меня опыт показывает обратное. Юзаю только LSI.

———- Post added 09-09-2014 at 11:05 ———-

sladkydze, Купите ради интереса Intel 530 и погоняйте их через рейд, я думаю вашему удивлению не будет предела.
У меня уже все давно есть и протестировано. Гонял неоднократно. Особого профита нет.

В современных SSD есть контроллеры, которые по сути собирают RAID0 из микросхем внутри диска. Там так же есть память для кэша, причем в достаточно больших объемах, порядка 512 мегабайт. 1 гигабайта.

Я бы поддержал аппаратный контроллер, если бы от него в ДАННОМ примере был толк. Но я толка не вижу.

Давайте посмотрим на плюсы и минусы:
Минусы:
-дороже
-дополнительная точка отказа
-дополнительные задержки при записи
Точка отказа? Простите, вы про что, и какие задержки, по вашему кеш для чего?
-ВОЗМОЖНЫЙ больший износ SSD из-за специфики работы контроллера с дисковым пространством

Я вас наверное очень удивлю, но современные hw контроллеры прекрасно знают как работать с ссд и как ее ( эту работу )оптимизировать.

Точка отказа? Простите, вы про что, и какие задержки, по вашему кеш для чего?

Я вас наверное очень удивлю, но современные hw контроллеры прекрасно знают как работать с ссд и как ее ( эту работу )оптимизировать.
Огласите, пожалуйста модели этих контроллеров и их примерную цену.

Также, проводили тестирование, особой разницы не заметили. Сейчас на серверах с SSD только софтовый RAID.

Точка отказа? Простите, вы про что, и какие задержки, по вашему кеш для чего?

Точка отказа значит то, что в случае наличие контроллера и его выхода из строя человек получает геморрой. Если сервер покупается для себя, это критично, поскольку быстро поменять на аналогичный нет возможности.

Кэш контроллера бессмысленен, когда идет речь о ssd в raid1. Мы такое тестировали не раз. А мы как раз и используем только контроллеры LSI.

При конфигурации ТС-а, нет смысла тратить лишние деньги.

Наши тесты:
Softraid 10 (4 ssd):
dd (write) — 285
dd (read) — 650

Hardraid 10 (4 ssd):
dd (write) — 460
dd (read) — 1100

Диск: Intel DC S3500
Контроллер: LSI MegaRAID SAS 9361-4i

SSD + Hard Raid имеет место быть, если этот SSD используется как кэш.
Берем кучу HDD или SAS и втыкаем через LSI Raid 10 — SSD Кэш
http://www.truesystem.ru/upload/content-files/cachecade.png
Получаем скорость и надежность.
Работать чисто с SSD рано или поздно выстрелит, да и объемы слишком малы..

Ради интереса делал Hard Raid 10 из 4 SSD, кайфа мало :crazy:
Вернее денег потрачено больше, чем кайф от того что получилось )))

Огласите, пожалуйста модели этих контроллеров и их примерную цену.

Топ прочитайте, там все написано

Если диск работает со скоростью кэша, то смысл, сначала загонять в кеш, чтобы потом переписать на диск? Не проще ли, сразу на диск?
К тому же, как заметил sladkydze, Современные SSD-диски действительно имеют встроенный кэш, который наилучшим образом оптимизирован для работы именно с теми микросхемами, которые установлены в диске.
Со скоростью кеша? Это что за ссд такие у тс, который работают со скоростью рам кеша?
А в строенный кеш есть в самом простом сата, вот только его выключают, во избежания.

Valmon , тут надо немного на землю опуститься. Я вот очень сомневаюсь, что автор будет писать на свои SSD диски на скорости 600 мегабайт в секунду. И даже оооочень сомневаюсь, что там часто 100 мегабайт в секунду будет. Тогда какая разница, пишут эти SSD 1300 мб в секунду или 650?

Вот стоят машины в пробке, Ока рядом с Ламборджини 🙂 И чего? 🙂 У нас тут похожая ситуация.
Для реального использования разницы не будет. Так зачем платить больше?
Утверждение касается конкретно данного случая у автора.

Valmon , тут надо немного на землю опуститься. Я вот очень сомневаюсь, что автор будет писать на свои SSD диски на скорости 600 мегабайт в секунду. И даже оооочень сомневаюсь, что там часто 100 мегабайт в секунду будет. Тогда какая разница, пишут эти SSD 1300 мб в секунду или 650?

Вот стоят машины в пробке, Ока рядом с Ламборджини 🙂 И чего? 🙂 У нас тут похожая ситуация.
Для реального использования разницы не будет. Так зачем платить больше?
Утверждение касается конкретно данного случая у автора.
Автору вообще для его целей голые SSD противопоказаны. SOFT или HARD без разницы.
А SSD кэш имеет место быть в инфраструктурных системах виртуализации.

Наши тесты:
Softraid 10 (4 ssd):
dd (write) — 285
dd (read) — 650

Hardraid 10 (4 ssd):
dd (write) — 460
dd (read) — 1100

Диск: Intel DC S3500
Контроллер: LSI MegaRAID SAS 9361-4i

У ТС-а 2 SDD и RAID1. Коллеги, не забываем, что тут обсуждение конкретного случая идет. Мы не HiLoad-систему собираем, а вполне обычную.

Использовать RAID-1 стоит однозначно. Вопрос только в том, программный или аппаратный.

Но для того, что бы сравнивать надо хотя бы понять, какую ОС использует ТС?

В венде софтварный RAID — ужасен, во FreeBSD/Linux — немного лучше.

Но при любом раскладе если данные критичны и перезагрузка по питанию/сбою ядра возможна, а потеря даже 10-20 строк в таблицах — чревата проблемами с деньгами — ВАМ ОДНОЗНАЧНО НУЖЕН АППАРАТНЫЙ РЕЙД С БАТАРЕЙКОЙ.

Ибо что софтварный рейд, что аппаратный без батарейки, при перезагрузке могут потерять несколько сот мегабайт данных, которые будут потеряны безвозвратно.

Алсо, в данном случае от аппаратного рейда будет польза в первую очередь из-за кэша с батарейкой.

Недавно настраивали RAID из 24x SSD, контроллер сам рекомендовал отключить кэш.
Кэш на дисках или кэш контроллера? Дисковый кэш отключает сам по себе почти любой серьезный RAID контроллер.

Жалко, кстати, что нет какой-нить быстрой-быстрой энергонезависимой памяти (типа кристаллов ZMC у Adaptec), чтобы прицепить ее для кэша софт рейда. Хотя, боюсь, в Linux с его страничным кэшем такое фиг интегрируешь.

Так никто не говорит, что аппаратный рейд — это плохо 🙂 Но автор как бы намекнул, что не мешало бы скроить, если есть такая возможность. А в данном случае она есть.

По данным в кэше SSD дисков, так сейчас есть диски, сохраняющие этот кэш внутри себя при потере питания.

Так никто не говорит, что аппаратный рейд — это плохо 🙂 Но автор как бы намекнул, что не мешало бы скроить, если есть такая возможность. А в данном случае она есть.

По данным в кэше SSD дисков, так сейчас есть диски, сохраняющие этот кэш внутри себя при потере питания.
Это slc диски, в них то ли кондсаторы стоят, то ли литиевые батарейки

Проблема не столько в кэше самих дисков, его можно отключить при желании, а в поведении страничного кэша почти любой современной ОС, когда данные пушатся блоками (когда наберется 10-20-50 записей или пройдет какое-то время), а не по мере реальной записи.

То есть, пишет тут MySQL что-то на диск раз запсисал — данные еще в памяти, два записал — снова в памяти, три записал — пошел пуш на диск. И ели до реального пуша данных еще не дошло и кончилось электричество — с данными можно прощаться. Ну и файловая система может разлететься, журнал ФС пишется зачастую даже чаще чем реальные данные.

Жалко, кстати, что нет какой-нить быстрой-быстрой энергонезависимой памяти (типа кристаллов ZMC у Adaptec), чтобы прицепить ее для кэша софт рейда. Хотя, боюсь, в Linux с его страничным кэшем такое фиг интегрируешь.
Жалко открытого софта такого нет, который бы зеркалил кеш на двух нодах))

Проблема не столько в кэше самих дисков, его можно отключить при желании, а в поведении страничного кэша почти любой современной ОС, когда данные пушатся блоками (когда наберется 10-20-50 записей или пройдет какое-то время), а не по мере реальной записи.

То есть, пишет тут MySQL что-то на диск раз запсисал — данные еще в памяти, два записал — снова в памяти, три записал — пошел пуш на диск. И ели до реального пуша данных еще не дошло и кончилось электричество — с данными можно прощаться. Ну и файловая система может разлететься, журнал ФС пишется зачастую даже чаще чем реальные данные.

Потому надо юзать хорошие фс (с).

ZFS с copy on write. Включать у MySQL O_DIRECT и бекапиться (благо с zfs это вопрос скорости канала да и только).

Аппаратный контроллер от этого кстати не защищает. Более того, у контроллера может быть глюк (было у нас пару раз с адаптеками) и этот глюк лечится только прошивкой новой фирмвари, которую прошивать на свой страх и риск, ибо гарантия снимается (собственно как и с ссд, но если ссд дешевые есть, контроллеры приличные все еще в 500 евро гуляют). Баттарейка может выйти из строя и если не настроена оповещалка — будет неприятный сюрприз. Даже сами производители пишут «бекап обязателен».

Плюс зачем дополнительная точка отказа в системе, которую дорого заменить? А вдруг слетел контроллер к чертям собачьим, а новый такой уже не купить, а у Вашего была проприетарная милая такая разметочка страпов?

Имхо намного логичней попросить 2 луча и в стойке и поставить сервер с 2мя БП — это как раз убирает еще одну единую точку отказа и позволяет сэкономить в будущем. Райд для ССД не нужен.

Оттюненный софтовый райд (да, его надо тюнить и правильно размечать, чтобы он православно лег на диск и на него можно было также правильно положить LVM в те самые 4к) будет перформить довольно близко к хардварным райдам, но вот геморроя с ним будет намного меньше, стоимость дико дешевле а возможностей поболее. И уж тем более, если это ZFS, будет намного проще управляться raw дисками.

Хард райд перформит быстрее в случае старых фс (типа ext2/3/4 или ufs), которые меньше опираются на память (кэширование делает ось). Для ZFS разницы не будет или же наоборот будут проблемы (в ZFS так и указано, что лучше не класть поверх хардвейр райда, т.к. это единая точка отказа ЗА пределами компетенции ZFS). Хотя мы например используем два raid0 и в zmirror, очень шустро работают).

Ссылка на основную публикацию
Adblock
detector