Перейти к основному содержанию

mdadm — расширяем программный RAID10 массив в HPE Proliant DL380 Gen10

HPE ProLiant DL380 Gen10

Всех приветствую. Сегодня мы решаем понятную задачу по расширению программного дискового массива в сервере HPE Proliant DL380 Gen10.

Имеем сервер HPE Proliant DL380 Gen10 с SFF шасси.

Сервер HPE Proliant DL380 Gen10 — SFF шасси

hpe

Первый отсек на 8 SFF, в нём у меня установлено 2 SAS диска 600 GB 10K. С помощью аппаратного RAID контроллера диски объединены в зеркальный массив RAID1. Здесь находится операционная система.

hpe

Второй отсек предназначен для установки 8 NVMe дисков. Занято 6 слотов дисками U.3 NVMe 6.4 TB.

hpe

Второй отсек предназначен для установки 8 NVMe дисков. Заняты все слоты дисками U.3 NVMe 6.4 TB.

hpe

Всего сейчас установлено 14 NVMe дисков, через mdadm NVMe диски собраны в RAID10 массив. Есть возможность добавить ещё два физических диска, чем мы и займёмся.

Добавляем диски

Пришли диски HPE 6.4TB NVMe x4 Lanes Mixed Use SFF SCN MK006400KWWFK SSD. Диски поставляются с салазками HPE, форм-фактор 2.5'. Повышенная надёжность DWPD 3, отличная производительность при чтении 610000 IOPS. Запись медленнее, но тоже прилично — 160000 IOPS.

HPE 6.4TB NVMe — MK006400KWWFK SSD

hpe

Странно, на дисках нет наклейки HPE, но прошивка, как оказалось, правильная стоит. Понятно, что диски теперь не стоят на гарантии производителя, гарантия только от поставщика. Салазки тоже какие-то покоцаные, ну да ладно, на мощщу не влияют.

hpe

Номер на салазках P51462, тоже не соответствует номерам уже установленных дисков, посмотрим на практике.

hpe

Готовлю два диска, выдвигаюсь в ЦОД.

hpe

Сервер в работе. У меня уже был негативный опыт, когда при установке NVMe диска в HPE сервера что-то пошло не так. Поэтому заранее предупреждаю заказчика, что возможна неожиданная перезагрузка.

hpe

Устанавливаю диски.

hpe

Сначала просто размещаю в направляющих.

hpe

Затем аккуратно вставляю. Проверяю в iLO что диски увиделись, а они увиделись. Проверяю в ОС, что диски увиделись. В первом сервере диски определились без проблем, во втором сервере пришлось выполнить перезагрузку.

mdadm — добавляем два диска в RAID10

Для проверки NVMe дисков используем пакет NVMe Command Line Interface (NVMe-CLI).

nvme list

В системе теперь шестнадцать дисков.

nvme

Новые диски:

  • /dev/nvme14n1
  • /dev/nvme15n1
cat /proc/mdstat

В сервере собран массив md10 из 14 дисков.

nvme

Проверяем состояние массива.

mdadm --detail /dev/md10
nvme

Массив работает. Зафиксируем текущий размер файловой системы массива.

df -hT | grep -E "(Used|md)"

41 ТБ, свободно 2.3 ТБ.

nvme

Диски будем добавлять по аналогии с существующими. Предварительно нужно создать на дисках разделы.

lsblk
nvme

Диски nvme14n1 и nvme15n1 без разделов. Для создания разделов используем fdisk.

fdisk /dev/nvme14n1
g
n
w
nvme

Повторяем для второго диска.

fdisk /dev/nvme15n1
g
n
w
nvme
lsblk
nvme

Созданы разделы:

  • /dev/nvme14n1p1
  • /dev/nvme15n1p1

Добавляем оба новых раздела в массив:

mdadm /dev/md10 -a /dev/nvme14n1p1
mdadm /dev/md10 -a /dev/nvme15n1p1
nvme

Осмотрим массив.

mdadm --detail /dev/md30
nvme

Оба диска добавлены в качестве spare. Расширяем массив.

mdadm -G /dev/md10 --raid-devices=16 --backup-file=/var/backup
nvme

Проверяем.

mdadm --detail /dev/md10
nvme

Теперь в массиве шестнадцать активных дисков. Массив в состоянии reshaping.

Процесс перестроения можно также отслеживать с помощью команды:

cat /proc/mdstat
nvme

Осталось 3644 минут, долго. Ускорим.

mdadm — увеличиваем скорость синхронизации массива

echo 1200000 > /proc/sys/dev/raid/speed_limit_max
nvme

После того как массив перестроится, нужно будет расширить файловую систему.

resize2fs /dev/md10
# или
xfs_growfs /путь_куда_примонтировано

Теги

Цены

 

Похожие материалы

mdadm — расширяем RAID5 массив заменой дисков

Нам предстоит достаточно сложная задача, причём не на один день. Будем расширять программный mdadm массив RAID5 путём замены старых дисков на новые диски большего объёма