Перейти к основному содержанию

Собираем три разных multipath диска в один с помощью LVM

Linux

Имеется сервер, к которому с помощью multipath подключены три тома разного размера. Хочется объединить их в один диск с помощью LVM. Операционная система Oracle Linux.

Создание разделов

Посмотрим какие у нас имеются тома:

multipath -l

linux

Видим, что подключены три тома: mpatha, mpathb, mpathc.

  • mpatha, устройство /dev/mapper/mpatha, алиас /dev/dm-0, размер 4.1 ТБ
  • mpathb, устройство /dev/mapper/mpathb, алиас /dev/dm-1, размер 4.1 ТБ
  • mpathc, устройство /dev/mapper/mpathc, алиас /dev/dm-2, размер 27 ТБ

На каждом томе создадим раздел. Просто так добавить сам том в LVM у меня не получилось, ошибка:

Device /dev/mapper/mpatha excluded by a filter.

Не знаю что конкретно не нравится LVM, но можно создать на каждом томе раздел и работать уже с ним. С помощью fdisk удаляю все старые разделы на устройствах /dev/mapper/mpatha, /dev/mapper/mpathb и /dev/mapper/mpathc. Потом создаю на каждом новый раздел.

Для примера удалим имеющийся раздел на /dev/mapper/mpatha:

fdisk /dev/mapper/mpatha
p
d
w

И создадим новый раздел (использую GPT):

fdisk /dev/mapper/mpatha
g
n
w

После работ с разделами нужно обновить информацию о multipath. Удаляем из multipath устройства и снова их обнаруживаем:

multipath -f mpatha
multipath -f mpathb
multipath -f mpathc
service multipathd restart

Посмотрим какие на томах есть разделы. Полезная команда:

ll /dev/mapper/

ll

Теперь у нас есть три раздела:

  • /dev/mapper/mpatha1
  • /dev/mapper/mpathb1
  • /dev/mapper/mpathc1

Может пригодиться команда для сноса старых файловый систем, если они у вас там были:

wipefs --all --force /dev/mapper/mpatha1
wipefs --all --force /dev/mapper/mpathb1
wipefs --all --force /dev/mapper/mpathc1

Объединяем разделы в LVM

Установим утилиту для работы с LVM.

yum install lvm2

Для Debian:

apt-get install lvm2

Создаём три физических тома:

pvcreate /dev/mapper/mpatha1 /dev/mapper/mpathb1 /dev/mapper/mpathc1

linux

Физически тома LVM созданы. Посмотрим на них:

pvdisplay

lvm

Создадим группу томов vg01 из трёх физических томов LVM:

vgcreate vg01 /dev/mapper/mpatha1 /dev/mapper/mpathb1 /dev/mapper/mpathc1

lvm

Посмотрим на неё:

vgdisplay

lvm

Из трёх дисков получилась одна группа томов. Создадим в ней логический том lv01 на весь имеющийся объём:

lvcreate -l 100%FREE -n lv01 vg01

lvm

Логический том lv01 создан.

lvdisplay

lvm

Теперь у нас есть устройство /dev/vg01/lv01. Остались косметические процедуры.

Создание файловой системы

Процесс создания файловой системы на логических томах LVM ничем не отличается от работы с любыми другими разделами. Например, для создания файловой системы EXT4:

mkfs.ext4 /dev/vg01/lv01

Я создам файловую систему XFS:

mkfs.xfs /dev/vg01/lv01

lvm

Монтирование устройства

Для примера монтируем в /mnt.

Примонтировать до перезагрузки:

mount /dev/vg01/lv01 /mnt

Примонтировать постоянно. Добавляем строку в /etc/fstab:

/dev/vg01/lv01 /mnt xfs defaults 0 0

Примонтировать постоянно по UUID. Узнаём идентификатор с помощью:

blkid /dev/vg01/lv01

Получаем:

/dev/vg01/lv01: UUID="111b1fd5-2de7-4aee-b18d-aae626bf45bd" TYPE="xfs"

Добавляем строку в /etc/fstab:

UUID=111b1fd5-2de7-4aee-b18d-aae626bf45bd /mnt xfs defaults 0 0

Проверяем, что диск примонтирован:

df -hT

Продолжение

Добавление к тому второй СХД.

Добавляем СХД HPE MSA 2040 к серверу по multipath 

Теги

 

Похожие материалы

mdadm — увеличиваем скорость синхронизации массива

Системным администраторам часто приходится сталкиваться с программными массивами в Linux. Создавать, восстанавливать, менять диски. Если массив большой, то процесс синхронизации (ресинхронизации) или восстановления массива может занимать часы или даже дни.

Теги

mdadm — RAID10 из четырёх NVMe дисков на сервере Dell

RAID1 из двух дисков NVMe 3.84 TB KCD5XLUG3T84 прекрасно работал. Потом место кончилось. Было принято решение приобрести ещё два диска такого же объёма и сделать RAID10 из четырёх NVMe дисков.

Теги