Перейти к основному содержанию

Тестируем 10G SFP+ платы HP и Mellanox на серверах HP Proliant DL360 Gen9

Hewlett Packard Enterprise

Тестируем 10G сетевые платы HP и Mellanox на серверах HP Proliant DL360 Gen9.

Задача - проверить пропускную способность 10G сети между виртуальными машинами на разных гипервизорах.

План работ:

  1. Вставляем 10G сетевуху от HP в первый гипервизор ESXi на сервере HP Proliant DL360 Gen9.
  2. Вставляем 10G сетевуху от Mellanox во второй гипервизор ESXi на сервере HP Proliant DL360 Gen9.
  3. Соединяем 10G сетевухи напрямую кабелем типа twinax.
  4. Настраиваем сеть в vCenter.
  5. Размещаем на каждом гипервизоре виртуальную машину Windows в новой сети.
  6. Определяем максимальную пропускную способность сети между виртуалками (HP - Mellanox).
  7. Меняем 10G сетевуху Mellanox на HP.
  8. Определяем максимальную пропускную способность сети между виртуалками (HP - HP).
  9. Делаем вывод, можно ли использовать Mellanox 10G сетевые платы SFP+ в серверах HP Proliant.

Вставляем 10G сетевуху от HP в первый гипервизор ESXi на сервере HP Proliant DL360 Gen9

В первый сервер HP Proliant DL360 Gen9 вставляем сетевую плату 560FLR-SFP+.

HP Proliant DL 360 Gen9 - установка 560FLR-SFP+ модуля

sfp

Вставляем 10G сетевуху от Mellanox во второй гипервизор ESXi на сервере HP Proliant DL360 Gen9

Для второго сервера HP Proliant DL360 Gen9 нам выделили на тестирование сетевуху Mellanox ConnectX-4 LX CX4121A.

HP Proliant DL 360 Gen9 - установка платы Mellanox ConnectX-4 LX CX4121A

spp

Соединяем 10G сетевухи напрямую кабелем типа twinax

Включаем гипервизоры. Дальше ничего сложного. Обе сетевухи двухпортовые. Левые порты соединил кабелем. Линк поднялся.

Сетевухи определились в vCenter:

  • HP - Intel(R) 82599 10 Gigabit Dual Port Network Connection
  • Mellanox - Mellanox Technologies MT27630 Family [ConnectX-4 LX]

Да, да. В HP сетевухе стоял чип от Intel.

Настраиваем сеть в vCenter

Конфигурируем гипервизоры.

У первого сервера в разделе Configure > Physical adapters видим, что скорость на vmnic5 стала 10000 Mb:

10G

У второго сервера в разделе Configure > Physical adapters также видим, что скорость на vmnic5 стала 10000 Mb:

10G

У меня в vCenter настроен LACP и используется Distributed Switch. Переходим в раздел Networking, кликаем на Distributed Switch правой кнопкой. Выбираем Add and Manage Hosts:

10G

Выбираем Manage host networking:

10G

Next. Кликаем на Attached hosts...

10G

Выбираем в списке два наших гипервизора, ОК:

10G

Next:

10G

Как мы уже выше выяснили, у обоих гипервизоров 10G появилось на vmnic5 интерфейсах. Поэтому каждому vmnic5 делаем Assign uplink и вешаем на Uplink 1, благо он у меня свободен:

10G

Next, Next, Next, Finish, не буду лишние картинки загружать.

В вашем случае, если соберётесь повторить, конфигурация сети может быть другая. Теперь в нашем Distributed Switch делаем New Distributed Port Group...

10G

Создаю группу test_10_G.

10G

 

 

 

VLAN type делаю none:

10G

В разделе Teaming and failover ставлю активным аплинком Uplink 1, lag1 (LACP) убираю в unused uplinks.

10G

Замечу, что всё управление гипервизорами осуществляется у меня по lag1, Uplink 1 нигде больше не использовался, поэтому я смог выделить его на новую группу. Ok.

Размещаем на каждом гипервизоре виртуальную машину Windows в новой сети

Имею две виртуальные машины, по одной на каждом сервере. На обеих добавляю по новой сетевухе:

10G

Тип адаптера VMXNET 3, вешаем туда же свежесозданную группу test_10_G. Операция происходит без перезагрузки, потому как на обоих виртуалках стоит VMware Tools и нет внешних PCI устройств.

В винде появляется вторая сеть:

10G

Прописываем IP и маску. На первой виртуалке: 192.168.1.10 маска 255.255.255.0.

10G

На второй 192.168.1.20 маска 255.255.255.0.

10G

Шлюз и DNS в одной подсети нам не нужно указывать.

Пингуем с первой виртуалки вторую:

10G

Всё в порядке, пинги есть.

Определяем максимальную пропускную способность сети между виртуалками (HP - Mellanox)

Для начала посмотрим какая будет скорость на 1G. Просто по самбе с одного сервера на другой копирую файлик:

10G

Скорость 106 MB/s - ожидаемая скорость для 1G.

Отключаю гигабитную сеть, будем теперь пробовать копировать файлик по 10G:

10G

Так, скорость 201 MB/s - это два гигабита. А где десятка?

Вспоминаю, что на гипервизорах крутятся и другие виртуалки - мигрирую их подальше. А наши тестовые виртуалки мигрирую на массив с дисками 15K. Пробую снова:

10G

Получаю 523 MB/s. И скорость скачет от 3 гигабит до 6. Уже значительно лучше, но хотелось бы больше. Исключим диски из тестирования. На обе виртуалки устанавливаем утилиту iPerf3.

iPerf3 - измерение пропускной способности сети

На одной виртуалку запускаем:

iperf3.exe -s

ipref3

На второй:

iperf3.exe -с 192.168.1.10 -P 5 -R

ipref3

Будем тестировать сеть двунаправленной передачей в 5 потоков. Результат:

ipref3

8.68 Gbits/sec - это уже замечательный результат для передачи данных между двуми виртуальными машинами.

Делаем промежуточный вывод:

Mellanox можно использовать в качестве SFP+ модуля.

А что будет, если данные гонять не между HP - Mellanox, а между HP - HP? Проверим.

Меняем 10G сетевуху Mellanox на HP

Выключаем всё, меняем Mellanox на HP. Теперь у нас в обоих серверах одинаковые платы 560FLR-SFP+. Включаем сервера.

Проводим те же тесты:

sfp

sfp

Поведение такое же. Пропускная способность одинаковая.

Вывод

Сетевухи - монопенисуальны по производительности:

  • HP - Intel(R) 82599 10 Gigabit Dual Port Network Connection
  • Mellanox - Mellanox Technologies MT27630 Family [ConnectX-4 LX]

Плюсы HP:

  • Плата не занимает отдельный PCI слот, подключается к своему. Кроме HP модуля можно воткнуть ещё два PCI устройства.
  • Прошивка в общем сервис-паке.

Минусы HP:

  • Дорого.

Плюсы Mellanox:

  • Дешёво.

Минусы Mellanox:

  • В  сервер можно воткнуть ещё только одно PCI устройство, т.к. Mellanox занимает один из слотов.
  • Обновление прошивки непонятно.

Единственное, что не удалось проверить - это надёжность. HP платы пока ни разу у меня не выходили из строя. А Mellanox - тёмная лошадка?

Хотим сэкономить - берём Mellanox. 

Есть бабло и не хотим возможным проблем или в сервер требуется пихать много PCI плат - берём HP.

Цены

 

Похожие материалы

HPE ProLiant MicroServer Gen10 — обновление ESXi 7.0.2

Привет, у меня наконец-то появилось время на обновление домашнего сервера HPE ProLiant MicroServer Gen10, на котором установлен гипервизор ESXi 6.7 Update 3. Будем обновлять его до версии ESXi 7.0.2.