Управление массивами Dell PERC H730 Mini

Алгоритм подключения системы хранения данных к хосту достаточно универсален. Безусловно, существуют нюансы настройки, которые зависят от конкретного оборудования и топологии вашей сети.

Что нужно для начала

  1. Мощный ПК с инсталлированной на нём Windows Server 2008 R2. Настроить такую Windows для работы сложнее, чем остальные. Мы не будем рассматривать её настройку в рамках этого материала.СОВЕТ. Для хорошей работы Терминального сервера желательно иметь от 32 Гбайт ОЗУ. Неплохо, если ваша конфигурация также имеет 2 процессора с четырьмя ядрами каждый. 
  2. Клиентская лицензия терминального сервера, которая действует на данный момент. В основном сейчас используются лицензии Enterprise Agreement.
  3. Это краткое руководство.

Близко к NIC Bonding в Linux OS

Что такое Linux NIC Bonding?

В Linux OS объединение сетевых карт относится к процессу объединения нескольких сетевых интерфейсов в логический интерфейс привязки. То есть объедините и подключите две или более сетевых карт как одну. Обратите внимание, что одним из предварительных условий для настройки соединения является наличие сетевого коммутатора, который поддерживает EtherChannel (это верно почти для всех коммутаторов).

Сколько режимов Linux NIC Bonding?

Поведение связанного NICs зависит от типа используемого режима соединения. В общем, шаблоны могут обеспечивать отказоустойчивость и/или услуги балансировки нагрузки. В следующей таблице приведено подробное описание этих семи режимов.

Режим Политика Fault Tolerance Load Balancing Особенности и Описани
mode=0(balance-rr) Round-robin Y Y Режим по передаются/принимаются последовательноот первого доступного ведомого до последнего.
mode=1(active-backup) Active-backup Y N ТОЛЬКО один раб активен, а другой спит. Этот резервный NIC будет действовать в случае сбоя активного NIC. При условии, что имеется N*интерфейсов, коэффициент использования ресурсов будет 1/N.
mode=2(balance-xor) XOR (Exclusive OR) Y Y Передает на основе формулы XOR. Как только соединение между NIC и соответствующим устройством установлено, тот же NIC будет использоваться для передачи/приема для MAC-адреса назначения, чтобы гарантировать, что MAC-адрес остается тем же.
mode=3(broadcast) Broadcast Y N Все пакеты отправляются на все подчиненные интерфейсы за счет использования используется для определенных целей, например, в финансовой отрасли, где требуется сверхнадежная сеть.
mode=4() IEEE Dynamic Link Aggregation Y Y Создайте группы агрегации с одинаковыми настройками скорости и коммутатор, который поддерживает динамическое агрегирование каналов IEEE
mode=5(balance-tlb) Adaptive Transmit Load Balancing (TLB) Y Y Исходящий трафик распределяется в соответствии с текущей нагрузкой на каждом подчиненном интерфейсе, и входящий трафик принимается текущим требует никакой специальной поддержки коммутатора.
mode=6(balance-alb) Adaptive Load Balancing (ALB) Y Y Добавьте функцию балансировки нагрузки на прием по сравнению с предыдущим режимом = 5. И балансировка нагрузки приема достигается посредством согласования ARP (Address Resolution Protocol).Не требует никакой специальной поддержки коммутатора.
Внимание:1. Один интерфейс bonding может указывать только один режим.2. mode=0, mode=2, and mode=3 теоретически требует статической агрегации.3. mode=4 нужно поддерживать mode=1, mode=5, and mode=6 не требуют никаких настроек на коммутаторе.5. Выбор режима зависит от топологии сети, требований к поведению соединения и характеристик подчиненных говоря, для топологий с одним коммутатором используются следующие режимы: mode=0 (balance-rr); mode=2 (balance-xor); mode=4 (); mode=5 (balance-tlb); mode=6 (balance-alb). And the left two modes—mode=1 (active-backup) & mode=3 (broadcast) применяются для топологии с несколькими коммутаторами.
Читайте также:  34 совета по оптимизации и настройке Windows

Создание RAID через Lifecycle Controller

Во время загрузки сервера заходим в утилиту управления оборудованием Lifecycle Controller (F10). Создать нужный массив я сначала попробую именно из неё, а уже потом через утилиту управления контроллером и iDRAC8. Функционал Lifecycle Controller несколько ограничен, в ней можно только создавать массивы и просматривать их свойства, удалить не получится.

На главной странице выбираем Configure RAID:

Предлагают выбрать единственный контроллер на сервере:

А далее уровень RAID, который нам нужен (в моем случае RAID10, как я и упоминал выше):

Следующие этап — выбор дисков, которые будут находиться в массиве. У большинства настроек доступен лишь один вариант, поскольку это на самом деле даже не настройки, а характеристики дисков. Для RAID10 нужно минимум 4 диска, а у меня будут задействованы все 8:

Дальше определяем настройки будущего массива:

Лично мое мнение — лучше оставьте основные настройки со значениями по умолчанию, если вы явно не уверены, что вам нужны только строго определенные значения. Контроллеру виднее какие настройки для него более оптимальны и он вам их уже предложил. Единственное, что я ввел — это имя массива (кстати, пробелы в нем не поддерживаются). Дальше проверяем сводку:

Если все верно, нажимаем Finish. Вылезет предупреждение, подтверждаем его и идем дальше:

Дожидаемся окончания процесса и получаем сообщение об успешном завершении операции:

На этом процесс создания RAID-массива (виртуального диска, как он называется в Dell) завершен. С помощью Lifecycle Controller вы можете выполнять множество других задач администрирования, в том числе обновления микропрограммного обеспечения, установку хостовой ОС и др.

Ниже я попробую проделать точно такие же шаги по настройке RAID, но только с помощью других инструментов.

Настройка сервера для подключения по RDP

Чтобы к VDS можно было подключаться по RDP, должны быть установлены следующие роли и компоненты:

  • Службы удаленных рабочих столов.

  • Лицензирование удаленных рабочих столов

  • Узел сеансов удаленных рабочих столов

  • Шлюз удаленных рабочих столов

Читайте также:  В чём разница между cmd и PowerShell Windows?

Все эти роли и компоненты мы установили в предыдущем разделе. Теперь нужно настроить групповую политику.

  1. Открываем «Поиск» на панели инструментов.

  2. Находим и открываем редактор групповых политик — .

  3. Переходим на ветку «Конфигурация компьютера» — «Административные шаблоны» — «Компоненты Windows» — «Службы удаленных рабочих столов» — «Узел сеансов удаленных рабочих столов» — «Лицензирование».

  4. Разворачиваем пункт «Использовать указанные серверы лицензирования удаленных рабочих столов».

  5. В строке «Использовать серверы лицензий» указываем имя или адрес своего сервера.

  6. Возвращаемся обратно в раздел «Лицензирование» и открываем пункт «Задать режим лицензирования».

  7. Выбираем режим лицензирования — на пользователя или на устройство в зависимости от того, какой тип лицензии имеется.

После настройки групповых политик переходим к самому лицензированию.

  1. Открываем «Панель управления».

  2. Переходим в раздел «Администрирование» — Remote Desktop Services — «Диспетчер лицензирования».

  3. Кликаем по серверу правой кнопкой и нажимаем «Активировать».

  4. Выбираем метод подключения «Авто».

  5. Вводим имя, фамилию, организацию, страну расположения сервера. Можно указать любые данные, они не проверяются.

  6. Запускаем мастер установки лицензий.

  7. Выбираем программу лицензирования, по которой была приобретена лицензия.

  8. Вводим ключ активации, который получили после покупки лицензии.

  9. Указываем количество пользователей/устройств, если оно не определилось автоматически.

  10. Нажимаем «Готово», чтобы завершить работу мастера установки лицензий.

Затем нужно вернуться в раздел «Администрирование» — Remote Desktop Services — «Диспетчер лицензирования» и посмотреть, активирован ли сервер. Если да, значит, настройка успешно завершена.

На иконке сервера может быть желтый значок предупреждения. Чтобы устранить проблемы, нажимаем на ссылку «Рецензия». В меню будут пункты, которые необходимо отметить.

Рекомендации

Если СХД только создаётся, имеет смысл использовать оборудование одного производителя, чтобы избежать проблем с совместимостью устройств.

Во избежание всяких неприятных ситуаций лучше сразу обратиться к системному интегратору, например, к нам.

Это можно не делать, если у вас в штате есть несколько опытных и толковых администраторов, у которых много свободного времени. Хотя, по деньгам вы здесь вряд ли выиграете, так как их работа оплачивается, а также нужно будет приобретать нужные комплектующие и пытаться их «подружить».

Дисковая полка конструктивно состоит из жёстких дисков и источника бесперебойного питания. Его основная функция — не питать систему в случае отключения электричества, а предоставление возможности СХД корректно завершить все операции ввода-вывода при выключении полки. Поэтому, для защиты сторейджа по питанию устанавливайте ИБП.

По FC можно подключиться к коммутатору и тем самым расширить количество используемых устройств. На SAS нельзя повесить серверов больше, чем есть портов на массиве.

Покупайте полку сразу с дисками.

Не подключайте несколько хостов к одному LUN-у, если у вас не кластер. Такое соединение создает несогласованность записи, что приведёт к повреждению данных.

Сервис — очень важная вещь в СХД. Так как стоимость и масштаб потерь велики, не скупитесь, заключите договор с интегратором на обслуживание. В результате вы сэкономите время, нервы и, как ни странно, деньги.

Самому выбрать правильную конфигурацию под свои задачи не очень просто. ВИСТЛАН, имея большой опыт работы в этом направлении, поможет принять правильное решение и подобрать конфигурацию и оборудование для неё. Это тот случай, когда эксперименты обходятся дорого.

Фаза SEC (Security)

  • обработка события включения;
  • инициализация достаточного количества памяти для следующей фазы;
  • становление корня доверия системы;
  • передача необходимой информации и управления на следующую фазу.

Процессоры x86_64 запускаются в 16-битном реальном режиме, и в процессе первичной инициализации BSP переводится в 32-битный защищенный режим. Затем происходит обновление микрокода всех доступных процессоров.

Следом происходит обработка события включения. Под этим подразумевается агрегация информации о состояниях оборудования, чтобы на следующей фазе некоторые модули могли сделать выводы о «здоровье» и общем состоянии платформы.

Во время фазы SEC не происходит инициализация оперативной памяти. Вместо этого свободный кэш процессора помечается как несбрасываемый, и он превращается во временную оперативную память. Такой режим называется no-eviction mode (NEM). В выделенной памяти создается стек, что позволит модулям из следующих фаз использовать стековые языки программирования до инициализации основной оперативной памяти.

Далее происходит инициализация всех прикладных процессоров (Application Processor, AP) с отправкой им специальной последовательности межпроцессорных прерываний (Inter-Processor Interrupt, IPI). Последовательность Init IPI — Start-up IPI — пробуждает прикладной процессор и запускает на нем самотестирование — Built-In Self-Test (BIST). Результаты тестирования записываются и передаются далее для анализа.

В конце фазы Security необходимо найти раздел Boot Firmware Volume (BFV), на котором располагается исполняемый код следующей фазы, а также по возможности найти другие, неосновные, разделы с кодом (Firmware Volume, FV).

Чтобы оправдать название фазы Security и стать корнем доверия, во время выполнения этой фазы код, которому мы планируем передать управление, может быть проверен на отсутствие несанкционированных изменений и вредоносных частей программы.

В конце выполнения SEC собрана следующая информация:

  • размер и адрес Boot Firmware Volume (BFV);
  • размер и адреса других Firmware Volume (FV);
  • размер и адрес временной оперативной памяти;
  • размер и адрес стека.

После чего начинается следующий этап — Pre EFI Initialization.