44. Краткая инструкция по использованию Proxmox 7.3.
В этой статье рассмотрим основные моменты необходимые для начала работы с этим гипервизором. Однако важно понимать что невозможно описать весь функционал и ответить на все вопросы в рамках одного материала.
Для начала стоит отметить что вся информация доступна в документации на домашнем сайте продукта. Там она представлена в нескольких видах:
- Руководство администратора
- PDF версия
- Wiki Proxmox
- HOWTO - разбивка по темам и разделам
- Частично переведённое на русский язык руководство администратора
За любой недостающей в этой статье информацией лучше всего обращаться по этим ссылкам.
Кроме того, в самой системе продублирована вся документация имеющаяся на сайте.- Learn Linux TV - Proxmox VE Full Course
- Virtualize Everything - Proxmox
- RealManual - Виртуализация Proxmox
Так же, для углубленного изучения всей системы целиком, рекомендуются к просмотру следующие видеокурсы:
Диски.
Для того чтобы работать с хранением информации в Proxmox VE важно помнить два ключевых момента.
1. Это линукс система, а значит и разбиение дисков здесь такое же как и в линуксе.
2. Установщик Proxmox VE предлагает несколько вариантов управления локальными дисками, а установка по умолчанию использует менеджер томов LVM (Logical Volume Manager).
Разберём как LVM (а значит и сама система) работает с дисками.
Все физические диски имеют две сущности:
- Диск, как устройство на котором есть некий объём памяти. Такие диски система называет устройствами хранения (sd - storage device), и именует буквами в алфавитном порядке (a, b, c,...). Полное имя устройства выглядит как /dev/sda, /dev/sdb, /dev/sdc
- Диск, как блок памяти, на некоем физическом устройстве. Такой тип система именует как PV - Physical Volume.
После физического уровня начинается чехарда с логическими уровнями, но обо всём по порядку.
Каждый
физический диск может быть разбит на несколько логических дисков. Эти
диски будут иметь имена согласно порядковому номеру и относится к тому
физическому диску, на котором они разбиты. Например, /dev/sda1,
/dev/sda2 - это два раздела внутри первого физического диска.
Все
имеющиеся в системе диски могут быть объединены в группу томов (VG - Volume Group), которая будет являться неким общим ресурсом для хранения.
И уже всё это пространство может быть так же поделено на логические тома (LV - Logical Volumes).
Пример для упрощения понимания на данном этапе:
Есть 2 физических диска по 10 Гб. Они будут называться как /dev/sda и /dev/sdb.
Первый разбит на 2 равных логических диска .Их имена будут /dev/sda1 и /dev/sda2 соответственно.
LVM позволяет создать VG (volume group), превратив тем самым всё пространство в один (виртуальный) диск объёмом 20Гб.
А с помощью LV (Logical Volumes) можно этот виртуальный диск поделить на логические тома.
При
таком подходе главным минусом является то, что сразу (особенно новичку)
достаточно непросто понять на каком физическом диске находится та или
иная информация.
Поделим теперь всё имеющееся дисковое пространство
на 4 тома по 5Гб. А для полноты картины и чтоб не было скучно, разметим
каждый такой том отдельной файловой системой.
Так вот теперь вишенка на торте.
Каждый том, может быть смонтирован в качестве директории на другом диске/томе.
Т.е.
например на диске 1, может находиться произвольно названная папка (пусть
будет 2), которая на самом деле является логическим диском номер 2. Сам
этот второй логический диск может и не отображаться в проводнике
логических дисков.
Так же может быть и обратная ситуация. Когда на диске, находится файл, являющийся образом диска (например от виртуальной машины или скачанный iso образ). И этот файл смонтирован в систему как ещё один диск. И таких дисков-файлов в системе может быть сколь угодно большое количество.
Возвращаясь же к Proxmox VE, можно в консоли запустить команду lsblk означающую list blocks.
Видно, что данный экземпляр Proxmox установлен на одном физическом диске размером 40Гб, поделённом на 3 логических.
При этом, третий логический диск разбит ещё на 3 логических тома (LV), которые созданы установщиком внутри VG:
- root . Отформатирован как ext4 и содержит операционную систему.
- swap . Раздел подкачки.
- data . Этот том использует LVM-thin и используется для хранения образов виртуальных машин.
Пространство с мета данными не берём во внимание.
Запустим команду lvs отображающую логические тома - logical volume show
Видим что к группе томов (VG) относится том pve, на котором расположены те самые логические диски, в количестве трёх штук.И наконец последняя команда - pvs (physical volume show) - показывает диски или тома, использованные в LVM.
Теперь посмотрим что видно в графическом веб интерфейсе.
Раздел хранилище на уровне всего датацентра.
На уровне группы томов:
На дисках 1 и 2 видим Bootloader. Первый раздел содержит стандартный загрузчик GRUB. Второй раздел — это системный раздел EFI (ESP), который позволяет загружаться в системах EFI.
На уровне LVM
Тонкий пул LVM (LVM-thin) тоже является блочным хранилищем. Однако он выделяют блоки при их записи. Такое поведение называется тонким выделением ресурсов, поскольку объем тома может быть намного больше, чем физически доступное пространство. Новый LVM-thin позволяет создавать снэпшоты и клоны, но не поддерживает общее хранилище.
И всё же, на пальцах, в чём принципиальная разница между LVM и LVM-thin?
В первом случае, когда у нас есть VG объёмом 100Гб, то ёмкость нового логический тома не может быть больше этого объёма. Т.к. при использовании LVM весь этот объём выделяется (резервируется) сразу под новый том.
В случае использования тонкого LVM, система "знает" что новый том может раздуваться до определённых размеров, но резервирует место только под объём записываемой/поступающей информации.
Хранилища.
Всего в Proxmox существуют 2 основных вида хранилищ.
- Файловое. Обеспечивают доступ к полнофункциональной (POSIX) файловой системе. В целом оно более гибкое, и позволяют хранить контент любого типа. Например файловая система ZFS является самой продвинутой и имеет полную поддержку моментальных снимков и клонов.
- Блочное. Позволяет хранить большие образы дисков. Обычно на таких типах хранилищ невозможно хранить другие файлы (ISO, резервные копии и т. д.). Большинство современных реализаций блочного хранилища поддерживают моментальные снимки и клоны.
Теперь, когда есть хоть какая-то ясность относительно азов, можно вернуться на один из первых этапов установки всей системы. А именно - к разметке диска.
Установка.
Как уже было сказано выше, во время установки создается группа томов (VG) с названием pve , и дополнительными логические тома (LVs) с названиями root , data и swap. Размер этих томов можно контролировать с помощью следующих параметров:
- hdsize Определяет общий размер жёсткого диска, который будет использоваться. Таким образом, можно сэкономить свободное пространство на жёстком диске для дальнейшего разбиения (т. е. для дополнительного PV и VG на том же жестком диске, который может использоваться для хранения LVM).
- swapsize Определяет размер раздела подкачки. По умолчанию равен размеру установленной оперативной памяти, минимум 4 ГБ и максимум 8 ГБ. Результирующее значение не может быть больше hdsize/8. Если установлено значение 0, то раздел подкачки не создается.
- maxroot Определяет максимальный размер корневого раздела, на котором хранится операционная система. Максимальный предел размера корневого раздела - hdsize/4.
- maxvz Определяет максимальный размер тома данных. Фактический размер тома данных равен: datasize = hdsize - rootsize - swapsize - minfree. (datasize = размер данных)
Где datasize не может быть больше, чем maxvz.
В случае LVM thin(LVM малого объема) пул данных будет создан только в том случае, если datasize больше 4 ГБ.
Если установлено значение 0, то том данных не будет создан, и конфигурация хранилища будет соответствующим образом адаптирована.
- minfree Определяет объем свободного пространства, оставшегося в группе томов LVM pve. При наличии более 128 ГБ памяти по умолчанию используется 16 ГБ, иначе будет использоваться hdsize/8.
LVM требует наличия свободного места в VG для создания моментальных снимков (не требуется для снимков lvmthin)
Дополнительные параметры конфигурации ZFS
Советы по улучшению производительности ZFS
Своп на ZFS
Виртуальные машины.
Создание виртуальной машины для Home Assistant будет рассмотрено в следующей статье
Клонирование
При использовании этой опции происходит создание полной копии всей виртуальной машины с её содержимым, содержимым дисков и т.д. и настройками. Подходит для случаев когда надо создать идентичную копию виртуалки.
Создание шаблона виртуальной машины.
пиктограммы шаблонов и обычных виртуалок выглядят по разному |
Полное клонирование - создание новой, отдельной и независимой машины. Однако требующей для себя столько же места, сколько и оригинал. Создание занимает больше времени.
Резервное копирование.
После выбора необходимых машин к которым будет применяться бэкап, расписания когда он будет происходить и остальных настроек, крайне важно настроить и политику хранения резервных копий в разделе Retention.
Например, есть необходимость оставлять только 3 последних резервных копии.
Тогда Keep Last будет равно 3.
Не важно при этом какая частота резервирования была выбрана, хоть раз в час или же раз в месяц. По аналогии обстоят дела и с остальными опциями в виде дневной политики, недельной и т.д.
Двухфакторная аутентификация.
Fail2ban
Устанавливаем Fail2Ban командой apt install fail2ban, поле чего открываем конфигурацию программы на редактирование:
nano /etc/fail2ban/jail.conf.
В этом файле идём в самый низ и добавляем следующий конфиг:
[proxmox]
enabled = true
port = https,http,8006
filter = proxmox
logpath = /var/log/daemon.log
maxretry = 3
# 1 hour
bantime = 3600
bantime - число секунд на которые заблокируется злоумышленник.
maxretry - число попыток ввода пароля/логина для каждого сервиса.
С помощью команды nano /etc/fail2ban/filter.d/proxmox.conf создадим дополнительный файл настроек этой программы:
[Definition]
failregex = pvedaemon\[.*authentication failure; rhost=<HOST> user=.* msg=.*
ignoreregex =
Вместо хоста указываем IP адрес проксмокса.
Далее останется перезапустить службу: systemctl restart fail2ban
и при желании проверить статус её работы: fail2ban-client -v status sshd
Комментарии
Отправить комментарий