diff --git a/module2/01_partitions_raid_lvm_fs/tasks.md b/module2/01_partitions_raid_lvm_fs/tasks.md index ce78035..d1f6dba 100644 --- a/module2/01_partitions_raid_lvm_fs/tasks.md +++ b/module2/01_partitions_raid_lvm_fs/tasks.md @@ -1,34 +1,38 @@ # Задания +## 0. Подготовка виртуальной машины ### 0.1 -Загрузите виртуальную машину `bios` или `uefi` с подключенным диском `gparted-live-*.iso` и загрузите debian с gparted. Зайдите в gparted найдите в интерфейсе все подключенные диски их разметку. +Загрузите виртуальную машину `bios` или `uefi` с подключенным диском `gparted-live-*.iso` и загрузите debian с gparted. Зайдите в gparted найдите в интерфейсе все подключенные диски и их разметку. ### 0.2 -Добавьте к оборудованию виртуальной машины два новых диска по 1ГБ, обновите список устройств в интерфейсе gparted. Создайте snapshot виртуальной машины на случай ошибок в конфигурации. +Добавьте к оборудованию виртуальной машины два новых диска по 0.5ГБ, обновите список устройств в интерфейсе gparted. Создайте snapshot виртуальной машины на случай ошибок в конфигурации. -### 1.0 Далее создадим несколько RAID массивов и логических томов LVM. Обе техники, RAID и LVM, абстрагируют примонтированные дисковые устройства от физических дисков. В обоих случаях в системе появляются новые блочные устройства в `/dev/`, которые можно использовать для создания файловых систем. -### 1.1 -Зайдите в терминал. Изучите документацию `mdadm`: `man mdadm` и `mdadm --help`. Cоздайте программный raid массив типа 0 (чередование записи разбитого на блоки потока данных) на основе 2 созданных дисков по 1ГБ. Используйте сырые диски, например `/dev/sdc /dev/sdd`. +## 1. Программный RAID -### 1.2 +### 1.1 RAID 0 +#### 1.1.1 +Зайдите в терминал. Изучите документацию `mdadm`: `man mdadm` и `mdadm --help`. Cоздайте программный raid массив типа 0 (чередование записи разбитого на блоки потока данных) на основе 2 созданных дисков по 0.5ГБ. Используйте сырые диски, например `/dev/sdc /dev/sdd`. + +#### 1.1.2 Изучите документацию `mkfs.ext4`. Отформатируйте raid `/dev/md0` командой `mkfs.ext4` с опцией указания метки `-L raid0`. -### 1.3 -Примонтируйте файловую систему на `/dev/md0` в папку `/raid0`, предварительно её создав. Проверьте, что запись и чтение работают для этой директории. Проверьте размер диска, общий объем должен составлять 2GB. +#### 1.1.3 +Примонтируйте файловую систему на `/dev/md0` в папку `/raid0`, предварительно её создав. Проверьте, что запись и чтение работают для этой директории. Проверьте размер диска, общий объем должен составлять 1GB. -### 1.4 +#### 1.1.4 Отключите live диск с gparted, перезагрузите машину и зайдите в одну из ОС. Настройте сеть, если она ещё не настроена (используйте gateway 192.168.1.1), установите mdadm, если пакет ещё не установлен. Выведите список устройств в директории `/dev`, среди которых должно присутствовать устройство `/dev/md0`. Если его нет, после установки mdadm перезагрузите систему. Вызовите команды `mdadm --query` и `mdadm --detail` для `/dev/md0`. -### 1.5 +#### 1.1.5 Изучите документацию fstab `man fstab`. Добавьте запись в `/etc/fstab` для автоматического монтирования raid при загрузке ОС в ту же директорию `/raid0`. Используйте UUID для указания на `/dev/md0` (вывести таблицу uuid можно командой `blkid`). Последние два значения установите в `0 2`. После перезагрузки системы, проверьте, что директория примонтировалась, доступна для записи и чтения. -### 2.1 +### 1.2 RAID 1 +#### 1.2.1 Проделайте аналогичные инструкции для создания raid 1 (дублирование записи). Загрузите в gparted live диск. Запишите из меню `Device` таблицу разметки типа GPT на каждый диск. Создайте по одному неотформатированному разделу на дисках. @@ -37,20 +41,21 @@ Примонтируйте сконфигурированный raid в `fstab`, используя метку файловой системы. -### 2.2 +#### 1.2.2 Сэмулируйте отказ одного из дисков: ``` -mdadm /dev/md/extra -f /dev/sdd +mdadm /dev/md1 --fail /dev/sdd ``` Проверьте сообщения `/var/log/messages` и содержимое `/proc/mdstat`. Проверьте, что запись и чтение в raid всё ещё работают. Добавьте диск обратно: ``` -mdadm /dev/md/extra -a /dev/sdd +mdadm /dev/md0 --re-add /dev/sdd ``` Повторите проверки. -### 3.0 +## 3. Менеджер логических томов LVM + Архитектура верхнего уровня LVM заключается в том, что отдельные диски и разделы (физические тома) собираются в пулы хранения, называемые группами томов. Затем группы томов подразделяются на логические тома, представляющие собой блочные устройства, содержащие файловые системы. У физического тома (physical volume) должна быть метка LVM, созданная командой `pvcreate`. Создание метки — это первый шаг к доступу к устройству через LVM. В дополнение к мета информации метка содержит уникальный идентификатор для идентификации устройства. @@ -82,8 +87,13 @@ mdadm /dev/md/extra -a /dev/sdd Для созданных сущностей выведити свойства командами `pvdisplay`, `vgdisplay`, `lvdisplay`. -### 4.0 -ZFS и Btrfs обычно называют файловыми системами. Но на самом деле они представляют собой вертикально интегрированные подходы к управлению хранилищем, включающие в себя также функции менеджера логических томов и RAID-контроллера. +## 4. Интегрированные подходы к управлению хранилищем btrfs и zfs + +ZFS и Btrfs обычно называют файловыми системами. Но на самом деле они представляют собой вертикально интегрированные подходы к управлению хранилищем, включающие в себя функции файловой системы, менеджера логических томов и RAID-контроллера. + +### 4.1 +Установите btrfs или zfs на два диска. -### 4.1* -Дополнительное задание - установите btrfs или zfs на два диска. \ No newline at end of file +Установите пакет: +- `btrfs-progs`, если он ещё не установлен для работы с btrfs, +- `zfsutils-linux` (contrib ветка), если он ещё не установлен для работы с zfs. \ No newline at end of file