Виртуализация — технология, позволяющая создавать на компьютере виртуальную среду, в которой можно запускать различные рабочие процессы, изолированные от основной операционной системы. Эта среда отделена от ОС таким образом, что процессы, происходящие внутри виртуальной среды, не затрагивают Windows.
Благодаря этой технологии, внутри операционной системы Windows можно запустить другие операционные системы: различные версии Windows, Linux, Android, macOS и т. д. Виртуальная среда использует ресурсы ПК одновременно с основной системой. Читать →
Но сперва поговорим что же такое LXC и в чем разница от обычных виртуальных машин (KVM) у данного способа. Виртуализация KVM позволяет загружать полные операционные системы разных виды, даже не-Linux-системы. Тем не менее, сложная установка иногда необходимо. Виртуальные машины являются ресурсоемкими, поэтому вы можете запускать только ограниченное количество из них на главной машине. LXC или Linux Containers – это легкие и портативные операционные системы на базе ОС, которые совместно используют ядро базовой операционной системы, но в то же время действуют как изолированные среды с собственной файловой системой, процессами и стеком TCP/IP. Поскольку нет накладных расходов на виртуализацию, они работают намного лучше, чем виртуальные машины. Для себя же я решил использовать виртуализацию LXC, т.к. она менее ресурсопрожорливая.
Установка LXC (LXD) на Ubuntu/Debian
Войдите на сервер, используя учетную запись пользователя с доступом sudo.
В свежей Ubuntu версии, по умолчанию, уже встроен lxd. У кого не так то устанавливаем командой:
sudo apt install lxd
Затем добавьте пользователя в группу lxd, чтобы он мог выполнять задачи по управлению контейнерами:
sudo usermod --append --groups lxd smirnov
Чтобы включить поддержку ZFS в LXD, обновите индекс пакетов и установите пакет zfsutils-linux:
Во время инициализации LXD задаёт несколько вопросов, среди которых будет определение типа файловой системы для дефолтного Storage Pool. По умолчанию для него выбирается файловая система BTRFS. Поменять на другую ФС после создания будет невозможно. Для выбора ФС предлагается таблица сравнения возможностей:
Feature
Directory
Btrfs
LVM
ZFS
CEPH
Optimized image storage
no
yes
yes
yes
yes
Optimized instance creation
no
yes
yes
yes
yes
Optimized snapshot creation
no
yes
yes
yes
yes
Optimized image transfer
no
yes
no
yes
yes
Optimized instance transfer
no
yes
no
yes
yes
Copy on write
no
yes
yes
yes
yes
Block based
no
no
yes
no
yes
Instant cloning
no
yes
yes
yes
yes
Storage driver usable inside a container
yes
yes
no
no
no
Restore from older snapshots (not latest)
yes
yes
yes
no
yes
Storage quotas
yes(*)
yes
yes
yes
no
процесс инициализации Storage Pool
После того как вы решили какое backend хранилище использовать, начинайте процесс инициализации. Делается это командой:
lxd init
Утилита будет задавать вопросы, на которые вам нужно будет ответить. Первым вопросом утилита спросит: Хотите ли вы использовать кластеризацию LXD?
Would you like to use LXD clustering? (yes/no) [default=no]:
Вы хотите настроить новый пул хранения данных?
Do you want to configure a new storage pool? (yes/no) [default=yes]:
Имя нового пула
Name of the new storage pool [default=default]: ssdpool
какой тип хранилища использовать?
Name of the storage backend to use (dir, lvm, ceph, btrfs) [default=btrfs]:
Создать новый пул BTRFS?
Create a new BTRFS pool? (yes/no) [default=yes]:
Хотите ли вы использовать существующее блочное устройство?
Would you like to use an existing block device? no
Размер в ГБ нового устройства loop
Size in GB of the new loop device (1GB minimum) [default=15GB]: 30
Вы хотите подключиться к серверу MAAS?
Would you like to connect to a MAAS server? (yes/no) [default=no]:
Хотите ли вы создать новый мост локальной сети?
Would you like to create a new local network bridge? (yes/no) [default=yes]: no
Тут я отвечаю нет, так как у меня настроен сетевой мост и DHCP сервер. Буду использовать его. Но приведу пример по настройке моста:
# Как должен называться новый мост?
What should the new bridge be called? [default=lxdbr0]:
# Какой IPv4-адрес следует использовать? (Обозначение подсети, CIDR, “auto " или " none”)
What IPv4 address should be used? (CIDR subnet notation, “auto” or “none”) [default=auto]: none
What IPv6 address should be used? (CIDR subnet notation, “auto” or “none”) [default=auto]: none
Хотите ли вы настроить LXD для использования существующего моста или хост-интерфейса?
Would you like to configure LXD to use an existing bridge or host interface? (yes/no) [default=no]: yes
Имя существующего моста или интерфейса хоста:
Name of the existing bridge or host interface: br0
Хотите ли вы, чтобы LXD был доступен по сети?
Would you like LXD to be available over the network? (yes/no) [default=no]:
Я отвечаю да, тем самым открывая доступ к контейнерам из локальной сети.
Адрес для привязки LXD к интерфейсу
Address to bind LXD to (not including port) [default=all]: 10.5.5.1
Порт для
Port to bind LXD to [default=8443]: 4444
Пароль доверия для новых клиентов:
Trust password for new clients:
Тут придумайте какой нибудь пароль
Повторите Ваш пароль
Again:
Хотите ли вы, чтобы устаревшие кэшированные изображения обновлялись автоматически?
Would you like stale cached images to be updated automatically? (yes/no) [default=yes] no
Хотите ли вы, чтобы была напечатана предварительная запись YAML “lxd init”?
Would you like a YAML "lxd init" preseed to be printed? (yes/no) [default=no]: yes
Следующая команда выводит на экран список всех Storage Pool в LXC хранилище. Но данная команда у вас ничего не покажет, так как мы еще не настроили контейнер ( привожу просто как пример):
lxc storage list
+--------+-------------+--------+-------------------------------------------+---------+
| NAME | DESCRIPTION | DRIVER | SOURCE | USED BY |
+--------+-------------+--------+-------------------------------------------+---------+
| test | | zfs | /var/snap/lxd/common/lxd/disks/test.img | 3 |
+--------+-------------+--------+-------------------------------------------+---------+
| ubnsrv | | btrfs | /var/snap/lxd/common/lxd/disks/ubnsrv.img | 0 |
+--------+-------------+--------+-------------------------------------------+---------+
Для просмотра списка всех Storage Volume в выбранном Storage Pool служит команда lxc storage volume list:
lxc storage volume list test
+-----------+------------------------------------------------------------------+-------------+---------+
| TYPE | NAME | DESCRIPTION | USED BY |
+-----------+------------------------------------------------------------------+-------------+---------+
| container | webserver | | 1 |
+-----------+------------------------------------------------------------------+-------------+---------+
| image | 89cbdbacd37e484c16816ae1ad550930c70320ef6428df4eb723e2aae4c78b56 | | 1 |
+-----------+------------------------------------------------------------------+-------------+---------+
Увеличение размера Storage Pool
После создания Storage Pool, при необходимости, его можно расширить. Для Storage Pool основанном на файловой системе BTRFS выполните следующие команды:
Если выдает ошибку “Error: Storage pool “default” has profiles using it: default“, то делаем так:
printf 'config: {}ndevices: {}' | lxc profile edit test
lxc storage delete test
Удаление bridge LXD
После удаление Storadge Pool необходимо удалить созданный сетевой мост следующей командой:
sudo lxc network delete lxdbr0
Работа с контейнерами LXC
Список контейнеров LXC
После того как Вы прошли все стадии настройки нового пула, вам потребуется скачать сам контейнер. Для просмотра доступных контейнеров с Ubuntu необходимо набрать следующую команду:
lxc image list ubuntu:
Я для установки выбрал Ubuntu Server 20.04 LTS.
Установка контейнера LXC на хост машину
Устанавливаем наш контейнер следующей командой:
lxc launch ubuntu:f webserver
f– это сокращенное название контейнера (Ubuntu 20.04 focal)
webserver – это имя нашего контейнера.
После загрузки посмотрим список наших контейнеров установленных в системе:
lxc list
+-----------+---------+---------------+------+-----------+-----------+
| NAME | STATE | IPV4 | IPV6 | TYPE | SNAPSHOTS |
+-----------+---------+---------------+------+-----------+-----------+
| webserver | RUNNING | 10.5.5.44 (eth0) | | CONTAINER | 0 |
+-----------+---------+---------------+------+-----------+-----------+
Как видим контейнер запустился с именем webserver и IP-адресом 10.5.5.44
Так как наш контейнер lxd называется webserver, то на него необходимо установить какой либо WEB-сервер.
Установка NGINX в LXC (LXD) контейнер
Подключитесь к контейнеру webserver и настройте в нем веб-сервер.
Чтобы подключиться к контейнеру как root, используйте следующую команду:
lxc exec webserver -- /bin/bash
Чтобы подключиться к контейнеру от другого пользователя используйте вот такую команду:
lxc exec webserver -- sudo --login --user user1
Команда sudo --login --user use1 предоставляет оболочку входа для предварительно сконфигурированной учетной записи user1 внутри контейнера.
В контейнере командная строка выглядит так:
root@webserver:~$
Установите Nginx в этом контейнере. Для этого обновим индекс пакетов экземпляра Ubuntu внутри контейнера, добавим свежий репозиторий для nginx и установим сам WEB-сервер Nginx:
Затем отредактируйте веб-страницу по умолчанию для этого сайта и добавьте текст, который поможет вам понять, что этот сайт размещен в контейнере webserver. Откройте файл index.nginx-debian.html:
nano /var/www/html/index.nginx-debian.html
Измените его следующим образом:
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
body {
width: 35em;
margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif;
}
</style>
</head>
<body>
<h1>Добро пожаловать в контейнер WEBSERVER!</h1>
<p>Если вы видите эту страницу, веб-сервер nginx успешно установлен и работает.
Необходима дальнейшая настройка.</p>
<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>
<p><em>Спасибо Вам за использование nginx.</em></p>
</body>
</html>
Сохраните файл и выйдите из редактора. Выйдите из контейнера и вернитесь на главный сервер:
exit
С помощью curl проверьте, работает ли веб-сервер в контейнере. Вам понадобятся IP-адреса веб-контейнеров, которые были найдены ранее с помощью команды lxd list.
curl http://10.5.5.44/
Команда вернет:
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
body {
width: 35em;
margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif;
}
</style>
</head>
<body>
<h1>Добро пожаловать в контейнер WEBSERVER!</h1>
<p>Если вы видите эту страницу, веб-сервер nginx успешно установлен и работает.
Необходима дальнейшая настройка.</p>
<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>
<p><em>Спасибо Вам за использование nginx.</em></p>
</body>
</html>
Веб-сервер работает, но получить доступ к нему можно только через внутренний IP-адрес. Для того чтобы другие пользователи могли получить доступ к web-сайту, направьте внешние запросы в этот контейнер. Как это сделать Я описывал в данной статье:
В Linux нет игр. Вы могли читать об этом в интернете множество раз, особенно если вы сами являетесь пользователям Linux. К счастью, это утверждение не имеет ничего общего с реальностью. Есть много отличных игр для Linux и можно получить еще больше с помощью эмуляторов. Эмулятор с открытым исходным кодом Dolphin добавляет в Linux огромную часть экосистемы Wii, в том числе множество тайтлов от Gamecube. Читать →
Hyper-V — виртуальная машина от Майкрософт, созданная на основе гипервизора, с аппаратной поддержкой виртуализации для 64 битных систем. Ранее гипервизор использовался только в серверных операционных системах Microsoft. Читать →
FirstVDS объявляет о начале продаж Виртуальных Выделенных Серверов на базе виртуализации XEN.
XEN — это аппаратная виртуализация, которая имеет ряд существенных отличий от виртуализаций уровня операционной системы (FreeBSD / OpenVZ), используемых FirstVDS до сих пор. XEN использует аппаратные возможности процессора, что максимально приближает Виртуальный сервер к обычному выделенному серверу. Как следствие, ваш Виртуальный сервер будет иметь собственное ядро операционной системы, получит низкоуровневый доступ к сетевым устройствам (можно настроить vpn сервер (openvpn, mpd)) и т.д. Использование аппаратной виртуализации также позволяет устанавливать на VDS любую операционную систeму. Читать →