oVirt en 2 heures. Partie 2. Installation du gestionnaire et des hôtes

Cet article est le prochain d'une série sur oVirt, commençant ici .

Des articles


  1. introduction
  2. Installation du gestionnaire (ovirt-engine) et des hyperviseurs (hôtes) - Nous sommes ici
  3. Paramètres additionnels
  4. Opérations de base

Nous allons donc considérer les problèmes d'installation initiale des composants ovirt-engine et ovirt-host.

Vous pouvez toujours voir les processus d'installation dans la documentation plus en détail .

Contenu


  1. Installer le moteur ovirt
  2. Installer ovirt-host
  3. Ajout d'un nœud à oVirtN
  4. Configuration de l'interface réseau
  5. Configuration FC
  6. Configurer FCoE
  7. Stockage d'images ISO
  8. Première VM

Installer le moteur ovirt


Pour Engine, les exigences minimales sont de 2 cœurs / 4 Gio de RAM / 25 Gio de stockage. Recommandé - à partir de 4 cœurs / 16 Gio de RAM / 50 Gio de stockage. Nous utilisons l'option Gestionnaire autonome lorsque le moteur s'exécute sur une machine physique ou virtuelle dédiée en dehors d'un cluster géré. Pour notre installation, prenons une machine virtuelle, par exemple, sur un ESXi * distinct . Il est pratique d'utiliser des outils d'automatisation du déploiement ou le clonage à partir d'un modèle préalablement préparé ou l'installation de kickstart.

* Remarque: pour un système de production, c'est une mauvaise idée car le manager travaille sans réserve et devient un goulot d'étranglement. Dans ce cas, il est préférable de considérer l'option Moteur auto-hébergé.

Si nécessaire, la procédure de conversion de Standalone en Self Hosted est décrite en détail dans la documentation. En particulier, l'hôte doit recevoir la commande de réinstallation avec prise en charge du moteur hébergé.

Installez CentOS 7 dans la configuration minimale sur la machine virtuelle, puis mettez à jour et redémarrez le système:

$ sudo yum update -y && sudo reboot

Pour une machine virtuelle, il est utile d'installer un agent invité:

$ sudo yum install open-vm-tools

pour les hôtes VMware ESXi ou pour oVirt:

$ sudo yum install ovirt-guest-agent

Nous connectons le référentiel et installons le gestionnaire:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine

Réglage de base:

$ sudo engine-setup

Dans la plupart des cas, les paramètres par défaut sélectionnés sont suffisants; pour leur utilisation automatique, vous pouvez démarrer la configuration avec la touche:

$ sudo engine-setup --accept-defaults

Nous pouvons maintenant nous connecter à notre nouveau moteur sur ovirt.lab.example.com . Il est toujours vide ici, alors passons à l'installation d'hyperviseurs.

Installer ovirt-host


Installez CentOS 7 dans la configuration minimale sur l'hôte physique, puis connectez le référentiel, mettez à jour et redémarrez le système:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot

Remarque: il est pratique d'utiliser des outils d'automatisation du déploiement ou de lancer l'installation pour l'installation.

Exemple de fichier Kickstart
! ! !

# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8

# Network information
network  --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network  --hostname=kvm01.lab.example.com

# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda  --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024

%packages
@^minimal
@core
chrony
kexec-tools

%end

%addon com_redhat_kdump --enable --reserve-mb='auto'

%end

%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject

, ., ftp.example.com/pub/labkvm.cfg. 'Install CentOS 7', ( Tab) ( , )

' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'
.
/dev/sda, ( lsblk). kvm01.lab.example.com ( hostnamectl set-hostname kvm03.lab.example.com), IP — , — , .

root: monteV1DE0, mgmt: metroP0!is.
! ! !

Répétez (ou exécutez en parallèle) sur tous les hôtes. De la mise sous tension du serveur "vide" à l'état fini, en prenant en compte 2 longs téléchargements, cela prend environ 20 minutes.

Ajout d'un nœud à oVirt


C'est très simple:

Calcul → Hôtes → Nouveau → ...

Dans l'assistant, les champs Nom (nom d'affichage, par exemple, kvm03), Nom d'hôte (FQDN, par exemple kvm03.lab.example.com) et la section Authentification sont requis - utilisateur root (invariablement) - mot de passe ou clé publique SSH.

Après avoir cliqué sur le bouton OK , vous recevrez le message «Vous n'avez pas configuré la gestion de l'alimentation pour cet hôte. Es-tu sur de vouloir continuer? " . Ceci est normal - nous considérerons la gestion de l'alimentation plus tard, après une connexion hôte réussie. Cependant, si les machines sur lesquelles les hôtes sont installés ne prennent pas en charge la gestion (IPMI, iLO, DRAC, etc.), je recommande de la désactiver: Calcul → Clusters → Par défaut → Modifier → Clôture Ploicy → Activer la clôture, décochez-la.

Si le référentiel oVirt n'était pas connecté sur l'hôte, l'installation échouera, mais ça va - vous devez l'ajouter, puis cliquez sur Installer -> Réinstaller.

La connexion à l'hôte ne prend pas plus de 5 à 10 minutes.

Configuration de l'interface réseau


Comme nous construisons un système tolérant aux pannes, la connexion réseau doit également fournir une connexion redondante, ce qui se fait dans l'onglet Calculer → Hôtes → HÔTE → Interfaces réseau - Configurer les réseaux hôtes.

En fonction des capacités de votre équipement réseau et de vos approches d'architecture, des options sont possibles. Il est préférable de se connecter à la pile de commutateurs du haut du rack de sorte que lorsqu'un échec, la disponibilité du réseau ne soit pas interrompue. Prenons l'exemple d'un canal LACP agrégé. Pour configurer le canal agrégé, "prenez" le 2ème adaptateur inutilisé avec la souris et "amenez" le 1er. La fenêtre Create New Bond s'ouvre.où LACP (Mode 4, Agrégation de liens dynamiques, 802.3ad) est sélectionné par défaut. Côté commutateur, la configuration normale du groupe LACP est effectuée. S'il n'est pas possible de créer une pile de commutateurs, vous pouvez utiliser le mode Active-Backup (Mode 1). Nous examinerons les paramètres VLAN dans le prochain article, et plus en détail avec des recommandations sur les paramètres réseau dans le document Guide de planification et des prérequis .

Configuration FC


Fibre Channel (FC) est pris en charge immédiatement, son utilisation est simple. Nous ne configurerons pas le réseau de stockage, y compris la configuration des systèmes de stockage et le zonage des commutateurs Fabric dans le cadre de la configuration oVirt.

Configurer FCoE


FCoE, à mon avis, n'était pas largement utilisé dans les réseaux de stockage, mais il est souvent utilisé sur les serveurs comme le «dernier kilomètre», par exemple, dans HPE Virtual Connect.

La configuration de FCoE nécessite des étapes simples supplémentaires.

Setup FCoE Engine


Red Hat B.3. How to Set Up Red Hat Virtualization Manager to Use FCoE
On the Manager
, :


$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service

Setup Node FCoE


oVirt-Host'

$ sudo yum install vdsm-hook-fcoe

FCoE, Red Hat: 25.5. Configuring a Fibre Channel over Ethernet Interface.

Broadcom CNA User Guide FCoE Configuration for Broadcom-Based Adapters.

, ( minimal):

$ sudo yum install fcoe-utils lldpad

( ens3f2 ens3f3 CNA, ):

$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3

: DCB/DCBX, DCB_REQUIRED no.

DCB_REQUIRED=«yes» → #DCB_REQUIRED=«yes»

, adminStatus , .. FCoE:

$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled

, LLDP:

$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad

, DCB/DCBX, DCB_REQUIRED no .

$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe

:

$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3

ONBOOT=yes

FCoE , .

$ sudo fcoeadm -i

FCoE FC.

Ce qui suit est la configuration des systèmes et réseaux de stockage - zonage, hôtes SAN, création et présentation de volumes / LUN, après quoi le stockage peut être connecté aux hôtes ovirt: Stockage → Domaines → Nouveau domaine.

Fonction de domaine que nous laissons Données, Type de stockage - Fibre Channel, Hôte - tout, nom - par exemple storNN-volMM.

Certes, votre système de stockage permet la connexion n'est pas seulement une réservation de chemins, mais aussi un équilibrage. De nombreux systèmes modernes sont capables de transmettre des données de manière optimale sur tous les chemins (ALUA actif / actif).

Pour activer tous les chemins dans un état actif, vous devez configurer le multipassing, plus à ce sujet dans les articles suivants.

La configuration de NFS et iSCSI se fait de manière similaire.

Stockage d'images ISO


Pour installer l'OS, vous aurez besoin de leurs fichiers d'installation, le plus souvent disponibles sous forme d'images ISO. Vous pouvez utiliser le chemin d'accès intégré, mais pour travailler avec des images dans oVirt, un type spécial de stockage est développé - ISO, qui peut être ciblé sur un serveur NFS. Ajoutez-le:

Stockage → Domaines → Nouveau domaine,
fonction de domaine → ISO,
chemin d'exportation - par exemple mynfs01.example.com:/exports/ovirt-iso (au moment de la connexion, le dossier doit être vide, le gestionnaire doit pouvoir y écrire),
Nom - par exemple mynfs01-iso.

Pour stocker des images, le gestionnaire créera la structure
/ exports / ovirt-iso / <certains UUID> / images / 11111111-1111-1111-1111-111111111111 /

Si vous avez déjà des images ISO sur notre serveur NFS, il est pratique de les lier à ce dossier au lieu de copier des fichiers pour économiser de l'espace.

Première VM


À ce stade, vous pouvez déjà créer la première machine virtuelle, y installer le système d'exploitation et le logiciel d'application.

Calculer → Machines virtuelles → Nouveau

Pour la nouvelle machine, spécifiez un nom (Nom), créez un disque (Images d'instance → Créer) et connectez l'interface réseau (Instanciez les interfaces réseau VM en choisissant un profil vNIC → choisissez le seul ovirtmgmt dans la liste jusqu'à présent).

Côté client, vous avez besoin d'un navigateur moderne et d'un client SPICE pour interagir avec la console.

La première machine a démarré avec succès. Cependant, pour un fonctionnement plus complet du système, un certain nombre de paramètres supplémentaires sont requis, que nous continuerons dans les articles suivants.

All Articles