OVirt in 2 Stunden. Teil 2. Installieren des Managers und der Hosts

Dieser Artikel ist der nächste in einer Reihe über oVirt, der hier beginnt .

Artikel


  1. Einführung
  2. Installation des Managers (Ovirt-Engine) und der Hypervisoren (Hosts) - Wir sind hier
  3. Zusätzliche Einstellungen
  4. Grundoperationen

Daher werden wir die Probleme der Erstinstallation der Komponenten ovirt-engine und ovirt-host berücksichtigen.

Sie können die Installationsprozesse immer detaillierter in der Dokumentation sehen .

Inhalt


  1. Ovirt-Motor einbauen
  2. Installieren Sie ovirt-host
  3. Hinzufügen eines Knotens zu oVirtN
  4. Netzwerkschnittstellen-Setup
  5. FC-Setup
  6. Konfigurieren Sie FCoE
  7. ISO-Bildspeicher
  8. Erste VM

Ovirt-Motor einbauen


Für den Motor sind die Mindestanforderungen 2 Kerne / 4 GiB RAM / 25 GiB Speicher. Empfohlen - ab 4 Kernen / 16 GiB RAM / 50 GiB Speicher. Wir verwenden die Option Standalone Manager, wenn die Engine auf einer dedizierten physischen oder virtuellen Maschine außerhalb eines verwalteten Clusters ausgeführt wird. Nehmen wir für unsere Installation eine virtuelle Maschine, zum Beispiel auf einem separaten ESXi * . Es ist praktisch, Tools zur Bereitstellungsautomatisierung zu verwenden oder aus einer zuvor vorbereiteten Vorlage zu klonen oder Kickstart zu installieren.

* Hinweis: Für ein Produktionssystem ist dies eine schlechte Idee, da Der Manager arbeitet ohne Vorbehalt und wird zum Engpass. In diesem Fall ist es besser, die Option Self-Hosted Engine in Betracht zu ziehen.

Falls erforderlich, wird das Verfahren zum Konvertieren von Standalone in Self Hosted in der Dokumentation ausführlich beschrieben. Insbesondere muss der Host den Befehl zum erneuten Installieren mit Unterstützung für die Hosted Engine erhalten.

Installieren Sie CentOS 7 in der minimalen Konfiguration auf der VM, aktualisieren Sie das System und starten Sie es neu:

$ sudo yum update -y && sudo reboot

Für eine virtuelle Maschine ist es hilfreich, einen Gastagenten zu installieren:

$ sudo yum install open-vm-tools

für VMware ESXi-Hosts oder für oVirt:

$ sudo yum install ovirt-guest-agent

Wir verbinden das Repository und installieren den Manager:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum install ovirt-engine

Grundeinstellung:

$ sudo engine-setup

In den meisten Fällen sind die ausgewählten Standardeinstellungen ausreichend. Für ihre automatische Verwendung können Sie die Konfiguration mit der Taste starten:

$ sudo engine-setup --accept-defaults

Jetzt können wir uns unter ovirt.lab.example.com mit unserer neuen Engine verbinden . Hier ist es noch leer, also fahren wir mit der Installation von Hypervisoren fort.

Installieren Sie ovirt-host


Installieren Sie CentOS 7 in der minimalen Konfiguration auf dem physischen Host, verbinden Sie das Repository, aktualisieren Sie das System und starten Sie es neu:

$ sudo yum install https://resources.ovirt.org/pub/yum-repo/ovirt-release43.rpm
$ sudo yum update -y && sudo reboot

Hinweis: Es ist praktisch, Tools zur Bereitstellungsautomatisierung oder eine Kickstart-Installation für die Installation zu verwenden.

Beispiel für eine Kickstart-Datei
! ! !

# System authorization information
auth --enableshadow --passalgo=sha512
# Use CDROM installation media
cdrom
# Use graphical install
graphical
# Run the Setup Agent on first boot
firstboot --enable
ignoredisk --only-use=sda
# Keyboard layouts
keyboard --vckeymap=us --xlayouts='us','ru' --switch='grp:alt_shift_toggle'
# System language
lang ru_RU.UTF-8

# Network information
network  --bootproto=dhcp --device=ens192 --ipv6=auto --activate
network  --hostname=kvm01.lab.example.com

# Root password 'monteV1DE0'
rootpw --iscrypted $6$6oPcf0GW9VdmJe5w$6WBucrUPRdCAP.aBVnUfvaEu9ozkXq9M1TXiwOm41Y58DEerG8b3Ulme2YtxAgNHr6DGIJ02eFgVuEmYsOo7./
# User password 'metroP0!is'
user --name=mgmt --groups=wheel --iscrypted --password=$6$883g2lyXdkDLbKYR$B3yWx1aQZmYYi.aO10W2Bvw0Jpkl1upzgjhZr6lmITTrGaPupa5iC3kZAOvwDonZ/6ogNJe/59GN5U8Okp.qx.
# System services
services --enabled="chronyd"
# System timezone
timezone Europe/Moscow --isUtc
# System bootloader configuration
bootloader --append=" crashkernel=auto" --location=mbr --boot-drive=sda
# Partition clearing information
clearpart --all
# Disk partitioning information
part /boot --fstype xfs --size=1024 --ondisk=sda  --label=boot
part pv.01 --size=45056 --grow
volgroup HostVG pv.01 --reserved-percent=20
logvol swap --vgname=HostVG --name=lv_swap --fstype=swap --recommended
logvol none --vgname=HostVG --name=HostPool --thinpool --size=40960 --grow
logvol / --vgname=HostVG --name=lv_root --thin --fstype=ext4 --label="root" --poolname=HostPool --fsoptions="defaults,discard" --size=6144 --grow
logvol /var --vgname=HostVG --name=lv_var --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=16536
logvol /var/crash --vgname=HostVG --name=lv_var_crash --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=10240
logvol /var/log --vgname=HostVG --name=lv_var_log --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=8192
logvol /var/log/audit --vgname=HostVG --name=lv_var_audit --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=2048
logvol /home --vgname=HostVG --name=lv_home --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024
logvol /tmp --vgname=HostVG --name=lv_tmp --thin --fstype=ext4 --poolname=HostPool --fsoptions="defaults,discard" --size=1024

%packages
@^minimal
@core
chrony
kexec-tools

%end

%addon com_redhat_kdump --enable --reserve-mb='auto'

%end

%anaconda
pwpolicy root --minlen=6 --minquality=1 --notstrict --nochanges --notempty
pwpolicy user --minlen=6 --minquality=1 --notstrict --nochanges --emptyok
pwpolicy luks --minlen=6 --minquality=1 --notstrict --nochanges --notempty
%end
# Reboot when the install is finished.
reboot --eject

, ., ftp.example.com/pub/labkvm.cfg. 'Install CentOS 7', ( Tab) ( , )

' inst.ks=ftp://ftp.example.com/pub/labkvm.cfg'
.
/dev/sda, ( lsblk). kvm01.lab.example.com ( hostnamectl set-hostname kvm03.lab.example.com), IP — , — , .

root: monteV1DE0, mgmt: metroP0!is.
! ! !

Wiederholen (oder parallel ausführen) auf allen Hosts. Vom Einschalten des "leeren" Servers bis zum fertigen Zustand unter Berücksichtigung von 2 langen Downloads dauert es ungefähr 20 Minuten.

Hinzufügen eines Knotens zu oVirt


Es ist sehr einfach:

Berechnen → Hosts → Neu → ...

Im Assistenten sind die Felder Name (Anzeigename, z. B. kvm03), Hostname (FQDN, z. B. kvm03.lab.example.com) und der Abschnitt Authentifizierung erforderlich - Root-Benutzer (ausnahmslos) - Passwort oder öffentlicher SSH-Schlüssel.

Nachdem Sie auf die Schaltfläche OK geklickt haben, wird die Meldung angezeigt, dass Sie die Energieverwaltung für diesen Host nicht konfiguriert haben. Sind Sie sicher, dass Sie fortfahren wollen? " . Dies ist normal - wir werden die Energieverwaltung später nach einer erfolgreichen Hostverbindung in Betracht ziehen. Wenn die Computer, auf denen die Hosts installiert sind, die Verwaltung nicht unterstützen (IPMI, iLO, DRAC usw.), empfehle ich, sie zu deaktivieren: Berechnen → Cluster → Standard → Bearbeiten → Fencing Ploicy → Fencing aktivieren, deaktivieren Sie sie.

Wenn das oVirt-Repository nicht auf dem Host verbunden war, schlägt die Installation fehl, aber es ist in Ordnung - Sie müssen es hinzufügen und dann auf Installieren -> Neu installieren klicken.

Die Hostverbindung dauert nicht länger als 5-10 Minuten.

Netzwerkschnittstellen-Setup


Da wir ein fehlertolerantes System, die Netzwerkverbindung sollte auch bietet eine redundante Verbindung aufbauen, die auf dem Registerkarte Berechnen → Hosts → erfolgt HOST → Netzwerk - Schnittstellen - Setup - Host - Networks.

Abhängig von den Fähigkeiten Ihrer Netzwerkgeräte und Architekturansätzen sind Optionen möglich. Es ist am besten, eine Verbindung zum Stapel der Top-of-Rack-Switches herzustellen, damit bei einem Ausfall die Netzwerkverfügbarkeit nicht unterbrochen wird. Betrachten Sie das Beispiel eines aggregierten LACP-Kanals. Um den aggregierten Kanal zu konfigurieren, nehmen Sie den zweiten nicht verwendeten Adapter mit der Maus und bringen Sie ihn zum ersten. Das Fenster Neue Bindung erstellen wird geöffnet.Dabei ist standardmäßig LACP (Modus 4, Dynamic Link Aggregation, 802.3ad) ausgewählt. Auf der Switch-Seite wird die normale LACP-Gruppenkonfiguration durchgeführt. Wenn es nicht möglich ist, einen Switch-Stack zu erstellen, können Sie den Active-Backup-Modus (Modus 1) verwenden. Wir werden die VLAN-Einstellungen im nächsten Artikel und die Empfehlungen zu den Netzwerkeinstellungen im Dokument Planungs- und Voraussetzungshandbuch näher erläutern .

FC-Setup


Fibre Channel (FC) wird sofort unterstützt, seine Verwendung ist unkompliziert. Wir werden das Speichernetzwerk nicht konfigurieren, einschließlich der Konfiguration von Speichersystemen und der Zonierung von Fabric-Switches als Teil der oVirt-Konfiguration.

Konfigurieren Sie FCoE


FCoE wurde meiner Meinung nach in Speichernetzwerken nicht häufig verwendet, wird jedoch häufig auf Servern als "letzte Meile" verwendet, beispielsweise in HPE Virtual Connect.

Das Konfigurieren von FCoE erfordert zusätzliche einfache Schritte.

Setup FCoE Engine


Red Hat B.3. How to Set Up Red Hat Virtualization Manager to Use FCoE
On the Manager
, :


$ sudo engine-config -s UserDefinedNetworkCustomProperties='fcoe=^((enable|dcb|auto_vlan)=(yes|no),?)*$'
$ sudo systemctl restart ovirt-engine.service

Setup Node FCoE


oVirt-Host'

$ sudo yum install vdsm-hook-fcoe

FCoE, Red Hat: 25.5. Configuring a Fibre Channel over Ethernet Interface.

Broadcom CNA User Guide FCoE Configuration for Broadcom-Based Adapters.

, ( minimal):

$ sudo yum install fcoe-utils lldpad

( ens3f2 ens3f3 CNA, ):

$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f2
$ sudo cp /etc/fcoe/cfg-ethx /etc/fcoe/cfg-ens3f3
$ sudo vim /etc/fcoe/cfg-ens3f2
$ sudo vim /etc/fcoe/cfg-ens3f3

: DCB/DCBX, DCB_REQUIRED no.

DCB_REQUIRED=«yes» → #DCB_REQUIRED=«yes»

, adminStatus , .. FCoE:

$ sudo lldptool set-lldp -i ens3f0 adminStatus=disabled
...
$ sudo lldptool set-lldp -i ens3f3 adminStatus=disabled

, LLDP:

$ sudo systemctl start lldpad
$ sudo systemctl enable lldpad

, DCB/DCBX, DCB_REQUIRED no .

$ sudo dcbtool sc ens3f2 dcb on
$ sudo dcbtool sc ens3f3 dcb on
$ sudo dcbtool sc ens3f2 app:fcoe e:1
$ sudo dcbtool sc ens3f3 app:fcoe e:1
$ sudo ip link set dev ens3f2 up
$ sudo ip link set dev ens3f3 up
$ sudo systemctl start fcoe
$ sudo systemctl enable fcoe

:

$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f2
$ sudo vim /etc/sysconfig/network-scripts/ifcfg-ens3f3

ONBOOT=yes

FCoE , .

$ sudo fcoeadm -i

FCoE FC.

Das Folgende ist die Konfiguration von Speichersystemen und Netzwerken - Zoning, SAN-Hosts, Erstellen und Präsentieren von Volumes / LUNs, wonach der Speicher mit Ovirt-Hosts verbunden werden kann: Speicher → Domänen → Neue Domäne.

Domänenfunktion Wir hinterlassen Daten, Speichertyp - Fibre Channel, Host - any, Name - z. B. storNN-volMM.

Sicherlich erlaubt Ihr Speichersystem, dass die Verbindung nicht nur eine Reservierung von Pfaden ist, sondern auch ein Ausgleich. Viele moderne Systeme sind in der Lage, Daten auf allen Pfaden gleichermaßen optimal zu übertragen (ALUA aktiv / aktiv).

Um alle Pfade in einem aktiven Zustand zu aktivieren, müssen Sie Multipassing konfigurieren. Weitere Informationen hierzu finden Sie in den folgenden Artikeln.

Die Konfiguration von NFS und iSCSI erfolgt auf ähnliche Weise.

ISO-Bildspeicher


Für die Installation des Betriebssystems benötigen Sie die Installationsdateien, die meist in Form von ISO-Images verfügbar sind. Sie können den integrierten Pfad verwenden, aber für die Arbeit mit Bildern in oVirt wird ein spezieller Speichertyp entwickelt - ISO, der auf einen NFS-Server ausgerichtet werden kann. Fügen Sie es hinzu:

Speicher → Domänen → Neue Domäne,
Domänenfunktion → ISO,
Exportpfad - z. B. mynfs01.example.com:/exports/ovirt-iso (zum Zeitpunkt der Verbindung sollte der Ordner leer sein, der Manager sollte in der Lage sein, darauf zu schreiben),
Name - z. B. mynfs01-iso.

Um Bilder zu speichern, erstellt der Manager die Struktur
/ exportiert / ovirt-iso / <einige UUID> / images / 11111111-1111-1111-1111-1111111111 /

Wenn Sie bereits ISO-Images auf unserem NFS-Server haben, können Sie diese bequem mit diesem Ordner verknüpfen, anstatt Dateien zu kopieren, um Speicherplatz zu sparen.

Erste VM


Zu diesem Zeitpunkt können Sie bereits die erste virtuelle Maschine erstellen und das Betriebssystem und die Anwendungssoftware darauf installieren.

Berechnen → Virtuelle Maschinen → Neu

Geben Sie für die neue Maschine einen Namen (Name) an, erstellen Sie eine Festplatte (Instanzabbilder → Erstellen) und verbinden Sie die Netzwerkschnittstelle (Instanziieren Sie VM-Netzwerkschnittstellen, indem Sie ein vNIC-Profil auswählen → Wählen Sie das einzige Ovirtmgmt aus der Liste aus).

Auf der Clientseite benötigen Sie einen modernen Browser und einen SPICE-Client, um mit der Konsole zu interagieren.

Die erste Maschine wurde erfolgreich gestartet. Für einen vollständigeren Betrieb des Systems sind jedoch einige zusätzliche Einstellungen erforderlich, die wir in den folgenden Artikeln fortsetzen werden.

All Articles