oVirt en 2 horas. Parte 1. Abra la plataforma de virtualización de conmutación por error

Introducción


El proyecto de código abierto oVirt es una plataforma de virtualización gratuita de nivel empresarial. Al desplazarse por el habr, descubrió que oVirt no está cubierto tan ampliamente como se merece.
oVirt es en realidad un flujo ascendente para el sistema comercial de virtualización de Red Hat (RHV, anteriormente RHEV), que crece bajo el ala de Red Hat. Para evitar confusiones, esto no es lo mismo que CentOS vs RHEL, el modelo está más cerca de Fedora vs RHEL.
Bajo el capó - KVM , la interfaz web se utiliza para el control. Se basa en OS RHEL / CentOS 7.
oVirt se puede usar tanto para servidores "tradicionales" como para virtualización de escritorios (VDI), a diferencia de la solución VMware, ambos sistemas pueden coexistir en un complejo.
Proyecto bienEstá documentado , ha alcanzado la madurez durante mucho tiempo para un uso productivo y está listo para grandes cargas.
Este artículo es el primero de una serie sobre cómo construir un clúster de conmutación por error que funcione. Después de analizarlos, obtendremos un sistema completamente funcional en poco tiempo (aproximadamente 2 horas), aunque una serie de problemas, por supuesto, no se pueden resolver, intentaré cubrirlos en los siguientes artículos.
Lo hemos estado usando durante varios años, comenzamos con la versión 4.1. Nuestro sistema industrial ahora vive en la 10a generación de HPE Synergy 480 y ProLiant BL460c con CPU Xeon Gold.
Al momento de escribir, la versión actual es 4.3.

Artículos


  1. Introducción - Estamos aquí
  2. Instalación del gestor (ovirt-engine) e hipervisores (hosts)
  3. Ajustes adicionales
  4. Operaciones básicas


Caracteristicas Funcionales


Hay 2 entidades principales en oVirt: ovirt-engine y ovirt-host (s). Para aquellos que están familiarizados con los productos VMware, oVirt como plataforma en su conjunto es vSphere, ovirt-engine - la capa de control - realiza las mismas funciones que vCenter, y ovirt-host es un hipervisor como ESX (i). Porque vSphere es una solución muy popular, a veces comparo con ella.
oVirt Dashboard
Higo. 1 - Panel de control oVirt.

Como máquinas invitadas, la mayoría de las distribuciones de Linux y versiones de Windows son compatibles. Para las máquinas invitadas, hay agentes y dispositivos virtuales optimizados y controladores virtio, principalmente un controlador de disco y una interfaz de red.
Para implementar una solución tolerante a fallas y todas las características interesantes, necesitará almacenamiento compartido. Ambos bloques FC, FCoE, iSCSI, archivos de almacenamiento NFS, etc. son compatibles. Para implementar una solución tolerante a fallas, el sistema de almacenamiento también debe ser tolerante a fallas (al menos 2 controladores, multipassing).
Es posible usar almacenamientos locales, pero de manera predeterminada solo los almacenamientos compartidos son adecuados para un clúster real. Los almacenamientos locales hacen del sistema un conjunto dispar de hipervisores, e incluso si hay un almacenamiento compartido, el clúster no puede ensamblarse. La forma más correcta es máquinas sin disco con arranque desde SAN, o discos de tamaño mínimo. Probablemente, a través del enlace vdsm, es posible ensamblar desde unidades locales Almacenamiento definido por software (por ejemplo, Ceph) y presentar su VM, pero en serio no lo consideró.

Arquitectura


arco
Higo. 2 - arquitectura virtual.
Para obtener más información sobre arquitectura, consulte la documentación del desarrollador.

corriente continua
Higo. 3 - objetos virtuales.

El elemento superior en la jerarquía es el Centro de datos . Determina si se utiliza almacenamiento compartido o local, así como el conjunto de funciones utilizadas (compatibilidad, de 4.1 a 4.3). Puede ser uno o más. Para muchas opciones, el uso del Centro de datos de manera predeterminada es Predeterminado.
El centro de datos consta de uno o más clústeres . El clúster determina el tipo de procesador, las políticas de migración, etc. Para instalaciones pequeñas, también puede limitarse al clúster predeterminado.
El clúster, a su vez, consta de Hostestá haciendo el trabajo principal: llevan máquinas virtuales, los almacenes están conectados a ellas. Un clúster asume 2 o más hosts. Aunque técnicamente es posible hacer un clúster con un primer host, esto no tiene ningún uso práctico.

OVirt admite muchas funciones, incluidas migración en vivo de máquinas virtuales entre hipervisores (migración en vivo) y almacenamiento (migración de almacenamiento), virtualización de escritorio (infraestructura de escritorio virtual) con grupos de máquinas virtuales, máquinas virtuales con estado y sin estado, soporte para NVidia Grid vGPU, importación desde vSphere, KVM, hay una API potente y mucho más . Todas estas características están disponibles sin regalías, y si es necesario, se puede obtener soporte de Red Hat a través de socios regionales.

Sobre los precios de RHV


El costo no es alto en comparación con VMware, solo se compra soporte, sin requerir la compra de la licencia. El soporte se compra solo en hipervisores; el motor ovirt-engine, a diferencia de vCenter Server, no requiere gastos.

Ejemplo de cálculo para el 1er año de propiedad


Considere un grupo de 4 máquinas de 2 zócalos y precios minoristas (sin descuentos para proyectos).
Una suscripción estándar de RHV cuesta $ 999 por socket / año (premium 365/24/7 - $ 1499), total 4 * 2 * $ 999 = $ 7992 .
Precio VSphere :
  • VMware vCenter Server Standard $ 10,837.13 por instancia, más una suscripción básica de $ 2,625.41 (Producción - $ 3,125.39);
  • VMware vSphere Standard $ 1,164.15 + Suscripción básica $ 552.61 (Producción $ 653.82);
  • VMware vSphere Enterprise Plus $ 6,309.23 + Suscripción básica $ 1,261.09 (Producción $ 1,499.94).

Total: 10 837,13 + 2625,41 + 4 * 2 * (1 164,15 + 552,61) = $ 27 196,62 para la opción más joven. ¡La diferencia es aproximadamente 3.5 veces!
En oVirt, todas las funciones están disponibles sin restricciones.

Breves especificaciones y máximos


Requisitos del sistema


El hipervisor requiere una CPU con virtualización de hardware habilitada, la cantidad mínima de RAM para iniciar es de 2 GiB, la capacidad de almacenamiento recomendada para el sistema operativo es de 55 GiB (en su mayor parte para revistas, etc., el sistema operativo en sí es pequeño).
Más detalles aquí .
Para Engine, los requisitos mínimos son 2 núcleos / 4 GiB de RAM / 25 GiB de almacenamiento. Recomendado: a partir de 4 núcleos / 16 GiB de RAM / 50 GiB de almacenamiento.
Al igual que con cualquier sistema, existen restricciones en los volúmenes y cantidades, la mayoría de los cuales exceden las capacidades de los servidores comerciales masivos disponibles. Por lo tanto, un par de Intel Xeon Gold 6230 puede direccionar 2 TiB de RAM y proporciona 40 núcleos (80 hilos), que es menos que incluso los límites de una VM.

Máquinas virtuales máximas:


  • Máximo de máquinas virtuales que se ejecutan simultáneamente: ilimitado;
  • Máximo de CPU virtuales por máquina virtual: 384;
  • Memoria máxima por máquina virtual: 4 TiB;
  • Tamaño máximo de disco individual por máquina virtual: 8 TiB.

Máximo de host:


  • Núcleos o hilos lógicos de la CPU: 768;
  • RAM: 12 TiB;
  • Número de máquinas virtuales alojadas: 250;
  • Migraciones en vivo simultáneas: 2 entrantes, 2 salientes;
  • Ancho de banda de migración en vivo: predeterminado a 52 MiB (~ 436 Mb) por migración cuando se usa la política de migración heredada. Otras políticas utilizan valores de rendimiento adaptativos basados ​​en la velocidad del dispositivo físico. Las políticas de QoS pueden limitar el ancho de banda de migración.

Máximo de entidad lógica de administrador:


En 4.3, existen los siguientes límites .
  • Centro de datos
    • Recuento máximo del centro de datos: 400;
    • Recuento máximo de hosts: 400 compatibles, 500 probados;
    • Máximo recuento de máquinas virtuales: 4000 compatibles, 5000 probados;
  • Racimo
    • Recuento máximo de clúster: 400;
    • Recuento máximo de hosts: 400 compatibles, 500 probados;
    • Máximo recuento de máquinas virtuales: 4000 compatibles, 5000 probados;
  • Red
    • Redes lógicas / clúster: 300;
    • SDN/external networks: 2600 tested, no enforced limit;
  • Storage
    • Maximum domains: 50 supported, 70 tested;
    • Hosts per domain: No limit;
    • Logical volumes per block domain (more): 1500;
    • Maximum number of LUNs (more): 300;
    • Maximum disk size: 500 TiB (limited to 8 TiB by default).



Como ya se mencionó, oVirt está construido a partir de 2 elementos básicos: ovirt-engine (control) y ovirt-host (hipervisor).
El motor puede ubicarse fuera de la plataforma (Administrador independiente: puede ser una VM que se ejecuta en otra plataforma o un hipervisor separado e incluso una máquina física), y en la plataforma misma (motor autohospedado, similar al enfoque VCSA de VMware).
El hipervisor se puede instalar tanto en un sistema operativo normal RHEL / CentOS 7 (EL Host) como en un sistema operativo mínimo especializado (oVirt-Node, basado en el7).
Los requisitos de hardware para todas las opciones son aproximadamente los mismos.
Arquitectura estándar
Higo. 4 - arquitectura estándar.

Arquitectura del motor autónomo
Higo. 5 - Arquitectura del motor autohospedado.

Para mí, elegí la opción Administrador independiente y EL Hosts:
  • El Administrador independiente es un poco más fácil con los problemas de inicio, no existe un dilema del huevo y la gallina (en cuanto a VCSA, no lo ejecutará hasta que al menos un host haya aumentado por completo), pero hay una dependencia de otro sistema * ;
  • EL Host proporciona todo el poder del sistema operativo, lo cual es útil para monitoreo externo, depuración, solución de problemas, etc.

* Sin embargo, durante todo el período de funcionamiento esto no fue necesario, incluso después de un grave accidente eléctrico.
Pero más cerca del punto!
Para el experimento, es posible liberar un par de blades ProLiant BL460c G7 con la CPU Xeon®. Reproduciremos el proceso de instalación en ellos.
Los nodos se denominarán ovirt.lab.example.com, kvm01.lab.example.com y kvm02.lab.example.com.
Procedemos directamente a la instalación .

All Articles