Soluciones de trabajo remoto HPE

Te contaré una historia hoy. La historia de la evolución de la tecnología informática y la aparición de trabajos remotos desde la antigüedad hasta nuestros días.

Desarrollo de TI


Lo principal que se puede aprender de la historia de TI es ...



Por supuesto, que TI se está desarrollando en espiral. Las mismas soluciones y conceptos que se desecharon hace decenas de años adquieren un nuevo significado y comienzan a funcionar con éxito en nuevas condiciones, con nuevas tareas y nuevas capacidades. En esto, no es diferente de cualquier otra área del conocimiento humano y la historia de la Tierra en su conjunto.


Érase una vez cuando las computadoras eran grandes


"Creo que hay un mercado para unas cinco computadoras en el mundo", dijo el CEO de IBM, Thomas Watson, en 1943.
La tecnología informática temprana fue genial. No, mal, la técnica inicial era monstruosa, ciclópea. Una máquina totalmente informática ocupaba un área comparable a una sala de deportes y costaba dinero completamente poco realista. Como ejemplo de componentes, puede llevar el módulo RAM en anillos de ferrita (1964).



Este módulo tiene un tamaño de 11 cm * 11 cm y una capacidad de 512 bytes (4096 bits). El gabinete, lleno de estos módulos, apenas tenía la capacidad del antiguo disquete de 3.5 "hoy (1.44 MB = 2950 módulos), al mismo tiempo consumía una energía eléctrica muy notable y se calentaba como una locomotora de vapor.

Es con este tamaño enorme que el nombre en inglés para el código del programa de depuración es "depuración". Una de las primeras programadoras de la historia, Grace Hopper (sí, una mujer), una oficial naval, ingresó en el registro de acciones en 1945 después de investigar un problema con el programa.



Dado que la polilla (polilla) es generalmente un error (insecto), todos los problemas y soluciones adicionales se informaron a las autoridades como "depuración" (literalmente mal funcionamiento), el nombre del error se corrigió firmemente a la falla del programa y el error en el código, y la depuración se convirtió en una depuración .

Con el desarrollo de la electrónica y la electrónica de semiconductores en particular, las dimensiones físicas de las máquinas comenzaron a disminuir y, por el contrario, aumentó la potencia informática. Pero incluso en este caso, era imposible entregar a cada persona una computadora personal.

"No hay razón para que alguien quiera tener una computadora en casa" - Ken Olsen, fundador de DEC, 1977.

En los años 70, aparece el término mini computadora. Recuerdo que cuando leí este término por primera vez hace muchos años, pensé en algo así como una netbook, casi una computadora de mano. No podría estar más lejos de la verdad.



Mini: solo se compara con las enormes salas de máquinas, pero todavía son algunos gabinetes con equipos que valen cientos de miles y millones de dólares. Sin embargo, la potencia informática ya ha crecido tanto que no siempre estaba cargada al 100% y, al mismo tiempo, las computadoras comenzaron a estar disponibles para estudiantes y profesores universitarios.

Y luego vino!



Pocos piensan en las raíces latinas en el idioma inglés, pero fue él quien nos trajo el acceso remoto, tal como lo conocemos ahora. Terminus (lat): final, borde, meta. El objetivo del T800 Terminator era terminar con la vida de John Connor. También sabemos que las estaciones de transporte, en las que los pasajeros se embarcan, desembarcan o cargan y descargan, se denominan terminales, el objetivo final de las rutas.

En consecuencia, apareció el concepto de acceso a la terminal, y se puede ver la terminal más famosa del mundo, que aún vive en nuestros corazones.



DEC VT100 se llama terminal porque termina la línea de datos. Tiene prácticamente cero poder de cómputo, y su única tarea es mostrar la información recibida de una máquina grande y transferir la entrada del teclado a la máquina. Aunque el VT100 murió físicamente hace mucho tiempo, todavía los usamos por completo.



Nuestros dias


"Nuestros días" comenzaría a contar desde principios de los años 80, desde el momento de la aparición de los primeros procesadores disponibles en un amplio círculo con cualquier potencia informática significativa. Tradicionalmente se cree que el procesador principal de la era fue Intel 8088 (familia x86) como el fundador de la arquitectura victoriosa. ¿Cuál es la diferencia fundamental con el concepto de los años 70?

Por primera vez, existe una tendencia a transferir el procesamiento de información del centro a la periferia. No todas las tareas requieren un mainframe loco (en comparación con x86 débil) o incluso capacidades de mini computadora. Intel no se queda quieto, en los años 90 lanza la familia Pentium, que se ha convertido realmente en el primer hogar masivo en Rusia. Estos procesadores ya son capaces de mucho, no solo escribir una carta, sino también multimedia, y funcionan con pequeñas bases de datos. De hecho, para las pequeñas empresas, la necesidad de servidores se elimina por completo: todo se puede hacer en la periferia, en las máquinas de los clientes. Cada año, los procesadores se vuelven cada vez más potentes, y la diferencia entre los servidores y el personal es cada vez menor en términos de potencia informática, a menudo solo queda en respaldo de energía, soporte de intercambio en caliente y gabinetes especiales para montaje en bastidor.

Si comparamos los modernos procesadores de clientes "divertidos" para los administradores de servidores pesados ​​en Intel en los años 90 con las supercomputadoras del pasado, entonces se vuelve un poco incómodo.

Echemos un vistazo al viejo, prácticamente mi compañero. Cray X-MP / 24 1984.



Esta máquina estaba entre las mejores supercomputadoras de 1984 con 2 procesadores de 105 MHz con una potencia de procesamiento máxima de 400 MFlops (millones de operaciones de punto flotante). Específicamente, la máquina que se muestra en la foto estaba en el laboratorio de criptografía de la NSA, y estaba involucrada en romper cifras. Si convierte $ 15 millones en 1984 en dólares de 2020, entonces el costo será de 37.4 millones, o $ 93,500 / MFlops.



En la máquina en la que escribo estas líneas, hay un procesador Core i5-7400 de 2017, que no es nada nuevo, e incluso en el año de su lanzamiento, fue el procesador de escritorio de gama media más joven de 4 núcleos. 4 núcleos de frecuencia base de 3.0 GHz (3.5 con Turbo Boost) y la duplicación de las secuencias HyperThreading dan de 19 a 47 GFlops de potencia de acuerdo con diferentes pruebas a un precio de 16 mil rublos por procesador. Si ensambla toda la máquina, puede tomar su costo por $ 750 (a precios y tarifas el 1 de marzo de 2020).

Al final, obtenemos la superioridad del procesador de escritorio bastante promedio de nuestros días en 50-120 veces sobre la supercomputadora desde el top10 del pasado bastante visible, y la caída en el costo unitario de MFlops se vuelve completamente monstruosa 93500/25 = 3700 veces.

¿Por qué todavía necesitamos servidores y centralización de la informática con capacidades similares en la periferia, absolutamente incomprensible!

Salto hacia atrás: la espiral hizo una revolución


Estaciones sin disco


La primera señal de que la transferencia de computación a la periferia no sería final fue el advenimiento de la tecnología de estación de trabajo sin disco. Con una distribución significativa de estaciones de trabajo en toda la empresa, y especialmente en habitaciones contaminadas, el problema de administrar y dar soporte a estas estaciones es muy difícil.



Aparece el concepto de "tiempo de corredor": el porcentaje de tiempo que un empleado de soporte técnico está en el corredor, camino al empleado con un problema. Esta vez se paga, pero es completamente improductivo. Lejos del último papel, y especialmente en habitaciones contaminadas, estaban las fallas de los discos duros. Quitemos el disco de la estación de trabajo y hagamos el resto a través de la red, incluida la descarga. El adaptador de red recibe, además de la dirección del servidor DHCP, también información adicional: la dirección del servidor TFTP (servicio de archivos simplificado) y el nombre de la imagen de arranque, la carga en la RAM y enciende la máquina.



Además de un menor número de averías y un tiempo de pasillo reducido, la máquina ahora no se puede depurar en el lugar, sino que simplemente trae una nueva y recoge la anterior para el diagnóstico en la estación de trabajo equipada. ¡Pero eso no es todo!

Una estación sin disco se vuelve mucho más segura: si de repente alguien entra en la habitación y saca todas las computadoras, esto es solo una pérdida de equipo. No se almacenan datos en estaciones sin disco.

Recuerde este momento, IS comienza a jugar un papel cada vez más importante después de la "infancia descuidada" de la tecnología de la información. Y las 3 letras terribles e importantes invaden TI cada vez más: GRC (Gobierno, Riesgo, Cumplimiento), o en ruso "Capacidad de gestión, Riesgo, Cumplimiento".



Servidores de terminal


La ubicuidad de personal cada vez más poderoso en la periferia estaba muy por delante del desarrollo de redes compartidas. Las aplicaciones clásicas de cliente-servidor para los años 90 y principios de los 00 no funcionaban muy bien en un canal delgado, si el intercambio de datos alcanzaba cualquier valor significativo. Esto fue especialmente difícil para las oficinas remotas que se conectaban a través de módem y línea telefónica, que también se colgaban o interrumpían periódicamente. Y ... La

espiral dio una vuelta y volvió a estar en modo terminal con el concepto de servidores de terminal.



De hecho, hemos vuelto a los 70m con sus cero clientes y su poder de cómputo centralizado. Rápidamente se hizo evidente que, además de un entorno puramente económico con canales, el acceso a la terminal brinda enormes oportunidades para organizar el acceso seguro desde el exterior, incluido el trabajo desde el hogar para los empleados, o un acceso extremadamente limitado y controlado a los contratistas desde redes no confiables y dispositivos no confiables / no controlados.

Sin embargo, los servidores de terminal, con todas sus ventajas y progresividad, también tenían una serie de desventajas: baja flexibilidad, el problema de un vecino ruidoso, estrictamente el servidor de Windows, etc.

Nacimiento Proto VDI




Es cierto que desde principios hasta mediados de 00x, la virtualización industrial de la plataforma x86 ya estaba en escena. Y alguien expresó la idea de que simplemente estaba flotando en el aire: en lugar de centralizar a todos los clientes en las granjas de terminales del servidor, ¿vamos a dar a todos su VM personal con el cliente Windows e incluso acceso de administrador?

Rechazo de clientes gordos


Paralelamente a la virtualización de las sesiones y el sistema operativo, se desarrolló un enfoque relacionado con la facilitación de las funciones del cliente a nivel de aplicación.

La lógica detrás de esto era bastante simple, porque las computadoras portátiles personales todavía estaban lejos de todos, Internet no era exactamente el mismo para muchos, y muchos podían conectarse solo desde cibercafés con derechos muy limitados, por decirlo suavemente. De hecho, todo lo que se pudo lanzar fue un navegador. El navegador se ha convertido en un atributo indispensable del sistema operativo, Internet ha entrado firmemente en nuestras vidas.

En otras palabras, en paralelo hubo una tendencia a transferir la lógica del cliente al centro en forma de aplicaciones web, para acceder a las cuales solo se necesita el cliente más simple, Internet y un navegador.
Y no estábamos solo en el mismo lugar donde comenzamos, con cero clientes y servidores centrales. Llegamos allí de varias maneras independientes.



Infraestructura de escritorio virtual


Corredor


En 2007, el líder en el mercado de virtualización industrial, VMware, lanzó la primera versión de su producto VDM (Virtual Desktop Manager), que fue prácticamente el primero en el mercado emergente de escritorios virtuales. Por supuesto, no tuvimos que esperar mucho para recibir una respuesta del líder de los servidores de terminales Citrix, y en 2008, con la adquisición de XenSource, apareció XenDesktop. Por supuesto, hubo otros proveedores con sus propuestas, pero no profundizaremos en la historia, alejándonos del concepto.

Y aún se conserva el concepto. Un componente clave de VDI es el intermediario de conexiones.
Este es el corazón de la infraestructura de escritorio virtual.

El corredor es responsable de los procesos más importantes de VDI:

  • Define los recursos disponibles para el cliente conectado (máquinas / sesiones);
  • Equilibra, si es necesario, clientes en grupos de máquinas / sesiones;
  • Reenvía al cliente al recurso seleccionado.

Hoy, el cliente (terminal) para VDI puede ser prácticamente todo lo que tiene una pantalla: una computadora portátil, teléfono inteligente, tableta, quiosco, cliente ligero o cero. Y la parte de respuesta, la que realiza la carga productiva: una sesión de servidor terminal, una máquina física, una máquina virtual. Los productos VDI maduros modernos están estrechamente integrados con la infraestructura virtual y la administran de forma independiente de forma automática, implementando o marcando, eliminando las máquinas virtuales ya innecesarias.

Un poco distante, pero para algunos clientes, la tecnología VDI extremadamente importante es el soporte de aceleración de hardware de gráficos 3D para el trabajo de diseñadores o diseñadores.

Protocolo


La segunda parte extremadamente importante de una solución VDI madura es el protocolo de acceso a recursos virtuales. Si estamos hablando de trabajar dentro de una LAN corporativa con una excelente red confiable de 1 Gbps a la estación de trabajo y un retraso de 1 ms, puede llevar a casi cualquier persona y no pensar en absoluto.

Debe pensar cuando la conexión se realiza a través de una red no controlada, y la calidad de esta red puede ser absolutamente cualquier cosa, hasta velocidades de decenas de kilobits y retrasos impredecibles. Esos son solo para organizar trabajo remoto real, desde residencias de verano, desde casa, desde aeropuertos y restaurantes.

Servidores de Terminal Server vs VM de Cliente


Con el advenimiento de VDI, parecía tiempo de decir adiós a los servidores de terminal. ¿Por qué son necesarios si todos tienen su propia VM personal?

Sin embargo, desde el punto de vista de una economía pura, resultó que para trabajos masivos típicos que son idénticos a las náuseas, no hay nada más eficiente que los servidores de terminal en términos de relación precio / sesión. Por todas sus ventajas, el enfoque "1 usuario = 1 VM" consume significativamente más recursos para hardware virtual y un sistema operativo completo, lo que empeora la economía en las estaciones de trabajo típicas.

En el caso de trabajos para altos directivos, trabajos no estándar y cargados, la necesidad de tener derechos elevados (hasta el administrador), la VM dedicada para el usuario tiene la ventaja. Dentro de esta máquina virtual, puede asignar recursos individualmente, emitir derechos en cualquier nivel y equilibrar máquinas virtuales entre hosts de virtualización bajo alta carga.

VDI y economía


Durante años he estado escuchando la misma pregunta, pero ¿cómo es que VDI es más barato que simplemente entregar computadoras portátiles a todos? Y a lo largo de los años tengo que responder exactamente lo mismo: en el caso de los empleados de oficina ordinarios, VDI no es más barato si tenemos en cuenta los costos netos de proporcionar equipos. Nos guste o no, las computadoras portátiles son cada vez más baratas, pero los servidores, el almacenamiento y el software del sistema cuestan bastante dinero. Si es hora de actualizar el parque y está pensando en guardar desde VDI, no, no lo guarde.

Cité las terribles tres letras GRC arriba, y así, VDI se trata de GRC. Se trata de la gestión de riesgos, se trata de la seguridad y la conveniencia del acceso controlado a los datos. Y todo esto generalmente cuesta bastante dinero para introducir equipos heterogéneos en una pila. Con VDI, se simplifica el control, se mejora la seguridad y el cabello se vuelve suave y sedoso.

HPE



iLO


HPE está lejos de ser un recién llegado a la gestión remota de la infraestructura del servidor, ¿es una broma? En marzo, el legendario iLO (Integrated Lights Out) cumplió 18 años. Recordando sus tiempos de administrador en los años 00, personalmente no podía tener suficiente. El montaje inicial del bastidor y el cableado eran todo lo que se necesitaba hacer en un centro de datos ruidoso y frío. Todas las demás configuraciones, incluido el llenado del sistema operativo, ya podrían realizarse desde el lugar de trabajo, dos monitores y con una taza de café caliente. ¡Y esto es hace 13 años!



Hoy en día, los servidores HPE no son sin razón un estándar de calidad a largo plazo innegable, y el estándar de oro del sistema de control remoto, iLO, juega un papel importante en esto.



Me gustaría señalar por separado las acciones de HPE para mantener el control de la humanidad sobre el coronavirus. HPE anuncióque hasta finales de 2020 (al menos) la licencia de iLO Advanced está disponible para todos de forma gratuita.

Infosight


Si tiene más de 10 servidores en la infraestructura y el administrador no está aburrido, entonces, por supuesto, el sistema en la nube HPE Infosight basado en inteligencia artificial será una excelente adición a las herramientas de monitoreo estándar. El sistema no solo monitorea el estado y crea gráficos, sino que también recomienda de forma independiente acciones adicionales basadas en la situación y las tendencias actuales.





¡Sé inteligente, sé como Otkritie Bank , prueba Infosight!

Una vista


Por último, pero no menos importante, quiero mencionar el HPE OneView, una cartera completa de productos con enormes capacidades para monitorear y administrar toda la infraestructura. Y todo esto sin levantarse del escritorio, que tal vez se encuentre en la situación actual del país.



¡SHD no es inestable también!


Por supuesto, todos los sistemas de almacenamiento se controlan y supervisan de forma remota, esto fue hace muchos años. Por lo tanto, quiero hablar hoy sobre otra cosa, a saber, los grupos de metro.

Los clústeres de metro no son una novedad en el mercado, pero debido a esto todavía no son muy populares: la inercia del pensamiento y las primeras impresiones lo afectan. Por supuesto, hace 10 años ya lo estaban, pero se pararon como un puente de hierro fundido. Los años que han pasado desde los primeros grupos de metro han cambiado la industria y la disponibilidad de tecnología para el público en general.

Recuerdo proyectos en los que partes del sistema de almacenamiento se distribuían especialmente: por separado para servicios supercríticos al clúster metropolitano, por separado para la replicación sincrónica (varias veces más barata).

De hecho, en 2020 el clúster de metro no le costará nada si puede organizar dos sitios y canales. Pero los canales para la replicación sincrónica requieren exactamente los mismos canales que para los clústeres metropolitanos. Las licencias de software han estado en paquetes durante mucho tiempo, y la replicación sincrónica se completa de inmediato con un clúster metropolitano, y lo único que salva la vida de la replicación unidireccional es la necesidad de organizar una red L2 extendida. E incluso entonces, L2 sobre L3 ya está barriendo el país.



Entonces, ¿cuál es la diferencia fundamental entre la replicación sincrónica y el clúster metropolitano en términos de trabajo remoto?

Todo es muy simple. El clúster de metro funciona automáticamente, siempre, casi al instante.

¿Cómo se ve el proceso de conmutación de carga en la replicación síncrona en la infraestructura de al menos unos cientos de máquinas virtuales?

  1. Se está recibiendo una alarma.
  2. El turno de servicio analiza la situación: puede pasar de 10 a 30 minutos de manera segura solo para recibir una señal y tomar una decisión.
  3. Si los ingenieros de servicio no tienen la autoridad para iniciar el cambio de forma independiente, todavía es valientemente 30 minutos para contactar a la persona autorizada y la confirmación formal del inicio del cambio.
  4. Presionando el botón rojo grande.
  5. 10-15 minutos para tiempos de espera y montaje de volumen, reinscripción de máquinas virtuales.
  6. 30 minutos para cambiar el direccionamiento IP: evaluación optimista.
  7. Y finalmente, el inicio de la VM y el lanzamiento de servicios productivos.

El RTO total (tiempo de recuperación de los procesos comerciales) se puede estimar de manera segura en 4 horas.

Compare con la situación en el grupo de metro.

  1. SHD comprende que se pierde la conexión con el arcén del clúster de metro: 15-30 segundos.
  2. Los hosts de virtualización entienden que se pierde el primer centro de datos: 15-30 segundos (simultáneamente con n 1).
  3. Reinicio automático de la mitad a un tercio de las máquinas virtuales en el segundo centro de datos: 10-15 minutos antes de cargar los servicios.
  4. Alrededor de este tiempo, el turno de servicio comprende lo que sucedió.

Total: RTO = 0 para servicios individuales, 10-15 minutos en el caso general.

¿Por qué reiniciar solo la mitad a un tercio de la VM? Mira lo que pasa:

  1. Hace todo de forma inteligente y activa el equilibrio automático de la VM. Como resultado, en promedio, solo la mitad de las máquinas virtuales se ejecutan en uno de los centros de datos. Después de todo, el objetivo del clúster metropolitano es minimizar el tiempo de inactividad y, por lo tanto, le interesa minimizar la cantidad de máquinas virtuales bajo ataque.
  2. Algunos servicios se pueden agrupar a nivel de aplicación, extendiéndose a través de diferentes máquinas virtuales. En consecuencia, estas máquinas virtuales emparejadas se clavan una por una, o se atan con una cinta a diferentes centros de datos, para que el servicio no espere a que la máquina virtual se reinicie en caso de accidente.

Con una infraestructura bien construida con clústeres metropolitanos extendidos, los usuarios comerciales trabajan con demoras mínimas desde cualquier lugar, incluso en caso de accidente en el nivel del centro de datos. En el peor de los casos, el retraso será el tiempo para una taza de café.

Y, por supuesto, los grupos de metro funcionan perfectamente tanto en el HPE 3Par Valinor como en el nuevo Primera.



Infraestructura de estación de trabajo remota


Servidores de terminal


Para los servidores de terminal, no necesita inventar nada nuevo, durante muchos años HPE ha estado suministrando algunos de los mejores servidores del mundo para ellos. Clásicos sin edad - DL360 (1U) o DL380 (2U) o para fanáticos de AMD - DL385. Por supuesto, hay servidores Blade, tanto el clásico C7000 como la nueva plataforma componible Synergy.



Para todos los gustos, todos los colores, ¡sesiones máximas por servidor!

"Classic" VDI + HPE Simplivity


En este caso, por "VDI clásico" me refiero al concepto de 1 usuario = 1 VM con cliente Windows. Y, por supuesto, no hay una carga VDI más cercana y más cercana para los sistemas hiperconvergentes, especialmente con la deduplicación y la compresión.



Aquí, HPE puede ofrecer tanto su propia plataforma de simplicidad hiperconvergente como servidores / nodos certificados para soluciones de socios, como los nodos VSAN Ready para construir VDI en la infraestructura VMware VSAN.

Hablemos un poco más sobre nuestra propia solución de Simplivity. La simplicidad se pone a la vanguardia, como el nombre nos insinúa gentilmente, es simplicidad (inglés simple - simple). Fácil de implementar, fácil de administrar, fácil de escalar.

Los sistemas hiperconvergentes hoy en día son uno de los temas más candentes en TI, y la cantidad de proveedores de diferentes niveles es de aproximadamente 40. Según el cuadrado mágico de Gartner, HPE está globalmente en Tor5 y se encuentra entre los líderes: entienden dónde se está desarrollando la industria y es capaz de comprensión para encarnar en hierro.

Arquitectónicamente, Simplivity es un sistema hiperconvergente clásico con máquinas virtuales de controlador, lo que significa que puede admitir varios hipervisores, a diferencia de los sistemas integrados en un hipervisor. De hecho, a partir de abril de 2020, VMware vSphere y Microsoft Hyper-V son compatibles, y se anuncian planes para admitir KVM. La característica clave de Simplivity desde su introducción en el mercado ha sido la aceleración por hardware de la compresión y la deduplicación mediante una tarjeta aceleradora especial.



Cabe señalar que la compresión de deduplicación es global y siempre está activa; no son una característica opcional, sino la arquitectura de la solución.



HPE, por supuesto, es algo falso, afirmando una eficiencia de 100: 1, calculada de manera especial, pero la eficiencia de utilización del espacio es realmente muy alta. Solo el número 100: 1 es dolorosamente hermoso. Veamos cómo se implementó técnicamente Simplivity para mostrar tales números.

Instantánea. Instantáneas (instantáneas): implementadas 100% correctamente como RoW (Redirect-on-Write) y, por lo tanto, ocurren instantáneamente y no penalizan el rendimiento. Lo que, por ejemplo, difiere de algunos otros sistemas. ¿Por qué necesitamos instantáneas locales sin multas? Sí, es muy simple, reducir el RPO de 24 horas (el RPO promedio para respaldo) a decenas o incluso unidades de minutos.

Copia de seguridad . Una instantánea difiere de la copia de seguridad solo en cómo es percibida por el sistema de control de máquina virtual. Si todo lo demás se elimina cuando se elimina la máquina, significa que fue una instantánea. Si se deja, luego haga una copia de seguridad (copia de seguridad). Por lo tanto, cualquier instantánea puede considerarse una copia de seguridad completa si está marcada en el sistema y no se elimina.

Por supuesto, muchos objetarán: ¿qué tipo de respaldo es si se almacena en el mismo sistema? Y aquí hay una respuesta muy simple en forma de contrapregunta: dime, ¿tienes un modelo de amenaza formal que establezca las reglas para almacenar una copia de seguridad? Esta es una copia de seguridad absolutamente honesta contra la eliminación de un archivo dentro de una VM, esta es una copia de seguridad contra la eliminación de una VM en sí. Si es necesario almacenar la copia de seguridad exclusivamente en un sistema autónomo, hay una opción: replicación de esta instantánea en el segundo clúster Simplivity o en HPE StoreOnce.



Y es aquí donde resulta que dicha arquitectura es perfecta para cualquier tipo de VDI. Después de todo, VDI es cientos o incluso miles de máquinas extremadamente similares con el mismo sistema operativo, con las mismas aplicaciones. La deduplicación global está pasando por todo esto y ni siquiera exprimirá 100: 1, pero mucho mejor. ¿Expandir 1000 máquinas virtuales desde una sola plantilla? Generalmente no es un problema, estas máquinas tardarán más en registrarse con vCenter que clonar.

Especialmente para usuarios con requisitos especiales de rendimiento y para aquellos que necesitan aceleradores 3D, se creó la línea Simplivity G.



En esta serie, no se utiliza un acelerador de deduplicación de hardware y, por lo tanto, la cantidad de discos por nodo se reduce para que el controlador pueda hacer frente mediante programación. Esto libera ranuras PCIe para cualquier otro acelerador. También duplicó la cantidad de memoria disponible por nodo hasta 3 TB para las cargas más exigentes.



La simplicidad es ideal para organizar infraestructuras VDI distribuidas geográficamente con replicación de datos en un centro de datos central.



Tal arquitectura VDI (y de hecho no solo VDI) es especialmente interesante en el contexto de las realidades rusas: grandes distancias (y por lo tanto retrasos) y lejos de los canales ideales. Se crean centros regionales (o incluso solo 1-2 nodos de simplicidad para una oficina completamente remota), donde los usuarios locales se conectan a través de canales rápidos, se conserva el control y la gestión total desde el centro, y solo una pequeña cantidad de valor real, valioso, no basura, se replica en el centro datos.

Por supuesto, Simplivity está completamente conectado a OneView e InfoSight.

Clientes delgados y cero


Los clientes delgados son soluciones especializadas para uso exclusivo como terminales. Dado que prácticamente no hay carga en el cliente que no sea el mantenimiento del canal y la decodificación de video: un procesador con enfriamiento pasivo casi siempre vale la pena, un pequeño disco de arranque es solo para iniciar un sistema operativo incorporado especial, pero eso es todo. Prácticamente no hay nada que forzar, y robar es inútil. El costo es bajo y no hay datos almacenados en él.

Hay una categoría especial de clientes ligeros, los llamados clientes cero. Su principal diferencia con los delgados es la falta de incluso un sistema operativo incorporado de uso general, y funcionan exclusivamente con un microchip con firmware. A menudo instalan aceleradores de hardware especiales para decodificar la transmisión de video en protocolos de terminal como PCoIP o HDX.

A pesar de la división del gran Hewlett Packard en HPE y HP separadas, no se puede ignorar a los clientes ligeros HP.

La elección es amplia, para todos los gustos y necesidades, desde estaciones de trabajo con varios monitores con aceleración de hardware de la transmisión de video.



Servicio HPE para su trabajo remoto


Y por último, pero no menos importante, quiero mencionar el servicio HPE. Tomaría demasiado tiempo enumerar todos los niveles de servicio HPE y sus capacidades, pero al menos hay una propuesta extremadamente importante en las condiciones de trabajo remoto. A saber: un ingeniero de servicio de HPE / centro de servicio autorizado. Continúa trabajando de forma remota, desde su residencia de verano favorita, escuchando abejorros, mientras que la abeja HPE, al llegar al centro de datos, reemplaza los discos o una fuente de alimentación defectuosa en sus servidores.

HPE CallHome


En el entorno actual, con movimiento limitado, la función Call Home se vuelve más relevante que nunca. Cualquier sistema HPE con esta función puede informar de manera independiente una falla de hardware o software al Centro de soporte de HPE. Y es probable que le llegue una pieza de repuesto o un ingeniero de servicio mucho antes de que note problemas y problemas con los servicios productivos.

Personalmente, recomiendo incluir esta función.

All Articles