Solutions de travail à distance HPE

Je vais vous raconter une histoire aujourd'hui. L'histoire de l'évolution de la technologie informatique et l'émergence d'emplois à distance de l'Antiquité à nos jours.

Développement informatique


La principale chose que l'on peut apprendre de l'histoire de l'informatique est ...



Bien sûr, l'informatique évolue en spirale. Les mêmes solutions et concepts qui ont été abandonnés il y a des dizaines d'années prennent un nouveau sens et commencent à fonctionner avec succès dans de nouvelles conditions, avec de nouvelles tâches et de nouvelles capacités. En cela, l'informatique n'est pas différente de tout autre domaine de la connaissance humaine et de l'histoire de la Terre dans son ensemble.


Il était une fois où les ordinateurs étaient gros


«Je pense qu'il existe un marché pour environ cinq ordinateurs dans le monde», a déclaré le PDG d'IBM, Thomas Watson, en 1943.
Les premières technologies informatiques étaient excellentes. Non, faux, la première technique était monstrueuse, cyclopéenne. Une machine entièrement informatique occupait une surface comparable à une salle de sport et coûtait de l'argent totalement irréaliste. À titre d'exemple de composants, vous pouvez amener le module RAM sur des bagues en ferrite (1964).



Ce module a une taille de 11 cm * 11 cm et une capacité de 512 octets (4096 bits). L'armoire, pleine de ces modules, avait à peine la capacité de l'ancienne disquette 3,5 pouces (1,44 Mo = 2950 modules), en même temps, elle consommait une puissance électrique très sensible et se chauffait comme une locomotive à vapeur.

C'est avec cette taille énorme que le nom en anglais du code de programme de débogage est «débogage». L'un des premiers programmeurs de l'histoire, Grace Hopper (oui, une femme), un officier de marine, a fait une entrée dans le journal d'action en 1945 après avoir enquêté sur un problème avec le programme.



Étant donné que le papillon de nuit (papillon de nuit) est généralement un bogue (insecte), tous les autres problèmes et solutions ont été signalés aux autorités comme «débogage» (littéralement dysfonctionnement), le nom du bogue a été fermement fixé à l'échec du programme et à l'erreur dans le code, et le débogage est devenu débogage .

Avec le développement de l'électronique et de l'électronique semi-conductrice en particulier, les dimensions physiques des machines ont commencé à diminuer et la puissance de calcul, au contraire, à augmenter. Mais même dans ce cas, il était impossible de remettre à chacun un ordinateur personnel.

«Il n'y a aucune raison pour que quelqu'un veuille garder un ordinateur à la maison» - Ken Olsen, fondateur de DEC, 1977.

Dans les années 70, le terme mini-ordinateur apparaît. Je me souviens que lorsque j'ai lu ce terme pour la première fois il y a de nombreuses années, j'ai pensé à quelque chose comme un netbook, presque un ordinateur de poche. Je ne pouvais pas être plus loin de la vérité.



Mini - il n'est comparé qu'aux immenses salles des machines, mais ce sont encore quelques armoires avec des équipements valant des centaines de milliers et des millions de dollars. Cependant, la puissance de calcul a déjà tellement augmenté qu'elle n'a pas toujours été chargée à 100%, et en même temps, les ordinateurs ont commencé à être disponibles pour les étudiants et les professeurs d'université.

Et puis il est venu!



Peu pensent aux racines latines de la langue anglaise, mais c'est lui qui nous a apporté l'accès à distance, tel que nous le connaissons maintenant. Terminus (lat) - fin, frontière, objectif. L'objectif du terminateur T800 était de mettre fin à la vie de John Connor. Nous savons également que les gares de transport, où les passagers sont embarqués, débarqués ou chargés et déchargés, sont appelées terminaux - le but ultime des itinéraires.

En conséquence, le concept d'accès au terminal est apparu, et vous pouvez voir le terminal le plus célèbre au monde, toujours vivant dans nos cœurs.



DEC VT100 est appelé un terminal car il termine la ligne de données. Il a une puissance de calcul pratiquement nulle et sa seule tâche est d'afficher les informations reçues d'une grande machine et de transférer les entrées du clavier vers la machine. Bien que le VT100 soit mort physiquement il y a longtemps, nous les utilisons toujours pleinement.



Nos jours


«Nos jours» je commencerais à compter à partir du début des années 80, à partir du moment de l'apparition des premiers processeurs disponibles à un large cercle disposant de toute puissance de calcul importante. On pense traditionnellement que le processeur principal de l'époque était Intel 8088 (famille x86) en tant que fondateur de l'architecture victorieuse. Quelle est la différence fondamentale avec le concept des années 70?

Pour la première fois, on a tendance à transférer le traitement de l'information du centre vers la périphérie. Toutes les tâches ne nécessitent pas un ordinateur central insensé (par rapport à un x86 faible) ou même des capacités de mini-ordinateur. Intel ne reste pas immobile, dans les années 90, il sort la famille Pentium, qui est devenue véritablement la première maison de masse en Russie. Ces processeurs sont déjà capables de beaucoup, non seulement d'écrire une lettre - mais aussi de multimédia, et de travailler avec de petites bases de données. En fait, pour les petites entreprises, le besoin de serveurs est complètement éliminé - tout peut être fait à la périphérie, sur les machines clientes. Chaque année, les processeurs deviennent plus puissants et la différence entre les serveurs et le personnel est de moins en moins en termes de puissance de calcul, ne restant souvent que dans la redondance de l'alimentation, la prise en charge des remplacements à chaud et les boîtiers spéciaux montés en rack.

Si nous comparons les processeurs clients «drôles» modernes pour les administrateurs de serveurs lourds dans Intel dans les années 90 avec les superordinateurs du passé, cela devient un peu mal à l'aise du tout.

Jetons un œil au vieil homme, pratiquement mon camarade. Cray X-MP / 24 1984.



Cette machine figurait parmi les premiers superordinateurs de 1984 avec 2 processeurs 105 MHz avec une puissance de traitement de pointe de 400 MFlops (millions d'opérations en virgule flottante). Plus précisément, la machine montrée sur la photo était dans le laboratoire de cryptographie de la NSA et a été impliquée dans la rupture de chiffres. Si vous convertissez 15 millions de dollars en 1984 en dollars de 2020, alors le coût sera de 37,4 millions, ou 93 500 $ / MFlops.



Dans la machine sur laquelle j'écris ces lignes, il y a un processeur Core i5-7400 de 2017, qui n'est pas nouveau du tout, et même l'année de sa sortie, il était le plus jeune 4 cœurs de tous les processeurs de bureau de milieu de gamme. 4 cœurs de fréquence de base de 3,0 GHz (3,5 avec Turbo Boost) et le doublement des flux HyperThreading donnent de 19 à 47 GFlops de puissance selon différents tests au prix de 16 mille roubles par processeur. Si vous assemblez la machine entière, vous pouvez prendre son coût pour 750 $ (aux prix et tarifs au 1er mars 2020).

Au final, nous obtenons la supériorité du processeur de bureau assez moyen de nos jours de 50 à 120 fois sur le supercalculateur du top10 du passé prévisible, et la baisse du coût unitaire de MFlops devient absolument monstrueuse 93500/25 = 3700 fois.

Pourquoi avons-nous encore besoin de serveurs et d'une centralisation de l'informatique à des capacités similaires en périphérie - absolument incompréhensible!

Saut en arrière - la spirale a fait une révolution


Stations sans disque


Le premier signal que le transfert de l'informatique vers la périphérie ne serait pas définitif a été l'avènement de la technologie des stations de travail sans disque. Avec une répartition importante des postes de travail dans toute l'entreprise, et en particulier dans les salles contaminées, la question de la gestion et du soutien de ces stations est très difficile.



Le concept de «temps de couloir» apparaît - le pourcentage de temps qu'un employé du support technique est dans le couloir, sur le chemin de l'employé ayant un problème. Ce temps est payé, mais complètement improductif. Loin du dernier rôle, et surtout dans les pièces contaminées, les pannes des disques durs. Supprimons le disque du poste de travail et faisons le reste sur le réseau, y compris le téléchargement. L'adaptateur réseau reçoit, en plus de l'adresse du serveur DHCP, également des informations supplémentaires - l'adresse du serveur TFTP (service de fichiers simplifié) et le nom de l'image de démarrage, la charge dans la RAM et démarre la machine.



En plus de moins de pannes et de temps de couloir réduits, la machine ne peut plus être déboguée sur place, mais simplement en apporter une nouvelle et ramasser l'ancienne pour diagnostic sur le poste de travail équipé. Mais ce n'est pas tout!

Une station sans disque devient beaucoup plus sûre - si soudain quelqu'un entre par effraction dans la pièce et enlève tous les ordinateurs, ce n'est qu'une perte d'équipement. Aucune donnée n'est stockée sur des stations sans disque.

N'oubliez pas ce moment, l'EI commence à jouer un rôle de plus en plus important après «l'enfance insouciante» des technologies de l'information. Et les 3 lettres terribles et importantes envahissent de plus en plus l'informatique - GRC (Governance, Risk, Compliance), ou en russe «Manageability, Risk, Compliance».



Serveurs de terminaux


L'omniprésence d'un personnel de plus en plus puissant à la périphérie était bien en avance sur le développement des réseaux partagés. Les applications client-serveur classiques pour les années 90-début des années 00 ne fonctionnaient pas très bien sur un canal mince, si l'échange de données représentait des valeurs importantes. Cela était particulièrement difficile pour les bureaux distants qui se connectaient via un modem et une ligne téléphonique, qui se bloquaient ou se cassaient périodiquement. Et ... La

spirale a fait un tour et était à nouveau en mode terminal avec le concept de serveurs de terminaux.



En fait, nous sommes revenus à 70m avec leurs clients zéro et leur puissance de calcul centralisée. Il est rapidement devenu évident qu'en plus d'un contexte purement économique avec les canaux, l'accès au terminal offre d'énormes possibilités pour organiser un accès sécurisé de l'extérieur, y compris le travail à domicile pour les employés, ou un accès extrêmement limité et contrôlé aux entrepreneurs à partir de réseaux non fiables et d'appareils non fiables / non contrôlés.

Cependant, les serveurs de terminaux, avec tous leurs avantages et leur progressivité, présentaient également un certain nombre d'inconvénients - une faible flexibilité, le problème d'un voisin bruyant, strictement le serveur Windows, etc.

Naissance Proto VDI




Certes, du début à la mi-00x, la virtualisation industrielle de la plate-forme x86 était déjà sur la scène. Et quelqu'un a exprimé l'idée qui flottait simplement dans les airs: au lieu de centraliser tous les clients sur les batteries de terminaux de serveurs, donnons à chacun sa machine virtuelle personnelle avec Windows client et même un accès administratif?

Rejet des gros clients


Parallèlement à la virtualisation des sessions et du système d'exploitation, une approche a été développée pour faciliter les fonctions client au niveau de l'application.

La logique derrière cela était assez simple, car les ordinateurs portables personnels étaient encore loin de tout le monde, Internet n'était pas exactement le même pour beaucoup, et beaucoup ne pouvaient se connecter que depuis des cybercafés avec des droits très limités, pour le moins,. En fait, tout ce qui pouvait être lancé était un navigateur. Le navigateur est devenu un attribut indispensable de l'OS, Internet est fermement entré dans nos vies.

En d'autres termes, en parallèle, il y avait une tendance à transférer la logique du client vers le centre sous la forme d'applications Web, pour un accès auquel seuls le client le plus simple, Internet et un navigateur sont nécessaires.
Et nous n'étions pas seulement au même endroit où nous avons commencé - avec zéro client et serveurs centraux. Nous y sommes venus de plusieurs manières indépendantes.



Infrastructure de bureau virtuel


Courtier


En 2007, le leader du marché de la virtualisation industrielle, VMware, a lancé la première version de son produit VDM (Virtual Desktop Manager), qui était pratiquement la première sur le marché émergent des bureaux virtuels. Bien sûr, nous n'avons pas eu à attendre longtemps une réponse du leader des serveurs de terminaux Citrix, et en 2008, avec l'acquisition de XenSource, XenDesktop est apparu. Bien sûr, il y avait d'autres fournisseurs avec leurs propositions, mais nous n'entrerons pas trop loin dans l'histoire, en nous éloignant du concept.

Et le concept est toujours préservé. Un composant clé de VDI est le courtier de connexion.
C'est le cœur de l'infrastructure des bureaux virtuels.

Le courtier est responsable des processus les plus importants de VDI:

  • Définit les ressources disponibles pour le client connecté (machines / sessions);
  • Équilibre, si nécessaire, les clients sur des pools de machines / sessions;
  • Transmet le client à la ressource sélectionnée.

Aujourd'hui, le client (terminal) pour VDI peut être pratiquement tout ce qui a un écran - un ordinateur portable, un smartphone, une tablette, un kiosque, un client léger ou zéro. Et la partie réponse, celle qui effectue la charge productive - une session de serveur terminal, une machine physique, une machine virtuelle. Les produits VDI matures modernes sont étroitement intégrés à l'infrastructure virtuelle et la gèrent indépendamment automatiquement, en déployant ou en composant, en supprimant les machines virtuelles déjà inutiles.

Un peu à l'écart, mais pour certains clients, la technologie VDI extrêmement importante est le support de l'accélération matérielle des graphismes 3D pour le travail des designers ou des designers.

Protocole


Le deuxième élément extrêmement important d'une solution VDI mature est le protocole d'accès aux ressources virtuelles. Si nous parlons de travailler à l'intérieur d'un LAN d'entreprise avec un excellent réseau fiable de 1 Gbps vers la station de travail et un délai de 1 ms, alors vous pouvez prendre presque n'importe qui et ne pas penser du tout.

Vous devez penser lorsque la connexion est sur un réseau non contrôlé, et la qualité de ce réseau peut être absolument n'importe quoi, jusqu'à des vitesses de dizaines de kilobits et des retards imprévisibles. Celles-ci sont juste pour organiser un vrai travail à distance, depuis les résidences d'été, depuis la maison, depuis les aéroports et les restaurants.

Serveurs de terminaux vs machines virtuelles clientes


Avec l'avènement du VDI, il semblait temps de dire au revoir aux serveurs de terminaux. Pourquoi sont-ils nécessaires si chacun a sa propre machine virtuelle personnelle?

Cependant, du point de vue d'une économie pure, il s'est avéré que pour les travaux de masse typiques qui sont identiques à la nausée, il n'y a rien de plus efficace que les serveurs de terminaux en termes de rapport prix / session. Pour tous ses avantages, l'approche «1 utilisateur = 1 VM» consomme beaucoup plus de ressources pour le matériel virtuel et un système d'exploitation à part entière, ce qui aggrave l'économie dans les postes de travail typiques.

Dans le cas de jobs pour les cadres supérieurs, de jobs non standard et chargés, de la nécessité d'avoir des droits élevés (jusqu'à l'administrateur), la VM dédiée à l'utilisateur a l'avantage. Au sein de cette machine virtuelle, vous pouvez allouer des ressources individuellement, émettre des droits à n'importe quel niveau et équilibrer les machines virtuelles entre les hôtes de virtualisation sous forte charge.

VDI et économie


Depuis des années, j'entends la même question - mais comment, le VDI est-il moins cher que de simplement distribuer des ordinateurs portables à tout le monde? Et au fil des années, je dois répondre exactement à la même chose: dans le cas des employés de bureau ordinaires, le VDI n'est pas moins cher si l'on prend en compte les coûts nets de fourniture de l'équipement. Qu'on le veuille ou non, les ordinateurs portables deviennent moins chers, mais les serveurs, le stockage et les logiciels système coûtent beaucoup d'argent. Si le moment est venu pour vous de mettre à jour le parc et que vous envisagez d’économiser à partir de VDI, non, n’enregistrez pas.

J'ai cité les terribles trois lettres GRC ci-dessus - et donc, VDI concerne GRC. Il s'agit de la gestion des risques, de la sécurité et de la commodité d'un accès contrôlé aux données. Et tout cela coûte généralement beaucoup d'argent pour introduire un équipement hétérogène sur une pile. Avec VDI, le contrôle est simplifié, la sécurité est améliorée et les cheveux deviennent doux et soyeux.

HPE



iLO


HPE est loin d'être un nouveau venu dans la gestion à distance de l'infrastructure des serveurs, est-ce une blague - en mars, le légendaire iLO (Integrated Lights Out) a eu 18 ans. Se souvenant de ses heures d'administrateur dans les années 00, il n'en avait personnellement pas assez. Le montage et le câblage initiaux du rack étaient tout ce qui devait être fait dans un centre de données bruyant et froid. Toutes les autres configurations, y compris le remplissage du système d'exploitation, pouvaient déjà être effectuées à partir du lieu de travail, de deux moniteurs et d'une tasse de café chaud. Et cela fait 13 ans!



Aujourd'hui, les serveurs HPE ne sont pas sans raison une norme de qualité indéniable à long terme - et l'étalon-or du système de contrôle à distance - iLO, joue un rôle important à cet égard.



Je voudrais noter séparément les actions de HPE pour maintenir le contrôle de l'humanité sur le coronavirus. HPE annoncéque jusqu'à la fin de 2020 (au moins), la licence iLO Advanced est accessible gratuitement à tous.

Infosight


Si vous avez plus de 10 serveurs dans l'infrastructure et que l'administrateur ne s'ennuie pas, le système cloud HPE Infosight basé sur l'intelligence artificielle est un excellent ajout aux outils de surveillance standard. Le système surveille non seulement l'état et construit des graphiques, mais recommande également de manière indépendante d'autres actions en fonction de la situation et des tendances actuelles.





Soyez intelligent, soyez comme Otkritie Bank , essayez Infosight!

Oneview


Enfin et surtout, je veux mentionner le HPE OneView - un portefeuille de produits complet avec d'énormes capacités de surveillance et de gestion de l'ensemble de l'infrastructure. Et tout cela sans se lever du bureau, ce qui est peut-être la situation actuelle du pays.



SHD n'est pas fragile aussi!


Bien sûr, tous les systèmes de stockage sont contrôlés et surveillés à distance - c'était il y a de nombreuses années. Par conséquent, je veux parler aujourd'hui d'autre chose, à savoir les grappes de métro.

Les clusters Metro ne sont pas du tout une nouveauté sur le marché, mais à cause de cela, ils ne sont toujours pas très populaires - l'inertie de la pensée et les premières impressions l'affectent. Bien sûr, il y a 10 ans, ils l'étaient déjà, mais ils se tenaient comme un pont en fonte. Les années qui se sont écoulées depuis les premiers clusters de métro ont changé l'industrie et la disponibilité de la technologie pour le grand public.

Je me souviens de projets où des parties du système de stockage ont été spécialement distribuées - séparément pour les services supercritiques au cluster de métro, séparément pour la réplication synchrone (plusieurs fois moins cher).

En fait, en 2020, le cluster du métro ne vous coûtera rien si vous êtes en mesure d'organiser deux sites et canaux. Mais les canaux de réplication synchrone nécessitent exactement les mêmes canaux que pour les clusters de métro. Les licences logicielles sont depuis longtemps dans les packages - et la réplication synchrone est immédiatement terminée avec un cluster Metro, et la seule chose qui sauve la vie de la réplication unidirectionnelle est la nécessité d'organiser un réseau L2 étendu. Et même alors, L2 sur L3 balaie déjà le pays.



Quelle est donc la différence fondamentale entre la réplication synchrone et le cluster de métro en termes de travail à distance?

Tout est très simple. Le cluster de métro lui-même fonctionne automatiquement, toujours, presque instantanément.

À quoi ressemble le processus de commutation de la charge sur la réplication synchrone sur l'infrastructure au moins quelques centaines de machines virtuelles?

  1. Une alarme est en cours de réception.
  2. Le quart de travail analyse la situation - vous pouvez rester en sécurité de 10 à 30 minutes seulement pour recevoir un signal et prendre une décision.
  3. Si les ingénieurs de garde ne sont pas autorisés à démarrer la commutation de manière indépendante, il reste tout de même hardiment 30 minutes pour contacter la personne autorisée et une confirmation formelle du début de la commutation.
  4. En appuyant sur le gros bouton rouge.
  5. 10-15 minutes pour les délais d'expiration et le remontage du volume, le réenregistrement des machines virtuelles.
  6. 30 minutes pour changer l'adressage IP - évaluation optimiste.
  7. Et enfin, le démarrage de la VM et le lancement de services productifs.

Le RTO total (temps de récupération des processus métier) peut être estimé en toute sécurité à 4 heures.

Comparez avec la situation sur le cluster de métro.

  1. SHD comprend que la connexion avec l'épaule du cluster de métro est perdue - 15-30 secondes.
  2. Les hôtes de virtualisation comprennent que le premier centre de données est perdu - 15-30 secondes (simultanément avec n 1).
  3. Redémarrage automatique de la moitié à un tiers des machines virtuelles dans le deuxième centre de données - 10 à 15 minutes avant le chargement des services.
  4. À cette époque, le quart de travail comprend ce qui s'est passé.

Total: RTO = 0 pour les services individuels, 10-15 minutes dans le cas général.

Pourquoi redémarrer seulement la moitié à un tiers de la VM? Voyez quel est le problème:

  1. Vous faites tout intelligemment et activez l'équilibrage automatique de la machine virtuelle. En conséquence, en moyenne, seulement la moitié des machines virtuelles sont exécutées dans l'un des centres de données. Après tout, l'intérêt du cluster de métro est de minimiser les temps d'arrêt, et il est donc dans votre intérêt de minimiser le nombre de machines virtuelles attaquées.
  2. Certains services peuvent être regroupés au niveau de l'application, répartis sur différentes machines virtuelles. En conséquence, ces VM jumelées sont clouées une par une ou liées avec un ruban à différents centres de données, de sorte que le service n'attend pas du tout que la VM redémarre en cas d'accident.

Avec une infrastructure bien construite avec des clusters de métro étendus, les utilisateurs professionnels travaillent avec des délais minimaux de n'importe où, même en cas d'accident au niveau du centre de données. Dans le pire des cas, le délai sera le temps d'une tasse de café.

Et, bien sûr, les clusters de métro fonctionnent parfaitement aussi bien sur le HPE 3Par Valinor que sur la toute nouvelle Primera!



Infrastructure de poste de travail distant


Serveurs de terminaux


Pour les serveurs Terminal Server, vous n'avez pas besoin d'inventer quoi que ce soit de nouveau, depuis de nombreuses années, HPE leur fournit certains des meilleurs serveurs au monde. Classiques sans âge - DL360 (1U) ou DL380 (2U) ou pour les fans d'AMD - DL385. Bien sûr, il existe des serveurs lames, à la fois le classique C7000 et la nouvelle plate-forme composable Synergy.



Pour tous les goûts, toutes les couleurs, maximum de sessions par serveur!

Simplicité VDI + HPE «classique»


Dans ce cas, par «VDI classique», je veux dire le concept de 1 utilisateur = 1 VM avec Windows client. Et bien sûr, il n'y a pas de charge VDI plus proche et plus chère pour les systèmes hyperconvergés, en particulier avec la déduplication et la compression.



Ici, HPE peut proposer à la fois sa propre plate-forme Simplivity hyperconvergée et des serveurs / nœuds certifiés pour les solutions partenaires, tels que les nœuds VSAN Ready pour la création de VDI sur l'infrastructure VSware VMware.

Parlons un peu plus de notre propre solution Simplivity. La simplicité a été mise au premier plan, comme son nom l'indique doucement, c'est la simplicité (simple). Facile à déployer, facile à gérer, facile à faire évoluer.

Les systèmes hyperconvergés sont aujourd'hui l'un des sujets les plus chauds de l'informatique, et le nombre de fournisseurs de différents niveaux est d'environ 40. Selon le carré magique de Gartner, HPE est globalement dans Tor5 et figure parmi les leaders - ils comprennent où l'industrie se développe et est capable de comprendre pour incarner dans le fer.

Sur le plan architectural, la simplicité est un système hyperconvergé classique avec des machines virtuelles de contrôleur, ce qui signifie qu'il peut prendre en charge divers hyperviseurs, contrairement aux systèmes intégrés dans un hyperviseur. En effet, depuis avril 2020, VMware vSphere et Microsoft Hyper-V sont pris en charge, et des plans pour prendre en charge KVM sont annoncés. La caractéristique clé de Simplivity depuis son introduction sur le marché a été l'accélération matérielle de la compression et de la déduplication à l'aide d'une carte accélératrice spéciale.



Il convient de noter que la compression de déduplication est globale et toujours active; ce n'est pas une fonctionnalité facultative, mais l'architecture de la solution.



HPE est bien sûr quelque peu fallacieux, revendiquant une efficacité de 100: 1, calculée de manière spéciale, mais l'efficacité d'utilisation de l'espace est vraiment très élevée. Seul le nombre 100: 1 est douloureusement beau. Voyons comment la simplicité a été implémentée techniquement pour afficher de tels nombres.

Instantané. Instantanés (instantanés) - 100% correctement mis en œuvre en tant que RoW (Redirect-on-Write), et se produisent donc instantanément et ne pénalisent pas les performances. Ce qui diffère par exemple de certains autres systèmes. Pourquoi avons-nous besoin d'instantanés locaux sans amende? Oui, c'est très simple, de réduire le RPO de 24 heures (le RPO moyen pour la sauvegarde) à des dizaines voire des unités de minutes.

Sauvegarde . Un instantané ne diffère de la sauvegarde que par la façon dont il est perçu par le système de contrôle de la machine virtuelle. Si tout le reste est supprimé lorsque la machine est supprimée, cela signifie qu'il s'agissait d'un instantané. Si laissé, puis sauvegarde (sauvegarde). Ainsi, tout instantané peut être considéré comme une sauvegarde complète s'il est marqué dans le système et non supprimé.

Bien sûr, beaucoup s'y opposeront - de quel type de sauvegarde s'agit-il si elles sont stockées sur le même système? Et voici une réponse très simple sous la forme d'une contre-question: dites-moi, avez-vous un modèle de menace formel qui établit les règles de stockage d'une sauvegarde? Il s'agit d'une sauvegarde absolument honnête contre la suppression d'un fichier à l'intérieur d'une machine virtuelle, c'est une sauvegarde contre la suppression d'une machine virtuelle elle-même. S'il est nécessaire de stocker la sauvegarde exclusivement sur un système autonome, il y a un choix: réplication de cet instantané vers le deuxième cluster Simplivity ou vers HPE StoreOnce.



Et c'est ici qu'il s'avère qu'une telle architecture est juste parfaite pour tout type de VDI. Après tout, VDI, ce sont des centaines voire des milliers de machines extrêmement similaires avec le même système d'exploitation, avec les mêmes applications. La déduplication mondiale passe par tout cela et ne va même pas compresser 100: 1, mais bien mieux. Développer 1000 machines virtuelles à partir d'un modèle unique? En général, ce n'est pas un problème, ces machines mettront plus de temps à s'enregistrer auprès de vCenter que de cloner.

Surtout pour les utilisateurs ayant des exigences de performances particulières et pour ceux qui ont besoin d'accélérateurs 3D, la gamme Simplivity G a été créée.



Dans cette série, un accélérateur de déduplication matérielle n'est pas utilisé et, par conséquent, le nombre de disques par nœud est réduit afin que le contrôleur puisse faire face par programmation. Cela libère des emplacements PCIe pour tout autre accélérateur. Également doublé la quantité de mémoire disponible par nœud jusqu'à 3 To pour les charges les plus exigeantes.



La simplicité est idéale pour organiser des infrastructures VDI géographiquement distribuées avec réplication des données vers un centre de données central.



Une telle architecture VDI (et en fait pas seulement VDI) est particulièrement intéressante dans le contexte des réalités russes - des distances énormes (et donc des retards) et loin des canaux idéaux. Des centres régionaux sont créés (ou même seulement 1-2 nœuds de simplicité vers un bureau complètement distant), où les utilisateurs locaux se connectent via des canaux rapides, un contrôle et une gestion complets à partir du centre sont préservés, et seule une petite quantité de données réelles, précieuses, et non des ordures, est répliquée vers le centre Les données.

Bien sûr, Simplivity est entièrement connecté à OneView et InfoSight.

Clients légers et zéro


Les clients légers sont des solutions spécialisées à utiliser exclusivement comme terminaux. Puisqu'il n'y a pratiquement pas de charge sur le client autre que la maintenance des canaux et le décodage vidéo - un processeur avec refroidissement passif en vaut presque toujours la peine, un petit disque de démarrage est juste pour démarrer un système d'exploitation intégré spécial, mais c'est tout. Il n'y a pratiquement rien à y pénétrer, et voler est inutile. Le coût est faible et aucune donnée n'y est stockée.

Il existe une catégorie spéciale de clients légers, les soi-disant clients zéro. Leur principale différence avec les minces est le manque d'un système d'exploitation intégré, même à usage général, et fonctionne exclusivement avec une micropuce avec firmware. Souvent, ils installent des accélérateurs matériels spéciaux pour décoder le flux vidéo dans des protocoles terminaux tels que PCoIP ou HDX.

Malgré la division du grand Hewlett Packard en HPE et HP séparés, les clients légers HP ne peuvent pas être ignorés.

Le choix est large, pour tous les goûts et besoins - jusqu'aux postes de travail multi-écrans avec accélération matérielle du flux vidéo.



Service HPE pour votre travail à distance


Enfin, je veux mentionner le service HPE. Il serait trop long de répertorier tous les niveaux de service HPE et ses capacités, mais au moins il existe une proposition extrêmement importante dans les conditions du travail à distance. A savoir - un ingénieur de service de HPE / centre de service autorisé. Vous continuez de travailler à distance, depuis votre résidence d'été préférée, en écoutant les bourdons, tandis que l'abeille HPE, arrivée au centre de données, remplace les disques ou une alimentation électrique défaillante dans vos serveurs.

HPE CallHome


Dans l'environnement actuel, avec un mouvement limité, la fonction Call Home devient plus pertinente que jamais. Tout système HPE doté de cette fonction peut signaler indépendamment une défaillance matérielle ou logicielle au centre d'assistance HPE. Et il est probable qu'une pièce de rechange et / ou un ingénieur de service vous parvienne bien avant que vous ne remarquiez des problèmes et des problèmes avec les services productifs.

Personnellement, je recommande fortement d'inclure cette fonctionnalité.

All Articles