HPE Remote Work-Lösungen

Ich werde Ihnen heute eine Geschichte erzählen. Die Geschichte der Entwicklung der Computertechnologie und die Entstehung entfernter Arbeitsplätze von der Antike bis zur Gegenwart.

IT-Entwicklung


Die Hauptsache, die aus der Geschichte der IT gelernt werden kann, ist ...



Natürlich entwickelt sich die IT spiralförmig. Dieselben Lösungen und Konzepte, die vor Dutzenden von Jahren verworfen wurden, erhalten eine neue Bedeutung und beginnen erfolgreich, unter neuen Bedingungen, mit neuen Aufgaben und neuen Kapazitäten zu arbeiten. In dieser Hinsicht unterscheidet sich die IT nicht von anderen Bereichen des menschlichen Wissens und der Geschichte der Erde als Ganzes.


Es war einmal eine Zeit, in der Computer groß waren


"Ich denke, es gibt einen Markt für ungefähr fünf Computer auf der Welt", sagte IBM-CEO Thomas Watson 1943.
Die frühe Computertechnologie war großartig. Nein, falsch, die frühe Technik war monströs, zyklopisch. Ein voll ausgestatteter Computer nahm eine Fläche ein, die mit einer Sporthalle vergleichbar war, und kostete völlig unrealistisches Geld. Als Beispiel für Komponenten können Sie das RAM-Modul auf Ferritringe (1964) bringen.



Dieses Modul hat eine Größe von 11 cm * 11 cm und eine Kapazität von 512 Bytes (4096 Bit). Der Schrank, voll mit diesen Modulen, hatte heute kaum noch die Kapazität der alten 3,5-Zoll-Diskette (1,44 MB = 2950 Module), verbrauchte gleichzeitig sehr viel Strom und heizte sich wie eine Dampflokomotive.

Bei dieser enormen Größe lautet der englischsprachige Name für das Debuggen von Programmcode „Debuggen“. Eine der ersten Programmiererinnen in der Geschichte, Grace Hopper (ja, eine Frau), eine Marineoffizierin, machte 1945 einen Eintrag im Aktionsprotokoll, nachdem sie ein Problem mit dem Programm untersucht hatte.



Da es sich bei der Motte im Allgemeinen um einen Fehler (Insekt) handelt, wurden alle weiteren Probleme und Lösungen den Behörden als "Debugging" (buchstäblich fehlerhaft) gemeldet. Der Name des Fehlers wurde fest auf den Programmfehler und den Fehler im Code festgelegt, und das Debuggen wurde zum Debugging .

Mit der Entwicklung der Elektronik und insbesondere der Halbleiterelektronik nahmen die physikalischen Abmessungen der Maschinen ab und die Rechenleistung nahm im Gegenteil zu. Aber auch in diesem Fall war es unmöglich, jeder Person einen PC zu liefern.

"Es gibt keinen Grund, warum jemand einen Computer zu Hause behalten möchte" - Ken Olsen, Gründer von DEC, 1977.

In den 70er Jahren taucht der Begriff Mini-Computer auf. Ich erinnere mich, dass ich beim ersten Lesen dieses Begriffs vor vielen Jahren an so etwas wie ein Netbook dachte, fast an einen Handheld. Ich könnte nicht weiter von der Wahrheit entfernt sein.



Mini - es wird nur mit den riesigen Maschinenräumen verglichen, aber es sind immer noch ein paar Schränke mit Geräten im Wert von Hunderttausenden und Millionen von Dollar. Die Rechenleistung ist jedoch bereits so stark gestiegen, dass sie nicht immer zu 100% ausgelastet war, und gleichzeitig standen Studenten und Universitätsprofessoren Computer zur Verfügung.

Und dann kam er!



Nur wenige denken über lateinische Wurzeln in der englischen Sprache nach, aber er hat uns den Fernzugriff gebracht, wie wir ihn jetzt kennen. Terminus (lat) - Ende, Grenze, Ziel. Das Ziel des T800 Terminator war es, das Leben von John Connor zu beenden. Wir wissen auch, dass Transportstationen, an denen Passagiere ein-, aussteigen oder beladen und entladen werden, als Terminals bezeichnet werden - die ultimativen Ziele von Routen.

Dementsprechend erschien das Konzept des Terminalzugangs, und Sie können das berühmteste Terminal der Welt sehen, das immer noch in unseren Herzen lebt.



DEC VT100 wird als Terminal bezeichnet, da es die Datenleitung terminiert. Es hat praktisch keine Rechenleistung und seine einzige Aufgabe besteht darin, die von einem großen Gerät empfangenen Informationen anzuzeigen und Tastatureingaben an das Gerät zu übertragen. Obwohl der VT100 vor langer Zeit physisch gestorben ist, nutzen wir ihn immer noch vollständig.



Unsere Tage


"Unsere Tage" würde ich ab Anfang der 80er Jahre zählen, vom Moment des Erscheinens der ersten verfügbaren Prozessoren bis zu einem weiten Kreis mit erheblicher Rechenleistung. Es wird traditionell angenommen, dass der Hauptprozessor der Ära Intel 8088 (x86-Familie) als Begründer der siegreichen Architektur war. Was ist der grundlegende Unterschied zum Konzept der 70er Jahre?

Zum ersten Mal besteht die Tendenz, die Informationsverarbeitung vom Zentrum zur Peripherie zu übertragen. Nicht alle Aufgaben erfordern verrückte (im Vergleich zu schwachen x86) Mainframe- oder sogar Mini-Computer-Kapazitäten. Intel steht nicht still, in den 90er Jahren veröffentlicht es die Pentium-Familie, die wirklich das erste Massenheim in Russland geworden ist. Diese Prozessoren sind bereits in der Lage, nicht nur einen Brief, sondern auch Multimedia zu schreiben und mit kleinen Datenbanken zu arbeiten. Für kleine Unternehmen entfällt der Bedarf an Servern vollständig - alles kann an der Peripherie und auf Client-Computern erledigt werden. Die Prozessoren werden von Jahr zu Jahr leistungsfähiger, und der Unterschied zwischen Servern und Mitarbeitern wird in Bezug auf die Rechenleistung immer geringer. Oft bleiben nur Redundanz, Hot-Swap-Unterstützung und spezielle Rack-Gehäuse übrig.

Wenn wir moderne „lustige“ Client-Prozessoren für Administratoren schwerer Server in Intel in den 90er Jahren mit Supercomputern der Vergangenheit vergleichen, wird es überhaupt etwas unangenehm.

Werfen wir einen Blick auf den alten Mann, praktisch meinen Kollegen. Cray X-MP / 24 1984.



Diese Maschine gehörte 1984 zu den Top-Supercomputern mit 2 105-MHz-Prozessoren mit einer Spitzenverarbeitungsleistung von 400 MFlops (Millionen von Gleitkommaoperationen). Insbesondere befand sich die auf dem Foto gezeigte Maschine im Kryptographielabor der NSA und war am Brechen von Chiffren beteiligt. Wenn Sie 1984 15 Millionen US-Dollar in 2020-Dollar umwandeln, betragen die Kosten 37,4 Millionen US-Dollar oder 93.500 US-Dollar / MFlops.



In der Maschine, auf der ich diese Zeilen schreibe, befindet sich ein Core i5-7400-Prozessor von 2017, der überhaupt nicht neu ist, und selbst im Jahr seiner Veröffentlichung war er der jüngste 4-Core-Prozessor aller Mittelklasse-Desktop-Prozessoren. 4 Kerne mit einer Grundfrequenz von 3,0 GHz (3,5 mit Turbo Boost) und eine Verdoppelung der HyperThreading-Streams ergeben nach verschiedenen Tests eine Leistung von 19 bis 47 GFlops zu einem Preis von 16.000 Rubel pro Prozessor. Wenn Sie die gesamte Maschine zusammenbauen, können Sie die Kosten für 750 USD (zu Preisen und Preisen am 1. März 2020) übernehmen.

Am Ende erhalten wir die 50-120-fache Überlegenheit des durchschnittlichen Desktop-Prozessors unserer Tage gegenüber dem Supercomputer aus den Top 10 der absehbaren Vergangenheit, und der Rückgang der Stückkosten von MFlops wird absolut ungeheuerlich 93500/25 = 3700-mal.

Warum brauchen wir noch Server und Zentralisierung von Computern mit ähnlichen Kapazitäten an der Peripherie - absolut unverständlich!

Rückwärtssprung - die Spirale machte eine Revolution


Plattenlose Stationen


Das erste Signal, dass die Übertragung von Computern an die Peripherie nicht endgültig sein würde, war das Aufkommen der plattenlosen Workstation-Technologie. Aufgrund der erheblichen Verteilung der Arbeitsplätze im gesamten Unternehmen und insbesondere in kontaminierten Räumen ist die Verwaltung und Unterstützung dieser Stationen sehr schwierig.



Das Konzept der „Korridorzeit“ wird angezeigt - der Prozentsatz der Zeit, die sich ein Mitarbeiter des technischen Supports auf dem Weg zum Mitarbeiter mit einem Problem im Korridor befindet. Diese Zeit ist bezahlt, aber völlig unproduktiv. Weit entfernt von der letzten Rolle und insbesondere in kontaminierten Räumen waren die Ausfälle von Festplatten. Entfernen wir die Festplatte von der Workstation und erledigen den Rest über das Netzwerk, einschließlich des Herunterladens. Der Netzwerkadapter empfängt neben der Adresse vom DHCP-Server auch zusätzliche Informationen - die Adresse des TFTP-Servers (vereinfachter Dateidienst) und den Namen des Startabbilds, lädt es in den Arbeitsspeicher und startet den Computer.



Zusätzlich zu weniger Ausfällen und einer kürzeren Korridorzeit kann die Maschine jetzt nicht mehr vor Ort getestet werden, sondern bringt einfach eine neue mit und holt die alte zur Diagnose an der ausgestatteten Workstation ab. Das ist aber noch nicht alles!

Eine plattenlose Station wird viel sicherer - wenn plötzlich jemand in den Raum einbricht und alle Computer herausnimmt, ist dies nur ein Verlust an Ausrüstung. Auf plattenlosen Stationen werden keine Daten gespeichert.

Denken Sie daran, dass der IS nach der „sorglosen Kindheit“ der Informationstechnologie eine immer wichtigere Rolle spielt. Und die schrecklichen und wichtigen drei Buchstaben dringen immer mehr in die IT ein - GRC (Governance, Risiko, Compliance) oder auf Russisch „Verwaltbarkeit, Risiko, Compliance“.



Terminalserver


Die Allgegenwart von immer mächtigeren Mitarbeitern an der Peripherie war der Entwicklung gemeinsamer Netzwerke weit voraus. Klassische Client-Server-Anwendungen für die 90er bis frühen 00er Jahre funktionierten auf einem Thin Channel nicht sehr gut, wenn der Datenaustausch signifikante Werte aufwies. Dies war besonders schwierig für entfernte Büros, die über Modem und Telefonleitung verbunden waren und ebenfalls regelmäßig hingen oder kaputt gingen. Und ... Die

Spirale machte eine Runde und befand sich wieder im Terminalmodus mit dem Konzept der Terminalserver.



Tatsächlich sind wir mit null Kunden und zentraler Rechenleistung wieder auf 70 m zurück. Es stellte sich schnell heraus, dass der Terminalzugang neben einem rein wirtschaftlichen Hintergrund mit Kanälen enorme Möglichkeiten bietet, einen sicheren Zugang von außen zu organisieren, einschließlich der Arbeit von zu Hause aus für Mitarbeiter, oder einen äußerst eingeschränkten und kontrollierten Zugang zu Auftragnehmern aus nicht vertrauenswürdigen Netzwerken und nicht vertrauenswürdigen / unkontrollierten Geräten.

Terminalserver mit all ihren Vorzügen und ihrer Progressivität hatten jedoch auch eine Reihe von Minuspunkten - geringe Flexibilität, das Problem eines lauten Nachbarn, ausschließlich Server-Windows und so weiter.

Geburtsprotokoll VDI




Zwar war bereits Anfang bis Mitte 00x die industrielle Virtualisierung der x86-Plattform in Sicht. Und jemand äußerte die Idee, die einfach in der Luft schwebte: Anstatt alle Clients auf den Serverterminalfarmen zu zentralisieren, geben wir jedem seine persönliche VM mit Client-Windows und sogar Administratorzugriff.

Ablehnung von fetten Kunden


Parallel zur Virtualisierung von Sitzungen und des Betriebssystems wurde ein Ansatz zur Erleichterung von Clientfunktionen auf Anwendungsebene entwickelt.

Die Logik dahinter war recht einfach, da persönliche Laptops noch weit von allen entfernt waren, das Internet für viele nicht genau das gleiche war und viele nur über Internetcafés mit sehr eingeschränkten, gelinde gesagt, Rechten eine Verbindung herstellen konnten. Tatsächlich konnte nur ein Browser gestartet werden. Der Browser ist zu einem unverzichtbaren Attribut des Betriebssystems geworden, das Internet ist fest in unser Leben eingedrungen.

Mit anderen Worten, parallel dazu gab es den Trend, Logik in Form von Webanwendungen vom Client zum Center zu übertragen, für die nur der einfachste Client, das Internet und ein Browser benötigt werden.
Und wir waren nicht nur an dem Ort, an dem wir angefangen haben - mit null Clients und zentralen Servern. Wir sind auf verschiedene unabhängige Arten dorthin gekommen.



Virtuelle Desktop-Infrastruktur


Makler


Im Jahr 2007 veröffentlichte VMware, der Marktführer für industrielle Virtualisierung, die erste Version seines VDM-Produkts (Virtual Desktop Manager), die praktisch die erste im aufstrebenden Markt für virtuelle Desktops war. Natürlich mussten wir nicht lange auf eine Antwort des Marktführers der Citrix-Terminalserver warten, und 2008, mit der Übernahme von XenSource, erschien XenDesktop. Natürlich gab es andere Anbieter mit ihren Vorschlägen, aber wir werden nicht zu tief in die Geschichte eingehen und uns vom Konzept entfernen.

Und dennoch bleibt das Konzept erhalten. Eine Schlüsselkomponente von VDI ist der Verbindungsbroker.
Dies ist das Herzstück der virtuellen Desktop-Infrastruktur.

Der Broker ist verantwortlich für die wichtigsten Prozesse von VDI:

  • Definiert verfügbare Ressourcen für den verbundenen Client (Maschinen / Sitzungen).
  • Gleicht bei Bedarf Clients auf Pools von Maschinen / Sitzungen aus;
  • Leitet den Client an die ausgewählte Ressource weiter.

Heutzutage kann der Client (Terminal) für VDI praktisch alles sein, was über einen Bildschirm verfügt - ein Laptop, ein Smartphone, ein Tablet, ein Kiosk, ein Thin Client oder ein Zero Client. Und der Antwortteil, der die produktive Last ausführt - eine Terminalserversitzung, eine physische Maschine, eine virtuelle Maschine. Moderne ausgereifte VDI-Produkte sind eng in die virtuelle Infrastruktur integriert und verwalten diese unabhängig voneinander automatisch, indem sie sie bereitstellen oder wählen und die bereits unnötigen virtuellen Maschinen entfernen.

Ein wenig distanziert, aber für einige Kunden ist die äußerst wichtige VDI-Technologie die Unterstützung der Hardwarebeschleunigung von 3D-Grafiken für die Arbeit von Designern oder Designern.

Protokoll


Der zweite äußerst wichtige Teil einer ausgereiften VDI-Lösung ist das Zugriffsprotokoll für virtuelle Ressourcen. Wenn wir über die Arbeit in einem Unternehmens-LAN mit einem hervorragenden zuverlässigen Netzwerk von 1 Gbit / s zur Workstation und einer Verzögerung von 1 ms sprechen, können Sie fast jeden mitnehmen und überhaupt nicht denken.

Sie müssen überlegen, wann die Verbindung über ein unkontrolliertes Netzwerk hergestellt wird, und die Qualität dieses Netzwerks kann absolut alles sein, bis zu Geschwindigkeiten von mehreren zehn Kilobit und unvorhersehbaren Verzögerungen. Diese dienen nur dazu, echte Fernarbeit zu organisieren, von Sommerresidenzen, von zu Hause aus, von Flughäfen und Restaurants.

Terminalserver gegen Client-VMs


Mit dem Aufkommen von VDI schien es an der Zeit, sich von Terminalservern zu verabschieden. Warum werden sie benötigt, wenn jeder seine eigene persönliche VM hat?

Unter dem Gesichtspunkt einer reinen Wirtschaft stellte sich jedoch heraus, dass es für typische Massenjobs, die mit Übelkeit identisch sind, in Bezug auf das Preis-Leistungs-Verhältnis nichts Effizienteres als Terminalserver gibt. Bei all seinen Vorteilen verbraucht der Ansatz „1 Benutzer = 1 VM“ erheblich mehr Ressourcen für virtuelle Hardware und ein vollwertiges Betriebssystem, was die Wirtschaftlichkeit typischer Workstations verschlechtert.

Bei Jobs für Top-Manager, nicht standardmäßigen und geladenen Jobs, die hohe Rechte erfordern (bis zum Administrator), hat die dedizierte VM für den Benutzer den Vorteil. Innerhalb dieser VM können Sie Ressourcen einzeln zuweisen, Rechte auf jeder Ebene ausstellen und VMs zwischen Virtualisierungshosts unter hoher Last ausgleichen.

VDI und Wirtschaft


Seit Jahren höre ich die gleiche Frage - aber wie ist VDI billiger als nur Laptops an alle zu verteilen? Und im Laufe der Jahre muss ich genau das Gleiche beantworten: Bei normalen Büroangestellten ist VDI nicht billiger, wenn wir die Nettokosten für die Bereitstellung von Geräten berücksichtigen. Ob es Ihnen gefällt oder nicht, Laptops werden immer billiger, aber Server, Speicher und Systemsoftware kosten eine Menge Geld. Wenn es Zeit für Sie ist, den Park zu aktualisieren und Sie über das Speichern über VDI nachdenken, nein, speichern Sie nicht.

Ich habe die schrecklichen drei Buchstaben GRC oben zitiert - und so handelt VDI von GRC. Es geht um Risikomanagement, um die Sicherheit und den Komfort eines kontrollierten Zugriffs auf Daten. Und all dies kostet normalerweise ziemlich viel Geld für die Einführung heterogener Geräte auf einem Stapel. Mit VDI wird die Steuerung vereinfacht, die Sicherheit erhöht und das Haar wird weich und seidig.

HPE



iLO


HPE ist weit davon entfernt, ein Neuling in der Fernverwaltung der Serverinfrastruktur zu sein. Ist das ein Witz? Im März wurde der legendäre iLO (Integrated Lights Out) 18 Jahre alt. Er erinnerte sich an seine Admin-Zeiten in den 00ern und konnte persönlich nicht genug davon bekommen. Die anfängliche Montage und Verkabelung des Racks war alles, was in einem lauten und kalten Rechenzentrum durchgeführt werden musste. Alle anderen Konfigurationen, einschließlich des Befüllens des Betriebssystems, konnten bereits am Arbeitsplatz, auf zwei Monitoren und mit einer Tasse heißen Kaffees durchgeführt werden. Und das ist 13 Jahre her!



HPE-Server sind heute nicht ohne Grund ein unbestreitbarer langjähriger Qualitätsstandard - und der Goldstandard des Fernbedienungssystems iLO spielt dabei eine wichtige Rolle.



Ich möchte die Maßnahmen von HPE zur Aufrechterhaltung der Kontrolle der Menschheit über das Coronavirus gesondert erwähnen. HPE angekündigtdass bis mindestens Ende 2020 (mindestens) die iLO Advanced-Lizenz für alle kostenlos verfügbar ist.

Infosight


Wenn Sie mehr als 10 Server in der Infrastruktur haben und der Administrator sich nicht langweilt, ist das auf künstlicher Intelligenz basierende HPE Infosight-Cloud-System eine hervorragende Ergänzung zu den Standardüberwachungstools. Das System überwacht nicht nur den Status und erstellt Diagramme, sondern empfiehlt auch unabhängig weitere Maßnahmen, die auf der aktuellen Situation und den aktuellen Trends basieren.





Seien Sie schlau, seien Sie wie die Otkritie Bank , probieren Sie Infosight!

Oneview


Zu guter Letzt möchte ich das HPE OneView erwähnen - ein ganzes Produktportfolio mit enormen Funktionen zur Überwachung und Verwaltung der gesamten Infrastruktur. Und das alles, ohne vom Desktop aufzustehen, was Sie vielleicht überhaupt in der aktuellen Situation im Land sind.



SHD ist auch nicht wackelig!


Natürlich werden alle Speichersysteme ferngesteuert und überwacht - das war vor vielen Jahren. Deshalb möchte ich heute über etwas anderes sprechen, nämlich über Metro-Cluster.

Metro-Cluster sind überhaupt keine Neuheit auf dem Markt, aber aus diesem Grund sind sie immer noch nicht sehr beliebt - die Trägheit des Denkens und der erste Eindruck wirken sich darauf aus. Natürlich waren sie es schon vor 10 Jahren, aber sie standen wie eine gusseiserne Brücke. Die Jahre, die seit den ersten U-Bahn-Clustern vergangen sind, haben die Branche und die Verfügbarkeit von Technologie für die breite Öffentlichkeit verändert.

Ich erinnere mich an Projekte, bei denen Teile des Speichersystems speziell verteilt wurden - separat für überkritische Dienste an den Metro-Cluster, separat für die synchrone Replikation (um ein Vielfaches billiger).

Tatsächlich kostet Sie der Metro-Cluster im Jahr 2020 nichts, wenn Sie zwei Standorte und Kanäle organisieren können. Kanäle für die synchrone Replikation erfordern jedoch genau dieselben Kanäle wie für Metro-Cluster. Die Softwarelizenzierung ist seit langem in Paketen enthalten - und die synchrone Replikation wird sofort mit einem U-Bahn-Cluster abgeschlossen. Das einzige, was der unidirektionalen Replikation das Leben rettet, ist die Notwendigkeit, ein erweitertes L2-Netzwerk zu organisieren. Und selbst dann fegt L2 über L3 bereits das Land.



Was ist also der grundlegende Unterschied zwischen der synchronen Replikation und dem Metro-Cluster in Bezug auf Remote-Arbeit?

Alles ist sehr einfach. Der U-Bahn-Cluster selbst arbeitet automatisch, immer, fast sofort.

Wie sieht der Prozess des Lastwechsels bei synchroner Replikation in der Infrastruktur aus, wenn mindestens einige hundert VMs vorhanden sind?

  1. Ein Alarm wird empfangen.
  2. Die Dienstschicht analysiert die Situation - Sie können sicher zwischen 10 und 30 Minuten liegen, um ein Signal zu empfangen und eine Entscheidung zu treffen.
  3. Wenn die diensthabenden Ingenieure nicht befugt sind, die Umschaltung unabhängig zu starten, dauert es noch 30 Minuten, um die autorisierte Person zu kontaktieren und den Umschaltstart offiziell zu bestätigen.
  4. Drücken Sie den großen roten Knopf.
  5. 10-15 Minuten für Timeouts und Volume-Remounting, erneute Registrierung von VMs.
  6. 30 Minuten zum Ändern der IP-Adresse - optimistische Bewertung.
  7. Und schließlich der Start der VM und der Start produktiver Services.

Die Gesamt-RTO (Zeit bis zur Wiederherstellung von Geschäftsprozessen) kann sicher auf 4 Stunden geschätzt werden.

Vergleichen Sie mit der Situation im U-Bahn-Cluster.

  1. SHD versteht, dass die Verbindung zur Schulter des U-Bahn-Clusters unterbrochen ist - 15 bis 30 Sekunden.
  2. Virtualisierungshosts wissen, dass das erste Rechenzentrum verloren geht - 15 bis 30 Sekunden (gleichzeitig mit n 1).
  3. Automatischer Neustart von der Hälfte bis zu einem Drittel der VMs im zweiten Rechenzentrum - 10 bis 15 Minuten vor dem Laden der Dienste.
  4. Um diese Zeit versteht die Dienstschicht, was passiert ist.

Gesamt: RTO = 0 für einzelne Dienste, im allgemeinen Fall 10-15 Minuten.

Warum nur ein halbes bis ein Drittel der VM neu starten? Sehen Sie, was los ist:

  1. Sie erledigen alles intelligent und aktivieren den automatischen Ausgleich der VM. Infolgedessen wird durchschnittlich nur die Hälfte der VMs in einem der Rechenzentren ausgeführt. Schließlich besteht der Sinn des Metro-Clusters darin, Ausfallzeiten zu minimieren. Daher liegt es in Ihrem Interesse, die Anzahl der angegriffenen VMs zu minimieren.
  2. Einige Dienste können auf Anwendungsebene geclustert werden und sich auf verschiedene VMs verteilen. Dementsprechend werden diese gekoppelten VMs einzeln genagelt oder mit einem Menüband an verschiedene Rechenzentren gebunden, damit der Dienst nicht darauf wartet, dass die VM im Falle eines Unfalls neu gestartet wird.

Mit einer gut ausgebauten Infrastruktur mit erweiterten U-Bahn-Clustern arbeiten Geschäftsbenutzer von überall mit minimalen Verzögerungen, selbst im Falle eines Unfalls auf Rechenzentrumsebene. Im schlimmsten Fall ist die Verzögerung Zeit für eine Tasse Kaffee.

Und natürlich funktionieren die U-Bahn-Cluster sowohl beim HPE 3Par Valinor als auch beim brandneuen Primera perfekt!



Remote Workstation-Infrastruktur


Terminalserver


Für Terminalserver müssen Sie nichts Neues erfinden. Seit vielen Jahren liefert HPE einige der besten Server der Welt für sie. Zeitlose Klassiker - DL360 (1U) oder DL380 (2U) oder für Fans von AMD - DL385. Natürlich gibt es Blade-Server, sowohl den klassischen C7000 als auch die neue zusammensetzbare Synergy-Plattform.



Für jeden Geschmack, jede Farbe, maximale Sitzungen pro Server!

"Klassische" VDI + HPE-Einfachheit


In diesem Fall meine ich mit "klassischem VDI" das Konzept von 1 Benutzer = 1 VM mit Client-Windows. Und natürlich gibt es keine engere und teurere VDI-Last für hyperkonvergente Systeme, insbesondere bei Deduplizierung und Komprimierung.



Hier kann HPE sowohl eine eigene hyperkonvergente Simplivity-Plattform als auch Server / zertifizierte Knoten für Partnerlösungen anbieten, z. B. VSAN Ready Nodes zum Erstellen von VDI auf der VMware VSAN-Infrastruktur.

Lassen Sie uns etwas mehr über unsere eigene Simplivity-Lösung sprechen. Einfachheit steht im Vordergrund, wie der Name schon sagt, ist Einfachheit (Englisch einfach - einfach). Einfach bereitzustellen, einfach zu verwalten, einfach zu skalieren.

Hyperkonvergente Systeme sind heute eines der heißesten Themen in der IT, und die Anzahl der Anbieter auf verschiedenen Ebenen liegt bei etwa 40. Laut Gartners magischem Quadrat ist HPE weltweit in Tor5 vertreten und gehört zu den führenden Unternehmen - sie verstehen, wo sich die Branche entwickelt und in der Lage ist Verständnis in Eisen zu verkörpern.

Architektonisch ist Simplivity ein klassisches hyperkonvergentes System mit virtuellen Controller-Maschinen. Dies bedeutet, dass es im Gegensatz zu in einen Hypervisor integrierten Systemen verschiedene Hypervisoren unterstützen kann. Ab April 2020 werden VMware vSphere und Microsoft Hyper-V unterstützt, und Pläne zur Unterstützung von KVM werden angekündigt. Das Hauptmerkmal von Simplivity seit seiner Markteinführung war die Hardwarebeschleunigung der Komprimierung und Deduplizierung mithilfe einer speziellen Beschleunigerkarte.



Es ist zu beachten, dass die Deduplizierungskomprimierung global ist und immer aktiviert ist. Dies ist keine optionale Funktion, sondern die Lösungsarchitektur.



HPE ist natürlich etwas unaufrichtig und behauptet einen Wirkungsgrad von 100: 1, der auf besondere Weise berechnet wird, aber die Effizienz der Raumnutzung ist wirklich sehr hoch. Nur die Zahl 100: 1 ist schmerzlich schön. Mal sehen, wie technisch Simplivity implementiert ist, um solche Zahlen anzuzeigen.

Schnappschuss. Snapshots (Snapshots) - 100% korrekt als RoW (Redirect-on-Write) implementiert und treten daher sofort auf und beeinträchtigen die Leistung nicht. Was sich zum Beispiel von einigen anderen Systemen unterscheidet. Warum brauchen wir lokale Schnappschüsse ohne Geldstrafen? Ja, es ist sehr einfach, das RPO von 24 Stunden (das durchschnittliche RPO für die Sicherung) auf zehn oder sogar Einheiten von Minuten zu reduzieren.

Backup . Ein Snapshot unterscheidet sich vom Backup nur darin, wie er vom Steuerungssystem der virtuellen Maschine wahrgenommen wird. Wenn alles andere beim Löschen des Computers gelöscht wird, bedeutet dies, dass es sich um einen Schnappschuss handelt. Wenn übrig, dann Backup (Backup). Daher kann jeder Snapshot als vollständige Sicherung betrachtet werden, wenn er im System markiert und nicht gelöscht ist.

Natürlich werden viele Einwände erheben - was für ein Backup ist das, wenn es auf demselben System gespeichert ist? Und hier ist eine sehr einfache Antwort in Form einer Gegenfrage: Sagen Sie mir, haben Sie ein formales Bedrohungsmodell, das die Regeln für das Speichern eines Backups festlegt? Dies ist eine absolut ehrliche Sicherung gegen das Löschen einer Datei in einer VM. Dies ist eine Sicherung gegen das Löschen einer VM selbst. Wenn das Backup ausschließlich auf einem eigenständigen System gespeichert werden muss, haben Sie die Wahl: Replikation dieses Snapshots in den zweiten Simplivity-Cluster oder in HPE StoreOnce.



Und hier stellt sich heraus, dass eine solche Architektur für jede Art von VDI perfekt ist. Schließlich handelt es sich bei VDI um Hunderte oder sogar Tausende extrem ähnlicher Computer mit demselben Betriebssystem und denselben Anwendungen. Die globale Deduplizierung durchläuft all dies und wird nicht einmal 100: 1 drücken, sondern viel besser. 1000 VMs aus einer einzigen Vorlage erweitern? Im Allgemeinen kein Problem, die Registrierung dieser Computer bei vCenter dauert länger als das Klonen.

Speziell für Benutzer mit besonderen Leistungsanforderungen und für diejenigen, die 3D-Beschleuniger benötigen, wurde die Simplivity G-Linie entwickelt.



In dieser Serie wird kein Hardware-Deduplizierungsbeschleuniger verwendet, und daher wird die Anzahl der Festplatten pro Knoten reduziert, damit die Steuerung programmgesteuert zurechtkommt. Dadurch werden PCIe-Steckplätze für andere Beschleuniger frei. Verdoppelte auch die Menge des verfügbaren Speichers pro Knoten auf 3 TB für die anspruchsvollsten Lasten.



Die Einfachheit ist ideal für die Organisation geografisch verteilter VDI-Infrastrukturen mit Datenreplikation in ein zentrales Rechenzentrum.



Eine solche VDI-Architektur (und in der Tat nicht nur VDI) ist im Kontext der russischen Realität besonders interessant - große Entfernungen (und damit Verzögerungen) und weit entfernt von idealen Kanälen. Es werden regionale Zentren erstellt (oder sogar nur 1-2 Simplivity-Knoten zu einem vollständig entfernten Büro), in denen lokale Benutzer über schnelle Kanäle eine Verbindung herstellen, die vollständige Kontrolle und Verwaltung vom Zentrum aus erhalten bleibt und nur eine geringe Menge an echtem, wertvollem und nicht Müll in das Zentrum repliziert wird Daten.

Natürlich ist Simplivity vollständig mit OneView und InfoSight verbunden.

Thin und Zero Clients


Thin Clients sind spezialisierte Lösungen, die ausschließlich als Terminals verwendet werden. Da der Client außer der Kanalwartung und der Videodekodierung praktisch nicht belastet wird - ein Prozessor mit passiver Kühlung lohnt sich fast immer -, dient eine kleine Startdiskette nur zum Starten eines speziellen eingebetteten Betriebssystems, aber das ist alles. Es gibt praktisch nichts, in das man einbrechen könnte, und Stehlen ist nutzlos. Die Kosten sind gering und es werden keine Daten darin gespeichert.

Es gibt eine spezielle Kategorie von Thin Clients, die sogenannten Zero Clients. Ihr Hauptunterschied zu dünnen ist das Fehlen eines eingebetteten Allzweck-Betriebssystems, das ausschließlich mit einem Mikrochip mit Firmware arbeitet. Oft installieren sie spezielle Hardwarebeschleuniger zum Decodieren des Videostreams in Terminalprotokollen wie PCoIP oder HDX.

Trotz der Aufteilung des großen Hewlett Packard in separate HPEs und HPs können HP Thin Clients nicht ignoriert werden.

Die Auswahl ist groß, für jeden Geschmack und Bedarf - bis hin zu Multi-Monitor-Workstations mit Hardwarebeschleunigung des Videostreams.



HPE-Service für Ihre Remote-Arbeit


Und zu guter Letzt möchte ich den HPE-Service erwähnen. Es würde zu lange dauern, alle Ebenen des HPE-Dienstes und seiner Funktionen aufzulisten, aber es gibt zumindest einen äußerst wichtigen Vorschlag für die Bedingungen der Remote-Arbeit. Nämlich - ein Servicetechniker von HPE / autorisiertem Servicecenter. Sie arbeiten weiterhin remote von Ihrer bevorzugten Sommerresidenz aus und hören Hummeln zu, während die HPE-Biene, die im Rechenzentrum angekommen ist, Festplatten oder ein ausgefallenes Netzteil in Ihren Servern ersetzt.

HPE CallHome


In der heutigen Umgebung mit eingeschränkter Bewegung wird die Call Home-Funktion relevanter als je zuvor. Jedes HPE-System mit dieser Funktion kann einen Hardware- oder Softwarefehler unabhängig an das HPE Support Center melden. Und es ist wahrscheinlich, dass ein Ersatzteil- und / oder Servicetechniker zu Ihnen kommt, lange bevor Sie Probleme und Probleme mit produktiven Services bemerken.

Persönlich empfehle ich dringend, diese Funktion einzuschließen.

All Articles