Neue Speichertechnologien: Gibt es 2020 einen Durchbruch?

Seit mehreren Jahrzehnten werden Fortschritte bei den Informationsspeichertechnologien zunächst in Bezug auf die Speicherkapazität und die Geschwindigkeit des Lesens / Schreibens von Daten gemessen. Im Laufe der Zeit wurden diese Bewertungsparameter durch Technologien und Methoden ergänzt, die HDD- und SSD-Laufwerke intelligenter, flexibler und einfacher zu verwalten machen. Jedes Jahr deuten Laufwerkshersteller traditionell darauf hin, dass sich der Big-Data-Markt ändern wird, und 2020 ist keine Ausnahme. IT-Verantwortliche suchen eifrig nach effektiven Möglichkeiten zum Speichern und Verwalten großer Datenströme und versprechen daher erneut, den Kurs von Speichersystemen zu ändern. In diesem Artikel haben wir die fortschrittlichsten Technologien zum Veröffentlichen von Informationen zusammengestellt und über die Konzepte futuristischer Antriebe gesprochen, die ihre physische Verwirklichung noch nicht gefunden haben.



Software Defined Storage Networks


Wenn wir über die Prozesse der Automatisierung, Flexibilität und Erhöhung der Speicherkapazität von Informationen in Verbindung mit einer Steigerung der Personaleffizienz sprechen, erwägen immer mehr Unternehmen die Möglichkeit, auf sogenannte softwaredefinierte Speichernetzwerke oder SDS (Software-Defined Storage) umzusteigen.



Ein wesentliches Merkmal der SDS-Technologie ist die Trennung von Hardware und Software, dh die Virtualisierung von Speicherfunktionen ist impliziert . Darüber hinaus ist SDS im Gegensatz zu herkömmlichen Speichersystemen mit Netzwerkverbindung (NAS) oder Speicherbereichsnetzwerken (SAN) für die Verwendung in jedem Standard-x86-System ausgelegt. Sehr oft besteht das Ziel der Bereitstellung von Sicherheitsdatenblättern darin, die Betriebskosten (OpEx) zu verbessern und weniger Verwaltungsaufwand zu erfordern.

Die Kapazität von Festplattenlaufwerken wird auf 32 TB ansteigen


Traditionelle Magnetantriebe sind überhaupt nicht gestorben, sondern erleben nur eine technologische Renaissance. Moderne Festplatten bieten Benutzern bereits bis zu 16 TB Datenspeicher. In den nächsten fünf Jahren wird sich diese Kapazität verdoppeln. Gleichzeitig bleiben Festplattenlaufwerke der günstigste Direktzugriffsspeicher und behalten noch viele Jahre ihren Vorrang beim Preis pro Gigabyte Festplattenspeicher.

Die Kapazitätserweiterung basiert auf bereits bekannten Technologien:

  • Heliumspeicher (Helium reduziert den Luftwiderstand und die Turbulenzen, sodass Sie mehr Magnetplatten im Antrieb installieren können, während der Wärme- und Energieverbrauch nicht steigt).
  • Thermomagnetischer Speicher (oder HAMR-Festplatte, deren Erscheinungsbild im Jahr 2021 erwartet wird und auf dem Prinzip der Mikrowellendatenaufzeichnung basiert, wenn ein Teil der Platte mit einem Laser erwärmt und magnetisiert wird);
  • Eine kachelbasierte Festplatte (oder SMR-Laufwerke, bei denen Datenspuren im Kachelformat übereinander angeordnet sind; dies gewährleistet eine hohe Dichte der Informationsaufzeichnung).

Helium-Speichergeräte sind besonders in Cloud-Rechenzentren gefragt, und SMR-Festplatten eignen sich optimal zum Speichern großer Archive und Datenbibliotheken sowie zum Zugreifen auf und Aktualisieren von Daten, die nicht sehr häufig benötigt werden. Sie sind auch ideal zum Erstellen von Backups.

NVMe-Laufwerke werden schneller


Die ersten SSDs wurden über SATA oder SAS mit Motherboards verbunden, aber diese Schnittstellen wurden vor über 10 Jahren für magnetische Festplatten entwickelt. Das moderne NVMe-Protokoll ist ein viel leistungsfähigeres Kommunikationsprotokoll, das für Systeme entwickelt wurde, die eine Hochgeschwindigkeitsdatenverarbeitung ermöglichen. Infolgedessen sehen wir zum Jahreswechsel 2019-2020 einen ernsthaften Preisverfall für NVMe-SSDs, die für jede Benutzerklasse verfügbar werden. Im Unternehmenssegment werden NVMe-Lösungen besonders von Unternehmen geschätzt, die eine Big-Data-Analyse in Echtzeit benötigen.

Unternehmen wie Kingston und Samsung haben bereits gezeigt, worauf sich Unternehmensbenutzer im Jahr 2020 verlassen können: Wir alle warten auf das Erscheinen von NVMe-SSDs mit PCIe 4.0-Unterstützung, mit denen Rechenzentren beim Arbeiten mit Daten noch schneller hinzugefügt werden können. Die behauptete Leistung neuer Produkte beträgt 4,8 GB / s, und dies ist weit von der Grenze entfernt. Die nächste Generation von Kingston NVMe SSD PCIe gen 4.0 kann eine Bandbreite von 7 GB / s bereitstellen.



Zusammen mit der Spezifikation NVMe-oF (oder NVMe over Fabrics) können Unternehmen Hochleistungsspeichernetzwerke mit minimaler Latenz erstellen, die mit Rechenzentren mit direkten DAS-Verbindungen (oder Direct-Attached Storage-Verbindungen) konkurrieren. Gleichzeitig werden E / A-Vorgänge mit NVMe-oF effizienter verarbeitet, während die Verzögerung mit DAS-Systemen vergleichbar ist. Analysten sagen voraus, dass sich die Bereitstellung von NVMe-oF-basierten Systemen im Jahr 2020 rasch beschleunigen wird.

QLC-Speicher endlich "schießen"?


Der QLC-Flash-Speicher (NAND Quad Level Cell) wird ebenfalls eine wachsende Marktbeliebtheit aufweisen. QLC wurde 2019 eingeführt und hatte daher eine minimale Verbreitung auf dem Markt. Dies wird sich im Jahr 2020 ändern, insbesondere bei Unternehmen, die die LightFT Global Flash Translation Layer (GFTL) -Technologie implementiert haben, um die inhärenten QLC-Probleme zu überwinden.

Laut Analysten wird das Umsatzwachstum von SSDs auf Basis von QLC-Zellen um 10% steigen, während TLC-Lösungen 85% des Marktes „erobern“ werden. Was auch immer man sagen mag, die QLC-SSD ist im Vergleich zur TLC-SSD immer noch weit hinter der Leistung zurückgeblieben und wird in den nächsten fünf Jahren nicht zur Basis für das Rechenzentrum.


Gleichzeitig werden die Kosten für NAND-Flash-Speicher voraussichtlich im Jahr 2020 steigen. So setzt beispielsweise der Anbieter von SSD-Controllern Phison darauf, dass Preiserhöhungen letztendlich den Markt für Solid-State-Laufwerke für Verbraucher dazu bringen werden, 4-Bit-Flash zu verwenden -Memory QLC NAND. Intel plant übrigens die Einführung von 144-Schicht-QLC-Lösungen (anstelle von 96-Schicht-Produkten). Nun ... es scheint, dass wir auf eine weitere Marginalisierung der Festplatte warten.

SCM-Speicher: Geschwindigkeit nahe am DRAM


Die weit verbreitete Verfügbarkeit von SCM-Speicher (Storage Class Memory) wurde für mehrere Jahre vorhergesagt, und 2020 könnte der Ausgangspunkt sein, an dem diese Vorhersagen endlich in Erfüllung gehen werden. Während Intel Optane-, Toshiba XL-Flash- und Samsung Z-SSD-Speichermodule bereits in den Unternehmensmarkt eingetreten sind, hat ihr Erscheinungsbild keine beeindruckende Reaktion hervorgerufen.

Das Intel-Gerät kombiniert die Funktionen eines schnellen, aber instabilen DRAM mit dem langsameren, aber dauerhaften NAND-Speicher. Diese Kombination zielt darauf ab, die Fähigkeit der Benutzer zu verbessern, mit großen Datenmengen zu arbeiten, und bietet sowohl DRAM-Geschwindigkeit als auch NAND-Kapazität. SCM-Speicher ist nicht nur schneller als NAND-basierte Alternativen, sondern auch zehnmal schneller. Die Verzögerung beträgt Mikrosekunden, nicht Millisekunden.



Marktexperten weisen darauf hin, dass Rechenzentren, die SCM verwenden möchten, nur eingeschränkt auf Servern mit Intel-Prozessoren der Cascade Lake-Generation eingesetzt werden können. Ihrer Meinung nach wird dies jedoch kein Stolperstein sein, um die Aktualisierungswelle bestehender Rechenzentren zu stoppen und eine schnelle Informationsverarbeitung sicherzustellen.

Von der absehbaren Realität in die ferne Zukunft


Für die meisten Benutzer ist die Datenspeicherung nicht mit einem Gefühl von „kapazitivem Armageddon“ verbunden. Aber denken Sie nur daran: Die 3,7 Milliarden Menschen, die derzeit das Internet nutzen, generieren täglich rund 2,5 Billionen Byte Daten. Um diesen Bedarf zu decken, werden mehr Rechenzentren benötigt.

Laut Statistik ist die Welt bis 2025 bereit, 160 Zetabyte Daten pro Jahr zu verarbeiten (dies sind mehr Bytes als Sterne im beobachtbaren Universum). Es ist wahrscheinlich, dass wir weiterhin jeden Quadratmeter des Planeten Erde mit Rechenzentren abdecken müssen, sonst können sich Unternehmen einfach nicht auf ein so hohes Informationswachstum einstellen. Oder ... Sie müssen einige Daten aufgeben. Es gibt jedoch mehrere potenziell interessante Technologien, die das wachsende Problem des Informationsüberlaufs lösen könnten.

DNA-Struktur als Basis für zukünftige Data Warehouses


Nicht nur IT-Unternehmen suchen nach neuen Möglichkeiten zum Speichern und Verarbeiten von Informationen, sondern auch viele Wissenschaftler. Die globale Herausforderung besteht darin, die Aufbewahrung von Informationen über Jahrtausende hinweg sicherzustellen. Forscher der Schweizerischen Hochschule Zürich (ETH Zürich, Schweiz) glauben, dass die Lösung in dem organischen Datenspeichersystem gesucht werden muss, das in jeder lebenden Zelle vorhanden ist: in der DNA. Und vor allem - dieses System wurde lange vor dem Computer "erfunden".



DNA-Stränge sind sehr komplex, kompakt und unglaublich dicht wie Informationsträger: Laut Wissenschaftlern können 455 Exabyte Daten in Gramm DNA geschrieben werden, wobei 1 eB einer Milliarde Gigabyte entspricht. Die ersten Experimente hatten es uns bereits ermöglicht, 83 KByte Informationen in DNA aufzuzeichnen. Danach äußerte der Professor des Fachbereichs Chemie und Biowissenschaften, Robert Grass, die Idee, dass der medizinische Bereich im neuen Jahrzehnt enger in die IT-Struktur integriert werden muss, um gemeinsame Entwicklungen auf dem Gebiet der Aufzeichnungstechnologien und -technologien durchzuführen Datenspeicher.

Laut Wissenschaftlern könnten organische Datenspeicherketten, die auf DNA-Ketten basieren, Informationen für bis zu eine Million Jahre speichern und bei der ersten Anforderung genau bereitstellen. Es ist möglich, dass die meisten Laufwerke in einigen Jahrzehnten genau um diese Gelegenheit kämpfen werden: die Fähigkeit, Daten über einen langen Zeitraum zuverlässig und effizient zu speichern.



Die Schweizer sind nicht die einzigen, die an der Entwicklung von DNA-basierten Speichersystemen arbeiten. Diese Frage wurde seit 1953 aufgeworfen, als Francis Crick die Doppelhelix der DNA entdeckte. Aber in diesem Moment hatte die Menschheit einfach nicht genug Wissen für solche Experimente. Das traditionelle Denken auf dem Gebiet der DNA-basierten Datenspeicherung konzentriert sich auf die Synthese neuer DNA-Moleküle. Vergleichen der Bitfolge mit der Folge von vier DNA-Basenpaaren und Erstellen von genügend Molekülen, um alle Zahlen darzustellen, die gespeichert werden müssen. Im Sommer 2019 gelang es den Ingenieuren von CATALOG, 16 GB der englischsprachigen „Wikipedia“ in DNA zu schreiben, die aus synthetischen Polymeren hergestellt wurde. Das Problem ist, dass dieser Prozess langsam und teuer ist, was einen erheblichen Engpass bei der Datenspeicherung darstellt.

…:


Forscher der Brown University (Brown University, USA) sagen, dass ein DNA-Molekül nicht die einzige Option für die molekulare Speicherung von Daten für bis zu einer Million Jahre ist. Metaboliten mit niedrigem Molekulargewicht können auch als organische Speicher dienen. Wenn Informationen in eine Reihe von Metaboliten geschrieben werden, beginnen Moleküle miteinander zu interagieren und produzieren neue elektrisch neutrale Partikel, die die darin aufgezeichneten Daten enthalten.



Übrigens haben die Forscher hier nicht aufgehört und den Bereich der organischen Moleküle erweitert, wodurch die Dichte der aufgezeichneten Daten erhöht werden konnte. Das Lesen solcher Informationen ist durch chemische Analyse möglich. Der einzige Nachteil ist, dass die Implementierung eines solchen organischen Speichers außerhalb der Laborbedingungen in der Praxis noch nicht möglich ist. Dies ist nur eine Betriebszeit für die Zukunft.

Optischer 5D-Speicher: eine Revolution in der Datenspeicherung


Ein weiteres experimentelles Repository gehört Entwicklern der University of Southampton (Universität von Southampton, England). Um ein innovatives digitales Informationsspeichersystem zu schaffen, das über Millionen von Jahren existieren kann, haben Wissenschaftler ein Verfahren zum Schreiben von Daten auf eine winzige Quarzscheibe entwickelt, das auf einer Femtosekunden-Pulsaufzeichnung basiert. Das Speichersystem dient zur Archivierung und Kaltlagerung großer Datenmengen und wird als fünfdimensionale Speicherung bezeichnet.



Warum fünfdimensional? Tatsache ist, dass Informationen in mehreren Schichten codiert werden, einschließlich der üblichen drei Dimensionen. Zu diesen Messungen kommen zwei weitere hinzu - die Größe und Ausrichtung der Nanopunkte. Die Datenkapazität, die auf ein solches Mini-Laufwerk geschrieben werden kann, beträgt bis zu 100 Petabyte, und die Speicherdauer beträgt 13,8 Milliarden Jahre bei Temperaturen bis zu 190 ° C. Die maximale Erwärmungstemperatur, der die Scheibe standhalten kann, beträgt 982 ° C. Kurz gesagt ... es ist fast ewig!



Vor kurzem hat die Arbeit der University of Southampton die Aufmerksamkeit von Microsoft auf sich gezogen, dessen Cloud-Speicherprogramm Project Silica darauf abzielt, aktuelle Speichertechnologien zu überdenken. Nach den Prognosen der „weichen“ werden bis 2023 mehr als 100 Zetabyte an Informationen in den Clouds gespeichert, so dass selbst große Speichersysteme Schwierigkeiten haben werden.

Weitere Informationen zu Produkten von Kingston Technology finden Sie auf der offiziellen Website des Unternehmens.

All Articles