Nouvelles technologies de stockage: y a-t-il une percée en 2020?

Depuis plusieurs décennies, les progrès des technologies de stockage de l'information se mesurent tout d'abord en termes de capacité de stockage et de vitesse de lecture / écriture des données. Au fil du temps, ces paramètres d'évaluation ont été complétés par des technologies et des méthodologies qui rendent les disques durs et SSD plus intelligents, plus flexibles et plus faciles à gérer. Chaque année, les fabricants de lecteurs suggèrent traditionnellement que le marché des mégadonnées changera, et 2020 ne fait pas exception. Les responsables informatiques recherchent avec impatience des moyens efficaces de stocker et de gérer d'énormes flux de données et, par conséquent, promettent à nouveau de changer le cours des systèmes de stockage. Dans cet article, nous avons rassemblé les technologies les plus avancées pour publier des informations, ainsi que parler des concepts de lecteurs futuristes, qui n'ont pas encore trouvé leur réalisation physique.



Réseaux de stockage définis par logiciel


Si nous parlons des processus d'automatisation, de flexibilité et d'augmentation de la capacité de stockage des informations, couplés à une augmentation de l'efficacité du personnel, de plus en plus d'entreprises envisagent la possibilité de passer aux soi-disant réseaux de stockage définis par logiciel ou SDS (Software-Defined Storage).



Une caractéristique clé de la technologie SDS est la séparation du matériel du logiciel: c'est-à-dire que la virtualisation des fonctions de stockage est implicite . De plus, contrairement aux systèmes de stockage conventionnels avec une connexion réseau (NAS) ou des réseaux de stockage (SAN), SDS est conçu pour fonctionner dans n'importe quel système x86 standard. Très souvent, l'objectif du déploiement de SDS est d'améliorer les dépenses d'exploitation (OpEx), ce qui nécessite moins d'efforts administratifs.

La capacité des disques durs augmentera jusqu'à 32 To


Les lecteurs magnétiques traditionnels ne sont pas morts du tout, mais connaissent seulement une renaissance technologique. Les disques durs modernes peuvent déjà offrir aux utilisateurs jusqu'à 16 To de stockage de données. Au cours des cinq prochaines années, cette capacité doublera. Dans le même temps, les disques durs resteront toujours le stockage à accès aléatoire le plus abordable et conserveront leur primauté dans le prix par gigaoctet d'espace disque pendant de nombreuses années encore.

L'extension des capacités sera basée sur des technologies déjà connues:

  • Stockage d'hĂ©lium (l'hĂ©lium rĂ©duit la traĂ®nĂ©e aĂ©rodynamique et les turbulences, vous permettant d'installer plus de plaques magnĂ©tiques dans le lecteur; tandis que la consommation de chaleur et d'Ă©nergie n'augmente pas);
  • Stockage thermomagnĂ©tique (ou disque dur HAMR, dont l'apparition est attendue en 2021 et repose sur le principe de l'enregistrement de donnĂ©es micro-ondes, lorsqu'une section du disque est chauffĂ©e par un laser et magnĂ©tisĂ©e);
  • Un disque dur Ă  base de tuiles (ou lecteurs SMR, oĂą les pistes de donnĂ©es sont placĂ©es les unes au-dessus des autres, au format tuiles; cela garantit une haute densitĂ© d'enregistrement des informations).

Les périphériques de stockage d'hélium sont particulièrement demandés dans les centres de données cloud, et les disques durs SMR sont optimaux pour le stockage de grandes archives et bibliothèques de données, l'accès et la mise à jour des données, qui ne sont pas nécessaires très souvent. Ils sont également idéaux pour créer des sauvegardes.

Les disques NVMe deviennent plus rapides


Les premiers SSD ont été connectés aux cartes mères via SATA ou SAS, mais ces interfaces ont été développées il y a plus de 10 ans pour les disques durs magnétiques. Le protocole NVMe moderne est un protocole de communication beaucoup plus puissant conçu pour les systèmes qui fournissent un traitement de données à haute vitesse. En conséquence, au tournant de 2019-2020, nous constatons une baisse sérieuse des prix des SSD NVMe, qui deviennent disponibles pour toutes les catégories d'utilisateurs. Dans le segment des entreprises, les solutions NVMe sont particulièrement appréciées par les entreprises qui ont besoin d'une analyse Big Data en temps réel.

Des entreprises telles que Kingston et Samsung ont déjà montré sur quoi les utilisateurs d'entreprise peuvent compter en 2020: nous attendons tous l'apparition de SSD NVMe avec prise en charge PCIe 4.0, qui permettent d'ajouter des centres de données encore plus rapidement lorsque vous travaillez avec des données. La performance revendiquée des nouveaux produits est de 4,8 Go / s, ce qui est loin d'être la limite. La prochaine génération de Kingston NVMe SSD PCIe gen 4.0 sera en mesure de fournir une bande passante à 7 Go / s.



Avec la spécification NVMe-oF (ou NVMe over Fabrics), les organisations seront en mesure de créer des réseaux de stockage haute performance avec une latence minimale, qui rivaliseront avec les centres de données avec des connexions DAS directes (ou stockage directement attaché). Dans le même temps, en utilisant NVMe-oF, les opérations d'E / S sont traitées plus efficacement, tandis que le retard est comparable aux systèmes DAS. Les analystes prévoient que le déploiement de systèmes basés sur NVMe-oF s'accélérera rapidement en 2020.

La mémoire QLC enfin "shoot"?


La mémoire flash NAND Quad Level Cell (QLC) démontrera également une popularité croissante sur le marché. QLC a été introduit en 2019 et avait donc une distribution minimale sur le marché. Cela changera en 2020, en particulier parmi les entreprises qui ont mis en œuvre la technologie LightOS Global Flash Translation Layer (GFTL) pour surmonter les problèmes inhérents à QLC.

Selon les analystes, la croissance des ventes de disques SSD basés sur des cellules QLC augmentera de 10%, tandis que les solutions TLC "captureront" 85% du marché. Quoi qu'on en dise, le SSD QLC est encore loin derrière en termes de performances par rapport au SSD TLC et ne deviendra pas la base du centre de données dans les cinq prochaines années.


Dans le même temps, le coût de la mémoire flash NAND devrait augmenter en 2020, de sorte que le fournisseur de contrôleurs SSD Phison, par exemple, parie que les augmentations de prix pousseront finalement le marché des disques SSD grand public à utiliser le flash 4 bits. -Mémoire QLC NAND. Soit dit en passant, Intel prévoit de lancer des solutions QLC à 144 couches (au lieu de produits à 96 couches). Eh bien ... il semble que nous attendions une nouvelle marginalisation du disque dur.

MĂ©moire SCM: vitesse proche de la DRAM


La disponibilité généralisée de la mémoire SCM (Storage Class Memory) était prévue pour plusieurs années, et 2020 pourrait être le point de départ auquel ces prévisions se réaliseront enfin. Alors que les modules de mémoire Intel Optane, Toshiba XL-Flash et Samsung Z-SSD sont déjà entrés sur le marché des entreprises, leur apparence n'a pas provoqué une réaction étonnante.

Le périphérique Intel combine les fonctionnalités de DRAM rapide mais instable avec le stockage NAND plus lent mais persistant. Cette combinaison vise à augmenter la capacité des utilisateurs à travailler avec de grandes quantités de données, fournissant à la fois une vitesse DRAM et une capacité NAND. La mémoire SCM n'est pas seulement plus rapide que les alternatives basées sur NAND: elle est dix fois plus rapide. Le retard est en microsecondes, pas en millisecondes.



Les experts du marché notent que les centres de données prévoyant d'utiliser SCM seront limités dans la mesure où cette technologie ne fonctionnera que sur des serveurs utilisant des processeurs Intel de la génération Cascade Lake. Cependant, à leur avis, cela ne deviendra pas une pierre d'achoppement pour arrêter la vague de mises à jour des centres de données existants afin d'assurer un traitement rapide des informations.

De la réalité prévisible au futur lointain


Pour la plupart des utilisateurs, le stockage de données n'est pas associé à un sentiment d '«Armageddon capacitif». Mais pensez-y: les 3,7 milliards de personnes qui utilisent actuellement Internet génèrent quotidiennement environ 2,5 quintillions d'octets de données. Pour répondre à ce besoin, davantage de centres de données sont nécessaires.

Selon les statistiques, d'ici 2025, le monde est prêt à traiter 160 zétaoctets de données par an (c'est plus d'octets que d'étoiles dans l'univers observable). Il est probable que nous devrons encore couvrir chaque mètre carré de la planète Terre avec des centres de données, sinon les entreprises ne pourront tout simplement pas s'adapter à une telle croissance de l'information. Ou ... vous devez renoncer à certaines données. Cependant, il existe plusieurs technologies potentiellement intéressantes qui pourraient résoudre le problème croissant du débordement d'informations.

La structure de l'ADN comme base pour les futurs entrepôts de données


Non seulement les sociétés informatiques recherchent de nouvelles façons de stocker et de traiter les informations, mais également de nombreux scientifiques. Le défi mondial est d'assurer la préservation de l'information pendant des millénaires. Les chercheurs de l'Ecole supérieure technique suisse de Zurich (ETH Zurich, Suisse) pensent que la solution doit être recherchée dans le système de stockage de données organiques qui existe dans chaque cellule vivante: dans l'ADN. Et surtout - ce système a été "inventé" bien avant l'ordinateur.



Les brins d'ADN sont très complexes, compacts et incroyablement denses, comme les supports d'information: selon les scientifiques, 455 exaoctets de données peuvent être écrits en grammes d'ADN, où 1 eB équivaut à un milliard de gigaoctets. Les premières expériences nous avaient déjà permis d'enregistrer 83 kilo-octets d'informations dans l'ADN, après quoi le professeur du Département de chimie et des sciences biologiques, Robert Grass, a exprimé l'idée que dans la nouvelle décennie, le domaine médical doit être plus étroitement intégré à la structure informatique pour des développements communs dans le domaine des technologies d'enregistrement et stockage de données.

Selon les scientifiques, les chaînes de stockage de données organiques basées sur des chaînes d'ADN pourraient être en mesure de stocker des informations jusqu'à un million d'années et de les fournir avec précision à la première demande. Il est possible que dans quelques décennies, la plupart des disques aient du mal à saisir cette opportunité: la capacité de stocker des données de manière fiable et capacitive pendant une longue période.



Les Suisses ne sont pas les seuls à travailler pour créer des systèmes de stockage basés sur l'ADN. Cette question se pose depuis 1953, lorsque Francis Crick a découvert la double hélice de l'ADN. Mais à ce moment, l'humanité n'avait tout simplement pas suffisamment de connaissances pour de telles expériences. La pensée traditionnelle dans le domaine du stockage de données basé sur l'ADN se concentre sur la synthèse de nouvelles molécules d'ADN; comparer la séquence de bits avec la séquence de quatre paires de bases d'ADN et créer suffisamment de molécules pour représenter tous les nombres qui doivent être sauvegardés. Ainsi, à l'été 2019, les ingénieurs de CATALOG ont réussi à écrire 16 Go de «Wikipedia» de langue anglaise dans l'ADN créé à partir de polymères synthétiques. Le problème est que ce processus est lent et coûteux, ce qui constitue un goulot d'étranglement important en matière de stockage de données.

…:


Des chercheurs de la Brown University (Brown University, USA) disent qu'une molécule d'ADN n'est pas la seule option pour le stockage moléculaire des données jusqu'à un million d'années. Les métabolites de faible poids moléculaire peuvent également servir de stockage organique. Lorsque des informations sont écrites sur un ensemble de métabolites, les molécules commencent à interagir les unes avec les autres et produisent de nouvelles particules électriquement neutres qui contiennent les données qui y sont enregistrées.



Soit dit en passant, les chercheurs ne se sont pas arrêtés là et ont élargi la gamme de molécules organiques, ce qui a permis d'augmenter la densité des données enregistrées. La lecture de ces informations est possible grâce à l'analyse chimique. Le seul point négatif est que la mise en place d'un tel dispositif de stockage organique n'est pas encore possible en pratique, en dehors des conditions de laboratoire. Ce n'est qu'un temps de fonctionnement pour l'avenir.

Mémoire optique 5D: une révolution dans le stockage de données


Un autre référentiel expérimental appartient aux développeurs de l'Université de Southampton (Université de Southampton, Angleterre). Dans le but de créer un système de stockage d'informations numérique innovant qui peut exister pendant des millions d'années, les scientifiques ont développé un processus pour écrire des données sur un minuscule disque de quartz, qui est basé sur l'enregistrement d'impulsions femtosecondes. Le système de stockage est conçu pour l'archivage et le stockage à froid de gros volumes de données et est décrit comme un stockage à cinq dimensions.



Pourquoi en cinq dimensions? Le fait est que l'information est codée en plusieurs couches, y compris les trois dimensions habituelles. Deux autres sont ajoutées à ces mesures - la taille et l'orientation des nanodots. La capacité de données qui peut être écrite sur un tel mini-lecteur peut atteindre 100 pétaoctets et la période de stockage est de 13,8 milliards d'années à des températures allant jusqu'à 190 ° C. La température maximale de chauffage que le disque peut supporter est de 982 ° C. Bref ... c'est presque éternel!



Récemment, les travaux de l'Université de Southampton ont attiré l'attention de Microsoft, dont le programme de stockage cloud Project Silica vise à repenser les technologies de stockage actuelles. Selon les prévisions des «soft», d'ici 2023 plus de 100 zétaoctets d'informations seront stockés dans les nuages, de sorte que même les systèmes de stockage à grande échelle auront des difficultés.

Pour plus d'informations sur les produits Kingston Technology, visitez le site officiel de l'entreprise.

All Articles