Durée de vie des octets de données



Tout fournisseur de cloud propose un service de stockage de données. Il peut s'agir d'un stockage froid et chaud, glacé, etc. Il est assez pratique de stocker des informations dans le cloud. Mais comment ont-ils stocké les données il y a 10, 20, 50 ans? Cloud4Y a traduit un article intéressant à ce sujet.

Un octet de données peut être stocké de différentes manières, car de nouveaux supports de stockage plus avancés et plus rapides apparaissent tout le temps. Un octet est une unité de stockage et de traitement d'informations numériques, composée de huit bits. En un bit, 0 ou 1 peut être écrit.

Dans le cas des cartes perforées, le bit est stocké en tant que présence / absence d'un trou dans la carte à un emplacement spécifique. Si nous remontons un peu plus loin dans la machine analytique Babbage, les registres qui stockent les numéros étaient des engrenages. Dans les dispositifs de stockage magnétiques tels que les bandes et les disques, les bits sont représentés par la polarité d'une zone spécifique du film magnétique. Dans la mémoire vive moderne (DRAM), un bit est souvent représenté comme une charge électrique à deux niveaux stockée dans un appareil qui stocke l'énergie électrique dans un champ électrique. Un réservoir chargé ou déchargé contient un bit de données.

En juin 1956, Werner Buchholz a inventé le mot octet pour désigner un groupe de bits utilisé pour coder un seul caractère de texte.. Parlons un peu de l'encodage des caractères. Commençons par le code standard américain pour l'échange d'informations. ASCII était basé sur l'alphabet anglais, donc chaque lettre, chiffre et symbole (az, AZ, 0-9, +, -, /, ",!, Etc.) était représenté comme un entier de 7 bits de 32 à 127. Il n'était pas assez «convivial» pour les autres langues. Pour prendre en charge d'autres langues, Unicode étendu ASCII. Dans Unicode, chaque caractère est représenté comme un point de code ou un caractère, par exemple, j minuscule - U + 006A, où U signifie Unicode suivi d'un nombre hexadécimal.

UTF-8 est une norme pour représenter des caractères sous la forme de huit bits, vous permettant de stocker chaque point de code dans la plage 0-127 dans un octet. Si nous rappelons ASCII, cela est tout à fait normal pour les caractères anglais, mais les caractères dans une autre langue sont souvent exprimés sur deux octets ou plus. UTF-16 est la norme pour représenter les caractères en 16 bits, et UTF-32 est la norme pour représenter les caractères en 32 bits. En ASCII, chaque caractère est un octet et en Unicode, qui n'est souvent pas entièrement vrai, un caractère peut occuper 1, 2, 3 ou plusieurs octets. L'article utilisera différents regroupements dimensionnels de bits. Le nombre de bits dans un octet varie en fonction de la conception du support.

Dans cet article, nous voyagerons dans le temps à travers différents supports de stockage afin de nous plonger dans l'histoire du stockage des données. En aucun cas, nous étudierons en profondeur chaque support d'informations individuel qui a jamais été inventé. Voici un article d'information amusant qui ne revendique en aucune façon une signification encyclopédique.

Commençons. Supposons que nous ayons un octet de données pour le stockage: la lettre j, soit comme octet codé 6a, soit comme binaire 01001010. Au cours de notre voyage dans le temps, l'octet de données sera utilisé dans certaines technologies de stockage qui seront décrites.

1951




Notre histoire commence en 1951 avec le lecteur de bande UNIVAC UNISERVO pour l'ordinateur UNIVAC 1. C'était le premier lecteur de bande conçu pour un ordinateur commercial. La bande était constituée d'une mince bande de bronze nickelé de 12,65 mm de large (appelée Vicalloy) et de près de 366 mètres de long. Nos octets de données pourraient être stockés à une vitesse de 7 200 caractères par seconde sur une bande se déplaçant à une vitesse de 2,54 mètres par seconde. À ce stade de l'histoire, vous pouvez mesurer la vitesse de l'algorithme de stockage par la distance parcourue par la bande.

1952




Avance rapide d'un an, le 21 mai 1952, quand IBM a annoncé la sortie de sa première unité de bande magnétique, l'IBM 726. Maintenant, notre octet de données peut être déplacé de la bande métallique UNISERVO vers la bande magnétique IBM. Cette nouvelle maison s'est avérée très confortable pour notre très petit octet de données, car jusqu'à 2 millions de chiffres peuvent être stockés sur la bande. Cette bande magnétique à 7 pistes se déplaçait à une vitesse de 1,9 mètre par seconde avec une vitesse de transmission de 12 500 chiffres ou 7 500 caractères (alors appelés groupes de copie) par seconde. Pour référence: dans un article moyen sur Habré environ 10 000 caractères.

La bande IBM 726 se composait de sept pistes, dont six servaient à stocker des informations et une à parité. Jusqu'à 400 mètres de ruban de 1,25 cm de large ont été placés sur une bobine Le taux de transfert de données atteignait théoriquement 12,5 mille caractères par seconde; densité d'enregistrement - 40 bits par centimètre. Dans ce système, la méthode du «canal à vide» a été utilisée, dans laquelle la boucle de la bande a circulé entre deux points. Cela a permis à la bande de démarrer et de s'arrêter en une fraction de seconde. Ceci a été réalisé en plaçant de longues colonnes à vide entre les bobines de bande et les têtes de lecture / écriture afin d'absorber l'augmentation soudaine de tension dans la bande, sans laquelle la bande éclaterait normalement. Un anneau en plastique amovible à l'arrière de la bobine de bande offrait une protection contre l'écriture. Environ 1,1 peut être stocké sur une seule bobine de bandemégaoctets .

N'oubliez pas les cassettes VHS. Que fallait-il faire pour revoir le film? Rembobinez la bande! Et combien de fois avez-vous tourné la cassette du lecteur sur un crayon, afin de ne pas gaspiller les piles et d'obtenir une bande déchirée ou coincée? On peut en dire autant des bandes utilisées pour les ordinateurs. Les programmes ne pouvaient pas simplement sauter par-dessus une partie de la bande autour de la bande ou accéder accidentellement aux données, ils pouvaient lire et écrire des données de manière strictement séquentielle.

1956




En avançant de plusieurs années, en 1956, l'ère du stockage sur disque magnétique a commencé avec l'achèvement par IBM du développement du système informatique RAMAC 305, que Zellerbach Paper livrera à San Francisco . Cet ordinateur a été le premier à utiliser un disque dur à tête mobile. Le lecteur de disque RAMAC était composé de cinquante plaques métalliques magnétisées de 60,96 cm de diamètre, capables de stocker environ cinq millions de caractères de données, 7 bits par caractère, et tournant à une vitesse de 1200 tr / min. La capacité de stockage était d'environ 3,75 mégaoctets.

RAMAC permettait d'accéder en temps réel à de grandes quantités de données, contrairement aux bandes magnétiques ou aux cartes perforées. IBM vante RAMAC comme un appareil capable de stocker l'équivalent de 64 000cartes perforées . RAMRAC a précédemment introduit le concept de traitement continu des transactions à mesure qu'il progresse, de sorte que les données peuvent être récupérées immédiatement alors qu'elles sont encore fraîches. Maintenant, l'accès à nos données dans RAMAC pourrait être effectué à une vitesse de 100 000 bits par seconde . Auparavant, lors de l'utilisation de bandes, nous devions écrire et lire des données séquentielles, et nous ne pouvions pas accidentellement accéder à différentes sections de la bande. L'accès aléatoire aux données en temps réel était vraiment révolutionnaire à l'époque.

1963




Avançons rapidement jusqu'en 1963 lorsque DECtape a été introduit. Le nom vient de Digital Equipment Corporation, connu sous le nom de DEC. DECtape était peu coûteux et fiable, c'est pourquoi il a été utilisé dans de nombreuses générations d'ordinateurs DEC. Il s'agissait d'un ruban de 19 mm laminé et pris en sandwich entre deux couches de mylar sur une bobine de 10,16 cm.

Contrairement à ses lourds prédécesseurs, la bande DECtape peut être transportée manuellement. Cela en fait une excellente option pour les ordinateurs personnels. Contrairement aux homologues à 7 pistes, DECtape avait 6 pistes de données, 2 pistes d'étiquette et 2 pour les impulsions d'horloge. Les données ont été enregistrées à 350 bps (138 bps). Notre octet de données, qui est de 8 bits, mais peut être étendu à 12, pourrait être transmis à DECtape à une vitesse de 8325 mots de 12 bits par seconde à une vitesse de bande de 93 (± 12) pouces par seconde . C'est 8% de chiffres de plus par seconde que sur la bande métallique UNISERVO en 1952.
 

1967




Quatre ans plus tard, en 1967, une petite équipe IBM a commencé à travailler sur un lecteur IBM, nommé Minnow . L'équipe a ensuite été chargée de développer un moyen fiable et peu coûteux de charger des microcodes dans les ordinateurs centraux IBM System / 370. Par la suite, le projet a été réassigné et repensé pour télécharger le microcode dans le contrôleur pour le IBM 3330 Direct Access Storage Facility, nommé Merlin.

Désormais, notre octet peut être stocké sur des disquettes Mylar à revêtement magnétique de 8 pouces en lecture seule, connues aujourd'hui sous le nom de disquettes. Au moment de sa sortie, le produit s'appelait IBM 23FD Floppy Disk Drive System. Les disques pouvaient contenir 80 kilo-octets de données. Contrairement aux disques durs, l'utilisateur peut facilement transférer une disquette dans une coque de protection d'un lecteur à un autre. Plus tard, en 1973, IBM a publié une disquette de lecture / écriture, qui est ensuite devenue la norme de l'industrie .
 

1969



 En 1969, un ordinateur de bord AGC (Apollo Guidance Computer) avec mémoire de corde a été lancé à bord du vaisseau spatial Apollo 11, qui a livré des astronautes américains sur la Lune et à l'arrière. Cette mémoire de corde a été faite à la main et pouvait contenir 72 kilo-octets de données. La production de la mémoire de corde était longue, lente et exigeait des compétences similaires au tissage; des mois pourraient prendre des mois pour tisser le programme dans une mémoire de corde . Mais c'était le bon outil pour ces moments où il était important de tenir un maximum dans un espace étroitement limité. Lorsque le fil a traversé l'une des veines circulaires, il était de 1. Le fil passant autour de la veine était égal à 0. Notre octet de données a nécessité quelques minutes de tissage dans la corde d'une personne.

1977




Commodore PET, le premier ordinateur personnel (réussi), a été lancé en 1977. PET a utilisé la Commodore 1530 Datasette, ce qui signifie données et cassette. Le PET a converti les données en signaux audio analogiques, qui ont ensuite été stockés sur des cassettes . Cela nous a permis de créer une solution économique et fiable pour le stockage de données, même si elle est très lente. Notre petit octet de données pourrait être transmis à une vitesse d'environ 60 à 70 octets par seconde . Les cassettes pouvaient contenir environ 100 kilo-octets sur le côté de 30 minutes, avec deux côtés par bande. Par exemple, sur un côté de la cassette, environ deux images de 55 Ko peuvent être placées. Datasette a également été utilisé sur le Commodore VIC-20 et le Commodore 64.

1978




Un an plus tard, en 1978, MCA et Philips ont introduit LaserDisc sous le nom de Discovision. Jaws a été le premier film vendu sur LaserDisc aux États-Unis. La qualité du son et de la vidéo était bien meilleure que celle de ses concurrents, mais le disque laser était trop cher pour la plupart des consommateurs. Il était impossible d'enregistrer sur LaserDisc, contrairement aux cassettes VHS sur lesquelles les gens enregistraient des programmes de télévision. Disques laser ont travaillé avec la vidéo analogique, le son stéréo analogique FM, et par impulsion codée modulation , ou PCM, audio numérique. Les disques avaient un diamètre de 12 pouces (30,47 cm) et se composaient de deux disques en aluminium à simple face recouverts de plastique. Aujourd'hui, LaserDisc est considéré comme la base des CD et DVD.

1979




Un an plus tard, en 1979, Alan Schugart et Finis Conner fondaient Seagate Technology avec l'idée de faire évoluer un disque dur à une taille de disquette de 5 ¼ pouces, ce qui était alors standard. Leur premier produit en 1980 était le disque dur Seagate ST506, le premier disque dur pour ordinateurs compacts. Le disque contenait cinq mégaoctets de données, ce qui à l'époque était cinq fois plus grand qu'une disquette standard. Les fondateurs ont réussi à atteindre leur objectif - réduire la taille du disque à la taille d'une disquette de 5¼ pouces. Le nouveau dispositif de stockage de données était une plaque métallique rigide revêtue des deux côtés d'une fine couche de matériau magnétique pour le stockage de données. Nos octets de données pouvaient être transférés sur disque à une vitesse de 625 kilo-octets par seconde . Il s'agit d' un tel GIF .

1981




Avance rapide de quelques années, jusqu'en 1981, lorsque Sony a introduit les premières disquettes de 3,5 pouces. Hewlett-Packard a été la première à suivre cette technologie en 1982 avec son HP-150. Cela a glorifié les disquettes de 3,5 pouces et leur a donné une large distribution dans l' industrie . Les disquettes étaient unilatérales avec une capacité formatée de 161,2 kilo-octets et une capacité non formatée de 218,8 kilo-octets. Une version double face a été publiée en 1982 et le consortium de Microfloppy Industry Committee (MIC), composé de 23 sociétés de médias, a basé la spécification de la disquette de 3,5 pouces sur la conception originale de Sony, fixant le format dans l'histoire telle que nous la connaissons.. Désormais, nos octets de données peuvent être stockés sur une version antérieure de l'un des supports les plus courants: une disquette de 3,5 pouces. Plus tard, une paire de disquettes de 3,5 pouces avec l' Oregon Trail est devenue la partie la plus importante de mon enfance.

1984




Peu de temps après, en 1984, un CD contenant des données en lecture seule a été annoncé (Compact Disc Read-Only Memory, CD-ROM). Il s'agissait de CD-ROM de 550 mégaoctets de Sony et Philips. Le format s'est développé à partir de CD audio numériques, ou CD-DA, qui étaient utilisés pour distribuer de la musique. Le CD-DA a été développé par Sony et Philips en 1982 avec une capacité de 74 minutes. Selon la légende, lorsque Sony et Philips négociaient la norme CD-DA, une personne sur quatre insistait sur le fait qu'elle pouvait accueillir l' intégralité de la neuvième symphonie. Le premier produit sorti sur le CD était la Grolier Electronic Encyclopedia, sorti en 1985. L'encyclopédie contient neuf millions de mots, ce qui ne prend que 12% de l'espace disque disponible, soit 553mégaoctet . Nous aurions plus qu'assez d'espace pour l'encyclopédie et l'octet de données. Peu de temps après, en 1985, les sociétés informatiques ont travaillé ensemble pour créer une norme pour les disques afin que tout ordinateur puisse y lire des informations.

1984


Toujours en 1984, Fujio Masuoka a développé un nouveau type de mémoire avec un obturateur flottant appelé mémoire flash, qui a pu être effacé et réécrit plusieurs fois.

Arrêtons-nous sur la mémoire flash à l'aide d'un transistor à grille flottante. Les transistors sont des grilles électriques qui peuvent être activées et désactivées individuellement. Étant donné que chaque transistor peut être dans deux états différents (marche et arrêt), il peut stocker deux nombres différents: 0 et 1. La grille flottante fait référence à la deuxième grille ajoutée au transistor central. Cette seconde grille est isolée d'une fine couche d'oxyde. Ces transistors utilisent une petite tension appliquée à la grille du transistor pour indiquer s'il est passant ou non, ce qui, à son tour, se traduit par 0 ou 1.
 
Avec les portes flottantes, lorsque la tension correspondante est appliquée à travers la couche d'oxyde, les électrons la traversent et se coincent sur les portes. Par conséquent, même lorsque l'alimentation est coupée, les électrons restent sur eux. Lorsqu'il n'y a pas d'électrons sur les grilles flottantes, ils sont 1, et lorsque les électrons sont bloqués - 0. Le cours inverse de ce processus et l'application d'une tension appropriée à travers la couche d'oxyde dans la direction opposée font passer les électrons à travers les grilles flottantes et ramènent le transistor à son état d'origine. Par conséquent, les cellules sont rendues programmables et non volatiles . Notre octet peut être programmé dans un transistor, comme 01001010, avec des électrons, avec des électrons coincés dans des grilles flottantes, pour représenter des zéros.

La conception de Masuoka était légèrement plus abordable, mais moins flexible que la PROM effaçable électriquement (EEPROM), car elle nécessitait plusieurs groupes de cellules qui devaient être effacées ensemble, mais cela était également dû à sa vitesse.

Masuoka travaillait pour Toshiba à l'époque. Finalement, il est allé travailler à l'Université de Tohoku, car il était mécontent que la société ne l'ait pas récompensé pour son travail. Masuoka poursuit Toshiba pour compensation. En 2006, il a été payé 87 millions de yuans, soit 758 milliers de dollars américains. Cela semble toujours sans importance compte tenu de l'influence de la mémoire flash dans l'industrie.

Puisque nous parlons de flash, il convient également de noter la différence entre le flash NOR et le flash NAND. Comme nous le savons déjà de Masuoka, le flash stocke des informations dans des cellules de mémoire constituées de transistors à grille flottante. Les noms de technologie sont directement liés à l'organisation des cellules de mémoire.

Dans la mémoire flash NOR, les cellules de mémoire individuelles sont connectées en parallèle, offrant un accès aléatoire. Cette architecture réduit le temps de lecture requis pour un accès aléatoire aux instructions du microprocesseur. La mémoire flash NOR est idéale pour les applications à faible densité, qui sont pour la plupart en lecture seule. C'est pourquoi la plupart des CPU chargent leur firmware, en règle générale, à partir de la mémoire flash NOR. Masuoka et ses collègues ont présenté l'invention du flash NOR en 1984 et du flash NAND en 1987.

Les développeurs NAND Flash ont abandonné la possibilité d'un accès aléatoire pour obtenir une taille de cellule de mémoire plus petite. Cela donne une taille de puce plus petite et un coût par bit inférieur. L'architecture flash NAND se compose de transistors de mémoire en huit parties connectés en série. Grâce à cela, une densité de stockage élevée, une taille de cellule de mémoire plus petite, ainsi qu'un enregistrement et un effacement plus rapides des données sont atteints, car il peut simultanément programmer des blocs de données. Ceci est obtenu en raison de la nécessité d'écraser les données lorsqu'elles ne sont pas écrites séquentiellement et que les données existent déjà dans le bloc .

1991


Passons à 1991, lorsqu'un prototype de disque SSD a été créé par SanDisk, alors connu sous le nom de SunDisk . La conception combinait une matrice de mémoire flash, des puces de mémoire non volatiles et un contrôleur intelligent pour détecter et réparer automatiquement les cellules défectueuses. La capacité du disque était de 20 mégaoctets avec un facteur de forme de 2,5 pouces et son coût était estimé à environ 1 000 $. Ce disque a été utilisé par IBM sur un ordinateur ThinkPad .

1994




Un de mes médias préférés depuis l'enfance était Zip Disks. En 1994, Iomega a sorti le Zip Disk, une cartouche de 100 mégaoctets dans un facteur de forme de 3,5 pouces, environ un peu plus épais qu'un disque standard de 3,5 pouces. Les disques ultérieurs pouvaient stocker jusqu'à 2 gigaoctets. La commodité de ces disques est qu'ils avaient la taille d'une disquette, mais avaient la capacité de stocker plus de données. Nos octets de données peuvent être écrits sur un lecteur Zip à une vitesse de 1,4 mégaoctets par seconde. À titre de comparaison: à ce moment-là, 1,44 mégaoctets d'une disquette de 3,5 pouces ont été enregistrés à une vitesse d'environ 16 kilo-octets par seconde. Sur un disque Zip, les têtes lisent / écrivent des données sans contact, comme si elles volaient au-dessus de la surface, ce qui est similaire au fonctionnement d'un disque dur, mais diffère du principe de fonctionnement des autres disquettes. Bientôt, les disques Zip sont devenus obsolètes en raison de problèmes de fiabilité et de disponibilité.

1994




La même année, SanDisk a introduit CompactFlash, qui était largement utilisé dans les caméras vidéo numériques. Comme pour les disques compacts, la vitesse du CompactFlash est basée sur des valeurs x telles que 8x, 20x, 133x, etc. La vitesse de transfert de données maximale est calculée en fonction de la vitesse de transmission du CD audio d'origine, 150 kilo-octets par seconde. Le taux de transfert ressemble à R = Kx150 kB / s, où R est le taux de transfert et K est la vitesse nominale. Ainsi, pour le 133x CompactFlash, notre octet de données sera écrit à 133x150 kB / s ou environ 19 950 kB / s ou 19,95 Mb / s. L'association CompactFlash a été fondée en 1995 dans le but de créer une norme industrielle pour les cartes mémoire flash.

1997


Quelques années plus tard, en 1997, un disque compact réinscriptible (CD-RW) est sorti. Ce disque optique a été utilisé pour stocker des données, ainsi que pour copier et transférer des fichiers vers divers appareils. Les CD peuvent être réécrits environ 1000 fois, ce qui à l'époque n'était pas un facteur limitant, car les utilisateurs doublaient rarement les données.

Les CD-RW sont basés sur la technologie de réflexion de surface. Dans le cas du CD-RW, les déphasages dans un revêtement spécial composé d'argent, de tellure et d'indium provoquent la capacité de réfléchir ou non le faisceau de lecture, ce qui signifie 0 ou 1. Lorsque le composé est à l'état cristallin, il est translucide, ce qui signifie 1. Lorsque le composé fond dans un état amorphe, il devient opaque et non réfléchissant, ce quisignifie 0. Ainsi, nous pourrions écrire notre octet de données comme 01001010. Les

DVD ont finalement occupé la majeure partie du marché avec les CD-RW.

1999


Passons à 1999, date à laquelle IBM a présenté les plus petits disques durs du monde à l'époque: les microdisques IBM d'une capacité de 170 et 340 Mo. Il s'agissait de petits disques durs de 2,54 cm conçus pour être installés dans des emplacements CompactFlash Type II. Il était prévu de créer un appareil qui sera utilisé comme CompactFlash, mais avec une plus grande capacité de mémoire. Cependant, ils ont été bientôt remplacés par des lecteurs flash USB, puis par des cartes CompactFlash plus grandes lorsqu'elles sont devenues disponibles. Comme les autres disques durs, les microdisques étaient mécaniques et contenaient de petits disques rotatifs.

2000


Un an plus tard, en 2000, les lecteurs flash USB ont été introduits. Les lecteurs étaient constitués d'une mémoire flash enfermée dans un petit format avec une interface USB. Selon la version de l'interface USB utilisée, la vitesse peut varier. L'USB 1.1 est limité à 1,5 mégabits par seconde, tandis que l'USB 2.0 peut gérer 35 mégabits par seconde et l'USB 3.0 peut gérer 625 mégabits par seconde. Les premiers lecteurs USB 3.1 de type C ont été annoncés en mars 2015 et avaient une vitesse de lecture / écriture de 530 mégabits par seconde. Contrairement aux disquettes et aux disques optiques, les périphériques USB sont plus difficiles à rayer, mais en même temps, ils ont les mêmes capacités de stockage de données, ainsi que de transfert et de sauvegarde de fichiers. Les lecteurs de disquette et de CD-ROM ont été rapidement remplacés par les ports USB.

2005




En 2005, les fabricants de disques durs (HDD) ont commencé à expédier des produits à l'aide de l'enregistrement magnétique perpendiculaire, ou PMR. Chose intéressante, cela s'est produit en même temps que l'iPod Nano annonçait l'utilisation d'une mémoire flash au lieu de disques durs de 1 pouce dans l'iPod Mini.

Un disque dur typique contient un ou plusieurs disques durs recouverts d'un film magnétiquement sensible composé de minuscules grains magnétiques. Les données sont enregistrées lorsqu'une tête d'enregistrement magnétique vole juste au-dessus d'un disque rotatif. C'est très similaire à un gramophone traditionnel, la seule différence est que dans le gramophone, l'aiguille est en contact physique avec le disque. Lorsque les disques tournent, l'air en contact avec eux crée une légère brise. Tout comme l'air sur l'aile d'un avion crée une portance, l'air génère une portance sur la tête de la surface aérodynamique de la tête de disque . La tête modifie rapidement l'aimantation d'une région magnétique des grains de sorte que son pôle magnétique pointe vers le haut ou vers le bas, indiquant 1 ou 0.
 
Le prédécesseur du PMR était l'enregistrement magnétique longitudinal, ou LMR. La densité d'enregistrement PMR peut dépasser la densité d'enregistrement LMR de plus de trois fois. La principale différence entre PMR et LMR est que la structure des grains et l'orientation magnétique des données de média PMR stockées sont en colonnes plutôt que longitudinales. Le PMR a une meilleure stabilité thermique et un meilleur rapport signal / bruit (SNR) grâce à une meilleure séparation et uniformité des grains. Il présente également une meilleure capacité d'enregistrement grâce à des champs de tête plus forts et un meilleur alignement magnétique des supports. Comme LMR, les limitations fondamentales de PMR sont basées sur la stabilité thermique des bits de données magnétiquement enregistrés et la nécessité d'avoir suffisamment de SNR pour lire les informations enregistrées.

2007


En 2007, le premier disque dur de 1 To de Hitachi Global Storage Technologies a été annoncé. Le Hitachi Deskstar 7K1000 utilisait cinq plaques de 3,5 pouces de 200 gigaoctets et tournait à une vitesse de 7200 tr / min. Il s'agit d'un avantage majeur par rapport au premier disque dur IBM RAMAC 350 au monde, dont la capacité était d'environ 3,75 mégaoctets. Oh, combien de chemin nous avons parcouru en 51 ans! Mais attendez, il y a autre chose.

2009


En 2009, les travaux techniques ont commencé sur la création de mémoire express non volatile, ou NVMe. La mémoire non volatile (NVM) est un type de mémoire qui peut stocker des données en permanence, contrairement à la mémoire non volatile, qui a besoin d'une alimentation constante pour enregistrer les données. NVMe répond au besoin d'une interface de contrôleur hôte évolutive pour les composants périphériques basés sur des disques semi-conducteurs prenant en charge la technologie PCIe, d'où le nom NVMe. Plus de 90 entreprises ont été incluses dans le groupe de travail sur le développement du projet. Tout cela était basé sur les résultats de la définition de la spécification de l'interface de mémoire non volatile du contrôleur hôte (NVMHCIS). Les meilleurs disques NVMe à ce jour peuvent gérer environ 3 500 mégaoctets par seconde en lecture et 3 300 mégaoctets par seconde en écriture. Écrire l'octet de données j, à partir duquel nous avons commencé,peut être très rapide par rapport à quelques minutes de tissage manuel d'une mémoire de corde pour l'ordinateur de guidage Apollo.

Présent et futur


Mémoire de classe de stockage


Maintenant que nous avons voyagé dans le temps (ha!), Jetons un coup d'œil à l'état actuel de la mémoire de classe de stockage. SCM, comme NVM, est robuste, mais SCM fournit également des performances supérieures ou comparables à la mémoire principale, ainsi que l' adressabilité des octets.. L'objectif de SCM est de résoudre certains des problèmes de cache actuels, tels que la mémoire à accès aléatoire à faible densité (SRAM). En utilisant la mémoire vive dynamique (DRAM), nous pouvons obtenir une meilleure densité, mais cela est obtenu grâce à un accès plus lent. La DRAM souffre également du besoin d'une alimentation constante pour mettre à jour la mémoire. Voyons un peu. Une alimentation électrique est nécessaire, car la charge électrique sur les condensateurs fuit progressivement, c'est-à-dire sans interférence, les données sur la puce seront bientôt perdues. Pour éviter une telle fuite, la DRAM nécessite un circuit de mise à jour de la mémoire externe qui écrase périodiquement les données dans les condensateurs, les restituant à leur charge d'origine.

Mémoire à changement de phase (PCM)


Nous avons précédemment examiné comment la phase change pour les CD-RW. PCM est similaire. Le matériau pour le changement de phase est généralement Ge-Sb-Te, également connu sous le nom de GST, qui peut exister dans deux états différents: amorphe et cristallin. Un état amorphe a une résistance plus élevée dénotant 0 qu'un état cristallin dénotant 1. En attribuant des valeurs de données à des résistances intermédiaires, PCM peut être utilisé pour stocker plusieurs états sous la forme de MLC .

Mémoire à accès aléatoire de couple de transfert de spin (STT-RAM)


STT-RAM se compose de deux couches magnétiques permanentes ferromagnétiques séparées par un diélectrique, c'est-à-dire un isolant qui peut transmettre une force électrique sans conduire. Il stocke des bits de données basés sur la différence de directions magnétiques. Une couche magnétique, appelée référence, a une direction magnétique fixe, tandis que l'autre couche magnétique, appelée libre, a une direction magnétique, qui est contrôlée par le courant transmis. Pour 1, la direction d'aimantation de deux couches est alignée. Pour 0, les deux couches ont des directions magnétiques opposées.

Mémoire résistive à accès aléatoire (ReRAM)
La cellule ReRAM est constituée de deux électrodes métalliques séparées par une couche d'oxyde de métal. Un peu comme la conception de la mémoire flash Masuoka, où les électrons pénètrent dans la couche d'oxyde et se coincent dans une grille flottante ou vice versa. Cependant, lors de l'utilisation de ReRAM, l'état de la cellule est déterminé en fonction de la concentration d'oxygène libre dans la couche d'oxyde métallique.

Bien que ces technologies soient prometteuses, elles présentent toujours des inconvénients. PCM et STT-RAM ont un retard d'écriture élevé. La latence PCM est dix fois supérieure à la DRAM, tandis que la STT-RAM est dix fois supérieure à la SRAM. PCM et ReRAM ont une limite sur la durée de l'enregistrement avant qu'une erreur grave ne se produise, ce qui signifie que l'élément de mémoire est bloqué à une certaine valeur .

En août 2015, Intel a annoncé la sortie d'Optane, son produit basé sur 3DXPoint. Optane affirme que les performances sont 1 000 fois supérieures à celles des disques SSD NAND, et le prix est quatre à cinq fois supérieur à la mémoire flash. Optane est la preuve que le SCM n'est pas seulement une technologie expérimentale. Il sera intéressant d'observer le développement de ces technologies.

Disques durs (HDD)


Disque dur à l'hélium (HHDD)


Un disque d'hélium est un disque dur (HDD) de grande capacité rempli d'hélium et scellé hermétiquement pendant la production. Comme les autres disques durs, comme nous l'avons dit plus tôt, il ressemble à une plaque tournante avec une plaque tournante à revêtement magnétique. Les disques durs typiques ont simplement de l'air à l'intérieur de la cavité, mais cet air provoque une certaine résistance lorsque les plaques tournent.

Les boules d'hélium volent parce que l'hélium est plus léger que l'air. En fait, l'hélium représente 1/7 de la densité de l'air, ce qui réduit la force de freinage lors de la rotation des plaques, entraînant une diminution de la quantité d'énergie nécessaire pour faire tourner les disques. Néanmoins, cette caractéristique est secondaire, la principale caractéristique distinctive de l'hélium était qu'elle vous permet d'emballer 7 plaques dans le même facteur de forme, qui n'en contenait généralement que 5. Si nous rappelons l'analogie avec l'aile de notre avion, alors c'est un analogue idéal. L'hélium réduisant la traînée, la turbulence est exclue.

On sait aussi que les boules d'hélium commencent à tomber en quelques jours, car l'hélium les quitte. On peut en dire autant des lecteurs. Des années se sont écoulées avant que les fabricants ne soient en mesure de créer un conteneur qui empêche l'hélium de quitter le facteur de forme pendant toute la durée de vie du variateur. Backblaze a expérimenté et a constaté que les disques d'hélium avaient une erreur annuelle de 1,03%, tandis que les erreurs standard avaient 1,06%. Bien sûr, cette différence est si faible qu'il est assez difficile d'en tirer une conclusion sérieuse .

Le facteur de forme rempli d'hélium peut contenir un disque dur encapsulé à l'aide du PMR dont nous avons parlé ci-dessus, ou un enregistrement magnétique micro-ondes (MAMR) ou un enregistrement de chauffage magnétique (HAMR). Toute technologie de stockage magnétique peut être combinée avec de l'hélium au lieu de l'air. En 2014, HGST a combiné deux technologies de pointe dans son disque dur à hélium de 10 To à l'aide de l'enregistrement magnétique des dalles piloté par l'hôte, ou SMR (Shingled magnétique Recording). Arrêtons-nous un peu sur SMR, puis considérons MAMR et HAMR.

Technologie d'enregistrement magnétique en mosaïque


Plus tôt, nous avons examiné l'enregistrement magnétique perpendiculaire (PMR), qui était le prédécesseur du SMR. Contrairement à PMR, SMR enregistre de nouvelles pistes qui chevauchent une partie d'une piste magnétique précédemment enregistrée. Cela, à son tour, rend la piste précédente plus étroite, offrant une densité de pistes plus élevée. Le nom de la technologie est dû au fait que les chemins de recouvrement sont très similaires aux chemins de tuiles sur le toit.

SMR conduit à un processus d'écriture beaucoup plus compliqué, car lors de l'enregistrement sur une piste, la piste adjacente est écrasée. Cela ne se produit pas lorsque le support du disque est vide et que les données sont cohérentes. Mais dès que vous enregistrez sur une série de pistes qui contiennent déjà des données, les données voisines existantes sont effacées. Si une piste adjacente contient des données, elles doivent être réécrites. Ceci est assez similaire au flash NAND dont nous avons parlé plus tôt.

Les périphériques SMR cachent cette complexité en contrôlant le micrologiciel, ce qui donne une interface similaire à tout autre disque dur. D'un autre côté, les dispositifs SMR pilotés par l'hôte ne permettront pas l'utilisation de ces disques sans adaptation particulière des applications et des systèmes d'exploitation. L'hôte doit écrire sur les périphériques strictement séquentiellement. Dans le même temps, les performances de l'appareil sont 100% prévisibles. Seagate a commencé à expédier des disques SMR en 2013, affirmant que leur densité est 25% supérieure à celle de PMR.

Enregistrement magnétique micro-ondes (MAMR)


L'enregistrement magnétique assisté par micro-ondes (MAMR) est une technologie de mémoire magnétique qui utilise une énergie similaire à HAMR (voir ci-dessous) Une partie importante du MAMR est l'oscillateur de couple de rotation (STO) ou «générateur spin-spin». La STO elle-même est située à proximité de la tête d'enregistrement. Lorsqu'un courant est appliqué à STO, un champ électromagnétique circulaire avec une fréquence de 20–40 GHz est généré en raison de la polarisation des spins électroniques.

Sous l'influence d'un tel champ, une résonance se produit dans le ferromagnet utilisé pour le MAMR, ce qui conduit à la précession des moments magnétiques des domaines de ce champ. En fait, le moment magnétique s'écarte de son axe et pour changer de direction (flip), la tête d'enregistrement a besoin de beaucoup moins d'énergie.

L'utilisation de la technologie MAMR permet de prendre des substances ferromagnétiques avec une force coercitive supérieure, ce qui signifie qu'il est possible de réduire la taille des domaines magnétiques sans craindre de provoquer un effet superparamagnétique. Le générateur STO permet de réduire la taille de la tête d'enregistrement, ce qui permet d'enregistrer des informations sur des domaines magnétiques plus petits, et donc d'augmenter la densité d'enregistrement.

Western Digital, également connu sous le nom de WD, a introduit cette technologie en 2017. Peu de temps après, en 2018, Toshiba a pris en charge cette technologie. Alors que WD et Toshiba recherchent la technologie MAMR, Seagate parie sur HAMR.

Enregistrement thermomagnétique (HAMR)


L'enregistrement magnétique assisté par la chaleur (HAMR) est une technologie de stockage de données magnétiques à économie d'énergie qui peut augmenter considérablement la quantité de données qui peuvent être stockées sur un appareil magnétique, tel qu'un disque dur, en utilisant la chaleur fournie par le laser pour aider à écrire des données sur la surface. sous-couche de disque dur. Grâce au chauffage, les bits de données sont situés sur le substrat de disque beaucoup plus proches les uns des autres, ce qui permet d'augmenter la densité et la capacité des données.

Cette technologie est assez difficile à mettre en œuvre. Le laser de 200 mW chauffe rapidementune petite zone pouvant atteindre 400 ° C avant l'enregistrement, sans gêner ni endommager le reste des données sur le disque. Le processus de chauffage, d'enregistrement des données et de refroidissement doit être achevé en moins d'une nanoseconde. Pour résoudre ces problèmes, il a été nécessaire de développer des plasmons de surface à l'échelle nanométrique, également connus sous le nom de laser à guidage de surface, au lieu du chauffage laser direct, ainsi que de nouveaux types de plaques de verre et de revêtements à température contrôlée qui peuvent résister à un chauffage ponctuel rapide sans endommager la tête d'enregistrement ou toute autre donnée à proximité, et divers autres problèmes techniques qui devaient être surmontés.

Malgré de nombreux scepticismes, Seagate a démontré cette technologie pour la première fois en 2013. Les premiers disques ont commencé à être livrés en 2018.

La fin du film, passez au début!


Nous avons commencé en 1951 et terminons l'article en nous penchant sur l'avenir de la technologie de stockage. L'entrepôt de données a beaucoup changé au fil du temps: de la bande de papier au métal et au magnétique, à la mémoire de corde, aux disques en rotation, aux disques optiques, à la mémoire flash et autres. Au fil du progrès, des dispositifs de stockage plus rapides, plus compacts et plus efficaces sont apparus.

Si vous comparez NVMe avec une bande métallique UNISERVO 1951, NVMe peut lire 486 111% de chiffres supplémentaires par seconde. Si vous comparez NVMe avec mes disques Zip préférés, NVMe peut lire 213,623% de chiffres en plus par seconde.

La seule chose qui reste vraie est l'utilisation de 0 et 1. Les façons dont nous le faisons varient considérablement. J'espère que la prochaine fois que vous enregistrerez un CD-RW avec des chansons pour un ami ou que vous enregistrerez votre vidéo personnelle dans Optical Disc Archive, vous penserez à la façon dont une surface non réfléchissante traduit la valeur à 0 et la réfléchissante à 1. Ou si vous écrire la mixtape sur la cassette, rappelez-vous que cela est très étroitement lié à la Datasette utilisée dans Commodore PET. Enfin, n'oubliez pas d'être gentil et de rembobiner.

Merci à Robert Mustakki et Rick Alterra pour les friandises (je ne peux pas m'en empêcher) tout au long de l'article!

Quoi d'autre est utile de lire sur le blog Cloud4Y

Oeufs de Pâques sur les cartes topographiques de la Suisse
Marques d'ordinateurs des années 90, partie 1
Comment la mère du pirate est-elle allée en prison et a infecté l'ordinateur du patron
Diagnostic des connexions réseau sur le routeur virtuel EDGE
Comment la banque a "cassé"

Abonnez-vous à notre chaîne Telegram pour ne pas manquer un autre article! Nous écrivons pas plus de deux fois par semaine et uniquement pour affaires. Nous vous rappelons également que Cloud4Y peut fournir un accès à distance sûr et fiable aux applications métier et aux informations nécessaires pour assurer la continuité de l'activité. Le travail à distance est un obstacle supplémentaire à la propagation du coronavirus. Les détails sont de nos gestionnaires sur le site .

All Articles