Stockage de données externes: de l'époque d'IBM 1311 à nos jours. Partie 1


Ce qui était, ce sera;
et ce qui a été fait sera fait,
et il n'y a rien de nouveau sous le soleil.


Ecclésiaste 1: 9 La

sagesse éternelle de l'épigraphe s'applique à presque toutes les industries, y compris celle qui évolue rapidement comme les TI. En fait, il s'avère que beaucoup de savoir-faire, dont ils commencent seulement à parler maintenant, sont basés sur des inventions faites il y a plusieurs décennies et même utilisées avec succès (ou pas) dans les appareils grand public ou dans la sphère B2B. Cela s'applique également à une direction apparemment nouvelle, comme les gadgets mobiles et les supports de stockage portables, dont nous discuterons en détail dans l'article d'aujourd'hui.

Vous n'avez pas besoin d'aller loin pour des exemples. Prenez les mêmes téléphones portables. Si vous croyez que le premier appareil «intelligent», qui manquait complètement de clavier, est l'iPhone, qui n'est apparu qu'en 2007, alors vous vous trompez profondément. L'idée de créer un véritable smartphone combinant un outil de communication et des capacités PDA dans un cas n'appartient pas à Apple, mais à IBM, et le premier de ces appareils a été présenté au grand public le 23 novembre 1992 dans le cadre du salon de l'industrie des télécommunications COMDEX à Las Vegas , et dans la production de masse, ce miracle de la technologie est venu en 1994.


IBM Simon Personal Communicator - le premier smartphone à écran tactile au monde

Le communicateur personnel IBM Simon a été le premier téléphone mobile à ne pas avoir de clavier et les informations ont été entrées exclusivement à l'aide de l'écran tactile. Dans le même temps, le gadget a combiné les fonctionnalités de l'organisateur, vous permettant d'envoyer et de recevoir des télécopies, ainsi que de travailler avec le courrier électronique. Si nécessaire, IBM Simon peut être connecté à un ordinateur personnel pour l'échange de données ou être utilisé comme modem avec une performance de 2400 bps. Soit dit en passant, la saisie d'informations textuelles a été mise en œuvre de manière plutôt ingénieuse: le propriétaire avait le choix entre un clavier QWERTY miniature, qui, compte tenu de la taille de l'écran de 4,7 pouces et d'une résolution de 160x293 pixels, n'était pas particulièrement pratique à utiliser, et l'assistant intellectuel PredictaKey. Ce dernier n'affichait que les 6 caractères suivants, qui,selon l'algorithme prédictif, ils pourraient être utilisés avec la plus grande probabilité.

La meilleure épithète qui puisse être caractérisée par IBM Simon est «en avance sur le temps», ce qui a finalement déterminé le fiasco complet de cet appareil sur le marché. D'une part, à cette époque, il n'y avait pas de technologies capables de rendre le communicateur vraiment pratique: peu de gens aimeraient porter un appareil d'une taille de 200 × 64 × 38 mm et pesant 623 grammes (et avec une station de charge - plus de 1 kg), la batterie n'a duré que 1 heure en mode conversation et 12 heures en mode veille. En revanche, le prix de l'émission: 899 $ avec le contrat de l'opérateur mobile BellSouth, devenu partenaire officiel d'IBM aux USA, et plus de 1000 $ - sans lui. N'oubliez pas non plus l'opportunité (mais plutôt même la nécessité) d'acheter une batterie plus spacieuse - «seulement» pour 78 $.


La comparaison visuelle d'IBM Simon, des smartphones modernes et des cônes en sapin

avec des périphériques de stockage externes n'est pas non plus si simple. Selon le compte de Hambourg, la création du premier appareil de ce type peut être attribuée à nouveau à IBM. Le 11 octobre 1962, la société a annoncé le système révolutionnaire de stockage IBM 1311. L'une des principales caractéristiques du nouveau produit était l'utilisation de cartouches remplaçables, chacune contenant six plaques magnétiques de 14 pouces. Bien qu'un tel lecteur amovible pèse 4,5 kilogrammes, c'était toujours une réalisation importante, car au moins il était possible de changer les cassettes car elles étaient pleines et de les transférer entre les unités, chacune ayant la taille d'une impressionnante commode.


IBM 1311 - stockage de données avec disques durs amovibles

Mais même pour une telle mobilité, il fallait payer pour les performances et la capacité. Premièrement, afin d'éviter la corruption des données, les côtés extérieurs des première et sixième plaques sont privés de la couche magnétique et, en combinaison, ils remplissent une fonction de protection. Étant donné que seuls 10 avions étaient maintenant utilisés pour l'enregistrement, la capacité totale du disque amovible était de 2,6 mégaoctets, ce qui était encore beaucoup à l'époque: une cartouche a réussi à remplacer ⅕ une bobine standard avec un film magnétique ou 25 000 cartes perforées, tout en offrant un accès aléatoire à Les données.

Deuxièmement, le coût de la mobilité est la baisse de productivité: la vitesse de la broche doit être réduite à 1 500 tr / min et, par conséquent, le temps d'accès moyen au secteur passe à 250 millisecondes. À titre de comparaison, le prédécesseur de cette unité, IBM 1301, avait une vitesse de rotation de la broche de 1800 tr / min et un temps d'accès au secteur de 180 ms. Néanmoins, c'est grâce à l'utilisation de disques durs amovibles que l'IBM 1311 est devenu très populaire dans l'environnement de l'entreprise, car une telle conception a finalement permis de réduire considérablement le coût de stockage d'une unité d'information, ce qui a permis de réduire le nombre d'installations achetées et l'espace requis pour leur placement. Grâce à cela, l'appareil s'est avéré être l'un des plus durables selon les normes du marché du matériel informatique et n'a été arrêté qu'en 1975.

Le successeur de l'IBM 1311, qui a reçu l'indice 3340, est le résultat du développement des idées définies par les ingénieurs de la société dans la conception du modèle précédent. Le nouveau système de stockage de données a reçu des cartouches complètement scellées, ce qui a permis, d'une part, de neutraliser l'influence des facteurs environnementaux sur les plaques magnétiques, d'augmenter leur fiabilité et en même temps d'améliorer considérablement l'aérodynamique à l'intérieur des cartouches. L'image a été complétée par le microcontrôleur chargé de déplacer les têtes magnétiques, dont la présence a permis d'augmenter significativement la précision de leur positionnement.


IBM 3340, surnommée Winchester.

En conséquence, la capacité de chaque cartouche est passée à 30 mégaoctets, et le temps d'accès au secteur a diminué exactement de 10 fois - jusqu'à 25 millisecondes. Dans le même temps, le taux de transfert de données a atteint un record à ce moment-là 885 kilo-octets par seconde. Soit dit en passant, c'est grâce à l'IBM 3340 que le jargon Winchester a été utilisé. Le fait est que l'appareil a été conçu pour fonctionner simultanément avec deux disques amovibles, c'est pourquoi il a reçu un index supplémentaire de "30-30". Le fusil Winchester de renommée mondiale avait le même indice, à la seule différence que si dans le premier cas, nous parlions de deux disques d'une capacité de 30 Mo, dans le second, il s'agissait du calibre d'une balle (0,3 pouces) et du poids de la poudre à canon dans une capsule (30 grains, soit environ 1,94 grammes).

Disquette - le prototype de lecteurs externes modernes


Bien que ce soient les cartouches pour IBM 1311 qui peuvent être considérées comme les arrière-arrière-grands-pères des disques durs externes modernes, ces appareils étaient néanmoins infiniment éloignés du marché grand public. Mais afin de continuer l'arbre généalogique des supports d'information mobiles, vous devez d'abord déterminer les critères de sélection. De toute évidence, les cartes perforées resteront par dessus bord, car elles sont la technologie de l'ère du «pré-disque». Cela vaut également la peine de considérer les lecteurs basés sur des bandes magnétiques: bien que la bobine ait officiellement une propriété telle que la mobilité, ses performances ne peuvent pas être comparées même avec les premiers échantillons de disques durs pour la simple raison que la bande magnétique ne fournit qu'un accès séquentiel aux données enregistrées. Ainsi, les disques durs les plus proches des disques durs en termes de propriétés grand public. Et la vérité est:les disquettes sont suffisamment compactes et, comme les disques durs, peuvent supporter plusieurs réécritures et peuvent fonctionner en mode de lecture aléatoire. Commençons par eux.

Si vous vous attendez à revoir les trois lettres précieuses, alors ... vous avez absolument raison. Après tout, c'est dans les laboratoires IBM que le groupe de recherche d'Alan Schugart cherchait un remplacement digne des bandes magnétiques, parfaites pour l'archivage des données, mais perdues sur les disques durs dans les tâches quotidiennes. Une solution appropriée a été proposée par l'ingénieur principal David Noble, qui a rejoint l'équipe et a conçu un disque magnétique amovible avec un boîtier de protection en 1967, qui a été travaillé avec un lecteur spécial. Après 4 ans, IBM a présenté la première disquette au monde, qui avait un volume de 80 kilo-octets et un diamètre de 8 pouces, et déjà en 1972 a vu la lumière de la deuxième génération de disquettes, dont la capacité était déjà de 128 kilo-octets.


Une disquette IBM de 8 pouces et 128 kilo-octets

Dans le sillage du succès des disquettes, Alan Schugart a décidé de quitter la société en 1973 et de créer sa propre entreprise, appelée Shugart Associates. La nouvelle entreprise s'est engagée dans le développement de lecteurs de disquettes: en 1976, la société a lancé des disques compacts de 5,25 pouces et des lecteurs de disques originaux qui ont reçu un contrôleur et une interface mis à jour. Le coût de la mini-disquette Shugart SA-400 au début des ventes s'élevait à 390 dollars américains pour le lecteur lui-même et à 45 dollars pour un ensemble de dix disquettes. Dans toute l'histoire de l'existence de l'entreprise, c'est le SA-400 qui est devenu le produit le plus réussi: le taux d'expédition de nouveaux appareils a atteint 4000 unités par jour, et les disquettes de 5,25 pouces ont progressivement déplacé les homologues encombrants de huit pouces du marché.

Cependant, la société d'Alan Schugart n'a pas pu dominer le marché depuis trop longtemps: déjà en 1981, Sony a pris le relais, introduisant une disquette encore plus miniature, dont le diamètre n'était que de 90 mm, ou 3,5 pouces. Le premier PC à utiliser le lecteur interne de nouveau format a été le HP-150, publié par Hewlett-Packard en 1984.


Premier ordinateur personnel de

Sony avec un lecteur 3,5 pouces Hewlett-Packard HP-150 La disquette de Sony s'est avérée un tel succès qu'elle a rapidement remplacé toutes les solutions alternatives sur le marché, et le facteur de forme lui-même a duré près de 30 ans: la production de masse de 3,5 - Les disquettes pouces n'ont pris fin qu'en 2010. La popularité du nouveau produit est due à plusieurs facteurs:

  • un boîtier en plastique dur et un obturateur coulissant en métal assuraient une protection fiable du disque lui-même;
  • , , ;
  • (, , ).


Classique intemporel - une disquette 3,5 pouces Sony

En plus de leur compacité, les disquettes 3,5 pouces diffèrent et ont une capacité beaucoup plus élevée que leurs prédécesseurs. Ainsi, les disquettes haute densité 5,25 pouces les plus avancées, apparues en 1984, contenaient 1 200 kilo-octets de données. Bien que les premiers échantillons de 3,5 pouces aient une capacité de 720 Ko et soient identiques à cet égard aux disquettes de 5 pouces de quatre densités, déjà en 1987 des disques haute densité de 1,44 Mo sont apparus, et en 1991 - une densité étendue, contenant 2 , 88 Mo de données.

Certaines entreprises ont tenté de créer encore plus de disquettes miniatures (par exemple, Amstrad a développé des disquettes de 3 pouces qui étaient utilisées dans le ZX Spectrum +3, et Canon a produit des disquettes spécialisées de 2 pouces pour l'enregistrement et le stockage de vidéo composite), mais elles n'ont pas pris racine. Mais les appareils externes ont commencé à apparaître sur le marché, qui étaient idéologiquement beaucoup plus proches des disques externes modernes.

La boîte Bernoulli d'Iomega et les sinistres "clics de mort"


Qu'on le veuille ou non, le volume des disquettes était trop petit pour stocker de grandes quantités d'informations: selon les normes modernes, elles peuvent être comparées aux lecteurs flash d'entrée de gamme. Mais que peut-on appeler dans ce cas l'analogue d'un disque dur externe ou d'un disque SSD? Les produits Iomega sont les mieux adaptés à ce rôle.

Leur premier appareil, introduit en 1982, a été le soi-disant Bernoulli Box. Malgré la grande capacité de l'époque (les premiers lecteurs avaient une capacité de 5, 10 et 20 Mo), l'appareil d'origine n'était pas populaire en raison, sans exagération, de la taille gigantesque: les «disquettes» d'Iomega avaient des dimensions de 21 sur 27,5 cm, ce qui identique au papier A4.


Il ressemblait aux cartouches d'origine de la boîte Bernoulli.

Les appareils de la société ont gagné en popularité depuis la boîte Bernoulli II. La taille des lecteurs a été considérablement réduite: ils avaient déjà une longueur de 14 cm et une largeur de 13,6 cm (ce qui est comparable aux disquettes standard de 5,25 pouces, si vous ne tenez pas compte de l'épaisseur de 0,9 cm), tout en différant par une capacité beaucoup plus impressionnante : de 20 Mo pour les modèles de la ligne de départ jusqu'à 230 Mo pour les disques mis en vente en 1993. Ces périphériques étaient disponibles en deux formats: sous forme de modules internes pour PC (en raison de leur taille réduite, ils pouvaient être installés à la place de lecteurs de disquettes de 5,25 pouces) et de systèmes de stockage externes connectés à l'ordinateur via l'interface SCSI.


Boîte Bernoulli de deuxième génération

Les héritiers directs de la boîte Bernoulli étaient Iomega ZIP, introduit par la société en 1994. Le partenariat avec Dell et Apple, qui a commencé à installer des lecteurs ZIP dans leurs ordinateurs, a largement contribué à leur popularisation. Le premier modèle, le ZIP-100, utilisait des disques d'une capacité de 100 663 296 octets (environ 96 Mo), offrait un taux de transfert de données d'environ 1 Mo / s et un temps d'accès aléatoire d'au plus 28 millisecondes, et les disques externes pouvaient être connectés à un PC via LPT ou SCSI Un peu plus tard, le ZIP-250 d'une capacité de 250 640 404 octets (239 Mo) est apparu, et au coucher du soleil, la série ZIP-750 avait une compatibilité descendante avec les lecteurs ZIP-250 et prend en charge le travail avec le ZIP-100 en mode hérité (à partir de lecteurs obsolètes uniquement lire les informations). Soit dit en passant, des produits phares externes ont même réussi à obtenir un support pour USB 2.0 et FireWire.


Lecteur externe Iomega ZIP-100

Avec l'avènement du CD-R / RW, les créations Iomega ont naturellement sombré dans l'oubli - les ventes d'appareils ont diminué, ayant chuté de près de quatre fois en 2003, et déjà en 2007 complètement disparu (bien que la liquidation de la production n'a eu lieu qu'en 2010). Peut-être que tout se serait passé différemment si le ZIP n'avait pas eu certains problèmes de fiabilité.

Le fait est que les performances de l'appareil, impressionnantes pour ces années, ont été fournies en raison du nombre record de tours par minute: la disquette a tourné à une vitesse de 3000 tr / min! Vous avez sûrement déjà deviné pourquoi les premiers appareils ne s'appelaient rien de plus qu'une boîte de Bernoulli: en raison de la vitesse de rotation élevée de la plaque magnétique, le flux d'air entre la tête d'écriture et sa surface a également été accéléré, la pression d'air a chuté, ce qui a rendu le disque plus proche du capteur (la loi de Bernoulli en action). Théoriquement, cette fonctionnalité était censée rendre l'appareil plus fiable, mais dans la pratique, les consommateurs étaient confrontés à un phénomène aussi désagréable que les clics de mort - les «clics de mort». Toute, même la plus petite, bavure sur une plaque magnétique se déplaçant à grande vitesse pourrait endommager irréversiblement la tête d'écriture,après quoi l'actionneur a stationné l'actionneur et a répété la tentative de lecture, qui s'est accompagnée de clics caractéristiques. Un tel dysfonctionnement était «contagieux»: si l'utilisateur n'orientait pas et n'insérait pas immédiatement une autre disquette dans le périphérique endommagé, puis après quelques tentatives de lecture, il deviendrait également inutilisable, car la tête d'écriture avec la géométrie cassée elle-même endommageait la surface de la disquette. Dans le même temps, une disquette peut également tuer un autre lecteur à la fois. Par conséquent, ceux qui ont travaillé avec les produits Iomega ont dû soigneusement vérifier la santé des disquettes, et sur les modèles ultérieurs, même les étiquettes d'avertissement correspondantes sont apparues.si l'utilisateur n'a pas immédiatement orienté et inséré une autre disquette dans le périphérique endommagé, alors après quelques tentatives de lecture, il est également devenu inutilisable, car la tête d'écriture avec la géométrie cassée elle-même a endommagé la surface de la disquette. Dans le même temps, une disquette peut également tuer un autre lecteur à la fois. Par conséquent, ceux qui ont travaillé avec les produits Iomega ont dû soigneusement vérifier la santé des disquettes, et sur les modèles ultérieurs, même les étiquettes d'avertissement correspondantes sont apparues.si l'utilisateur n'a pas immédiatement orienté et inséré une autre disquette dans le périphérique endommagé, alors après quelques tentatives de lecture, il est également devenu inutilisable, car la tête d'écriture avec la géométrie cassée elle-même a endommagé la surface de la disquette. Dans le même temps, une disquette peut également tuer un autre lecteur à la fois. Par conséquent, ceux qui ont travaillé avec les produits Iomega ont dû soigneusement vérifier la santé des disquettes, et sur les modèles ultérieurs, même les étiquettes d'avertissement correspondantes sont apparues.et sur les modèles ultérieurs, même les étiquettes d'avertissement correspondantes sont apparues.et sur les modèles ultérieurs, même les étiquettes d'avertissement correspondantes sont apparues.

Disques magnéto-optiques: Hamr style rétro


Enfin, si nous parlons déjà de supports de stockage portables, nous ne pouvons que mentionner un miracle technologique comme les disques magnéto-optiques (MO). Les premiers appareils de cette classe sont apparus au début des années 80 du 20e siècle, mais ils n'ont été plus largement utilisés qu'en 1988, lorsque NeXT a présenté son premier PC appelé NeXT Computer, qui était équipé d'un lecteur magnéto-optique Canon et pris en charge pour travailler avec des lecteurs de 256 disques. MB


NeXT Computer est le premier PC équipé d'un lecteur magnéto-optique.

L'existence même de disques magnéto-optiques confirme une fois de plus l'exactitude de l'épigraphe: bien que la technologie d'enregistrement thermomagnétique (HAMR) n'ait été discutée activement que ces dernières années, cette approche a été utilisée avec succès dans la région de Moscou il y a plus de 30 ans! Le principe de l'enregistrement sur disques magnéto-optiques est similaire à HAMR, à l'exception de quelques nuances. Les disques eux-mêmes étaient constitués d'aimants ferromagnétiques - des alliages capables de maintenir la magnétisation à des températures inférieures au point Curie (environ 150 degrés Celsius) en l'absence de champ magnétique externe. Pendant l'enregistrement, la surface de la plaque a été préalablement chauffée par un laser à la température du point Curie, après quoi la tête magnétique située à l'arrière du disque a changé l'aimantation de la région correspondante.

La principale différence entre cette approche et HAMR était que les informations étaient également lues à l'aide d'un laser de faible puissance: un faisceau laser polarisé traversait la plaque de disque, réfléchi par le substrat, puis, en passant par le système optique du lecteur, frappait un capteur qui détectait un changement dans l'avion polarisation laser. Ici, vous pouvez observer l'application pratique de l'effet Kerr (effet électro-optique quadratique), dont l'essence est de changer l'indice de réfraction du matériau optique proportionnellement au carré de l'intensité du champ électromagnétique.


Le principe de la lecture et de l'écriture d'informations sur des disques magnéto-optiques

Les premiers disques magnéto-optiques ne prenaient pas en charge la réécriture et étaient désignés par l'abréviation WORM (Write Once, Read Many), mais des modèles ultérieurs sont apparus prenant en charge la réécriture. L'écrasement a été effectué en trois passes: d'abord, les informations ont été effacées du disque, puis l'enregistrement a été effectué directement, après quoi l'intégrité des données a été vérifiée. Cette approche a fourni une qualité d'enregistrement garantie, ce qui a rendu le MO encore plus fiable que les CD et les DVD. Et contrairement aux disquettes, les supports magnéto-optiques n'étaient pratiquement pas soumis à la démagnétisation: selon les fabricants, la durée de stockage des données sur les MO réinscriptibles est d'au moins 50 ans.

Déjà en 1989, des disques 5,25 pouces bilatéraux d'une capacité de 650 Mo sont apparus sur le marché, offrant une vitesse de lecture allant jusqu'à 1 Mo / s et un temps d'accès aléatoire de 50 à 100 ms. Au coucher du soleil de la popularité de MO sur le marché, on pourrait rencontrer des modèles contenant jusqu'à 9,1 Go de données. Cependant, les disques compacts 90 mm les plus largement utilisés avec des capacités de 128 à 640 Mo.


Disque magnéto-optique compact d'une capacité de 640 Mo fabriqué par Olympus

En 1994, le coût unitaire de 1 Mo de données stockées sur un tel lecteur variait de 27 à 50 cents selon le fabricant, ce qui, avec des performances et une fiabilité élevées, en faisait une solution tout à fait compétitive. Un avantage supplémentaire des appareils magnéto-optiques par rapport au même ZIP était le support d'une large gamme d'interfaces, y compris ATAPI, LPT, USB, SCSI, IEEE-1394a.

Malgré tous les avantages, la magnéto-optique présente également un certain nombre d'inconvénients. Par exemple, les disques de différentes marques (et les MO ont été produits par de nombreuses grandes entreprises, notamment Sony, Fujitsu, Hitachi, Maxell, Mitsubishi, Olympus, Nikon, Sanyo et autres) se sont révélés incompatibles entre eux en raison des particularités de formatage. À son tour, la consommation d'énergie élevée et la nécessité d'un système de refroidissement supplémentaire ont limité l'utilisation de ces disques dans les ordinateurs portables. Enfin, un cycle de trois temps a considérablement augmenté la durée d'enregistrement, et ce problème n'a pu être résolu qu'en 1997 avec l'avènement de la technologie LIMDOW (Light Intensity Modulated Direct Overwrite), qui combinait les deux premières étapes en une en ajoutant des aimants intégrés dans la cartouche avec le disque, qui ont également été effacés. information.En conséquence, la magnéto-optique a progressivement perdu sa pertinence même dans le domaine du stockage de données à long terme, laissant la place aux streamers LTO classiques.

Et je manque toujours quelque chose ...


Tout ce qui précède illustre clairement le simple fait que, si brillante soit-elle, l'invention doit, entre autres, être opportune. IBM Simon était voué à l'échec, car au moment de son apparition, les gens n'avaient pas besoin d'une mobilité absolue. Les disques magnéto-optiques sont devenus une bonne alternative au disque dur, cependant, ils sont restés le lot de professionnels et de passionnés, car à cette époque, le grand public était beaucoup plus intéressé par la vitesse, la commodité et, bien sûr, le bon marché, pour lequel l'acheteur moyen était prêt à sacrifier la fiabilité. Le même ZIP, avec tous les avantages, ne pouvait pas devenir un véritable courant dominant du fait que les gens ne voulaient pas vraiment regarder chaque disquette sous une loupe, à la recherche de bavures.

C'est pourquoi la sélection naturelle a finalement clairement délimité le marché dans deux directions parallèles: les supports de stockage amovibles (CD, DVD, Blu-Ray), les lecteurs flash (pour stocker de petites quantités de données) et les disques durs externes (pour les gros volumes). Parmi ces derniers, les modèles compacts de 2,5 pouces dans des cas individuels sont devenus la norme non écrite, dont nous devons principalement l'apparence aux ordinateurs portables. Une autre raison de leur popularité est la rentabilité: si les disques durs classiques de 3,5 pouces dans le boîtier externe pouvaient difficilement être appelés «portables», ils nécessitaient également la connexion d'une source d'alimentation supplémentaire (ce qui signifiait que vous deviez toujours transporter l'adaptateur avec vous), alors le maximum dont les disques de 2,5 pouces pourraient avoir besoin est un connecteur USB supplémentaire, et les modèles ultérieurs et plus écoénergétiques n'en avaient pas besoin non plus.

Soit dit en passant, PrairieTek, une petite entreprise fondée par Terry Johnson en 1986, doit l'apparence des disques durs miniatures. Trois ans seulement après son ouverture, PrairieTek a présenté le premier disque dur 2,5 pouces au monde d'une capacité de 20 Mo, appelé PT-220. 30% plus compact par rapport aux solutions de bureau, le lecteur avait une hauteur de seulement 25 mm, devenant la meilleure option pour une utilisation dans les ordinateurs portables. Malheureusement, même en tant que pionniers du marché des disques durs miniatures, PrairieTek n'a pas pu conquérir le marché en faisant une erreur stratégique fatale. Après avoir établi la production de PT-220, ils se sont concentrés sur la poursuite de la miniaturisation, libérant bientôt le modèle PT-120, qui, avec les mêmes caractéristiques de capacité et de vitesse, avait une épaisseur de seulement 17 mm.


Le disque dur de deuxième génération PrairieTek PT-120 de 2,5 pouces Le mauvais calcul

était que, tandis que les ingénieurs de PrairieTek se battaient pour chaque millimètre, les concurrents représentés par JVC et Conner Peripherals augmentaient le volume des disques durs, ce qui s'est avéré décisif dans une confrontation aussi inégale. En essayant d'attraper le train au départ, PrairieTek est entré dans la course aux armements, après avoir préparé le modèle PT-240, qui contenait 42,8 Mo de données et se caractérisait par une faible consommation d'énergie record à l'époque - seulement 1,5 watts. Mais hélas, même cela n'a pas sauvé l'entreprise de la ruine et, en conséquence, déjà en 1991, elle a cessé d'exister.

L'histoire de PrairieTek est une autre illustration claire de la façon dont les avancées technologiques, aussi importantes qu'elles puissent paraître, en raison de leur rapidité peuvent tout simplement être réclamées par le marché. Au début des années 90, le consommateur n'était pas gâté par les ultrabooks et les smartphones ultra-minces, il n'y avait donc aucun besoin aigu de tels disques. Il suffit de rappeler la première tablette GridPad commercialisée par GRiD Systems Corporation en 1989: l'appareil «portable» pesait plus de 2 kg, et son épaisseur atteignait 3,6 cm!


GridPad - la première tablette au monde

Et un tel «bébé» était à l'époque considéré comme assez compact et pratique: l'utilisateur final ne voyait tout simplement pas mieux. Dans le même temps, le problème de l'espace disque était beaucoup plus aigu. Le même GridPad, par exemple, n'avait pas du tout de disque dur: les informations étaient stockées sur la base de puces RAM, dont la charge était supportée par des batteries intégrées. Dans le contexte de tels appareils, le Toshiba T100X (DynaPad) qui est apparu plus tard semblait être un véritable miracle car il embarquait un disque dur à part entière de 40 Mo. Le fait que l'appareil "mobile" ait une épaisseur de 4 centimètres, peu de gens étaient gênés.


Tablette Toshiba T100X, mieux connue au Japon sous le nom de DynaPad

Mais, comme vous le savez, l'appétit vient avec l'alimentation. Chaque année, les demandes des utilisateurs augmentaient et leur satisfaction devenait de plus en plus difficile. Au fur et à mesure que la capacité et la vitesse des supports de stockage augmentaient, de plus en plus de gens pensaient que les appareils mobiles pouvaient être plus compacts, et la possibilité d'avoir à leur disposition un lecteur portable capable de contenir tous les fichiers nécessaires serait très pratique . En d'autres termes, il y avait une demande sur le marché pour des appareils fondamentalement différents en termes de confort et d'ergonomie, qui devaient être satisfaits, et la confrontation des sociétés informatiques s'est poursuivie avec une vigueur renouvelée.

Ici, il convient de se référer à nouveau à l'épigraphe d'aujourd'hui. L'ère des disques SSD a commencé bien avant le zéro: le premier prototype de mémoire flash a été créé par l'ingénieur Fujio Masuoka dans les entrailles de Toshiba Corporation en 1984, et le premier produit commercial basé sur celui-ci face à Digipro FlashDisk est apparu sur le marché en 1988. Le miracle de la technologie contenait 16 mégaoctets de données et son prix était de 5 000 $.


Digipro FlashDisk - le premier disque SSD commercial La

nouvelle tendance a été soutenue par Digital Equipment Corporation, qui a introduit au début des années 90 des appareils 5,25 pouces de la série EZ5x avec prise en charge des interfaces SCSI-1 et SCSI-2. La société israélienne M-Systems, qui a annoncé en 1990 une famille de disques SSD appelés Fast Flash Disk (ou FFD), rappelant plus ou moins les disques modernes, ne s'est pas écartée: les SSD ont un format de 3,5 pouces et peuvent accueillir de 16 à 896 mégaoctets. Les données. Le premier modèle, appelé FFD-350, est sorti en 1995.


208 MB M-Systems FFD-350 - le prototype des SSD modernes

Contrairement aux disques durs traditionnels, les SSD étaient beaucoup plus compacts, avaient des performances plus élevées et, surtout, une résistance aux chocs et aux fortes vibrations. Potentiellement, cela en faisait des candidats presque idéaux pour créer des lecteurs mobiles, sinon pour un «mais»: des prix élevés pour une unité de stockage d'informations, ce qui rendait ces solutions pratiquement inadaptées au marché grand public. Ils étaient populaires dans l'environnement des entreprises, utilisés dans l'aviation pour créer des «boîtes noires», installés dans les superordinateurs des centres de recherche, mais il n'était pas question de créer un produit de détail à l'époque: personne ne les achèterait même si si une société décide de vendre ces disques au prix coûtant.

Mais les changements du marché ne se sont pas fait attendre. Le développement du segment grand public des disques SSD amovibles a été grandement facilité par la photographie numérique, car c'est dans cette industrie qu'il y avait une grave pénurie de supports de stockage compacts et économes en énergie. Jugez par vous-même.

Le premier appareil photo numérique au monde est apparu (encore une fois, rappelez-vous les paroles de l'Ecclésiaste) en décembre 1975: il a été inventé par Stephen Sasson, ingénieur chez Eastman Kodak Company. Le prototype était composé de plusieurs dizaines de cartes de circuits imprimés, d'une unité optique, empruntée à Kodak Super 8, et d'un magnétophone (les photos ont été enregistrées sur des bandes audio ordinaires). En tant que source d'alimentation pour l'appareil photo, 16 piles au nickel-cadmium ont été utilisées, et tout cela pesait 3,6 kg.


Le premier prototype d'appareil photo numérique créé par Eastman Kodak Company La

résolution de la matrice CCD d'un tel «bébé» n'était que de 0,01 mégapixels, ce qui a permis d'obtenir des images de 125 × 80 pixels, et il a fallu 23 secondes pour former chaque photo. Compte tenu de ces caractéristiques "impressionnantes", une telle unité perdait sur tous les fronts avec les reflex traditionnels, ce qui signifie que la création d'un produit commercial basé sur elle ne pouvait pas être envisagée, bien que l'invention ait ensuite été reconnue comme l'une des étapes les plus importantes de l'histoire de la photographie, et Steve a été officiellement intronisé au Consumer Electronics Hall of Fame.

Après 6 ans, Sony a pris l'initiative de Kodak, annonçant le 25 août 1981 une caméra vidéo sans film Mavica (le nom est l'abréviation de Magnetic Video Camera).


Le prototype de l'appareil photo numérique Sony Mavica

L'appareil photo du géant japonais avait l'air beaucoup plus intéressant: le prototype utilisait une matrice CCD 10 x 12 mm et offrait une résolution maximale de 570 x 490 pixels, et l'enregistrement a été effectué sur des disquettes Mavipack compactes de 2 pouces, capables de accueillir de 25 à 50 images selon le mode de prise de vue. Le fait est que la trame formée était composée de deux champs de télévision, chacun étant enregistré en tant que vidéo composite, et il était possible de fixer les deux champs à la fois, et un seul. Dans ce dernier cas, la résolution du cadre a chuté de 2 fois, mais une telle photo pesait moitié moins.

Sony avait initialement prévu de commencer la production de masse du Mavica en 1983, et le prix de détail des caméras était censé être de 650 $. En pratique, les premiers dessins industriels ne sont apparus qu'en 1984, et la mise en œuvre commerciale du projet en la personne des Mavica MVC-A7AF et Pro Mavica MVC-2000 n'a été publiée qu'en 1986, et les caméras ont coûté près d'un ordre de grandeur de plus que prévu initialement.


Appareil photo numérique Sony Pro Mavica MVC-2000

Malgré le prix et l'innovation fabuleux, appeler le premier Mavica la solution idéale pour un usage professionnel n'a pas tourné la langue, bien que dans certaines situations, ces caméras se soient avérées être une solution presque parfaite. Par exemple, les journalistes de CNN ont utilisé le Sony Pro Mavica MVC-5000 pour couvrir la place Tiananmen le 4 juin. Le modèle amélioré a reçu deux réseaux CCD indépendants, dont l'un a formé un signal vidéo de luminance et l'autre un signal de différence de couleur. Cette approche a permis d'abandonner l'utilisation du filtre couleur Bayer et d'augmenter la résolution horizontale à 500 TVL. Cependant, le principal avantage de la caméra était la prise en charge de la connexion directe au module PSC-6, qui vous permet de transférer les images reçues par liaison radio directement vers l'éditeur.Grâce à cela, CNN a été le premier à publier un reportage sur la scène, et Sony a même reçu par la suite un Emmy Award spécial pour sa contribution au développement de la transmission numérique de photos d'actualité.


Sony Pro Mavica MVC-5000 est l'appareil photo qui a fait de Sony le gagnant du prix Emmy,

mais que se passe-t-il si le photographe a un long voyage loin de la civilisation? Dans ce cas, il pourrait emporter avec lui l'une des merveilleuses caméras Kodak DCS 100 qui ont vu le jour en mai 1991. L'hybride monstrueux de l'appareil photo reflex numérique Nikon F3 HP avec un décodeur DCS Digital Film Back équipé d'un vinder a été connecté à une unité de stockage numérique externe (il devait être porté sur la bandoulière) à l'aide d'un câble.


Appareil photo numérique Kodak DCS 100 - l'incarnation de la compacité

Kodak propose deux modèles, chacun ayant plusieurs variantes: couleur DCS DC3 et noir et blanc DCS DM3. Toutes les caméras de la ligne étaient équipées de matrices avec une résolution de 1,3 mégapixels, mais elles différaient par la taille de la mémoire tampon, qui déterminait le nombre maximal d'images autorisé en prise de vue en série. Par exemple, les modifications avec 8 Mo à bord pouvaient prendre une vitesse de 2,5 images par seconde en série de 6 images, tandis que les images plus avancées de 32 mégaoctets permettaient une série de 24 images. Si ce seuil est dépassé, la vitesse de prise de vue tombe à 1 image en 2 secondes jusqu'à ce que le tampon soit complètement vide.

Quant au DSU, il était équipé d'un disque dur de 3,5 pouces de 200 Mo, capable d'accueillir de 156 photos "brutes" à 600 compressées à l'aide d'un convertisseur matériel JPEG (acheté et installé en plus), et d'un écran LCD pour voir les photos. Le stockage intelligent a même permis d'ajouter de brèves descriptions aux photos, mais pour cela, il était nécessaire de connecter un clavier externe. Avec les batteries, son poids était de 3,5 kg, tandis que le poids total du kit atteignait 5 kg.

Malgré la commodité et le prix douteux de 20 à 25 mille dollars (dans la configuration maximale), au cours des trois prochaines années, environ 1000 appareils de ce type ont été vendus, qui, en plus des journalistes, s'intéressaient aux institutions médicales, à la police et à un certain nombre d'entreprises industrielles. En un mot, la demande pour ces produits était, car il y avait un besoin urgent de supports d'information plus miniatures. Une solution appropriée a été proposée par SanDisk, introduisant la norme CompactFlash en 1994.


Cartes mémoire CompactFlash délivrées par SanDisk et adaptateur PCMCIA pour les connecter à un PC Le

nouveau format s'est avéré si efficace qu'il est utilisé avec succès à l'heure actuelle, et l'Association CompactFlash créée en 1995 compte plus de 200 sociétés participantes, dont Canon , Eastman Kodak Company, Hewlett-Packard, Hitachi Global Systems Technologies, Lexar Media, Renesas Technology, Socket Communications et bien d'autres.

Les cartes mémoire CompactFlash offraient des dimensions hors tout de 42 mm sur 36 mm et une épaisseur de 3,3 mm. L'interface physique des disques était essentiellement un PCMCIA tronqué (50 broches au lieu de 68), ce qui facilitait la connexion d'une telle carte à l'emplacement de carte d'extension PCMCIA Type II à l'aide d'un adaptateur passif. En utilisant l'adaptateur passif, CompactFlash pouvait échanger des données avec des périphériques via IDE (ATA), et des adaptateurs actifs spéciaux permettaient de travailler avec des interfaces série (USB, FireWire, SATA).

Malgré la capacité relativement petite (le premier CompactFlash ne pouvait accueillir que 2 Mo de données), les cartes mémoire de ce type étaient demandées dans un environnement professionnel en raison de leur compacité et de leur rentabilité (un tel disque consommait environ 5% d'énergie par rapport aux disques durs classiques de 2,5 pouces, qui permis de prolonger la durée de vie de la batterie de l'appareil portable) et la polyvalence, qui a été obtenue grâce à la prise en charge de nombreuses interfaces différentes, et la capacité de travailler à partir d'une source d'alimentation avec une tension de 3,3 ou 5 volts, et surtout - une résistance impressionnante aux surcharges de plus de 2000 g, ce qui était barre presque inaccessible pour les disques durs classiques.

Le fait est qu'il est techniquement impossible de créer des disques durs vraiment antichoc en raison de leurs caractéristiques de conception. En cas de chute, tout objet est soumis à des effets cinétiques de centaines voire de milliers de g (accélération de chute libre standard de 9,8 m / s2) en moins de 1 milliseconde, ce qui pour les disques durs classiques est lourd de conséquences très désagréables, notamment :

  • plaques magnétiques glissantes et décalées;
  • l'apparition de jeu dans les roulements, leur usure prématurée;
  • têtes de claque sur la surface des plaques magnétiques.

La situation la plus dangereuse pour le lecteur est cette dernière situation. Lorsque l'énergie d'impact est dirigée perpendiculairement ou à un angle insignifiant par rapport au plan horizontal du disque dur, les têtes magnétiques s'écartent d'abord de leur position d'origine, puis tombent brusquement à la surface de la crêpe, la touchant avec le bord, à la suite de quoi la plaque magnétique reçoit des dommages de surface. De plus, non seulement l'endroit où le choc s'est produit (qui peut d'ailleurs être d'une longueur considérable si des informations ont été enregistrées ou lues au moment de la chute) souffre, mais aussi les zones le long desquelles les fragments microscopiques du revêtement magnétique ont été dispersés: magnétisés , ils ne se déplacent pas sous l'action de la force centrifuge vers la périphérie, restant à la surface de la plaque magnétique,gênant les opérations normales de lecture / écriture et contribuant à endommager davantage la crêpe et la tête d'écriture. Si le coup est suffisamment fort, cela peut entraîner complètement le détachement du capteur et la panne complète du variateur.

À la lumière de tout ce qui précède, pour les photojournalistes, de nouveaux lecteurs étaient vraiment indispensables: il serait beaucoup mieux d'avoir avec vous une douzaine ou deux cartes sans prétention que de transporter un objet de la taille d'un magnétoscope dans votre dos, qui échouera presque à 100% d'un peu plus fort frappé. Cependant, les cartes mémoire étaient encore trop chères pour le consommateur au détail. C'est pourquoi Sony a réussi à dominer le marché des «boîtes à savon» avec le «cube» Mavica MVC-FD, qui enregistrait les photos sur des disquettes standard de 3,5 pouces au format DOS FAT12, ce qui garantissait la compatibilité avec presque tous les PC de l'époque.


Appareil photo numérique amateur Sony Mavica MVC-FD73

Et ainsi de suite jusqu'à presque la fin de la décennie, jusqu'à ce qu'IBM intervienne. Cependant, nous en parlerons dans le prochain article.

Et quels appareils inhabituels avez-vous rencontrés? Peut-être vous est-il arrivé de tirer sur Mavica, d'observer l'agonie d'Iomega ZIP de vos propres yeux ou d'utiliser le Toshiba T100X? Partagez vos histoires dans les commentaires.

Stockage de données externes: de l'époque d'IBM 1311 à nos jours. Partie 2

All Articles