Almacenamiento externo de datos: desde la época de IBM 1311 hasta la actualidad. Parte 1


Lo que fue, será;
y lo que se ha hecho se hará,
y no hay nada nuevo bajo el sol.


Eclesiastés 1: 9 La

sabiduría eterna del epígrafe es aplicable a casi cualquier industria, incluida una que está cambiando rápidamente como la TI. De hecho, resulta que muchos de los conocimientos, de los que solo están comenzando a hablar ahora, se basan en inventos realizados hace varias décadas e incluso utilizados con éxito (o no) en dispositivos de consumo o en la esfera B2B. Esto también se aplica a una dirección aparentemente nueva como dispositivos móviles y medios de almacenamiento portátiles, que discutiremos en detalle en el artículo de hoy.

No tienes que ir muy lejos por ejemplos. Toma los mismos teléfonos móviles. Si cree que el primer dispositivo "inteligente", que carecía por completo de teclado, es el iPhone, que apareció solo en 2007, está profundamente equivocado. La idea de crear un teléfono inteligente real que combine una herramienta de comunicación y capacidades PDA en un caso no pertenece a Apple, sino a IBM, y el primer dispositivo de este tipo se presentó al público en general el 23 de noviembre de 1992 como parte de la exposición de la industria de telecomunicaciones COMDEX en Las Vegas , y en la producción en masa este milagro tecnológico llegó en 1994.


IBM Simon Personal Communicator: el primer teléfono inteligente con pantalla táctil del mundo

El comunicador personal IBM Simon fue el primer teléfono móvil que básicamente carecía de teclado, y la información se ingresó exclusivamente mediante la pantalla táctil. Al mismo tiempo, el dispositivo combinó la funcionalidad del organizador, permitiéndole enviar y recibir faxes, así como trabajar con el correo electrónico. Si es necesario, IBM Simon podría conectarse a una computadora personal para el intercambio de datos o usarse como módem con un rendimiento de 2400 bps. Por cierto, la entrada de texto se implementó de una manera bastante ingeniosa: el propietario podía elegir entre un teclado QWERTY en miniatura, que, dado el tamaño de pantalla de 4.7 pulgadas y la resolución de 160x293 píxeles, no era particularmente conveniente de usar, y el asistente intelectual PredictaKey. Este último solo muestra los siguientes 6 caracteres, que,según el algoritmo predictivo, podrían usarse con la mayor probabilidad.

El mejor epíteto que puede caracterizar IBM Simon es “adelantarse al tiempo”, lo que finalmente determinó el fiasco completo de este dispositivo en el mercado. Por un lado, en ese momento no había tecnologías capaces de hacer que el comunicador fuera realmente conveniente: a pocas personas les gustaría llevar un dispositivo con un tamaño de 200 × 64 × 38 mm y un peso de 623 gramos (y junto con una estación de carga - más de 1 kg), la batería duró solo 1 hora en modo de conversación y 12 horas en modo de espera. Por otro lado, el precio de la emisión: $ 899 con el contrato del operador móvil BellSouth, que se convirtió en el socio oficial de IBM en los EE. UU., Y más de $ 1000, sin él. Además, no se olvide de la oportunidad (sino más bien incluso de la necesidad) de comprar una batería más potente, "solo" por $ 78.


La comparación visual de IBM Simon, los teléfonos inteligentes modernos y los conos de abeto

con dispositivos de almacenamiento externo tampoco es tan simple. Según la cuenta de Hamburgo, la creación del primer dispositivo de este tipo puede atribuirse nuevamente a IBM. El 11 de octubre de 1962, la corporación anunció el revolucionario sistema de almacenamiento IBM 1311. Una característica clave del nuevo producto fue el uso de cartuchos reemplazables, cada uno de los cuales contenía seis placas magnéticas de 14 pulgadas. Aunque una unidad extraíble de este tipo pesaba 4.5 kilogramos, todavía era un logro importante, ya que al menos era posible cambiar los cassettes ya que estaban llenos y transferirlos entre las unidades, cada una del tamaño de una impresionante cómoda.


IBM 1311 - almacenamiento de datos con discos duros extraíbles

Pero incluso para tal movilidad tuvo que pagar el rendimiento y la capacidad. Primero, para evitar la corrupción de datos, los lados exteriores de las placas primera y sexta se privaron de la capa magnética y, en combinación, realizaron una función protectora. Dado que ahora solo se utilizaron 10 aviones para grabar, la capacidad total del disco extraíble era de 2,6 megabytes, que todavía era bastante en ese momento: un cartucho reemplazó con éxito ⅕ un carrete estándar con una película magnética o 25 mil tarjetas perforadas, al tiempo que proporciona acceso aleatorio a datos.

En segundo lugar, el costo de la movilidad fue la disminución de la productividad: la velocidad del husillo tuvo que reducirse a 1.500 rpm y, como resultado, el tiempo promedio de acceso al sector aumentó a 250 milisegundos. A modo de comparación, el predecesor de este dispositivo, IBM 1301, tenía una velocidad de rotación del husillo de 1800 rpm y un tiempo de acceso del sector de 180 ms. Sin embargo, fue gracias al uso de discos duros extraíbles que IBM 1311 se hizo muy popular en el entorno corporativo, ya que tal diseño finalmente permitió reducir significativamente el costo de almacenamiento de una unidad de información, lo que permitió reducir el número de instalaciones compradas y el área requerida para su colocación. Gracias a esto, el dispositivo resultó ser uno de los más longevos según los estándares del mercado de hardware y se suspendió solo en 1975.

El sucesor del IBM 1311, que recibió el índice 3340, fue el resultado del desarrollo de ideas establecidas por los ingenieros de la corporación en el diseño del modelo anterior. El nuevo sistema de almacenamiento de datos recibió cartuchos completamente sellados, por lo que fue posible, por un lado, neutralizar la influencia de los factores ambientales en las placas magnéticas, aumentando su confiabilidad y al mismo tiempo mejorando significativamente la aerodinámica dentro de los cartuchos. La imagen fue complementada por el microcontrolador responsable de mover los cabezales magnéticos, cuya presencia permitió aumentar significativamente la precisión de su posicionamiento.


IBM 3340, apodado Winchester.

Como resultado, la capacidad de cada cartucho aumentó a 30 megabytes, y el tiempo de acceso al sector disminuyó exactamente 10 veces, hasta 25 milisegundos. Al mismo tiempo, la velocidad de transferencia de datos alcanzó un récord en ese momento 885 kilobytes por segundo. Por cierto, fue gracias a la IBM 3340 que la jerga de Winchester entró en uso. El hecho es que el dispositivo fue diseñado para funcionar simultáneamente con dos unidades extraíbles, por lo que recibió un índice adicional de "30-30". El rifle Winchester de fama mundial tenía el mismo índice, con la única diferencia de que si en el primer caso estábamos hablando de dos discos con una capacidad de 30 MB, en el segundo se trataba del calibre de una bala (0.3 pulgadas) y el peso de la pólvora en una cápsula (30 granos, es decir, aproximadamente 1,94 gramos).

Disquete: el prototipo de unidades externas modernas


Aunque son los cartuchos para IBM 1311 los que se pueden considerar los tatarabuelos de los discos duros externos modernos, estos dispositivos estaban infinitamente lejos del mercado de consumo. Pero para continuar con el árbol genealógico de los operadores de información móvil, primero debe determinar los criterios de selección. Obviamente, las tarjetas perforadas permanecerán por la borda, ya que son la tecnología de la era del "disco previo". Tampoco vale la pena considerar las unidades basadas en cintas magnéticas: aunque formalmente la bobina tiene una propiedad como la movilidad, su rendimiento no se puede comparar incluso con las primeras muestras de discos duros por la sencilla razón de que la cinta magnética solo proporciona acceso secuencial a los datos grabados. Por lo tanto, lo más cercano a los discos duros en términos de propiedades del consumidor son los discos "soft". Y la verdad es:Los disquetes son lo suficientemente compactos y, al igual que los discos duros, pueden resistir la reescritura múltiple y pueden funcionar en modo de lectura aleatoria. Comencemos con ellos.

Si espera ver las tres letras atesoradas de nuevo, entonces ... tiene toda la razón. Después de todo, fue en los laboratorios de IBM donde el grupo de investigación de Alan Schugart estaba buscando un reemplazo digno para las cintas magnéticas, que eran perfectas para archivar datos, pero se perdieron en los discos duros en las tareas cotidianas. El ingeniero senior David Noble propuso una solución adecuada, que se unió al equipo y diseñó un disco magnético extraíble con una carcasa protectora en 1967, que se trabajó con una unidad especial. Después de 4 años, IBM presentó el primer disquete del mundo, que tenía un volumen de 80 kilobytes y un diámetro de 8 pulgadas, y ya en 1972 vio la luz de la segunda generación de disquetes, cuya capacidad ya era de 128 kilobytes.


Un disquete de 8 pulgadas y 128 kilobytes de IBM

Tras el éxito del disquete, Alan Schugart decidió abandonar la corporación en 1973 y comenzar su propia compañía, llamada Shugart Associates. La nueva empresa se dedicó al desarrollo de unidades de disquete: en 1976, la compañía lanzó discos compactos de 5,25 pulgadas y unidades de disco originales que recibieron un controlador y una interfaz actualizados. El costo del mini-disquete Shugart SA-400 al comienzo de las ventas ascendió a 390 dólares estadounidenses para el disco y $ 45 para un conjunto de diez disquetes. En toda la historia de la existencia de la compañía, fue el SA-400 el que se convirtió en el producto más exitoso: la tasa de envío de nuevos dispositivos alcanzó las 4000 unidades por día, y gradualmente los disquetes de 5,25 pulgadas desplazaron del mercado a los homólogos voluminosos de 8 pulgadas.

Sin embargo, la compañía de Alan Schugart no pudo dominar el mercado por mucho tiempo: ya en 1981 Sony tomó la batuta, introduciendo un disquete aún más pequeño, cuyo diámetro era de solo 90 mm, o 3.5 pulgadas. La primera PC en usar la unidad interna de nuevo formato fue la HP-150, lanzada por Hewlett-Packard en 1984.




La primera computadora personal de Sony con una unidad de 3.5 pulgadas Hewlett-Packard HP-150 El disquete de Sony resultó ser tan exitoso que rápidamente reemplazó todas las soluciones alternativas en el mercado, y el factor de forma en sí duró casi 30 años: producción en masa de 3.5- los disquetes de pulgadas terminaron solo en 2010. La popularidad del nuevo producto se debió a varios factores:

  • una caja de plástico duro y un obturador deslizante de metal proporcionaron una protección confiable del disco en sí;
  • , , ;
  • (, , ).


Clásico intemporal: un disquete de 3.5 pulgadas Sony

Junto con la compacidad, los disquetes de 3.5 pulgadas diferían y una capacidad mucho mayor en comparación con sus predecesores. Por lo tanto, los disquetes de alta densidad de 5,25 pulgadas más avanzados, que aparecieron en 1984, contenían 1200 kilobytes de datos. Aunque las primeras muestras de 3,5 pulgadas tenían una capacidad de 720 KB y eran idénticas en este sentido a los disquetes de 5 pulgadas de cuatro densidades, ya en 1987 aparecieron discos de alta densidad de 1,44 MB, y en 1991 - densidad expandida, que contenía 2 , 88 MB de datos.

Algunas compañías han intentado crear aún más disquetes en miniatura (por ejemplo, Amstrad desarrolló disquetes de 3 pulgadas que se usaron en el ZX Spectrum +3, y Canon produjo disquetes especializados de 2 pulgadas para grabar y almacenar video compuesto), pero no se enraizaron. Pero los dispositivos externos comenzaron a aparecer en el mercado, que ideológicamente estaban mucho más cerca de las unidades externas modernas.

La caja Bernoulli de Iomega y los siniestros "clics de la muerte"


Nos guste o no, el volumen de los disquetes era demasiado pequeño para almacenar grandes cantidades de información: según los estándares modernos, se pueden comparar con las unidades flash de nivel de entrada. Pero, en este caso, ¿qué se puede llamar un análogo de un disco duro externo o una unidad de estado sólido? Los productos Iomega son los más adecuados para este papel.

Su primer dispositivo, introducido en 1982, fue la llamada Caja Bernoulli. A pesar de la gran capacidad para ese tiempo (las primeras unidades tenían una capacidad de 5, 10 y 20 MB), el dispositivo original no era popular debido, sin exagerar, al tamaño gigantesco: los "disquetes" de Iomega tenían dimensiones de 21 por 27.5 cm, que idéntico al papel A4.


Parecían los cartuchos originales para la caja Bernoulli.

Los dispositivos de la compañía han ganado popularidad desde la Caja Bernoulli II. El tamaño de las unidades se redujo significativamente: ya tenían una longitud de 14 cm y un ancho de 13,6 cm (que es comparable a los disquetes estándar de 5,25 pulgadas, si no se tiene en cuenta el grosor de 0,9 cm), aunque difieren en una capacidad mucho más impresionante : desde 20 MB para modelos de la línea de partida hasta 230 MB para discos que salieron a la venta en 1993. Dichos dispositivos estaban disponibles en dos formatos: en forma de módulos internos para PC (debido a su tamaño reducido, podrían instalarse en lugar de lectores de disquete de 5,25 pulgadas) y sistemas de almacenamiento externo conectados a la computadora a través de la interfaz SCSI.


Caja Bernoulli de segunda generación

Los herederos directos de la caja Bernoulli fueron Iomega ZIP, introducido por la compañía en 1994. La asociación con Dell y Apple, que comenzó a instalar unidades ZIP en sus computadoras, contribuyó en gran medida a su popularización. El primer modelo, el ZIP-100, utilizaba unidades con una capacidad de 100 663 296 bytes (aproximadamente 96 MB), contaba con una velocidad de transferencia de datos de aproximadamente 1 MB / sy un tiempo de acceso aleatorio de no más de 28 milisegundos, y las unidades externas se podían conectar a una PC a través de LPT o SCSI Algo más tarde, apareció el ZIP-250 con una capacidad de 250,640,384 bytes (239 MB), y al atardecer la serie ZIP-750 tenía compatibilidad con las unidades ZIP-250 y admite trabajar con el ZIP-100 en modo heredado (solo desde unidades obsoletas leer información). Por cierto, los buques insignia externos incluso lograron obtener soporte para USB 2.0 y FireWire.


Unidad externa Iomega ZIP-100

Con el advenimiento de CD-R / RW, las creaciones de Iomega se hundieron naturalmente en el olvido: las ventas de dispositivos han disminuido, habiendo caído casi cuatro veces en 2003, y ya en 2007 desaparecieron por completo (aunque la liquidación de la producción tuvo lugar solo en 2010). Quizás todo hubiera resultado diferente si el ZIP no tuviera ciertos problemas de confiabilidad.

La cuestión es que el rendimiento del dispositivo, impresionante para esos años, se proporcionó debido a las RPM récord: ¡el disquete giraba a una velocidad de 3000 rpm! Seguramente ya adivinó por qué los primeros dispositivos no se llamaron más que una caja de Bernoulli: debido a la alta velocidad de rotación de la placa magnética, el flujo de aire entre el cabezal de escritura y su superficie también se aceleró, la presión del aire cayó, como resultado de lo cual el disco se acercó al sensor (la ley de Bernoulli en acción). Teóricamente, se suponía que esta característica haría que el dispositivo fuera más confiable, pero en la práctica, los consumidores se enfrentaron a un fenómeno tan desagradable como Clicks of Death - "clicks of death". Cualquier rebaba, incluso la más pequeña, en una placa magnética que se mueve a gran velocidad podría dañar irreversiblemente el cabezal de escritura,después de lo cual el actuador estacionó el actuador y repitió el intento de lectura, que fue acompañado por clics característicos. Tal mal funcionamiento era "contagioso": si el usuario no orientaba e insertaba inmediatamente otro disquete en el dispositivo dañado, luego de un par de intentos de leerlo, también quedaría inutilizable, ya que el cabezal de escritura con la geometría rota dañaba la superficie del disquete. Al mismo tiempo, un disquete también podría matar a otro lector a la vez. Por lo tanto, aquellos que trabajaron con productos Iomega tuvieron que verificar cuidadosamente la salud de los disquetes, y en modelos posteriores aparecieron incluso las etiquetas de advertencia correspondientes.si el usuario no orientó e insertó inmediatamente otro disquete en el dispositivo dañado, luego de un par de intentos de leerlo también quedó inutilizable, ya que el cabezal de escritura con la geometría rota dañó la superficie del disquete. Al mismo tiempo, un disquete también podría matar a otro lector a la vez. Por lo tanto, aquellos que trabajaron con productos Iomega tuvieron que verificar cuidadosamente la salud de los disquetes, y en modelos posteriores aparecieron incluso las etiquetas de advertencia correspondientes.si el usuario no orientó e insertó inmediatamente otro disquete en el dispositivo dañado, luego de un par de intentos de leerlo también quedó inutilizable, ya que el cabezal de escritura con la geometría rota dañó la superficie del disquete. Al mismo tiempo, un disquete también podría matar a otro lector a la vez. Por lo tanto, aquellos que trabajaron con productos Iomega tuvieron que verificar cuidadosamente la salud de los disquetes, y en modelos posteriores aparecieron incluso las etiquetas de advertencia correspondientes.y en modelos posteriores aparecieron incluso las etiquetas de advertencia correspondientes.y en modelos posteriores aparecieron incluso las etiquetas de advertencia correspondientes.

Discos magneto-ópticos: estilo retro Hamr


Finalmente, si ya estamos hablando de medios de almacenamiento portátiles, no podemos dejar de mencionar un milagro tecnológico como los discos magnetoópticos (MO). Los primeros dispositivos de esta clase aparecieron a principios de los años 80 del siglo XX, sin embargo, se usaron más ampliamente solo en 1988, cuando NeXT presentó su primera PC llamada NeXT Computer, que estaba equipada con una unidad magneto-óptica Canon y admitía trabajar con unidades de 256 discos MEGABYTE


NeXT Computer es la primera PC equipada con una unidad magneto-óptica.

La existencia misma de discos magneto-ópticos confirma una vez más la exactitud del epígrafe: aunque la tecnología de grabación termo-magnética (HAMR) se ha discutido activamente solo en los últimos años, ¡este enfoque se utilizó con éxito en la región de Moscú hace más de 30 años! El principio de grabación en discos magnetoópticos es similar al HAMR, con la excepción de algunos matices. Los discos en sí estaban hechos de ferromagnetos, aleaciones capaces de mantener la magnetización a temperaturas inferiores al punto de Curie (aproximadamente 150 grados Celsius) en ausencia de un campo magnético externo. Durante el registro, la superficie de la placa se calentó preliminarmente con un láser a la temperatura del punto Curie, después de lo cual la cabeza magnética ubicada en la parte posterior del disco cambió la magnetización de la sección correspondiente.

La diferencia clave entre este enfoque y HAMR fue que la información también se leía usando un láser de baja potencia: un rayo láser polarizado atravesó la placa del disco, se reflejó desde el sustrato y luego, al pasar a través del sistema óptico del lector, golpeó un sensor que detectó un cambio en el plano polarización laser. Aquí puede observar la aplicación práctica del efecto Kerr (efecto electroóptico cuadrático), cuya esencia es cambiar el índice de refracción del material óptico en proporción al cuadrado de la intensidad del campo electromagnético.


El principio de leer y escribir información en discos magnetoópticos

Los primeros discos magnetoópticos no admitían la reescritura y fueron designados por la abreviatura WORM (Write Once, Read Many), pero aparecieron modelos posteriores que admitieron la reescritura. La sobrescritura se realizó en tres pasadas: primero, la información se borró del disco, luego la grabación se realizó directamente, después de lo cual se verificó la integridad de los datos. Este enfoque proporcionó una calidad de grabación garantizada, lo que hizo que el MO fuera aún más confiable que los CD y DVD. Y a diferencia de los disquetes, los medios magnetoópticos prácticamente no estaban sujetos a desmagnetización: según los fabricantes, el tiempo de almacenamiento de datos en MO regrabables es de al menos 50 años.

Ya en 1989, aparecieron en el mercado unidades de doble cara de 5,25 pulgadas con una capacidad de 650 MB, que proporcionaban velocidades de lectura de hasta 1 MB / sy tiempos de acceso aleatorio de 50 a 100 ms. Al atardecer de la popularidad de MO en el mercado, uno podría encontrar modelos que acomodaban hasta 9.1 GB de datos. Sin embargo, los discos compactos de 90 mm más utilizados con capacidades de 128 a 640 MB.


Disco magneto-óptico compacto con una capacidad de 640 MB fabricado por Olympus.

En 1994, el costo unitario de 1 MB de datos almacenados en dicha unidad oscilaba entre 27 y 50 centavos, dependiendo del fabricante, lo que, junto con un alto rendimiento y confiabilidad, los convirtió en una solución completamente competitiva. Una ventaja adicional de los dispositivos magnetoópticos en comparación con el mismo ZIP fue el soporte de una amplia gama de interfaces, incluidas ATAPI, LPT, USB, SCSI, IEEE-1394a.

A pesar de todas las ventajas, la magneto-óptica también tenía una serie de desventajas. Por ejemplo, las unidades de diferentes marcas (y MO fueron producidas por muchas grandes empresas, incluidas Sony, Fujitsu, Hitachi, Maxell, Mitsubishi, Olympus, Nikon, Sanyo y otras) resultaron incompatibles entre sí debido a las peculiaridades de formato. A su vez, el alto consumo de energía y la necesidad de un sistema de enfriamiento adicional limitaron el uso de tales unidades en las computadoras portátiles. Finalmente, un ciclo de tres tiempos aumentó significativamente el tiempo de grabación, y este problema solo pudo resolverse en 1997 con el advenimiento de la tecnología LIMDOW (Sobreescritura directa modulada por intensidad de luz), que combinó las dos primeras etapas en una agregando imanes integrados en el cartucho con el disco, que también borró información.Como resultado, la magneto-óptica perdió gradualmente su relevancia incluso en el campo del almacenamiento de datos a largo plazo, dando paso a los clásicos streamers LTO.

Y siempre extraño algo ...


Todo lo anterior ilustra claramente el simple hecho de que no importa cuán brillante pueda ser la invención, debe, entre otras cosas, ser oportuna. IBM Simon estaba condenado al fracaso, porque en el momento de su aparición, las personas no necesitaban movilidad absoluta. Los discos magnetoópticos se convirtieron en una buena alternativa al HDD, sin embargo, siguieron siendo una gran cantidad de profesionales y entusiastas, ya que en ese momento el consumidor masivo estaba mucho más interesado en la velocidad, la conveniencia y, por supuesto, el bajo precio, por lo que el comprador promedio estaba dispuesto a sacrificar la confiabilidad. El mismo ZIP, con todas las ventajas, no podría convertirse en una verdadera corriente principal debido al hecho de que la gente realmente no quería mirar cada disquete bajo una lupa, buscando rebabas.

Es por eso que la selección natural delimitó claramente el mercado en dos direcciones paralelas: medios de almacenamiento extraíbles (CD, DVD, Blu-Ray), unidades flash (para almacenar pequeñas cantidades de datos) y discos duros externos (para grandes volúmenes). Entre estos últimos, los modelos compactos de 2.5 pulgadas en casos individuales se han convertido en el estándar no escrito, cuya apariencia se debe principalmente a las computadoras portátiles. Otra razón de su popularidad es la rentabilidad: si los discos duros clásicos de 3.5 pulgadas en la carcasa externa difícilmente podrían llamarse "portátiles", también requieren la conexión de una fuente de alimentación adicional (lo que significa que todavía tenía que llevar el adaptador con usted), entonces lo máximo que pueden necesitar las unidades de 2.5 pulgadas es un conector USB adicional, mientras que los modelos posteriores y más eficientes en energía tampoco lo requerían.

Por cierto, PrairieTek, una pequeña empresa fundada por Terry Johnson en 1986, debe la aparición de HDD en miniatura. Solo tres años después de su apertura, PrairieTek presentó el primer disco duro del mundo de 2.5 pulgadas con una capacidad de 20 MB, llamado PT-220. Un 30% más compacto en comparación con las soluciones de escritorio, el disco tenía una altura de solo 25 mm, convirtiéndose en la mejor opción para usar en computadoras portátiles. Desafortunadamente, incluso como pioneros del mercado de HDD en miniatura, PrairieTek no pudo conquistar el mercado cometiendo un error estratégico fatal. Una vez establecida la producción de PT-220, se centraron en una mayor miniaturización, y pronto lanzaron el modelo PT-120, que, con las mismas características de capacidad y velocidad, tenía un grosor de solo 17 mm.


El disco duro de 2.5 pulgadas PrairieTek PT-120 de segunda generación El error de cálculo

fue que mientras los ingenieros de PrairieTek luchaban por cada milímetro, los competidores representados por JVC y Conner Peripherals estaban expandiendo el volumen de los discos duros, y esto resultó ser decisivo en una confrontación tan desigual. Tratando de tomar el tren que partía, PrairieTek entró en la carrera armamentista, preparando el modelo PT-240, que contenía 42.8 MB de datos y se caracterizó por un bajo consumo de energía récord en ese momento, solo 1.5 vatios. Pero, por desgracia, incluso esto no salvó a la empresa de la ruina y, como resultado, ya en 1991 dejó de existir.

La historia de PrairieTek es otra clara ilustración de cómo los avances tecnológicos, no importa cuán significativos puedan parecer, debido a su oportunidad, simplemente no pueden ser reclamados por el mercado. A principios de los años 90, el consumidor no se vio mimado por los ultrabooks y los teléfonos inteligentes ultradelgados, por lo que no hubo una gran necesidad de tales discos. Es suficiente recordar la primera tableta GridPad lanzada por GRiD Systems Corporation en 1989: ¡el dispositivo "portátil" pesaba más de 2 kg y su grosor alcanzaba los 3,6 cm!


GridPad: la primera tableta del mundo

Y ese "bebé" en esos días se consideraba bastante compacto y conveniente: el usuario final simplemente no veía nada mejor. Al mismo tiempo, la cuestión del espacio en disco era mucho más grave. El mismo GridPad, por ejemplo, no tenía un disco duro en absoluto: la información se almacenaba sobre la base de chips RAM, cuya carga era compatible con las baterías incorporadas. En el contexto de tales dispositivos, el Toshiba T100X (DynaPad) que apareció más tarde pareció ser un verdadero milagro porque llevaba un disco duro de 40 MB a bordo. El hecho de que el dispositivo "móvil" tuviera un grosor de 4 centímetros, pocas personas se avergonzaron.


Tableta Toshiba T100X, más conocida en Japón con el nombre de DynaPad

Pero, como saben, el apetito viene con la comida. Cada año, las solicitudes de los usuarios crecieron y satisfacerlas se volvió cada vez más difícil. A medida que aumentaba la capacidad y la velocidad de los medios de almacenamiento, cada vez más personas comenzaron a pensar que los dispositivos móviles podrían ser más compactos, y la posibilidad de tener a su disposición una unidad portátil que pueda acomodar todos los archivos necesarios sería útil . En otras palabras, hubo una demanda en el mercado de dispositivos que eran fundamentalmente diferentes en términos de conveniencia y ergonomía, que debían satisfacerse, y la confrontación de las compañías de TI continuó con renovado vigor.

Aquí vale la pena volver a referirse al epígrafe de hoy. La era de las unidades de estado sólido comenzó mucho antes de la nada: el primer prototipo de memoria flash fue creado por el ingeniero Fujio Masuoka en las entrañas de Toshiba Corporation en 1984, y el primer producto comercial basado en la persona de Digipro FlashDisk apareció en el mercado en 1988. El milagro de la tecnología contenía 16 megabytes de datos y su precio era de $ 5,000.


Digipro FlashDisk: la primera unidad SSD comercial La

nueva tendencia fue respaldada por Digital Equipment Corporation, que introdujo a principios de los 90 dispositivos de 5,25 pulgadas de la serie EZ5x con soporte para interfaces SCSI-1 y SCSI-2. La compañía israelí M-Systems, que anunció en 1990 una familia de unidades de estado sólido llamada Fast Flash Disk (o FFD), que ya recordaba más o menos a las modernas, no se hizo a un lado: las SSD tenían un formato de 3.5 pulgadas y podían acomodar de 16 a 896 megabytes datos. El primer modelo, llamado FFD-350, fue lanzado en 1995.


208 MB M-Systems FFD-350: el prototipo de SSD modernos

A diferencia de los discos duros tradicionales, los SSD eran mucho más compactos, tenían un mayor rendimiento y, lo más importante, resistencia a golpes y fuertes vibraciones. Potencialmente, esto los convirtió en candidatos prácticamente ideales para crear unidades móviles, si no para un "pero": altos precios para una unidad de almacenamiento de información, lo que hizo que tales soluciones fueran prácticamente inadecuadas para el mercado de consumo. Eran populares en el entorno corporativo, se usaban en la aviación para crear "cajas negras", instaladas en supercomputadoras de centros de investigación, pero no se trataba de crear un producto minorista en ese momento: nadie los compraría incluso si si alguna corporación decidió vender tales unidades al costo.

Pero los cambios en el mercado no se hicieron esperar. El desarrollo del segmento de consumidores de unidades SSD extraíbles se ha visto facilitado en gran medida por la fotografía digital, porque fue en esta industria donde hubo una gran escasez de medios de almacenamiento compactos y energéticamente eficientes. Juzga por ti mismo.

La primera cámara digital del mundo apareció (de nuevo, recuerda las palabras de Eclesiastés) en diciembre de 1975: fue inventada por Stephen Sasson, un ingeniero de Eastman Kodak Company. El prototipo consistía en varias docenas de placas de circuitos impresos, una unidad óptica, prestada de Kodak Super 8, y una grabadora (las fotos fueron grabadas en cintas de audio normales). Como fuente de alimentación para la cámara, se utilizaron 16 baterías de níquel-cadmio, y todo esto pesaba 3,6 kg.


El primer prototipo de cámara digital creada por Eastman Kodak Company La

resolución de la matriz CCD de tal "bebé" fue de solo 0.01 megapíxeles, lo que permitió obtener marcos de 125 × 80 píxeles, y tomó 23 segundos formar cada foto. Dadas tales características "impresionantes", dicha unidad estaba perdiendo en todos los frentes a las cámaras réflex tradicionales, lo que significa que no se podía considerar la creación de un producto comercial basado en él, aunque la invención fue reconocida más tarde como uno de los hitos más importantes en la historia de la fotografía, y Steve fue oficialmente incluido en el Salón de la Fama de la Electrónica de Consumo.

Después de 6 años, Sony tomó la iniciativa de Kodak, anunciando el 25 de agosto de 1981 una cámara de video sin película Mavica (el nombre es una abreviatura de cámara de video magnética).


El prototipo de la cámara digital Sony Mavica

La cámara del gigante japonés parecía mucho más interesante: el prototipo utilizaba una matriz CCD de 10 por 12 mm y contaba con una resolución máxima de 570 x 490 píxeles, y la grabación se realizaba en discos compactos Mavipack de 2 pulgadas, que eran capaces de acomodar de 25 a 50 cuadros dependiendo del modo de disparo. La cuestión es que el cuadro formado constaba de dos campos de televisión, cada uno de los cuales fue grabado como un video compuesto, y era posible arreglar ambos campos a la vez, y solo uno. En el último caso, la resolución del cuadro se redujo 2 veces, pero dicha fotografía pesó la mitad.

Sony originalmente planeó comenzar la producción en masa de la Mavica en 1983, y se suponía que el precio minorista de las cámaras era de $ 650. En la práctica, los primeros diseños industriales aparecieron solo en 1984, y la implementación comercial del proyecto en la persona de Mavica MVC-A7AF y Pro Mavica MVC-2000 se lanzó solo en 1986, y las cámaras cuestan casi un orden de magnitud más de lo planeado originalmente.


Cámara digital Sony Pro Mavica MVC-2000

A pesar del fabuloso precio y la innovación, llamar a la primera Mavica la solución ideal para uso profesional no cambió la lengua, aunque en ciertas situaciones tales cámaras resultaron ser una solución casi perfecta. Por ejemplo, los reporteros de CNN usaron el Sony Pro Mavica MVC-5000 para cubrir la Plaza Tiananmen el 4 de junio. El modelo mejorado recibió dos arreglos CCD independientes, uno de los cuales formó una señal de video de luminancia y el otro una señal de diferencia de color. Este enfoque permitió abandonar el uso del filtro de color Bayer e incrementar la resolución horizontal a 500 TVL. Sin embargo, la principal ventaja de la cámara era el soporte para la conexión directa al módulo PSC-6, que le permite transferir las imágenes recibidas por el aire directamente al editor.Gracias a esto, CNN fue el primero en publicar un informe de la escena, y Sony posteriormente recibió un Premio Emmy especial por su contribución al desarrollo de la transmisión digital de fotos de noticias.


Sony Pro Mavica MVC-5000 es la cámara que convirtió a Sony en la ganadora del Premio Emmy.

Pero, ¿y si el fotógrafo tiene un largo viaje lejos de la civilización? En este caso, podría llevar consigo una de las maravillosas cámaras Kodak DCS 100 que vieron la luz en mayo de 1991. Un monstruoso híbrido de una cámara SLR de pequeño formato Nikon F3 HP con un prefijo digital DCS Digital Film Back, equipado con una vinder, se conectó a una Unidad de almacenamiento digital externa (tenía que usarse en la correa para el hombro) usando un cable.


Cámara digital Kodak DCS 100: la encarnación de la compacidad

Kodak ofreció dos modelos, cada uno de los cuales tenía varias variaciones: DCS DC3 en color y DCS DM3 en blanco y negro. Todas las cámaras de la línea estaban equipadas con matrices con una resolución de 1.3 megapíxeles, sin embargo, diferían en el tamaño del búfer, lo que determinaba el número máximo permitido de fotogramas en el disparo en serie. Por ejemplo, las modificaciones con 8 MB a bordo podrían disparar a una velocidad de 2.5 cuadros por segundo en series de 6 cuadros, mientras que los cuadros más avanzados de 32 megabytes permiten una longitud de serie de 24 cuadros. Si se supera este umbral, la velocidad de disparo cae a 1 fotograma en 2 segundos hasta que el búfer esté completamente vacío.

En cuanto a la DSU, estaba equipada con un disco duro de 3.5 pulgadas y 200 MB, capaz de acomodar desde 156 fotos "en bruto" hasta 600 comprimidas usando un convertidor JPEG de hardware (comprado e instalado adicionalmente), y una pantalla LCD para ver fotos El almacenamiento inteligente incluso permitió agregar descripciones breves a las fotos, pero para esto fue necesario conectar un teclado externo. Junto con las baterías, su peso era de 3,5 kg, mientras que el peso total del kit alcanzaba los 5 kg.

A pesar de la dudosa conveniencia y el precio de 20 a 25 mil dólares (en la configuración máxima), en los próximos tres años, se vendieron alrededor de 1000 dispositivos de este tipo, que, además de periodistas, estaban interesados ​​en instituciones médicas, la policía y varias empresas industriales. En una palabra, la demanda de tales productos era, ya que había una necesidad urgente de más portadores de información en miniatura. SanDisk propuso una solución adecuada, introduciendo el estándar CompactFlash en 1994.


Tarjetas de memoria CompactFlash emitidas por SanDisk y adaptador PCMCIA para conectarlas a una PC El

nuevo formato ha resultado ser tan exitoso que se utiliza con éxito en la actualidad, y la Asociación CompactFlash creada en 1995 tiene más de 200 empresas participantes, incluida Canon , Eastman Kodak Company, Hewlett-Packard, Hitachi Global Systems Technologies, Lexar Media, Renesas Technology, Socket Communications y muchos otros.

Las tarjetas de memoria CompactFlash tenían dimensiones totales de 42 mm por 36 mm y un grosor de 3,3 mm. La interfaz física de las unidades era esencialmente una PCMCIA truncada (50 pines en lugar de 68), lo que facilitaba la conexión de dicha tarjeta a la ranura de tarjeta de expansión PCMCIA Tipo II utilizando un adaptador pasivo. Usando el adaptador pasivo, CompactFlash podría intercambiar datos con dispositivos periféricos a través de IDE (ATA), y los adaptadores activos especiales permitieron trabajar con interfaces seriales (USB, FireWire, SATA).

A pesar de la capacidad relativamente pequeña (el primer CompactFlash podía acomodar solo 2 MB de datos), las tarjetas de memoria de este tipo eran muy demandadas en un entorno profesional debido a su tamaño compacto y rentabilidad (uno de esos discos consumía aproximadamente el 5% de energía en comparación con los discos duros convencionales de 2.5 pulgadas, que permitió extender la vida útil de la batería del dispositivo portátil) y la versatilidad, que se logró gracias al soporte para muchas interfaces diferentes y la capacidad de trabajar desde una fuente de alimentación con un voltaje de 3.3 o 5 voltios, y lo más importante: resistencia impresionante a sobrecargas de más de 2000 g, que fue Barra casi inalcanzable para discos duros clásicos.

El hecho es que es técnicamente imposible crear discos duros verdaderamente a prueba de golpes debido a sus características de diseño. En el caso de una caída, cualquier objeto está sujeto a efectos cinéticos de cientos o incluso miles de g (aceleración de caída libre estándar de 9.8 m / s2) en menos de 1 milisegundo, lo que para los discos duros clásicos está lleno de una serie de consecuencias muy desagradables, que incluyen :

  • placas magnéticas deslizantes y móviles;
  • la aparición del juego en los rodamientos, su desgaste prematuro;
  • golpear cabezas en la superficie de las placas magnéticas.

La situación más peligrosa para la unidad es la última situación. Cuando la energía del impacto se dirige perpendicularmente o en un ángulo insignificante al plano horizontal del HDD, las cabezas magnéticas primero se desvían de su posición original, y luego caen bruscamente a la superficie del panqueque, tocándolo con el borde, como resultado de lo cual la placa magnética recibe daños en la superficie. Además, no solo el lugar donde ocurrió el golpe (que, por cierto, puede tener una longitud considerable si la información se registró o leyó en el momento de la caída) sufre, sino también las áreas a lo largo de las cuales se dispersaron los fragmentos microscópicos del revestimiento magnético: ser magnetizado , no se desplazan bajo la acción de la fuerza centrífuga hacia la periferia, quedando en la superficie de la placa magnética,interfiere con las operaciones normales de lectura / escritura y contribuye a un mayor daño tanto en el panqueque como en el cabezal de escritura. Si el golpe es lo suficientemente fuerte, esto puede conducir por completo a la separación del sensor y la falla completa de la unidad.

A la luz de todo lo anterior, para los fotoperiodistas, las nuevas unidades eran realmente indispensables: sería mucho mejor tener una docena o dos tarjetas sin pretensiones con usted que llevar una cosa del tamaño de una videograbadora a la espalda, que casi 100% fallará de un poco más fuerte golpear. Sin embargo, las tarjetas de memoria todavía eran demasiado caras para el consumidor minorista. Es por eso que Sony dominó con éxito el mercado de la "caja de jabón" con el "cubo" Mavica MVC-FD, que guardaba las fotos en disquetes estándar de 3.5 pulgadas formateados en DOS FAT12, lo que garantizaba la compatibilidad con casi cualquier PC de esa época.


Cámara digital amateur Sony Mavica MVC-FD73

Y así continuó hasta casi el final de la década, hasta que IBM intervino en el asunto. Sin embargo, hablaremos de esto en el próximo artículo.

¿Y qué dispositivos inusuales has encontrado? ¿Quizás le disparaste a Mavica, observaste la agonía de Iomega ZIP con tus propios ojos o usaste el Toshiba T100X? Comparte tus historias en los comentarios.

Almacenamiento externo de datos: desde la época de IBM 1311 hasta la actualidad. Parte 2

All Articles