Armazenamento de dados externos: do tempo do IBM 1311 até os dias atuais. Parte 1


O que foi, será;
e o que foi feito será feito,
e não há nada novo sob o sol.


Eclesiastes 1: 9 A

eterna sabedoria da epígrafe é aplicável a quase todos os setores, incluindo um que está mudando rapidamente como a TI. De fato, verifica-se que muitos dos conhecimentos, sobre os quais eles estão começando a falar agora, são baseados em invenções feitas há várias décadas e até mesmo com sucesso (ou não) usados ​​em dispositivos de consumo ou na esfera B2B. Isso também se aplica a uma direção aparentemente nova, como dispositivos móveis e mídia de armazenamento portátil, que discutiremos em detalhes no artigo de hoje.

Você não precisa ir longe para obter exemplos. Pegue os mesmos telefones celulares. Se você acredita que o primeiro dispositivo "inteligente", que não possuía teclado, é o iPhone, que apareceu apenas em 2007, você está profundamente enganado. A idéia de criar um smartphone real que combina uma ferramenta de comunicação e recursos de PDA em um caso não pertence à Apple, mas à IBM, e o primeiro dispositivo foi apresentado ao público em 23 de novembro de 1992 como parte da exposição da indústria de telecomunicações COMDEX em Las Vegas , e na produção em massa esse milagre da tecnologia ocorreu em 1994.


IBM Simon Personal Communicator - o primeiro smartphone touchscreen do mundo

O comunicador pessoal IBM Simon foi o primeiro telefone celular que basicamente não possuía teclado, e as informações foram inseridas exclusivamente usando a tela de toque. Ao mesmo tempo, o gadget combinava a funcionalidade do organizador, permitindo enviar e receber faxes, além de trabalhar com email. Se necessário, o IBM Simon poderia ser conectado a um computador pessoal para troca de dados ou usado como um modem com desempenho de 2400 bps. A propósito, a entrada de informações textuais foi implementada de uma maneira bastante engenhosa: o proprietário teve a escolha entre um teclado QWERTY em miniatura, que, dado o tamanho da tela de 4,7 polegadas e uma resolução de 160x293 pixels, não era particularmente conveniente de usar, e o assistente intelectual do PredictaKey. Este último exibiu apenas os 6 caracteres a seguir, que,de acordo com o algoritmo preditivo, eles poderiam ser usados ​​com a maior probabilidade.

O melhor epíteto que pode ser caracterizado pelo IBM Simon é "antecipadamente", o que acabou determinando o fiasco completo desse dispositivo no mercado. Por um lado, naquela época não havia tecnologias capazes de tornar o comunicador realmente conveniente: poucas pessoas gostariam de transportar um dispositivo com um tamanho de 200 × 64 × 38 mm e pesando 623 gramas (e junto com uma estação de carregamento - mais de 1 kg), a bateria durou apenas 1 hora no modo de conversação e 12 horas no modo de espera. Por outro lado, o preço da emissão: US $ 899 com o contrato da operadora móvel BellSouth, que se tornou o parceiro oficial da IBM nos EUA, e mais de US $ 1000 - sem ele. Além disso, não esqueça a oportunidade (mas até a necessidade) de comprar uma bateria mais espaçosa - "apenas" por US $ 78.


Comparação visual do IBM Simon, smartphones modernos e cones de abeto

Com dispositivos de armazenamento externo também não é tão simples. Segundo a conta de Hamburgo, a criação do primeiro desses dispositivos pode ser atribuída novamente à IBM. Em 11 de outubro de 1962, a empresa anunciou o revolucionário sistema de armazenamento IBM 1311. Um recurso importante do novo produto era o uso de cartuchos substituíveis, cada um deles contendo seis placas magnéticas de 14 polegadas. Embora esse disco removível pesasse 4,5 kg, ainda era uma conquista importante, pois pelo menos era possível trocar os cassetes quando estavam cheios e transferi-los entre as unidades, cada uma do tamanho de uma cômoda impressionante.


IBM 1311 - armazenamento de dados com discos rígidos removíveis

Mas, mesmo para essa mobilidade, era preciso pagar por desempenho e capacidade. Primeiro, para evitar a corrupção de dados, os lados externos da 1ª e da 6ª placas foram privados da camada magnética e, em conjunto, executaram uma função protetora. Como agora apenas 10 aviões foram usados ​​para a gravação, a capacidade total do disco removível era de 2,6 megabytes, o que ainda era bastante na época: um cartucho foi substituído com sucesso ⅕ um rolo padrão por um filme magnético ou 25 mil cartões perfurados, enquanto fornecia acesso aleatório a dados.

Em segundo lugar, a produtividade foi reduzida à mobilidade: a velocidade do eixo teve que ser reduzida para 1.500 rpm e, como resultado, o tempo médio de acesso ao setor aumentou para 250 milissegundos. Para comparação, o antecessor desta unidade, IBM 1301, tinha uma velocidade de rotação do eixo-árvore de 1800 rpm e um tempo de acesso ao setor de 180 ms. No entanto, foi graças ao uso de discos rígidos removíveis que o IBM 1311 se tornou muito popular no ambiente corporativo, pois esse design acabou por reduzir significativamente o custo de armazenamento de uma unidade de informações, possibilitando reduzir o número de instalações adquiridas e a área necessária para sua colocação. Graças a isso, o dispositivo acabou sendo um dos mais duradouros para os padrões do mercado de hardware de computadores e foi descontinuado apenas em 1975.

O sucessor do IBM 1311, que recebeu o índice 3340, foi o resultado do desenvolvimento de idéias estabelecidas pelos engenheiros da empresa no design do modelo anterior. O novo sistema de armazenamento de dados recebeu cartuchos completamente selados, pelos quais foi possível, por um lado, neutralizar a influência de fatores ambientais nas placas magnéticas, aumentando sua confiabilidade e, ao mesmo tempo, melhorando significativamente a aerodinâmica no interior dos cartuchos. A imagem foi complementada pelo microcontrolador responsável pelo movimento das cabeças magnéticas, cuja presença possibilitou aumentar significativamente a precisão de seu posicionamento.


IBM 3340, apelidado de Winchester.Como

resultado, a capacidade de cada cartucho aumentou para 30 megabytes e o tempo de acesso ao setor diminuiu exatamente 10 vezes - até 25 milissegundos. Ao mesmo tempo, a taxa de transferência de dados atingiu um recorde naquele tempo de 885 kilobytes por segundo. A propósito, foi graças ao IBM 3340 que o jargão Winchester entrou em uso. O fato é que o dispositivo foi projetado para operação simultânea com duas unidades removíveis, razão pela qual recebeu um índice adicional de "30-30". O mundialmente famoso rifle Winchester tinha o mesmo índice, com a única diferença: se no primeiro caso estivéssemos falando de dois discos com capacidade de 30 MB, no segundo era sobre o calibre de uma bala (0,3 polegadas) e o peso da pólvora em uma cápsula (30 grãos, isto é cerca de 1,94 gramas).

Disquete - o protótipo de unidades externas modernas


Embora sejam os cartuchos para o IBM 1311 que podem ser considerados os trisavôs dos discos rígidos externos modernos, esses dispositivos estavam infinitamente distantes do mercado consumidor. Mas, para continuar a árvore genealógica dos portadores de informações móveis, primeiro você precisa determinar os critérios de seleção. Obviamente, os cartões perfurados permanecerão no mar, pois são a tecnologia da era "pré-disco". Também não vale a pena considerar as unidades baseadas em fitas magnéticas: embora formalmente a bobina tenha uma propriedade como a mobilidade, seu desempenho não pode ser comparado mesmo com as primeiras amostras de discos rígidos pelo simples motivo de que a fita magnética fornece apenas acesso seqüencial aos dados gravados. Portanto, o mais próximo dos discos rígidos em termos de propriedades do consumidor são os discos "flexíveis". E a verdade é:os disquetes são compactos o suficiente e, como os discos rígidos, podem suportar várias reescritas e podem funcionar no modo de leitura aleatória. Vamos começar com eles.

Se você espera ver as três cartas preciosas novamente, então ... você está absolutamente certo. Afinal, foi nos laboratórios da IBM que o grupo de pesquisa de Alan Schugart procurava um substituto digno das fitas magnéticas, perfeitas para arquivar dados, mas perdidas para os discos rígidos nas tarefas diárias. Uma solução adequada foi proposta pelo engenheiro sênior David Noble, que se juntou à equipe e projetou em 1967 um disco magnético removível com uma caixa de proteção, que foi trabalhada com uma unidade especial. Após 4 anos, a IBM lançou o primeiro disquete do mundo, com um volume de 80 kilobytes e um diâmetro de 8 polegadas, e já em 1972 viu a luz da segunda geração de disquetes, cuja capacidade já era de 128 kilobytes.


Um disquete IBM de 8 polegadas e 128 kilobytes

Na sequência do sucesso dos disquetes, Alan Schugart decidiu deixar a corporação em 1973 e abrir sua própria empresa, chamada Shugart Associates. A nova empresa estava envolvida no desenvolvimento de unidades de disquete: em 1976, a empresa lançou discos compactos de 5,25 polegadas e unidades de disco originais que receberam um controlador e uma interface atualizados. O custo do mini disquete Shugart SA-400 no início das vendas totalizou 390 dólares americanos para a unidade propriamente dita e US $ 45 para um conjunto de dez disquetes. Em toda a história da existência da empresa, foi o SA-400 que se tornou o produto de maior sucesso: a taxa de remessa de novos dispositivos atingiu 4000 unidades por dia e, gradualmente, os disquetes de 5,25 polegadas deslocaram no mercado homólogos volumosos de oito polegadas.

No entanto, a empresa de Alan Schugart não conseguiu dominar o mercado por muito tempo: já em 1981 a Sony pegou o bastão, introduzindo um disquete ainda mais miniatura, cujo diâmetro era de apenas 90 mm ou 3,5 polegadas. O primeiro PC a usar a unidade interna de novo formato foi o HP-150, lançado pela Hewlett-Packard em 1984.


Primeiro computador pessoal

da Sony com uma unidade de 3,5 polegadas Hewlett-Packard HP-150 O disquete da Sony foi tão bem-sucedido que rapidamente substituiu todas as soluções alternativas no mercado, e o próprio formato durou quase 30 anos: produção em massa de 3,5 disquetes de 2,5 polegadas terminaram apenas em 2010. A popularidade do novo produto foi devido a vários fatores:

  • uma caixa de plástico rígido e um obturador deslizante de metal forneciam proteção confiável ao próprio disco;
  • , , ;
  • (, , ).


Clássico atemporal - um disquete de 3,5 polegadas Sony

Junto com o tamanho compacto, os disquetes de 3,5 polegadas diferem e têm uma capacidade muito maior em comparação aos seus antecessores. Portanto, os disquetes de alta densidade e alta densidade de 5,25 polegadas, que apareceram em 1984, continha 1200 kilobytes de dados. Embora as primeiras amostras de 3,5 polegadas tivessem uma capacidade de 720 KB e fossem idênticas a esse respeito aos disquetes de 5 polegadas de quatro densidades, já em 1987 surgiram discos de alta densidade de 1,44 MB e, em 1991 - densidade expandida, contendo 2 , 88 MB de dados.

Algumas empresas tentaram criar ainda mais disquetes em miniatura (por exemplo, a Amstrad desenvolveu disquetes de 3 polegadas que foram usadas no ZX Spectrum +3, e a Canon produziu disquetes especializadas de 2 polegadas para gravar e armazenar vídeo composto), mas não criaram raízes. Mas dispositivos externos começaram a aparecer no mercado, que ideologicamente estavam muito mais próximos das unidades externas modernas.

A caixa de Bernoulli de Iomega e os sinistros "cliques da morte"


Goste ou não, o volume de disquetes era muito pequeno para armazenar grandes quantidades de informações: pelos padrões modernos, elas podem ser comparadas com as unidades flash de nível básico. Mas o que, nesse caso, pode ser chamado de análogo de um disco rígido externo ou de estado sólido? Os produtos Iomega são mais adequados para essa função.

O primeiro dispositivo, lançado em 1982, foi o chamado Bernoulli Box. Apesar da grande capacidade para a época (as primeiras unidades tinham capacidade de 5, 10 e 20 MB), o dispositivo original não era popular por causa, sem exagero, do tamanho gigantesco: os “disquetes” da Iomega tinham dimensões de 21 por 27,5 cm, o que idêntico ao papel A4.


Pareciam os cartuchos originais da caixa de Bernoulli.Os

dispositivos da empresa ganharam popularidade desde a caixa II de Bernoulli. O tamanho das unidades foi significativamente reduzido: elas já tinham um comprimento de 14 cm e uma largura de 13,6 cm (o que é comparável aos disquetes padrão de 5,25 polegadas, se você não levar em consideração a espessura de 0,9 cm), diferindo em uma capacidade muito mais impressionante : de 20 MB para modelos da linha de partida até 230 MB para discos que foram colocados à venda em 1993. Esses dispositivos estavam disponíveis em dois formatos: na forma de módulos internos para PCs (devido ao tamanho reduzido, podiam ser instalados no lugar de leitores de disquete de 5,25 polegadas) e sistemas de armazenamento externos conectados ao computador via interface SCSI.


Segunda geração Bernoulli Box

Os herdeiros diretos da caixa de Bernoulli foram o Iomega ZIP, lançado pela empresa em 1994. A parceria com a Dell e a Apple, que começaram a instalar drives ZIP em seus computadores, contribuiu amplamente para sua popularização. O primeiro modelo, o ZIP-100, usava unidades com capacidade de 100 663 296 bytes (cerca de 96 MB), ostentava uma taxa de transferência de dados de cerca de 1 MB / se um tempo de acesso aleatório não superior a 28 milissegundos, e as unidades externas podiam ser conectadas a um PC via LPT ou SCSI Um pouco mais tarde, o ZIP-250 com capacidade de 250.640.384 bytes (239 MB) apareceu e, ao pôr do sol, a série ZIP-750 tinha compatibilidade com versões anteriores das unidades ZIP-250 e suporta o trabalho com o ZIP-100 no modo legado (somente em unidades obsoletas leia informações). A propósito, flagships externos conseguiram até obter suporte para USB 2.0 e FireWire.


Unidade externa Iomega ZIP-100

Com o advento do CD-R / RW, as criações da Iomega caíram no esquecimento - as vendas de dispositivos caíram, quase quatro vezes em 2003 e já em 2007 desapareceram completamente (embora a liquidação da produção ocorreu apenas em 2010). Talvez tudo tivesse sido diferente se o ZIP não tivesse certos problemas de confiabilidade.

O fato é que o desempenho do dispositivo, impressionante para aqueles anos, foi fornecido devido ao recorde de RPM: o disquete girou a uma velocidade de 3000 rpm! Certamente você já adivinhou por que os primeiros dispositivos foram chamados nada mais do que uma caixa de Bernoulli: devido à alta velocidade de rotação da placa magnética, o fluxo de ar entre a cabeça de escrita e sua superfície também foi acelerado, a pressão do ar caiu, como resultado do disco se aproximar do sensor (lei de Bernoulli em ação). Teoricamente, esse recurso deveria tornar o dispositivo mais confiável, mas, na prática, os consumidores se depararam com um fenômeno tão desagradável como o Clicks of Death - "clicks of death". Qualquer rebarba, mesmo a menor, em uma placa magnética que se mova a grande velocidade pode danificar irreversivelmente a cabeça de escrita,após o qual o atuador estacionou o atuador e repetiu a tentativa de leitura, que foi acompanhada por cliques característicos. Esse mau funcionamento era "contagioso": se o usuário não orientasse e inserisse imediatamente outro disquete no dispositivo danificado, depois de algumas tentativas de lê-lo, ele também se tornaria inutilizável, pois a cabeça de escrita com a geometria quebrada danificava a superfície do disquete. Ao mesmo tempo, um disquete também pode matar outro leitor ao mesmo tempo. Portanto, aqueles que trabalharam com os produtos da Iomega tiveram que verificar cuidadosamente a integridade dos disquetes e, nos modelos posteriores, até as etiquetas de aviso correspondentes apareceram.se o usuário não orientou e inseriu imediatamente outro disquete no dispositivo danificado, depois de algumas tentativas de leitura, também se tornou inutilizável, pois a cabeça de gravação com a geometria quebrada danificou a superfície do disquete. Ao mesmo tempo, um disquete também pode matar outro leitor ao mesmo tempo. Portanto, aqueles que trabalharam com os produtos da Iomega tiveram que verificar cuidadosamente a integridade dos disquetes e, nos modelos posteriores, até as etiquetas de aviso correspondentes apareceram.se o usuário não orientou e inseriu imediatamente outro disquete no dispositivo danificado, depois de algumas tentativas de leitura, também se tornou inutilizável, pois a cabeça de gravação com a geometria quebrada danificou a superfície do disquete. Ao mesmo tempo, um disquete também pode matar outro leitor ao mesmo tempo. Portanto, aqueles que trabalharam com os produtos da Iomega tiveram que verificar cuidadosamente a integridade dos disquetes e, nos modelos posteriores, até as etiquetas de aviso correspondentes apareceram.e em modelos posteriores, até as etiquetas de aviso correspondentes apareceram.e em modelos posteriores, até as etiquetas de aviso correspondentes apareceram.

Discos magneto-ópticos: Hamr estilo retro


Finalmente, se já estamos falando sobre mídia de armazenamento portátil, não podemos deixar de mencionar um milagre da tecnologia como discos magneto-ópticos (MO). Os primeiros dispositivos dessa classe apareceram no início dos anos 80 do século 20, no entanto, foram mais amplamente utilizados apenas em 1988, quando a NeXT lançou seu primeiro PC chamado NeXT Computer, equipado com uma unidade magneto-óptica da Canon e suportado no trabalho com unidades de 256 discos MB


O NeXT Computer é o primeiro PC equipado com uma unidade magneto-óptica.

A própria existência de discos magneto-ópticos confirma mais uma vez a exatidão da epígrafe: embora a tecnologia de gravação termomagnética (HAMR) tenha sido ativamente discutida apenas nos últimos anos, essa abordagem foi usada com sucesso na região de Moscou há mais de 30 anos! O princípio da gravação em discos magneto-ópticos é semelhante ao HAMR, com exceção de algumas nuances. Os discos eram feitos de ferromagnetos - ligas capazes de manter a magnetização a temperaturas abaixo do ponto Curie (cerca de 150 graus Celsius) na ausência de um campo magnético externo. Durante a gravação, a superfície da placa foi aquecida preliminarmente por um laser até a temperatura do ponto Curie, após o qual a cabeça magnética localizada na parte traseira do disco alterou a magnetização da região correspondente.

A principal diferença dessa abordagem do HAMR foi que as informações também foram lidas usando um laser de baixa potência: um feixe de laser polarizado passou pela placa do disco, refletido no substrato e, passando pelo sistema óptico do leitor, atingiu um sensor que detectou uma mudança no avião polarização a laser. Aqui você pode observar a aplicação prática do efeito Kerr (efeito eletro-óptico quadrático), cuja essência é alterar o índice de refração do material óptico em proporção ao quadrado da força do campo eletromagnético.


O princípio da leitura e gravação de informações em discos magneto-ópticos

Os primeiros discos magneto-ópticos não suportam a reescrita e foram designados pela abreviação WORM (Write Once, Read Many), mas surgiram modelos posteriores que suportavam a reescrita. A substituição foi realizada em três passagens: primeiro, as informações foram apagadas do disco e, em seguida, a gravação foi realizada diretamente, após o que a integridade dos dados foi verificada. Essa abordagem garantiu qualidade de gravação garantida, o que tornou o MO ainda mais confiável do que CDs e DVDs. E, diferentemente dos disquetes, as mídias magneto-ópticas praticamente não estavam sujeitas a desmagnetização: de acordo com os fabricantes, o tempo de armazenamento de dados em MOs regraváveis ​​é de pelo menos 50 anos.

Já em 1989, os drives de 5,25 polegadas de frente e verso com uma capacidade de 650 MB apareceram no mercado, fornecendo uma velocidade de leitura de até 1 MB / se um tempo de acesso aleatório de 50 a 100 ms. No início da popularidade do MO no mercado, era possível encontrar modelos que acomodavam até 9,1 GB de dados. No entanto, os discos compactos de 90 mm mais usados ​​com capacidades de 128 a 640 MB.


Disco magneto-óptico compacto com capacidade de 640 MB fabricado pela Olympus

Em 1994, o custo unitário de 1 MB de dados armazenados em tal unidade variava de 27 a 50 centavos, dependendo do fabricante, o que, juntamente com alto desempenho e confiabilidade, os tornava uma solução completamente competitiva. Uma vantagem adicional dos dispositivos magneto-ópticos em comparação com o mesmo ZIP foi o suporte a uma ampla gama de interfaces, incluindo ATAPI, LPT, USB, SCSI, IEEE-1394a.

Apesar de todas as vantagens, a magneto-óptica também teve várias desvantagens. Por exemplo, unidades de diferentes marcas (e MOs foram produzidas por muitas grandes empresas, incluindo Sony, Fujitsu, Hitachi, Maxell, Mitsubishi, Olympus, Nikon, Sanyo e outras) se mostraram incompatíveis entre si devido às peculiaridades de formatação. Por sua vez, o alto consumo de energia e a necessidade de um sistema de refrigeração adicional limitavam o uso dessas unidades em laptops. Por fim, um ciclo de três vezes aumentou significativamente o tempo de gravação, e esse problema só pôde ser resolvido em 1997 com o advento da tecnologia LIMDOW (Substituição Direta Modulada por Intensidade de Luz), que combinou os dois primeiros estágios em um adicionando ímãs incorporados ao cartucho com o disco, o que também apagou em formação.Como resultado, a magneto-óptica gradualmente perdeu sua relevância, mesmo no campo do armazenamento de dados a longo prazo, dando lugar aos streamers LTO clássicos.

E eu sempre sinto falta de algo ...


Tudo acima ilustra claramente o fato simples de que, por mais brilhante que a invenção possa ser, ela deve ser oportuna, entre outras coisas. O IBM Simon estava fadado ao fracasso, porque no momento de sua aparência, as pessoas não precisavam de mobilidade absoluta. Os discos magneto-ópticos tornaram-se uma boa alternativa ao HDD, no entanto, continuaram sendo muitos profissionais e entusiastas, pois naquele momento o consumidor em massa estava muito mais interessado em velocidade, conveniência e, é claro, preço baixo, pelos quais o comprador médio estava disposto a sacrificar a confiabilidade. O mesmo ZIP, com todas as vantagens, não poderia se tornar um verdadeiro mainstream, porque as pessoas realmente não queriam olhar para cada disquete sob uma lupa, procurando rebarbas.

É por isso que a seleção natural delimitou claramente o mercado em duas direções paralelas: mídia de armazenamento removível (CD, DVD, Blu-Ray), drives flash (para armazenar pequenas quantidades de dados) e discos rígidos externos (para grandes volumes). Entre os últimos, os modelos compactos de 2,5 polegadas em casos individuais se tornaram o padrão não-escrito, cuja aparência devemos principalmente aos laptops. Outro motivo para sua popularidade é a relação custo-benefício: se os HDDs clássicos de 3,5 polegadas no gabinete externo dificilmente poderiam ser chamados de "portáteis", eles também exigiam a conexão de uma fonte de energia adicional (o que significava que você ainda precisava carregar o adaptador). o máximo que as unidades de 2,5 polegadas podem precisar é de um conector USB adicional, enquanto os modelos posteriores e com maior consumo de energia também não exigiam isso.

A propósito, a PrairieTek, uma pequena empresa fundada por Terry Johnson em 1986, deve a aparência de HDDs em miniatura. Apenas três anos após sua abertura, a PrairieTek lançou o primeiro disco rígido de 2,5 polegadas do mundo, com capacidade de 20 MB, chamado PT-220. 30% mais compacto em comparação às soluções de desktop, o drive tinha apenas 25 mm de altura, tornando-se a melhor opção para uso em laptops. Infelizmente, mesmo como pioneiros no mercado de HDDs em miniatura, a PrairieTek não conseguiu conquistar o mercado cometendo um erro estratégico fatal. Tendo estabelecido a produção do PT-220, eles se concentraram em miniaturização, lançando em breve o modelo PT-120, que, com as mesmas características de capacidade e velocidade, tinha uma espessura de apenas 17 mm.


O disco rígido de segunda geração PrairieTek PT-120 de 2,5 polegadas O erro de cálculo

foi que, enquanto os engenheiros da PrairieTek lutavam a cada milímetro, os concorrentes representados pela JVC e pela Conner Peripherals estavam expandindo o volume de discos rígidos, e isso acabou sendo decisivo em um confronto tão desigual. Tentando pegar o trem de partida, o PrairieTek entrou na corrida armamentista, tendo preparado o modelo PT-240, que continha 42,8 MB de dados e era caracterizado pelo baixo consumo de energia na época - apenas 1,5 watts. Mas, infelizmente, mesmo isso não salvou a empresa da ruína e, como resultado, já em 1991 deixou de existir.

A história do PrairieTek é mais uma ilustração clara de como os avanços tecnológicos, por mais significativos que pareçam, devido à sua pontualidade, podem simplesmente não ser reclamados pelo mercado. No início dos anos 90, o consumidor não era mimado por ultrabooks e smartphones ultrafinos, portanto não havia uma necessidade aguda de tais discos. Basta lembrar o primeiro tablet GridPad lançado pela GRiD Systems Corporation em 1989: o dispositivo "portátil" pesava mais de 2 kg e sua espessura alcançava 3,6 cm!


GridPad - o primeiro tablet do mundo

E um "bebê" daqueles dias era considerado bastante compacto e conveniente: o usuário final simplesmente não via nada melhor. Ao mesmo tempo, a questão do espaço em disco era muito mais aguda. O mesmo GridPad, por exemplo, não possuía nenhum disco rígido: as informações eram armazenadas com base nos chips de RAM, cuja carga era suportada pelas baterias embutidas. No contexto de tais dispositivos, o Toshiba T100X (DynaPad), que apareceu mais tarde, parecia ser um verdadeiro milagre, pois carregava um disco rígido de 40 MB a bordo. O fato de o dispositivo "móvel" ter uma espessura de 4 centímetros, poucas pessoas ficaram envergonhadas.


Tablet Toshiba T100X, mais conhecido no Japão sob o nome DynaPad

Mas, como você sabe, o apetite vem da comida. Todos os anos, as solicitações de usuários aumentavam e a satisfação delas se tornava cada vez mais difícil. À medida que a capacidade e a velocidade da mídia de armazenamento aumentavam, mais e mais pessoas começaram a pensar que os dispositivos móveis podiam ser mais compactos, e a possibilidade de ter à disposição uma unidade portátil que pode acomodar todos os arquivos necessários seria útil. . Em outras palavras, havia uma demanda no mercado por dispositivos fundamentalmente diferentes em termos de conveniência e ergonomia, que precisavam ser satisfeitos, e o confronto das empresas de TI continuou com vigor renovado.

Aqui vale a pena referir-se novamente à epígrafe de hoje. A era das unidades de estado sólido começou muito antes dos nada: o primeiro protótipo de memória flash foi criado pelo engenheiro Fujio Masuoka nas entranhas da Toshiba Corporation em 1984, e o primeiro produto comercial baseado nele na pessoa do Digipro FlashDisk apareceu no mercado em 1988. O milagre da tecnologia continha 16 megabytes de dados e seu preço era de US $ 5.000.


Digipro FlashDisk - o primeiro drive SSD comercial A

nova tendência foi apoiada pela Digital Equipment Corporation, que introduziu no início dos anos 90 dispositivos de 5,25 polegadas da série EZ5x com suporte para SCSI-1 e SCSI-2. A empresa israelense M-Systems, que anunciou em 1990 uma família de unidades de estado sólido chamada Fast Flash Disk (ou FFD), já mais ou menos reminiscentes das modernas, não ficou de fora: os SSDs tinham um formato de 3,5 polegadas e podiam acomodar de 16 a 896 megabytes dados. O primeiro modelo, chamado FFD-350, foi lançado em 1995.


208 MB M-Systems FFD-350 - o protótipo dos SSDs modernos

Ao contrário dos discos rígidos tradicionais, os SSDs eram muito mais compactos, tinham desempenho superior e, mais importante, resistência a choques e vibrações fortes. Potencialmente, isso os tornou candidatos quase ideais para a criação de drives móveis, se não para um "mas": preços altos para uma unidade de armazenamento de informações, o que tornou essas soluções praticamente inadequadas para o mercado consumidor. Eles eram populares no ambiente corporativo, usados ​​na aviação para criar "caixas pretas", instaladas em supercomputadores de centros de pesquisa, mas não havia como criar um produto de varejo naquele momento: ninguém os compraria, mesmo que se alguma empresa decidisse vender essas unidades a um custo.

Mas as mudanças no mercado não demoraram a chegar. O desenvolvimento do segmento consumidor de unidades SSD removíveis foi muito facilitado pela fotografia digital, porque foi nesse setor que houve uma escassez aguda de mídia de armazenamento compacta e com baixo consumo de energia. Julgue por si mesmo.

A primeira câmera digital do mundo apareceu (novamente, lembre-se das palavras de Eclesiastes) em dezembro de 1975: foi inventada por Stephen Sasson, engenheiro da Eastman Kodak Company. O protótipo consistia em várias dezenas de placas de circuito impresso, uma unidade óptica emprestada do Kodak Super 8 e um gravador (as fotos eram gravadas em fitas de áudio comuns). Como fonte de energia para a câmera, foram utilizadas 16 baterias de níquel-cádmio e tudo isso pesava 3,6 kg.


O primeiro protótipo de câmera digital criada pela Eastman Kodak Company A

resolução da matriz CCD de um “bebê” foi de apenas 0,01 megapixels, o que possibilitou a obtenção de quadros de 125 × 80 pixels e levou 23 segundos para formar cada foto. Dadas essas características "impressionantes", esse agregado estava perdendo SLRs de filmes tradicionais em todas as frentes, o que significava que não havia como criar um produto comercial com base nele, embora a invenção fosse posteriormente reconhecida como um dos marcos mais importantes da história da fotografia, e Steve foi oficialmente admitido no Hall da Fama da Eletrônica de Consumo.

Após 6 anos, a Sony tomou a iniciativa da Kodak, anunciando em 25 de agosto de 1981 uma câmera de vídeo sem filme Mavica (o nome é uma abreviação de Câmera de Vídeo Magnética).


O protótipo da câmera digital Sony Mavica

A câmera da gigante japonesa parecia muito mais interessante: o protótipo usava uma matriz CCD de 10 por 12 mm e ostentava uma resolução máxima de 570 x 490 pixels, e a gravação era realizada em disquetes Mavipack compactos de 2 polegadas, capazes de acomoda de 25 a 50 quadros, dependendo do modo de disparo. O fato é que o quadro formado consistia em dois campos de televisão, cada um dos quais foi gravado como um vídeo composto, e foi possível corrigir os dois campos de uma só vez, e apenas um. Neste último caso, a resolução do quadro caiu 2 vezes, mas essa fotografia pesava metade do mesmo.

A Sony originalmente planejava iniciar a produção em massa do Mavica em 1983, e o preço de varejo das câmeras era de US $ 650. Na prática, os primeiros desenhos industriais apareceram apenas em 1984, e a implementação comercial do projeto na pessoa do Mavica MVC-A7AF e Pro Mavica MVC-2000 foi lançada apenas em 1986, e as câmeras custam quase uma ordem de magnitude mais do que o planejado originalmente.


Câmera digital Sony Pro Mavica MVC-2000

Apesar do preço e da inovação fabulosos, chamar a primeira Mavica de solução ideal para uso profissional não virou a língua, embora em certas situações essas câmeras tenham se mostrado uma solução quase perfeita. Por exemplo, os repórteres da CNN usaram o Sony Pro Mavica MVC-5000 para cobrir a Praça da Paz Celestial em 4 de junho. O modelo aprimorado recebeu duas matrizes CCD independentes, uma das quais formava um sinal de vídeo de luminância e a outra, um sinal de diferença de cor. Essa abordagem tornou possível abandonar o uso do filtro de cores Bayer e aumentar a resolução horizontal para 500 TVL. No entanto, a principal vantagem da câmera era o suporte à conexão direta ao módulo PSC-6, que permite transferir as imagens recebidas pelo ar diretamente para o editor.Graças a isso, a CNN foi a primeira a publicar um relatório da cena e, posteriormente, a Sony até recebeu um Emmy Award especial por sua contribuição ao desenvolvimento da transmissão digital de fotos de notícias.


O Sony Pro Mavica MVC-5000 é a mesma câmera que fez da Sony a vencedora do Emmy Award.

Mas e se o fotógrafo fizer uma longa viagem de distância da civilização? Nesse caso, ele poderia levar consigo uma das maravilhosas câmeras Kodak DCS 100 que viram a luz em maio de 1991. Um híbrido monstro de uma câmera SLR de pequeno formato Nikon F3 HP com um prefixo digital DCS Digital Film Back, equipado com um vinder, foi conectado a uma unidade de armazenamento digital externa (que precisava ser usada na alça de ombro) usando um cabo.


Câmera digital Kodak DCS 100 - a personificação da compacidade A

Kodak ofereceu dois modelos, cada um com várias variações: DCS DC3 colorida e DCS DM3 preto e branco. Todas as câmeras da linha foram equipadas com matrizes com resolução de 1,3 megapixels, no entanto, diferiam no tamanho do buffer, que determinava o número máximo permitido de quadros no disparo serial. Por exemplo, modificações com 8 MB a bordo poderiam disparar a uma velocidade de 2,5 quadros por segundo em séries de 6 quadros, enquanto os quadros mais avançados de 32 megabytes permitiam um comprimento de série de 24 quadros. Se esse limite for excedido, a velocidade de disparo cai para 1 quadro em 2 segundos até que o buffer esteja completamente vazio.

Quanto ao DSU, era equipado com um disco rígido de 3,5 polegadas de 200 MB, capaz de acomodar de 156 fotos "brutas" a 600 compactadas usando um conversor JPEG de hardware (comprado e instalado adicionalmente) e um monitor LCD para ver fotos. O armazenamento inteligente até permitiu adicionar breves descrições às fotos, mas para isso foi necessário conectar um teclado externo. Juntamente com as baterias, seu peso era de 3,5 kg, enquanto o peso total do kit alcançava 5 kg.

Apesar da duvidosa conveniência e preço de 20 a 25 mil dólares (na configuração máxima), nos três anos seguintes foram vendidos cerca de 1000 dispositivos, que, além de jornalistas, estavam interessados ​​em instituições médicas, na polícia e em várias empresas industriais. Em uma palavra, a demanda por esses produtos era, pois havia uma necessidade urgente de mais portadores de informações em miniatura. Uma solução adequada foi proposta pela SanDisk, introduzindo o padrão CompactFlash em 1994.


Cartões de memória CompactFlash emitidos pela SanDisk e adaptador PCMCIA para conectá-los a um PC O

novo formato acabou sendo tão bem-sucedido que é usado com sucesso no momento, e a Associação CompactFlash criada em 1995 tem mais de 200 empresas participantes, incluindo a Canon , Eastman Kodak Company, Hewlett-Packard, Hitachi Global Systems Technologies, Lexar Media, Renesas Technology, Socket Communications e muitos outros.

Os cartões de memória CompactFlash exibiam dimensões gerais de 42 mm por 36 mm e uma espessura de 3,3 mm. A interface física das unidades era essencialmente um PCMCIA truncado (50 pinos em vez de 68), o que facilitou a conexão dessa placa ao slot da placa de expansão PCMCIA Tipo II usando um adaptador passivo. Usando o adaptador passivo novamente, o CompactFlash pôde trocar dados com dispositivos periféricos via IDE (ATA), e adaptadores ativos especiais tornaram possível trabalhar com interfaces seriais (USB, FireWire, SATA).

Apesar da capacidade relativamente pequena (o primeiro CompactFlash pode acomodar apenas 2 MB de dados), os cartões de memória desse tipo eram procurados em um ambiente profissional devido à sua compactação e economia (uma dessas unidades consumia cerca de 5% de energia em comparação com os HDDs convencionais de 2,5 polegadas, que permitiu prolongar a vida útil da bateria do dispositivo portátil) e a versatilidade alcançada devido ao suporte a muitas interfaces diferentes e à capacidade de trabalhar com uma fonte de energia com uma tensão de 3,3 ou 5 volts, e o mais importante - resistência impressionante a sobrecargas acima de 2000 g, que foi barra quase inatingível para discos rígidos clássicos.

O fato é que é tecnicamente impossível criar discos rígidos verdadeiramente à prova de choque devido a seus recursos de design. Em caso de queda, qualquer objeto é sujeito a efeitos cinéticos de centenas ou mesmo milhares de g (aceleração de queda livre padrão de 9,8 m / s2) em menos de 1 milissegundo, o que para os HDDs clássicos é repleto de consequências muito desagradáveis, incluindo :

  • placas magnéticas de deslizamento e deslocamento;
  • a aparência de folga nos rolamentos, seu desgaste prematuro;
  • bata as cabeças na superfície das placas magnéticas.

A situação mais perigosa para a unidade é a última situação. Quando a energia de impacto é direcionada perpendicularmente ou em um ângulo insignificante ao plano horizontal do HDD, as cabeças magnéticas primeiro se desviam de sua posição original e depois caem acentuadamente na superfície da panqueca, tocando-a com a borda, como resultado da placa magnética receber danos à superfície. Além disso, não apenas o local onde o golpe ocorreu (que, por sinal, pode ter um comprimento considerável se as informações foram registradas ou lidas no momento da queda) sofre, mas também as áreas nas quais os fragmentos microscópicos do revestimento magnético foram espalhados: sendo magnetizados , eles não se deslocam sob a ação da força centrífuga para a periferia, permanecendo na superfície da placa magnética,interferindo nas operações normais de leitura / gravação e contribuindo para mais danos à panqueca e à cabeça de gravação. Se o golpe for forte o suficiente, isso pode levar completamente ao desprendimento do sensor e à falha completa do inversor.

À luz do que foi exposto acima, para fotojornalistas, novas unidades são realmente indispensáveis: seria muito melhor ter uma dúzia ou duas cartas despretensiosas com você do que carregar uma coisa do tamanho de um videocassete pelas costas, o que quase 100% falhará com um pouco mais de força. acertar. No entanto, os cartões de memória ainda eram muito caros para o consumidor de varejo. É por isso que a Sony dominou com sucesso o mercado da "caixa de sabão" com o "cubo" Mavica MVC-FD, que salvou fotos em disquetes padrão de 3,5 polegadas formatadas no DOS FAT12, o que garantiu compatibilidade com quase todos os PCs da época.


Câmera digital amadora Sony Mavica MVC-FD73

E assim foi até quase o final da década, até que a IBM interveio no assunto. No entanto, falaremos sobre isso no próximo artigo.

E quais dispositivos incomuns você encontrou? Talvez você tenha filmado no Mavica, observado a agonia do Iomega ZIP com seus próprios olhos ou usado o Toshiba T100X? Compartilhe suas histórias nos comentários.

Armazenamento de dados externos: do tempo do IBM 1311 até os dias atuais. Parte 2

All Articles