Nuevas tecnologías de almacenamiento: ¿hay algún avance en 2020?

Durante varias décadas, el progreso en las tecnologías de almacenamiento de información se ha medido, en primer lugar, en términos de capacidad de almacenamiento y velocidad de lectura / escritura de datos. Con el tiempo, estos parámetros de evaluación se han complementado con tecnologías y metodologías que hacen que las unidades HDD y SSD sean más inteligentes, flexibles y fáciles de administrar. Cada año, los fabricantes de unidades insinúan tradicionalmente que el mercado de big data cambiará, y 2020 no es una excepción. Los líderes de TI buscan ansiosamente formas efectivas de almacenar y administrar grandes flujos de datos y, por lo tanto, nuevamente prometen cambiar el curso de los sistemas de almacenamiento. En este artículo, hemos recopilado las tecnologías más avanzadas para publicar información, así como hablar sobre los conceptos de unidades futuristas, que aún no han encontrado su realización física.



Redes de almacenamiento definidas por software


Si hablamos de los procesos de automatización, flexibilidad y aumento de la capacidad de almacenamiento de información, junto con un aumento en la eficiencia del personal, cada vez más empresas están considerando la posibilidad de cambiar a las llamadas redes de almacenamiento definidas por software o SDS (almacenamiento definido por software).



Una característica clave de la tecnología SDS es la separación del hardware del software: es decir, la virtualización de las funciones de almacenamiento está implícita . Además, a diferencia de los sistemas de almacenamiento convencionales con una conexión de red (NAS) o redes de área de almacenamiento (SAN), SDS está diseñado para funcionar en cualquier sistema x86 estándar. Muy a menudo, el objetivo de implementar SDS es mejorar los gastos operativos (OpEx), lo que requiere menos esfuerzo administrativo.

La capacidad de los discos duros crecerá hasta 32 TB


Las unidades magnéticas tradicionales no han muerto en absoluto, sino que solo están experimentando un renacimiento tecnológico. Los discos duros modernos ya pueden ofrecer a los usuarios hasta 16 TB de almacenamiento de datos. En los próximos cinco años, esta capacidad se duplicará. Al mismo tiempo, las unidades de disco duro continuarán siendo el almacenamiento de acceso aleatorio más asequible y conservarán su primacía en el precio de un gigabyte de espacio en disco durante muchos años más.

La expansión de capacidad se basará en tecnologías ya conocidas:

  • Almacenamiento de helio (el helio reduce la resistencia aerodinámica y la turbulencia, lo que le permite instalar más placas magnéticas en el almacenamiento; además, el consumo de calor y energía no aumenta);
  • Almacenamiento termomagnético (o HDD HAMR, cuya apariencia se espera en 2021 y se basa en el principio de grabación de datos de microondas, cuando una sección del disco se calienta con un láser y se magnetiza);
  • Un HDD basado en mosaico (o unidades SMR, donde las pistas de datos se colocan una encima de la otra, en formato de mosaico; esto garantiza una alta densidad de grabación de información).

Los dispositivos de almacenamiento de helio son especialmente demandados en los centros de datos en la nube, y los discos duros SMR son óptimos para almacenar grandes archivos y bibliotecas de datos, acceder y actualizar datos, que no se requieren con mucha frecuencia. También son ideales para crear copias de seguridad.

Las unidades NVMe se vuelven más rápidas


Los primeros SSD se conectaron a placas base a través de SATA o SAS, pero estas interfaces se desarrollaron hace más de 10 años para discos duros magnéticos. El protocolo NVMe moderno es un protocolo de comunicación mucho más potente diseñado para sistemas que proporcionan procesamiento de datos a alta velocidad. Como resultado, a fines de 2019-2020, vemos una caída importante en los precios de los SSD NVMe, que están disponibles para cualquier clase de usuarios. En el segmento empresarial, las soluciones NVMe son especialmente apreciadas por aquellas empresas que necesitan análisis de big data en tiempo real.

Empresas como Kingston y Samsung ya han demostrado con qué usuarios corporativos pueden contar en 2020: todos estamos esperando la aparición de SSD NVMe con soporte PCIe 4.0, lo que permite agregar centros de datos aún más velocidad al trabajar con datos. El rendimiento afirmado de los nuevos productos es de 4.8 GB / s, y esto está lejos del límite. La próxima generación de Kingston NVMe SSD PCIe gen 4.0 podrá proporcionar ancho de banda a 7 GB / s.



Junto con la especificación NVMe-oF (o NVMe over Fabrics), las organizaciones podrán crear redes de almacenamiento de alto rendimiento con latencia mínima, que competirán con los centros de datos con conexiones directas DAS (o almacenamiento de conexión directa). Al mismo tiempo, usando NVMe-oF, las operaciones de E / S se procesan de manera más eficiente, mientras que el retraso es comparable a los sistemas DAS. Los analistas predicen que la implementación de sistemas basados ​​en NVMe-oF se acelerará rápidamente en 2020.

Memoria QLC finalmente "disparar"?


La memoria flash NAND Quad Level Cell (QLC) también demostrará una creciente popularidad en el mercado. QLC se introdujo en 2019 y, por lo tanto, tenía una distribución mínima en el mercado. Esto cambiará en 2020, especialmente entre las empresas que han implementado la tecnología LightOS Global Flash Translation Layer (GFTL) para superar los problemas inherentes de QLC.

Según los analistas, el crecimiento de las ventas de SSD basadas en células QLC aumentará en un 10%, mientras que las soluciones TLC "capturarán" el 85% del mercado. Independientemente de lo que se pueda decir, el QLC SSD todavía está muy atrasado en rendimiento en comparación con el TLC SSD y no se convertirá en la base del centro de datos en los próximos cinco años.


Al mismo tiempo, se espera que el costo de la memoria flash NAND aumente en 2020, por lo que el proveedor de controladores SSD Phison, por ejemplo, apuesta a que los aumentos de precios finalmente empujarán al mercado de unidades de estado sólido para el consumidor a usar flash de 4 bits -Memoria QLC NAND. Por cierto, Intel planea lanzar soluciones QLC de 144 capas (en lugar de productos de 96 capas). Bueno ... parece que estamos esperando una mayor marginación del HDD.

Memoria SCM: velocidad cercana a DRAM


La disponibilidad generalizada de memoria SCM (Storage Class Memory) se predijo durante varios años, y 2020 podría ser el punto de partida en el que estas predicciones finalmente se harán realidad. Si bien los módulos de memoria Intel Optane, Toshiba XL-Flash y Samsung Z-SSD ya han ingresado al mercado corporativo, su apariencia no causó una reacción sorprendente.

El dispositivo Intel combina las características de la DRAM rápida pero inestable con el almacenamiento NAND más lento pero persistente. Esta combinación tiene como objetivo aumentar la capacidad de los usuarios para trabajar con grandes cantidades de datos, proporcionando velocidad DRAM y capacidad NAND. La memoria SCM no es solo más rápida que las alternativas basadas en NAND: es diez veces más rápida. El retraso es de microsegundos, no de milisegundos.



Los expertos del mercado señalan que los centros de datos que planean usar SCM serán limitados ya que esta tecnología solo funcionará en servidores que usen procesadores Intel de la generación Cascade Lake. Sin embargo, en su opinión, esto no se convertirá en un obstáculo para detener la ola de actualizaciones a los centros de datos existentes para garantizar el procesamiento de la información a alta velocidad.

De la realidad previsible al futuro lejano


Para la mayoría de los usuarios, el almacenamiento de datos no está asociado con una sensación de "Armagedón capacitivo". Pero solo piense: los 3.700 millones de personas que actualmente usan Internet generan alrededor de 2.5 quintillones de bytes de datos al día. Para satisfacer esta necesidad, se necesitan más centros de datos.

Según las estadísticas, para 2025 el mundo está listo para procesar 160 Zetabytes de datos por año (esto es más bytes que estrellas en el Universo observable). Es probable que además tengamos que cubrir cada metro cuadrado del planeta Tierra con centros de datos, de lo contrario, las corporaciones simplemente no podrán adaptarse a un crecimiento tan alto de información. O ... tienes que renunciar a algunos datos. Sin embargo, hay varias tecnologías potencialmente interesantes que podrían resolver el creciente problema del desbordamiento de información.

Estructura del ADN como base para futuros almacenes de datos.


No solo las corporaciones de TI están buscando nuevas formas de almacenar y procesar información, sino también muchos científicos. El desafío global es garantizar la preservación de la información durante milenios. Investigadores de la Escuela Técnica Superior Suiza de Zúrich (ETH Zúrich, Suiza) creen que la solución debe buscarse en el sistema de almacenamiento de datos orgánicos que existe en cada célula viva: en el ADN. Y lo más importante: este sistema fue "inventado" mucho antes que la computadora.



Las cadenas de ADN son muy complejas, compactas e increíblemente densas, como los portadores de información: según los científicos, se pueden escribir 455 exabytes de datos en gramos de ADN, donde 1 eB equivale a mil millones de gigabytes. Los primeros experimentos ya permitieron registrar 83 Kb de información en el ADN, después de lo cual el profesor del Departamento de Química y Ciencias Biológicas, Robert Grass, expresó la idea de que en la nueva década el campo médico necesita integrarse más estrechamente con la estructura de TI para desarrollos conjuntos en el campo de las tecnologías de grabación y almacenamiento de datos.

Según los científicos, las cadenas de almacenamiento de datos orgánicos basadas en cadenas de ADN podrían almacenar información durante hasta un millón de años y proporcionarla con precisión a la primera solicitud. Es posible que en unas pocas décadas, la mayoría de las unidades luchen precisamente por esta oportunidad: la capacidad de almacenar datos de manera confiable y amplia durante mucho tiempo.



Los suizos no son los únicos que trabajan para crear sistemas de almacenamiento basados ​​en ADN. Esta pregunta se ha planteado desde 1953, cuando Francis Crick descubrió la doble hélice del ADN. Pero en ese momento, la humanidad simplemente no tenía suficiente conocimiento para tales experimentos. El pensamiento tradicional en el campo del almacenamiento de datos basado en el ADN se centra en la síntesis de nuevas moléculas de ADN; comparar la secuencia de bits con la secuencia de cuatro pares de bases de ADN y crear suficientes moléculas para representar todos los números que deben guardarse. Entonces, en el verano de 2019, los ingenieros de CATALOG lograron escribir 16 GB de la "Wikipedia" en inglés en el ADN creado a partir de polímeros sintéticos. El problema es que este proceso es lento y costoso, lo que es un cuello de botella significativo cuando se trata del almacenamiento de datos.

…:


Investigadores de la Universidad de Brown (Universidad de Brown, EE. UU.) Dicen que una molécula de ADN no es la única opción para el almacenamiento molecular de datos durante un millón de años. Los metabolitos de bajo peso molecular también pueden actuar como almacenamiento orgánico. Cuando la información se escribe en un conjunto de metabolitos, las moléculas comienzan a interactuar entre sí y producen nuevas partículas eléctricamente neutras que contienen los datos registrados en ellas.



Por cierto, los investigadores no se detuvieron allí y ampliaron el rango de moléculas orgánicas, lo que permitió aumentar la densidad de los datos registrados. Leer dicha información es posible a través del análisis químico. Lo único negativo es que la implementación de dicho dispositivo de almacenamiento orgánico aún no es posible en la práctica, fuera de las condiciones de laboratorio. Este es solo un tiempo operativo para el futuro.

Memoria óptica 5D: una revolución en el almacenamiento de datos


Otro repositorio experimental pertenece a desarrolladores de la Universidad de Southampton (Universidad de Southampton, Inglaterra). En un esfuerzo por crear un innovador sistema de almacenamiento de información digital que pueda existir durante millones de años, los científicos han desarrollado un proceso para escribir datos en un pequeño disco de cuarzo, que se basa en la grabación de pulso de femtosegundos. El sistema de almacenamiento está diseñado para archivar y almacenar en frío grandes volúmenes de datos y se describe como almacenamiento de cinco dimensiones.



¿Por qué cinco dimensiones? El hecho es que la información está codificada en varias capas, incluidas las tres dimensiones habituales. Se agregan dos más a estas mediciones: el tamaño y la orientación de los nanodots. La capacidad de datos que se puede escribir en tal mini-drive es de hasta 100 Petabytes, y el período de almacenamiento es de 13.8 mil millones de años a temperaturas de hasta 190 ° C. La temperatura máxima de calentamiento que el disco puede soportar es 982 ° C. En resumen ... ¡es casi eterno!



Recientemente, el trabajo de la Universidad de Southampton ha atraído la atención de Microsoft, cuyo programa de almacenamiento en la nube del Proyecto Silica tiene como objetivo repensar las tecnologías de almacenamiento actuales. Según las previsiones de los "blandos", para 2023 se almacenarán más de 100 Zetabytes de información en las nubes, por lo que incluso los sistemas de almacenamiento a gran escala tendrán dificultades.

Para obtener más información sobre los productos de Kingston Technology, visite el sitio web oficial de la compañía.

All Articles