Gigantomania: pourquoi les jeux modernes pèsent-ils autant?


L'époque où les jeux vidéo pouvaient être installés sur des disquettes est révolue: aujourd'hui, la taille moyenne d'un projet AAA est déjà d'au moins 50 gigaoctets, et certains titres ont frôlé la barre des 200 Go. D'une part, cela est dû au développement rapide des technologies graphiques, mais en même temps, les économies banales sur l'optimisation jouent un rôle important. Mais il y avait des moments où les développeurs se battaient vaillamment pour littéralement chaque kilo-octet!

40 kilo-octets suffisent à tout le monde


Le 15 juillet 1983, des boîtes miniatures rouges et blanches avec l'inscription Family Computer sur le panneau avant sont apparues sur les étagères des magasins au Japon. Malgré le grand nom, ces appareils n'avaient rien à voir avec de vrais PC: Famicom n'était rien d'autre que les premières consoles de jeu à part entière de Nintendo (à l'exception de Color TV Game 6, qui était un clone d'Atari Pong).


Le premier ordinateur familial Nintendo pour le marché japonais

La première crêpe est naturellement apparue grumeleuse: la console ne différait pas en termes de fiabilité, devenant un objet de critique en raison de nombreuses défaillances matérielles et logicielles. Cependant, après avoir corrigé toutes les lacunes de la deuxième révision, Famicom a acquis le statut de console de jeu la plus populaire au Japon: à la fin de 1984, plus de 2,5 millions de consoles ont été vendues, ce qui à l'époque était un record absolu. Et en juin 1985, dans le cadre du Consumer Electronics Show (CES), Nintendo a présenté la version Famicom pour l'Amérique du Nord: la console a changé son nom pour Nintendo Entertainment System, ayant également subi des changements visuels majeurs et a reçu un système de chargement de cartouche amélioré. Un an plus tard, NES a également visité le marché européen.


Nintendo Entertainment System. ?

En Amérique, NES n'a pas gagné en popularité au Japon: au départ, ils prévoyaient de sortir des consoles uniquement dans l'État de New York, mais le premier lot de 50000 consoles a été vendu si rapidement que trois mois plus tard, ils ont commencé à vendre NES aux États-Unis. Bien qu'à la fin des années 80, Nintendo avait un concurrent puissant sous la forme de Sega avec son Genesis / Mega Drive 16 bits, NES est resté le leader mondial des volumes de vente dans les années 90. Et même après la sortie de la console Super Nintendo Entertainment System, la console NES a continué de sortir en quantités limitées jusqu'en octobre 2003, et son support officiel n'a cessé qu'en 2007, ce qui, compte tenu du développement rapide de l'industrie, est un record absolu. Selon les chiffres officiels, dans toute l'histoire de la console, environ 60,9 millions d'appareils et plus de 500 millions de cartouches pour eux ont été vendus.

Quel est le secret de la popularité de NES? Vous pouvez dire: «Eh bien, bien sûr, dans les grands jeux» - et vous aurez absolument raison. Ce n'est tout simplement pas un seul titre, aussi intéressant et fascinant qu'il soit, n'obligera pas le parent moyen à donner à l'enfant un préfixe (nous n'oublions pas que le succès de la console est déterminé précisément par le marché de masse, et non par la demande des amateurs) si l'appareil lui-même coûtera de l'argent fabuleux. Pour atteindre 200 $ (le prix d'une console de jeu au départ), les ingénieurs de Nintendo ont dû faire de nombreux trucs et compromis. Cependant, le sort des développeurs de jeux eux-mêmes était beaucoup moins enviable: essayez de créer un jeu intéressant, quoique bidimensionnel, dont la distribution n'occupera pas plus de 40 kilo-octets! Et pendant ce temps, les cartouches standarddes prix pour lesquels il fallait également se maintenir dans un cadre raisonnable.


Cartouche pour la Nintendo Entertainment System de l'intérieur

Chacun d'eux n'avait que deux puces de mémoire: une pour 8 kilo-octets, la seconde pour 32. L'ajout de microcircuits supplémentaires conduirait inévitablement à des cartouches plus chères et à l'apparition de «jeux pas pour tout le monde»: plus avancés techniquement (lorsque la facture va aux kilo-octets, même une légère expansion de la mémoire améliorerait non seulement les graphismes, mais aussi diversifierait considérablement le gameplay) et, par conséquent, les projets beaucoup plus chers, ce que Nintendo ne voulait pas.

C'est pourquoi Super Mario Bros. à l'époque, il a fait sensation et est même entré dans le livre Guinness des records comme le jeu vidéo le plus vendu de l'histoire: les développeurs de Nintendo connaissaient toutes les limitations matérielles de la plate-forme et ont réussi à tirer le maximum des 40 Ko disponibles, créant un jeu de plateforme avec 32 niveaux différents, beaucoup de secrets et complexes par rapport à la plupart des concurrents) gameplay.


Affiche publicitaire de Super Mario Bros. échantillon de 1985

Et en 2018, les développeurs du studio indépendant Morphcat Games ont décidé de répéter leur exploit. Ils se sont fixés une tâche très inhabituelle et ambitieuse, prévoyant de créer un rétroplateur qui tiendrait compte de toutes les limitations matérielles de la NES d'origine. Pour l'avenir, nous disons que l'expérience a été un succès: le 1er mai 2019, Micro Mages est vraiment sorti, et tous ceux qui le souhaitent peuvent acheter le projet non seulement en termes numériques, mais également sous la forme d'une véritable cartouche pour la Nintendo Entertainment System.


La version à collectionner du jeu Micro Mages, sortie pour NES en 2019. Le

jouet a reçu 26 niveaux uniques dans 8 mondes remplis de secrets et d'adversaires variés, de nombreuses mécaniques de jeu et un support multijoueur pour quatre personnes. Pour intégrer toute cette magnificence dans les 40 Ko, les développeurs ont dû faire beaucoup d'efforts. Voici quelques astuces qu'ils ont utilisées.

La mémoire de cartouche disponible a été répartie comme suit: 32 kilo-octets ont été alloués pour la logique du jeu et le stockage des données, et les 8 Ko restants étaient destinés au stockage graphique. Parmi ceux-ci, 4 kilo-octets étaient réservés aux sprites, et 4 de plus pour le rendu des objets statiques. Les surprises ont déjà commencé au stade de la création du protagoniste.

L'architecture de la console a imposé les restrictions suivantes: 1 sprite a des dimensions de 8 × 8 pixels et peut utiliser 3 teintes. La console elle-même ne peut utiliser que quatre palettes à la fois et n'afficher pas plus de 8 sprites dans chaque ligne de l'image. Nous gardons à l'esprit qu'en multijoueur, nous aurons quatre personnages qui doivent être différents les uns des autres. Et ici, deux problèmes se posent à la fois. Le premier d'entre eux est que s'il y a un ennemi dans le cadre, il ne pourra pas colorier et l'antagoniste restera noir et blanc.


Cependant, il est résolu assez simplement: la même palette peut être réutilisée. Étant donné que la conception de l'ennemi et des héros est différente, un tel compromis ne sera pas évident.


Mais comme le préfixe ne peut pas dessiner plus de 8 sprites dans chaque ligne de l'image, alors si quatre personnes se connectent au jeu à la fois, il n'y aura tout simplement plus d'espace pour les adversaires.


Dans le passé, ils le traitaient de cette façon: les sprites étaient dessinés alternativement à grande vitesse, de sorte que de nombreux objets dynamiques pouvaient être placés sur chaque ligne. Dans le cas des téléviseurs CRT, cette approche était justifiée, mais si vous jouez sur l'écran LCD à l'aide de l'émulateur NES, le scintillement sera trop perceptible. Pour éviter cela, j'ai dû sacrifier les détails: désormais, un seul sprite a été utilisé pour rendre chaque personnage et adversaires ordinaires.


Cette approche nous a permis d'économiser considérablement la mémoire disponible et d'ajouter de nombreuses animations différentes des protagonistes.


Mais les monstres les plus puissants doivent simplement être gros, effrayants et bien animés. Si nous utilisons une approche moderne, lorsque chaque métasprite (dessine le boss entier) est une image d'animation, il y a à peine assez d'espace mémoire, même pour un tel monstre.


Cependant, si vous analysez attentivement la conception du fantôme, il devient évident que chaque image utilise les mêmes éléments répétitifs. Par exemple, le sommet de la tête d'un fantôme n'a que 2 sprites uniques, et tout le reste est répété.


Dans le premier cadre, sa partie centrale peut même être obtenue en réfléchissant le sprite d'origine par rapport à l'axe vertical. La même chose peut être faite avec le segment périphérique de la tête, mais déjà sur tous les cadres.


Par conséquent, pour dessiner la couronne, vous pouvez faire 4 sprites au lieu de 16.


De même, le rendu des yeux et de la bouche peut être optimisé.


Maintenant, le boss ne prend que 21 sprites et il y a encore beaucoup d'espace pour d'autres monstres et objets dynamiques. Des économies sur le visage, au sens littéral et figuré.


Une approche similaire a été utilisée pour créer l'environnement. En combinant un ensemble de tuiles (tuiles), en les faisant tourner et en les réfléchissant autour des axes horizontal et vertical, les développeurs ont collecté des métatiles uniques, et à leur tour, des métamétaux, obtenant des blocs de pierre avec une texture complexe.


Maintenant, le jeu de tuiles est devenu beaucoup plus petit, et 60 octets suffisent pour stocker des données pour une scène (écran). Un peu à première vue, mais en raison des capacités limitées de NES, même cela n'était pas suffisant. Compte tenu de tout ce qui précède, une solution logique consiste à refléter le niveau par rapport à l'axe vertical et à économiser 50% de la mémoire. Mais la conception du jeu en souffrira.


La symétrie est frappante, de plus, la salle inférieure est murée et le joueur ne pourra pas sortir d'un tel donjon. Et ici, les développeurs ont trouvé une issue originale. L'index de chaque bloc prend 1 octet et nous avons 96 de tous ces éléments. En programmation, le décompte commence à zéro, donc l'index du dernier bloc sera 95, ce qui dans le système binaire est 1011111. Ce nombre ne contient que 7 chiffres (bits), mais dans les octet 8.


Un bit libre peut être utilisé pour décaler une ligne horizontalement par rapport à tous les autres.


Dans notre exemple, pour obtenir une scène asymétrique avec une disposition donnée, il suffit de décaler seulement deux lignes: la première et la troisième d'en haut.


Si nous voulons créer un nouveau niveau de complexité pour les connaisseurs du genre, nous pouvons prendre les donjons originaux comme base en changeant la palette de couleurs et en ajoutant plusieurs nouveaux pièges. Une telle variété sera plus que suffisante pour rendre la redistribution vraiment intéressante, alors que nous n'irons pas au-delà de 40 kilo-octets pour stocker les actifs et le code.


Ce sont des astuces si ingénieuses qui ont aidé les développeurs à créer des jeux vidéo passionnants il y a plusieurs décennies.

Optimisation? Non, je n'ai pas entendu


Le temps a passé, la puissance des consoles de jeux et des ordinateurs personnels a augmenté, mais, malgré cela, les développeurs ont dû démontrer les merveilles de l'ingéniosité. Rappelez-vous l'héritage de Kain: Soul Reaver. Ici, notre protagoniste n'est pas un homme, mais le Soul Reaver: une créature qui peut se déplacer librement entre les mondes matériel et spirituel. L'astral, bien qu'il soit le reflet du monde des vivants, en est sensiblement différent (c'est une partie importante du gameplay, car en réalité les obstacles peuvent être surmontés en se déplaçant vers l'astral au bon moment et vice versa) et est habité par des monstres uniques.


Art officiel de Legacy of Kain: Soul Reaver

Pour assurer une transition en douceur entre la réalité et l'astral (et le monde du jeu change en même temps littéralement devant le joueur), deux versions du même emplacement doivent avoir été simultanément présentes dans la mémoire de la console. Si le jeu était une chambre ou divisé en plusieurs niveaux, cela n'aurait pas posé de problème, mais deux copies du monde transparent de la PlayStation ne pouvaient pas être faites: la console transportait 2 Mo de RAM et 1 Mo de VRAM à bord. Ici, les développeurs ont dû recourir au mécanisme de chargement en arrière-plan. Bien que le joueur ne le remarque pas, en fait il n'y a pas de monde ouvert dans Soul Reaver: les vastes étendues de Nostgoth sont collectées à partir de nombreux endroits distincts qui sont chargés juste pendant le jeu - par exemple, au moment où Raziel suit des couloirs secrets ou fait son chemin grottes dans les montagnes.


Lorsque Raziel entre dans la grotte en arrière-plan, l'emplacement actuel est déchargé de la mémoire de la console et un nouveau commence à se charger.

Sous une forme ou une autre, cette technique a été utilisée dans d'autres jeux (avant et après), souvent avec beaucoup moins d'élégance: rappelez-vous les célèbres portes de Resident Evil ou ascenseurs dans le premier Mass Effect. Parfois, le besoin d'optimisation a donné naissance à des techniques artistiques originales, comme ce fut le cas avec Silent Hill: la ville fantôme brumeuse était exactement comme ça, car les développeurs devaient réduire la gamme de dessin dans les espaces ouverts.


Non seulement des monstres se cachaient dans le brouillard de Silent Hill, mais aussi des objets chargés en déplacement,

mais en tout cas, il n'était pas question de compter scrupuleusement chaque bit. Aujourd'hui, les développeurs accordent encore moins d'attention à l'économie de ressources matérielles qu'auparavant, et plus le projet est coûteux, pire il est souvent optimisé.

Les joueurs expérimentés se souviennent probablement de l'impression durable que Crysis a faite. Ce film d'action fantastique a l'air bien même selon les normes modernes.


Après 13 ans, Crysis est presque dépassé d'un point de vue technique

Admettez maintenant, honnêtement: y a-t-il eu des jeux après Crysis qui ont produit le même effet wow sur vous? Pas la profondeur du gameplay, pas l'intrigue, pas les pièces individuelles, comme l'animation faciale dans LA Noire ou la physique du feu dans Alone in the Dark, à savoir une excellente image? Certainement pas. Bien sûr, si vous comparez l'idée originale de Crytek avec n'importe quel projet AAA moderne, des textures plus claires, un éclairage plus précis, plus de polygones et une plus grande gamme de dessins attireront votre attention. Mais avons-nous vraiment besoin d'améliorations visuelles, si maintenant, afin de jouer confortablement la version AAA avec une fréquence d'images stable, vous ne pouvez pas vous passer d'une machine haut de gamme, dont la puissance sera excessive même pour de nombreuses tâches professionnelles? Chacun répondra lui-même à cette question. La seule chose qui peut être affirmée en toute confiance est que les grands éditeurs de jeux en ont besoin.

Le dicton "Meet by clothing" s'applique pleinement aux jeux vidéo: plus les graphismes sont beaux, plus il est facile d'intéresser le grand public. Si le public cible ne remarque pas la qualité de l'émulation des poils sur la queue du chien du protagoniste ou la fumée générée par la cigarette en temps réel, qui consomme 70% de la puissance de calcul d'un PC, vous pouvez toujours en parler lors d'une campagne publicitaire: ce n'est pas seulement qu'une bonne moitié est dépensée en marketing jeux AAA à petit budget. Les plaques signalétiques rouges et vertes sur les écrans de démarrage apparaissent également pour une raison: la collaboration avec le fabricant de puces vidéo nécessite l'introduction des dernières technologies graphiques qui peuvent inciter les joueurs à acheter un autre Titanium 100500.

Des situations souvent très intéressantes se présentent. Prenez Metro: Exodus, qui utilise le raytracing. Pour que les propriétaires de cartes vidéo qui ne prennent pas en charge le lancer de rayons puissent en profiter, les développeurs, en plus de la nouvelle technologie, devaient également utiliser la bonne vieille tramation. Voyons ce qui s'est passé à la fin.


La différence n'est pas si évidente: si vous regardez de près, vous pouvez voir qu'avec RTX activé, les personnages au centre du cadre sont moins bien éclairés que les soldats se tenant plus près des fenêtres. Il devrait donc être dans la vie, ce qui signifie que le raytracing fonctionne vraiment. C'est même sur le RTX 2080 Ti (et c'est, pour un moment, une carte vidéo haut de gamme) l'inclusion de cette option provoque des tirages FPS jusqu'à 45 images par seconde avec des valeurs moyennes de 72. De plus, dans la plupart des autres scènes, la différence n'est pas visible du tout.


4A Games s'est déjà empressé de déclarer qu'ils abandonneront les anciennes technologies et le prochain jeu de franchise utilisera exclusivement le lancer de rayons pour calculer l'éclairage, car cela simplifiera considérablement le développement. La pixellisation affiche les objets tour à tour, l'un après l'autre, il n'y a pas de lien entre eux, par conséquent, pour que l'éclairage, les reflets et les ombres semblent naturels, les artistes et les concepteurs doivent faire beaucoup d'efforts. Dans le cas de RTX, tous les objets de la scène sont initialement connectés: un rayon de lumière est réfléchi par un objet, en frappe un autre, reprend sa couleur et se réfléchit à nouveau, etc. Cela permet non seulement de rendre l'éclairage plus réaliste, mais aussi de simplifier considérablement le travail sur chaque scène.

Bien sûr, les progrès ne sont pas immobiles, et il est fort possible que la sortie de la partie suivante permette aux développeurs de réaliser des images vraiment photoréalistes et même des cartes vidéo de milieu de gamme peuvent produire des FPS stables avec RTX activé. Mais pour l'instant, à la lumière de la différence minimale entre «c'était» et «c'est devenu» et en raison du besoin d'une carte haut de gamme, qui est étouffée par des «rayons magiques», toute cette situation ressemble à ceci: «Vous, chers joueurs, payez plus pour que nous travaillé moins. " Bien que Sylvanas Trottier, qui a agi en tant que producteur d'Assassin's Creed 4: Black Flag, qui avait de graves problèmes techniques à la sortie, se soit prononcé à cet égard en 2013, en disant ce qui suit:



«En raison des limitations matérielles, les jeux pour consoles doivent être optimisés. Dans le cas d'un PC, si un joueur manque de performances, il peut simplement acheter une nouvelle carte vidéo. "

Et aussi une nouvelle carte mère, un processeur, plus de RAM et un SSD plus rapide. Ces derniers, soit dit en passant, étant au départ beaucoup de passionnés, ont depuis longtemps acquis le statut de «must-have», car les exigences de performances des disques dans les jeux informatiques se sont énormément accrues. Et avec eux, des exigences accrues pour leur volume.

Combien suspendre en gigaoctets?


Au cours des dernières années, la taille des distributions de jeux a atteint des valeurs incroyables. Si auparavant les projets les plus sophistiqués avec un monde ouvert et beaucoup de contenu pesaient plusieurs dizaines de gigaoctets, aujourd'hui même un tireur linéaire peut "manger" calmement 150-200 Go d'espace disque, sans même froncer les sourcils. À ce jour, les 10 jeux les plus difficiles sont les suivants.

  1. Call Of Duty: Modern Warfare - 175 Go
  2. Final Fantasy XV - 148 Go
  3. Gears of War 4-136 Go
  4. Call of Duty: Black Ops 3-113 Go
  5. Red Dead Redemption 2 - 112 Go
  6. Terre du Milieu: Shadow of War - 105 Go
  7. Call of Duty: Infinite Warfare - 101 Go
  8. Quantum Break - 76,5 Go
  9. Grand Theft Auto V - 76 Go
  10. Vitesses 5-66 Go

Les chiffres sont très révélateurs: il devient immédiatement évident qui apprend de ses propres erreurs et pense au moins parfois aux joueurs, et qui ne le fait pas. Gears 5 est devenu le jeu le plus grand et le plus avancé technologiquement de la série, cependant, il pèse la moitié par rapport à la quatrième partie et montre en même temps une excellente image. Il s'avère que si vous travaillez sur l'optimisation, vous pouvez obtenir des résultats impressionnants.


Red Dead Redemption 2 peut difficilement être revendiqué. Un monde immense, d'excellents graphismes et beaucoup de contenu. Étant donné l'étude propriétaire de petites choses de Rockstar, cela nécessite naturellement un espace disque considérable.


Dans le même temps, le volume de Call of Duty est en constante augmentation, bien qu'il n'y ait tout simplement pas de fioritures graphiques spéciales dans les jeux de la série, ainsi qu'un monde ouvert. Pourquoi diable un tireur linéaire parviendrait-il à «grossir» jusqu'à 175 Go? Compte tenu de la vitesse à laquelle de nouvelles pièces sont publiées, la réponse devient évidente: Activision ne laisse tout simplement pas aux développeurs le temps d'optimiser.


Les moustaches du capitaine Price coûtent de plus en plus cher aux joueurs chaque année,

ce qui indique que le besoin d'un disque dur de plus en plus évident. Mais qu'en est-il de la performance? Peut-être sera-t-il possible de se passer d'un disque dur ordinaire? Malheureusement non.

Le tableau ci-dessous présente les données de consommation de RAM et VRAM des jeux les plus gourmands sortis ces dernières années (les mesures ont été réalisées sur ultra-réglages avec une résolution de 4K).

Un jeu


RAM,


VRAM,


Assassin’s Creed: Odyssey


7,5


7,1


Battlefield V


12,8


7,7


Hitman 2


9,5


8,1


Shadow of the Tomb Raider


8,9


8,8


Witcher 3


9,6


4,3


Metro: Exodus


8,5


5,1


Far Cry 5


9,8


9,9


Star Wars Battlefront II


10,5


8,3



Comment tout cela est-il lié à la vitesse de conduite? Directement. Pour que le processeur et la puce vidéo fonctionnent avec les fichiers de jeu, ils doivent d'abord être chargés respectivement dans la RAM et la VRAM. Les performances du meilleur disque dur de jeu sont de 227 Mo / s. Si vous installez Battlefield V sur un tel disque dur, qui consomme au total 20 gigaoctets de RAM et de mémoire vidéo, il faudra 20 000/227 = 88 secondes pour charger entièrement toutes les ressources, soit jusqu'à 1,5 minute! Bien sûr, dans la pratique, tout fonctionne beaucoup plus compliqué, mais même un calcul aussi approximatif aide à se faire une idée de la vitesse de téléchargement approximative de la prochaine carte, sur laquelle une bataille virtuelle devrait se dérouler.

De plus, si dans le cas de projets "caméra", tout ce qui affecte la vitesse du lecteur est le temps d'attente pour l'emplacement à charger, alors quand il s'agit de jeux en monde ouvert, une vitesse de lecture insuffisante affecte négativement le FPS minimum. Après tout, même l'ordinateur le plus sophistiqué n'est pas en mesure de conserver en RAM et en VRAM tout le nécessaire pour dessiner 256 km2 de la carte Assassin's Creed: Odyssey: les téléchargements de fichiers se feront directement pendant le jeu. De plus, avant que toutes les ressources nécessaires soient en RAM et en mémoire vidéo, le processeur ou la carte vidéo ne sera pas en mesure de préparer de nouvelles images, ce qui est lourd de baisses de la fréquence d'images dans des scènes complexes.

À la lumière de tout ce qui précède, la présence d'un SSD haute performance dans un PC de jeu n'est plus un luxe, mais une nécessité vitale, et le lecteur ne doit pas seulement être rapide, mais aussi spacieux, car au fil du temps, l'appétit des jeux ne fera que croître. Heureusement, même les SSD NVMe haute vitesse sont désormais disponibles aujourd'hui.

Prenons par exemple un SSD WD Blue SN550 d'une capacité de 1 téraoctet. Au moment d'écrire ces lignes, son prix selon les données de Yandex.Market varie de 10 500 à 11 000 roubles, ce qui n'est que légèrement plus cher que les SSD SATA de haute qualité du même volume.


Et contrairement à un certain nombre de collègues du segment à budget moyen, ce lecteur utilise quatre lignes PCI Express 3.0 au lieu de deux, ce qui le rend 60% plus rapide, démontrant une vitesse stable de 2400 Mo / s en lecture séquentielle contre le maximum de 1500 Mo / s, par rapport à SSD NVMe utilisant un PCIe × 2 allégé. Les caractéristiques de performance du WD Blue SN550 sont encore plus intéressantes par rapport aux disques SATA, les dépassant de plus de 4 fois en termes de performances.

Modèle


SSD WD Blue SN550 NVMe


SSD Noname PCIe × 2 NVMe


SSD WD Blue NAND SATA 3D


Capacité


1 To


960 Go


1 To


Vitesse de lecture séquentielle, Mo / s


2400


1500


560


Vitesse d'écriture séquentielle, Mo / s


1950


1000


530


Nombre maximal d'opérations de lecture aléatoire, 4KB QD32 (IOPS)


410 000


120 000


95 000


Nombre maximal d'opérations d'écriture aléatoire, 4KB QD32 (IOPS)


405 000


100 000


84 000



Une telle différence est due aux limites de l'interface: contrairement au NVMe parallèle, le SATA série ne révèle pas entièrement le potentiel à grande vitesse de la mémoire flash. Un plafond théoriquement possible pour les disques SATA est un taux de transfert de données de 768 Mo / s, bien qu'en réalité le maximum qui puisse être atteint est de 560 Mo / s, alors qu'une seule ligne PCI Express 3.0 a un débit de 985 Mo / s. La présence de quatre lignes de ce type vous permet de paralléliser les flux de données entre les puces et d'atteindre des performances sans précédent (c'est pourquoi, en passant, l'ancien modèle de la ligne SN550 est le plus rapide).

Il est également important que le WD Blue SN550 utilise la mémoire flash 3D NAND BiCS de 4e génération. Les cristaux à 96 couches ont non seulement contribué à augmenter le volume des disques SSD, mais aussi à accroître leur fiabilité: le modèle phare peut se vanter d'une ressource de 600 To d'écrasement, tandis qu'un SSD SATA avec un volume similaire est de 400 To. À la lumière de tout ce qui précède, le WD Blue SN550 peut être appelé une excellente solution pour construire un PC de jeu moderne. En termes de prix, de performances et de fiabilité, ce lecteur est en avance sur tous les concurrents.

Si vous voulez construire la voiture la plus rapide possible et que vous n'avez pas l'intention d'épargner de l'argent, vous devriez porter une attention particulière à la série de disques WD_BLACK SN750 NVMe SSD, destinée aux joueurs hardcore. Le contrôleur à huit canaux de notre propre production et un certain nombre d'optimisations de micrologiciel nous ont permis de nous approcher de la limite théorique supérieure de la bande passante de l'interface: le lecteur de ligne noire 1 To le plus rapide offre des vitesses de transfert de données allant jusqu'à 3470 Mo / s en lecture séquentielle et jusqu'à 3000 Mo / s avec enregistrement séquentiel. Quant au produit phare de 2 téraoctets, il s'est avéré un peu plus lent (3400 Mo / s en lecture et 2900 Mo / s en écriture), ce qui s'explique par l'utilisation de puces multicouches plus grandes de 512 Go chacune.Mais un tel entraînement conviendra sans aucun doute aux dix matchs AAA les plus difficiles.


Cependant, le SN750 est intéressant non seulement pour ses excellentes caractéristiques de vitesse, mais aussi pour deux caractéristiques importantes. Premièrement, les SSD NVMe ont un dissipateur thermique assez massif qui, en combinaison avec une topologie modifiée de la carte de circuit imprimé, fournit une dissipation thermique efficace à la fois des puces et du contrôleur lui-même, ce qui permet d'atteindre des performances stables même sous une charge élevée.

Deuxièmement, l'utilitaire propriétaire SSD Dashboard, qui offre tous les outils nécessaires pour surveiller et entretenir les SSD, a acquis un important commutateur de mode de jeu.


Lorsqu'il est activé, les fonctions d'économie d'énergie du groupe APST (Autonomous Power State Transition) sont complètement désactivées, ce qui, dans l'ensemble, n'est pas nécessaire à un PC fixe, ce qui minimise le temps de retard lors de l'accès initial aux données. Tout cela fait du WD_BLACK SN750 un choix idéal pour les PC de jeu hautes performances, aiguisé par les titres AAA modernes, vous permettant d'obtenir un chargement instantané et une fréquence d'images stable même dans des jeux très mal optimisés.

All Articles