Un chemin de sept mille pixels: évolution des résolutions d'écran et de nos exigences

Au cours du dernier demi-siècle, le moniteur est devenu une partie intégrante d'un système informatique, un outil clé pour l'interaction entre la machine et l'utilisateur. Récemment, notre équipe a étudié de près ce créneau du marché du matériel - à la fois pour son développement possible et pour l'équipement technique réfléchi des employés. En particulier, nous nous sommes intéressés à la direction et au rythme du développement de la technologie de l'image, à la dynamique du marché et à la demande des différents groupes d'utilisateurs - tout d'abord, celle avec laquelle nous travaillons actuellement activement, les développeurs de logiciels. Sous la cinématique, nous présentons ce petit résumé que nous avons compilé pour nous-mêmes au cours de l'analyse des matériaux et des statistiques disponibles.


L'évolution des autorisations en action

Vous pouvez démarrer une conversation sur les types de périphériques de sortie pour la visualisation de données à distance - même avec des ordinateurs équipés d'un kinéscope. Cependant, les années 70 et 80 sont généralement considérées comme un point de référence dans l'histoire moderne des moniteurs - une période où plusieurs événements clés ont eu lieu dans le domaine des solutions matérielles. A ce stade, le «poste de travail» du programmeur a pris la forme qui nous est familière: les terminaux avec accès à distance à un ordinateur partagé ont été remplacés par des ordinateurs personnels. La technologie de génération d'images a également été transformée - avec l'avènement des adaptateurs vidéo (dont le premier, l'adaptateur d'affichage monochrome, a été développé par IBM en 1981), la charge sur le processeur et la RAM a diminué, ce qui a permis de donner plus de ressources aux graphiques sans nuire au système.

La résolution d'écran avec MDA était de 720 × 350, et ils fonctionnaient avec une gamme très étroite de données - des caractères de texte en noir et blanc. La même année, l'adaptateur graphique couleur est sorti, qui offre un certain nombre d'avantages supplémentaires: le mode graphique avec le mode texte, la prise en charge de seize couleurs et la possibilité de travailler dans plusieurs résolutions en fonction des besoins de rendu des couleurs (résolution maximale, 640x200, était disponible lorsque vous travaillez en mode texte avec affichage de deux couleurs). Après une pause de quelques années, ils ont été suivis par un adaptateur graphique amélioré amélioré avec une palette étendue (soixante-quatre couleurs) et une résolution de 640 × 350 pixels.

Le résultat de cette série de développements IBM et une étape importante dans l'histoire des moniteurs a été la création de Video Graphics Array en 1987. C'était un saut technologique à plusieurs égards à la fois. Le rendu des couleurs est devenu beaucoup plus précis et plus détaillé du fait que le nombre de couleurs prises en charge a augmenté de plusieurs ordres de grandeur (262144 nuances au total, dont seize pourraient être utilisées pour construire une image spécifique). L'image s'est étirée verticalement - une nouvelle résolution a été introduite, 640x480 pixels. Le rapport d'aspect 4: 3 était optimal pour la perception et a ensuite été considéré comme une option par défaut pendant une longue période. Au total, VGA a fonctionné avec dix options de résolution, ce qui a permis aux utilisateurs d'ajuster le nombre de couleurs et la taille de l'image à leurs préférences et capacités de moniteur. Finalement,le nouveau modèle a commencé à utiliser l'interface de communication analogique entre l'adaptateur et le moniteur - il a abordé l'amélioration future de la reproduction des couleurs. Tout cela combiné a fait de VGA la norme du marché pour les années à venir.



IBM PS/2 Model 50 — , VGA

Bien sûr, cela n'a pas ralenti la fin du développement de la technologie. À la fin des années 80 et dans la première moitié des années 90, plusieurs versions améliorées de l'adaptateur ont été publiées, connues sous le nom général de Super Video Graphics Array, qui ont progressivement augmenté la quantité de mémoire vidéo, la gamme de couleurs (jusqu'à 16,7 millions) et la taille de l'image. Au tournant de la décennie, la fameuse résolution 800 × 600 est apparue, dont le record (mais pas la popularité) a rapidement été battu par un modèle d'une résolution de 1024 × 768. Selon les données que les analystes ont réussi à sortir de l'ère passée, jusqu'à deux mille personnes ont principalement utilisé des écrans à 800 × 600, 1024 × 768 et 640 × 480 pixels - ce n'est pas par hasard que ces trois résolutions étaient généralement prises en charge par les jeux populaires. Comme il est facile à calculer, malgré l'augmentation des valeurs, le rapport 4: 3 est resté inchangé.

Pendant ce temps, une révolution se préparait dans le monde des moniteurs. Pendant longtemps, le tube à rayons cathodiques a été considéré comme le moyen le plus pratique et le plus efficace de générer des images sur des ordinateurs personnels. Une méthode alternative d'affichage des données à l'aide de cristaux liquides est connue depuis les années 60 et 70. Cependant, les tentatives d'application de la technologie sur de grands écrans ont révélé de nombreux problèmes causés par l'instabilité de la couche. Pour l'instant, les calculatrices, les montres et le vague espoir de se montrer dans ce créneau du marché où les moniteurs CRT n'étaient pas disponibles - sur les ordinateurs portables - restaient le lot des écrans à cristaux liquides.



1985 Toshiba T1100, l'un des premiers modèles d'ordinateurs portables, dispose d'un écran LCD

Alors c'est finalement sorti. Au milieu des années 90, les principaux inconvénients des écrans LCD dans les ordinateurs portables ont été éliminés: le contraste a été nivelé, les couleurs sont apparues et le besoin d'éclairage supplémentaire a été compensé par le rétroéclairage intégré. Lorsque la technologie a commencé à être utilisée sur les moniteurs des ordinateurs fixes, il est devenu évident qu'avec une qualité d'image comparable, elle offre de nombreux bonus intéressants - légèreté, compacité, faible consommation d'énergie. Les écrans CRT ont été maintenus à flot pendant un certain temps, mais en 2003, l'équilibre avait finalement changé en faveur des moniteurs plats. Parallèlement à l'ensemble de l'équipement, une caractéristique historique importante a progressivement disparu - la possibilité d'ajuster la résolution sur le moniteur avec des pertes acceptables de qualité graphique. Les écrans LCD ont été conçus pour fonctionner strictement dans la résolutionsous lequel ils ont été produits.

Ainsi, l'épaisseur du moniteur moyen a fortement chuté, tandis que le reste des mesures a continué de croître régulièrement. Pour apprécier et ressentir le rythme de ces progrès, il suffit de regarder l'image ci-dessous. Avec cette installation (côté droit), l'artiste Aram Bartall montre succinctement comment les tailles d'écran ont changé au cours des quinze dernières années. Il suffit de dire que les trois quarts de cette pile se rapportent spécifiquement au XXIe siècle. Les travaux datent de 2013, il convient donc de garder à l'esprit que sous sa forme actuelle, il serait reconstitué avec un certain nombre d'autres éléments, y compris des affichages papier à 3840 × 2160 et 7680 × 4320 pixels.



Enfin, en plus de la mise à l'échelle continue au cours de la dernière décennie, un autre changement notable s'est produit - une refonte du rapport d'aspect classique - 4: 3. Bien sûr, des écarts par rapport à cette norme se sont déjà produits, en particulier au moment du développement rapide des ordinateurs portables, mais jusqu'au milieu des années 2000, ils n'étaient pas de nature systémique. Le déclencheur d'un changement radical dans l'année a été le désir de rapprocher les écrans de télévision et les écrans d'ordinateur - peut-être en partie parce que l'expérience utilisateur a commencé à tourner davantage autour du contenu vidéo. Curieusement, l'évolution a décrit un cercle complet ici: après tout, l'histoire des moniteurs a commencé avec les écrans de télévision. D'une manière ou d'une autre, depuis 2008, le titre de la norme est passé d'un rapport 4: 3, d'abord à 16:10, puis à 16: 9.

Après avoir fait cette courte excursion dans l'histoire, revenons à la question qui nous intéressait tout d'abord: comment les utilisateurs de PC réagissent-ils à toutes ces possibilités? Si nous parlons de la masse totale - assez sobre et prudent. Malgré la lutte continue pour chaque nouvelle centaine de pixels sur l'écran, le processus de déplacement du public principal vers de nouveaux moniteurs plus spacieux n'a toujours pas été pressé. Comme déjà mentionné, malgré le fait que la frontière des mille premiers pixels ait été franchie à la fin des années quatre-vingt, la résolution de 800 × 600 est restée le leader sans un soupçon de concurrence pendant presque toute la prochaine décennie (pour autant que l'on puisse en juger par les statistiques fragmentaires de ces années). Selon W3Schools, en 2000, il détenait une part de marché de 56% - selon les normes d'aujourd'hui, le chiffre est fantastique - et ce n'est qu'en 2003 que le championnat est finalement passé à la résolution de 1024 × 768.

Le rythme accéléré du développement graphique n'affecte pas l'intérêt des utilisateurs pour les nouveaux produits - la tendance vers une augmentation progressive de la popularité se poursuit à ce jour. Avec le début de l'ère des écrans LCD, les résolutions deviennent fixes - cela a probablement aussi joué un rôle, empêchant la possibilité d'expérimenter avec différentes densités sur des moniteurs plus anciens. Si vous vous tournez vers les dernières statistiques de 2019, vous pouvez voir qu'à l'échelle mondiale, la résolution de 1366 × 768 est toujours la plus demandée malgré l'abondance d'options de pixels plus élevées. Il est à noter qu'il a atteint le sommet en 2013, après s'être dispersé à six ans, et y a été maintenu de manière stable. En un mot, toutes les données que nous avons étudiées au cours des trois dernières décennies indiquent une faible mobilité du marché.



Statistiques de la popularité des résolutions d'écran dans le monde au cours de la dernière année

Les raisons de cet état de fait ne sont pas difficiles à deviner. Tout d'abord, l'amélioration de la qualité de l'image est un bonus significatif, mais pour l'utilisateur moyen, cela ne suffit guère à le provoquer à remplacer immédiatement l'équipement, en particulier pendant la période où il reste dans la catégorie de prix de l'ultra-moderne exclusif. La grande popularité vient des nouveaux écrans pour la plupart lorsqu'ils cessent d'être nouveaux et commencent à évoluer vers la norme du marché.

Dans le même temps, le développement des préférences des utilisateurs ne peut pas être appelé un mouvement linéaire-translationnel sans hâte de petites valeurs vers de grandes. À mesure que la plage de résolution augmente, les gens commencent à se disperser de plus en plus entre les options disponibles. Les graphiques Statcounter montrent que même les leaders absolus n'ont pas récemment remporté plus d'un tiers de l'audience totale, et l'Autre est enraciné dans les trois variantes les plus populaires, combinant toute une dispersion de diverses résolutions. Le fait que plus de la moitié des utilisateurs d'ordinateurs soient satisfaits d'écrans très dépassés nous semble curieux. Peut-être qu'au moment actuel, la qualité de l'image a franchi un certain seuil - la norme est devenue si élevée que pour la personne moyenne qui ne travaille pas très dur avec le contenu visuel, même ces résolutions sont acceptables,qui ne lui parviennent pas.

Cependant, dans le cadre de la masse totale, des groupes distincts se distinguent qui ont beaucoup plus besoin d'urgence d'un calendrier de haute qualité et utilisent activement de nouvelles opportunités technologiques. Il s'agit tout d'abord de graphistes, d'artistes numériques, de joueurs (par exemple, dans la communauté Steam, la résolution de 1920 × 1080 a déjà pris une position de leader en 2017). Et ici se pose une question logique: les développeurs appartiennent-ils à cette partie du public?

Un examen des sources Internet a montré qu'il n'y a pas encore de réponse définitive basée sur des données quantitatives sur cette question - des enquêtes de masse n'ont pas encore été menées auprès de ce groupe d'utilisateurs. Néanmoins, on ne peut pas dire que la communauté est indifférente au problème: il y a plus qu'assez d'expositions subjectives fragmentées sur l'expérience personnelle sur le Web, des débats dans les forums aux recommandations des blogueurs et des publications en ligne. Bien sûr, dans l'ensemble, tout cela crée une image variée et contradictoire des préférences.

Si nous essayons de déduire un noyau commun de la polyphonie de cette compréhension collective, ce qui suit émerge. Les activités du développeur sont principalement liées au traitement des données au format texte, et le contenu graphique est un domaine plus périphérique. Les données textuelles lorsque vous travaillez avec le code sont très denses, ce qui nécessite une forte concentration visuelle et crée une tension pour les yeux. De plus, un espace de travail spacieux et bien ordonné est d'une grande importance - les programmeurs apprécient la possibilité d'avoir sous les yeux non seulement le bon morceau de code, mais aussi les documents, sources et programmes associés.

De ces points de départ, avec plusieurs réserves, plusieurs conclusions peuvent être tirées:

  • , .
  • , . , – .
  • , – , . : . 4 , , - .
  • , , , , , . , , , . , , , - .
  • , , , , , , .

Cette chaîne logique nous a conduit à la conclusion suivante: dans leurs préférences, les programmeurs ont probablement un peu d'avance sur la majorité des utilisateurs, introduisant de nouveaux modèles dans leur travail quelques années plus tôt qu'ils ne deviennent finalement la norme de base.

Mais ces constructions mentales, bien sûr, nécessitaient une vérification avec un échantillon réel, bien que dans une mesure limitée. La première étape a été une enquête que nous avons menée auprès des développeurs de l'entreprise. Les statistiques locales, en général, ont confirmé nos conclusions: alors que 1366 × 768 prévaut toujours dans le monde des mortels ordinaires, perdant progressivement du terrain sous l'assaut de 1920 × 1080, pour les développeurs, c'est une étape révolue: la principale concurrence se déroule entre des formats plus modernes. Les résultats de la première validation nous ont inspiré et maintenant l'équipe d'analystes est déterminée à vérifier le résultat sur un public plus large. Nous demandons aux citoyens de Khabrovsk de contribuer à nos statistiques - plus tard, nous rendrons certainement compte des résultats.

All Articles