Licence CC BY

Un écran 27" en 2560 x 1440 WQHD, c'est TRÈS grand

Dernière mise à jour :
Auteur :
Catégorie :
Temps de lecture estimé : 4 minutes

L’autre jour, après neuf ans et cinq mois de bons et loyaux services, mon écran d’ordinateur m’a lâché. C’était un écran 23 pouces en « Full HD » (1920 x 1080 pixels). Et donc, dans ma quête pour le remplacer, voilà que je découvre que l’on fait de bons écrans en 27 pouces WQHD (2560 x 1440 pixels) pour à peu près le même prix que mon précédent écran il y a dix ans.

J’avais déjà croisé des écrans de 27 pouces : quelques collègues ont, au boulot, d’horribles 27 pouces courbes Samsung en 1920 x 1080. J’aime pas les écrans courbes, et une telle définition sur une si grande taille fait une bien piètre résolution1 et donc de très gros pixels… ce qui oblige à mettre l’écran très loin pour garder un affichage acceptable. Donc à casser tout l’intérêt de la chose.

Et donc, quelques jours plus tard, me voici l’heureux possesseur d’un écran 27 pouces WQHD (2560 x 1440 pixels). Et je découvre la vérité : un écran 27 pouces, c’est très grand, et 2560 x 1440 pixels, c’est beaucoup plus de surface et de largeur que 1920 x 1080 pixels. Genre, beaucoup plus que ce que j’avais imaginé.

Peut-être trop grand ?

Un tel écran dépasse les définitions standard habituelles (le 4K, ou les écrans « retina » des Mac sont généralement zoomés et utilisés à des définitions normales en « pixels virtuels »).

Utilisé à pleine échelle (sans zoom de l’intégralité de l’interface), certains usages de l’ordinateur – comme la navigation Internet – peuvent être modifiés.

L’image d’un tel écran fait à un pouillième près, 60 cm de large et plus de 33 cm de haut. Ça veut dire que je peux, à peu de chose près, y afficher 3 pages A4 verticales côte-à-côte.

Voici quelques points de comparaison pour vous aider à réaliser la différence entre un tel écran et un écran « full HD » « standard » (toutes les images sont cliquables pour récupérer l’image pleine définition) :


Un screenshot de mon ancien écran, à l’échelle, dans la taille du nouveau. En vert l’espace gagné.

Si vous avez connu la seconde moitié années 1990 en informatique, vous avez très probablement joué à un jeu en VGA : 640 x 480 pixels (et 256 couleurs). Eh bien, un écran en 2560 x 1440 pixels peut afficher précisément douze de ces jeux simultanément : quatre en largeur, trois en hauteur.


Des jeux par paquets de douze !

On peut aussi mettre aussi un écran « full HD » dans un coin, et trois de ces jeux sur le côté (ça rentre pile), et avoir encore de la place (en vert) :


Travailler et jouer à trois jeux en même temps… c’est possible ?

Au-delà des capacités des sites Internet

L’immense majorité des sites Internet, s’ils s’affichent encore correctement en 1920 x 1080 pixels, font n’importe quoi dans une telle définition – à commencer parce que personne ne les teste et encore moins ne les développe pour un tel cas.

Naviguer en plein écran n’a plus aucun sens, mais utiliser deux fenêtre côte-à-côte devient agréable.


Zeste de Savoir, comme bien d’autres, devient une colonne perdue au milieu d’un grand vide.
Et encore, la zone utile de ZdS est large comparée à celle d’autres sites très connus…


La double navigation, elle, est bien gérée

Inversement, tous ces pixels en plus, c’est génial pour les activités qui demandent de la surface, comme la photo ou le développement (dans ce dernier cas, c’est comme si j’avais un écran supplémentaire).


Le bi-écran sur un seul écran pour développer, un gain de confort appréciable.

Pour les jeux aussi, c’est génial… si la carte graphique a la puissance de calcul et la RAM pour supporter les 77 % de pixels en plus. Ce qui est loin d’être évident.

Ne foncez pas sur un tel écran !

Vous ne regretterez jamais un écran 23 ou 24 pouces en « full HD » (1920 x 1080 pixels) : les sites et les logiciels s’y prêtent bien, sans exception, c’est un standard depuis plus de 10 ans.

 Mais ne vous précipitez pas sur un écran 27 pouces en WQHD (2560 x 1440 pixels) : selon votre utilisation, il pourra être sensiblement moins confortable qu’un écran 23 ou 24 pouces !

Sachant que la différence de prix entre ces deux tailles, dans les gammes de qualité raisonnable atteint une bonne centaine d’euros, ce serait dommage de mal choisir par méconnaissance.

PS : Oh, et pour que la première impression soit impressionnante, l’écran est réglé avec sa luminosité à fond. Soit pas loin de 360 Cd/m². C’est monstrueux, et totalement inutile. Il est recommandé d’être plutôt aux alentours de 100 Cd/m². En ce qui me concerne, j’ai dû diminuer la luminosité jusqu’à 10 % dans les réglages pour y arriver.
Et après on s’étonne de la profusion de « lire sur fond blanc ça pète les yeux » et de « y’a pas de thème noir, c’est naze ». Si vous ne pouvez pas lire à l’infini sur fond blanc, c’est que votre écran est trop lumineux (ce qui est de beaucoup le cas si vous n’avez jamais changé le réglage par défaut), votre pièce trop sombre, ou les deux.


  1. En prime cette phrase vous offre la différence entre définition et résolution.



Et voilà, c’était un billet bizarre du Renard. Je ne sais pas si c’est complètement inutile ou si ça peut aider quelqu’un. En tous cas c’est une information que j’aurais aimé avoir (même si après une semaine je ne regrette pas mon achat), alors dans le doute je la partage.


Les images de WarCraft 2, StarCraft, Age of Empire et Fallout 2 sont propriétés de leurs éditeurs respectifs. Icône dans le domaine public.

18 commentaires

Merci pour ce billet !

Un écran aussi grand ça doit être pas mal pour visionner des films, à condition de pouvoir se reculer pour ne pas trop remarquer l’upscaling si la définition d’origine est "seulement" en Full HD.

Bah en même temps ouais, le thème noir c’est tellement la vie. :D

informaticienzero

Thème noir <3

mehdidou99

C’est drôle, pour moi c’est tout l’inverse, ce sont les textes blancs sur fond noir qui me pètent les yeux. X/ Je n’active jamais les thèmes sombres et je mets la luminosité au maximum (mais je ne regarde jamais mon écran dans le noir).

“I don’t love studying. I hate studying. I like learning. Learning is beautiful.” – Natalie Portman

+0 -0

Au boulot, je suis sur 2 écrans 25 pouces WQHD (et j’ai IRC ouvert sur l’écran du pc portable, 14 pouces FullHD).

C’est extrêmement confortable de pouvoir garder autant d’info sous la main sans switcher de fenêtres. Par contre, concrètement, ça fait de l’affichage sur toute la longueur de mon bureau (1.5m de largeur mis bout à bout, que j’ai placés en arc de cercle), et toutes les parties d’écran ne se valent pas:

J’ai un demi écran devant moi où est affiché ce sur quoi je travaille directement (le clavier est centré sur ce demi-écran. De part et d’autre, j’ai des informations directement liées (ce que je cherche, la documentation de ce que j’écris, …) le demi-écran suivant est plus loin, je tourne la tête pour le regarder, il faut clairement mettre des données auxquelles j’accède plus rarement dessus (le genre d’infos où je pourrais faire l’effort de faire alt-tab pour les retrouver). Quant au PC portable, il est loin, mais c’est volontaire: c’est une solution qui fait que je ne switch pas d’application pour voir IRC (ou slack, maintenant), mais qui fait que je ne vois pas immédiatement quand il se passe quelque chose. Ca m’évite d’être distrait à chaque message.

Bref, en passant sur des grands affichages avec beaucoup d’informations il faut vraiment faire attention à l’ergonomie de son poste de travail.

+3 -0

Qu’est-ce qui t’a initialement poussé vers un 27" ? Tu cherchais le bi-écran sur un seul écran pour développer car tu n’as pas l’espace nécessaire sur ton bureau ? Ou autre raison ?

Assez occupé IRL — MP au besoin. Je ne mords pas (toujours)

+0 -0

le 4K, ou les écrans « retina » des Mac sont généralement zoomés et utilisés à des définitions normales en « pixels virtuels »

C’est pas que c’est généralement zoomés, c’est toujours zoomé, c’est le but. Et le Retina, c’est le nom marketing que donne appel à la techno utilisé, qui s’appel le HiDPI, et le scoop, ça existe sur Windows et Linux :P

Je l’utilise, le HiDPI, sur mon laptop MSI avec un Archlinux KDE qui a un écran 4k en 15" (car l’affichage de base en 4k, j’y vois rien du tout sur du 15" :lol:)

Édité par Heziode

+0 -0

Je dis pas le contraire – même si j’ai l’impression que Linux ne gère pas encore correctement les niveaux de zooms autres que 100 % et 200 % ainsi que les zooms différents sur des écrans différents.

Le message important de la phrase, c’était surtout que la définition en pixels virtuels dépasse rarement le « full HD ».

Pour moi les pixels virtuels, ça a même une utilisation au-delà du HiDPI (vocable sous lequel je ramène toutes les résolutions si fines qu’elles deviennent inutilisables à 100 %). Ça sert par exemple quand l’écran est fin-mais-pas-HiDPI, ou quand tu as des problèmes de vision (avec des zooms de 120, 125 ou 150 %).

En bon bourgeois, j’ai un projecteur courte focale 4k. L’ecran fait typiquement 4m de diagonale et evidemment, en projection depuis un W10, ce dernier zoom a 175% pour que l’usage soit possible (je dis possible parce qu’a 100%, c’est inutilisable).

Cependant, j’ai decouvert un probleme avec le plein ecran sur certaines (vieilles) applications. Le plein ecran ne tient pas compte des pixels virtuels de sorte que seul le coin superieur droit de l’image s’affiche. Pour avoir un plein ecran correct, il faut repasser en 100% via l’OS puis relancer l’application.

Du coup, il semblerait qu’au dela des sites internets, certaines applications ne soient pas aussi en mesure de correctement gerer de telles resolutions.

« Kommunist Fried Chicken » | Macroeconomics: Three decades of intellectual regress

+0 -0

Un écran aussi grand ça doit être pas mal pour visionner des films, à condition de pouvoir se reculer pour ne pas trop remarquer l’upscaling si la définition d’origine est "seulement" en Full HD.

PG06

Alors pour l’histoire, j’ai craqué pour un 28 pouces en UHD-1 qui me sert aussi d’écran télé histoire d’enfin remplacer mon vieil écran cathodique (!), et je regarde ça à deux-trois mètres, je ne sais pas exactement. Si les contenus en 480p ou même PAL ont quand même des artefacts visibles, je ne vois plus vraiment de différence dès que la résolution de la vidéo atteint la HD 720 (certains Blu-ray notamment). Je m’étais évidemment amusé à regarder le rendu d’une vidéo en UHD trouvable sur YouTube : il faut que je sois à moins d’un mètre pour voir une différence HD 720 et UHD-1, et il fallait encore qu’il y ait peu de mouvement.

De deux choses l’une : soit sur une telle diagonale, l’amélioration n’est pas vraiment perceptible, soit j’ai déjà les yeux plus détruits que je ne le pensais ^^

Par contre, je confirme ce qui a été dit deux messages ci-dessus : à une échelle de 100%, c’est inutilisable pour autre chose que de la lecture vidéo : le navigateur internet semble très souvent vide, le texte est partout quasiment illisible sans être si proche qu’on n’embrasse pas l’entier de l’écran en un clin d’œil, et puis mine de rien, il faut faire bouger le curseur de manière différente. Soit vous devez faire de grands mouvements avec votre souris, soit avec un pavé tactile les mouvements précis sont difficiles…

Édité par Ymox

Evitez qu’on vous dise de les lire : FAQ PHP et SymfonyTutoriel WAMP • Cliquez 👍 pour dire merci • Marquez vos sujets résolus

+0 -0

Je suis aussi passé à un écran 27" 1440p, principalement pour les jeux, et ça m’a changé la vie. L’immersion est vraiment impressionnante. Après les taches bureautiques ne m’ont pas choqué : Pour la programmation, word, excel et autre c’est un vrai confort.

Parfois le problème se voit sur certains site web mais rien de dérangeant pour ma part.

Édité par Nicox11

Mon blog de réseau et informatique https://blog.network-berry.net

+0 -0

Perso, depuis 4 ans, j’ai un Philips 40" BDM4065UC en Display Port, 3840 x 2160 pixels.
J’utilise Acer Grid Vista pour le diviser en 4 écrans Full HD.
J’ai donc sous les yeux 4 écrans 20" Full HD.

Autant dire que je peux confortablement faire du développement sur 2 écrans,
avec en plus un navigateur ouvert et ma documentation PDF accessible.

Je pourrais difficilement revenir en arrière !
Bien sûr, il faut une carte graphique avec DP, qui fasse de la 4K (en 60Hz de préférence).

J’aurais bien voulu avoir un 55", mais ça n’existait pas à l’époque de mon achat.
Avec une telle diagonale, on aurait l’équivalent de 4 écrans 24"…
De nos jours, on trouve des 43" et un seul 55" (ACER EB550Kbmiiipx).
Je suppose qu’un tel écran devrait être courbé,
de façon à garder une distance et un angle de vison à peu près constants.
Et puis, tant qu’à faire, en OLED

Édité par etherpin

Il se faut s’entraider, c’est la loi de la nature. (Jean de La Fontaine, l’âne et le chien)

+0 -0

Il faut absolument que je revienne sur ce détail :

Pour les jeux aussi, c’est génial… si la carte graphique a la puissance de calcul et la RAM pour supporter les 77 % de pixels en plus. Ce qui est loin d’être évident.

77 % en plus, c’est énorme. Concrètement, ça veut dire que si le jeu est limité par le GPU, à réglage égal et sans effet de seuil :

  • Un jeu qui tournait à 60 images par seconde « pile » en 1920 x 1080 s’effondrera à 34 en 2560 x 1440… ce qui est salement saccadé.
  • Il faut que le jeu tourne à 107 images par seconde en 1920 x 1440 pour tourner à 60 images par secondes en 2560 x 1440.

Concrètement, ça arrive. Par exemple, sur ma GeForce GTX 960, The Witcher 2 (je parle d’un jeu de 2011 !) tournait à 60 FPS (hors scènes abusives sur les effets) en ultra. Il ne tourne plus du tout correctement en WQHD.

OK, c’est une carte moyen de gamme de 2015. Mais quand même, devoir faire des compromis sur la qualité d’un jeu qui jusque là tournait à fond, c’est vexant…

Jouer en WQHD, c’est :

  • Soit se limiter à des jeux vraiment vieux,
  • Soit faire des compromis sur la qualité,
  • Soit investir dans une carte graphique haut de gamme.

La dernière option coute cher, surtout depuis que nVidia n’a plus vraiment de concurrence et donc se fait plaisir sur les prix…

Il faut absolument que je revienne sur ce détail :

Pour les jeux aussi, c’est génial… si la carte graphique a la puissance de calcul et la RAM pour supporter les 77 % de pixels en plus. Ce qui est loin d’être évident.

77 % en plus, c’est énorme. Concrètement, ça veut dire que si le jeu est limité par le GPU, à réglage égal et sans effet de seuil :

  • Un jeu qui tournait à 60 images par seconde « pile » en 1920 x 1080 s’effondrera à 34 en 2560 x 1440… ce qui est salement saccadé.
  • Il faut que le jeu tourne à 107 images par seconde en 1920 x 1440 pour tourner à 60 images par secondes en 2560 x 1440.

Concrètement, ça arrive. Par exemple, sur ma GeForce GTX 960, The Witcher 2 (je parle d’un jeu de 2011 !) tournait à 60 FPS (hors scènes abusives sur les effets) en ultra. Il ne tourne plus du tout correctement en WQHD.

OK, c’est une carte moyen de gamme de 2015. Mais quand même, devoir faire des compromis sur la qualité d’un jeu qui jusque là tournait à fond, c’est vexant…

Jouer en WQHD, c’est :

  • Soit se limiter à des jeux vraiment vieux,
  • Soit faire des compromis sur la qualité,
  • Soit investir dans une carte graphique haut de gamme.

La dernière option coute cher, surtout depuis que nVidia n’a plus vraiment de concurrence et donc se fait plaisir sur les prix…

SpaceFox

La puissance nécessaire pour la montée en pixel est pas linéaire sur les dernières cartes graphiques. Les derniers GPU sont plus optimisés pour de la 4k que du 1080p.

Mon blog de réseau et informatique https://blog.network-berry.net

+0 -0

La puissance nécessaire pour la montée en pixel est pas linéaire sur les dernières cartes graphiques. Les derniers GPU sont plus optimisés pour de la 4k que du 1080p.

Nicox11

Les cartes haut de gamme, oui. Mais pas les cartes moyen de gamme, ou celles un peu anciennes. Ce que je veux dire, c’est que tu peux avoir une carte sur laquelle des jeux sont tout à fait fluides en 1080p et parfaitement injouables en 1440p, parce que la surcharge (en terme de pixels à calculer) est loin d’être négligeable. Il suffit que le GPU soit le facteur limitant sans être surdimensionné en 1080p, un cas assez fréquent chez les joueurs je pense.

J’allais dire dans le pire des cas c’est linéaire, mais même ça c’est faux : le pire des cas, c’est quand tu as un effet de seuil (par exemple : assez de RAM pour tenir le 1080p mais pas pour le 1440p), tu peux avoir des pertes supérieures au ratio de pixels à paramètres égaux.

Par exemple, dans les cartes récentes, la GeForce RTX 2060 permet de jouer en 1080p au-delà de 60 images par secondes, mais peut demander de baisser la qualité en 1440p si on veut conserver les 60 images par secondes – et la gamme au-dessus c 'est la RTX 2070 qui titille tranquillement les 600 €. C’est d’autant plus vicieux que plus l’écran est grand, plus les baisses de fréquences de rafraîchissement sont visibles…

Édité par SpaceFox

Vous devez être connecté pour pouvoir poster un message.
Connexion

Pas encore inscrit ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte