Achat Ecran 4K : Au vue de ma config ca vaudrait le coup ?

a marqué ce sujet comme résolu.

Reprise du dernier message de la page précédente

faut savoir qu’il existe la techno de chez nvidia qui est le DLSS

ca permet d’upscale une image 720p (ou 1080 je sais plus) pour le meme rendu que du 4k natif (alors oui il y a quelques difference mineur, mais la V2 corrige bien, et la V3 devrait pas tarder a sortir)

je pense que la 2070 peut le tenir apres faut faire le test

de plus je pense que si t’es en 60Hz c’est deja pas mal sur de la 4K (avec 720p DLSS)

mais vraiment faut test pour le savoir (j’ai pas de CG pour le faire)

si je peux donner un conseil ca serait un ecran 2K entre 24,5 et 27", pourquoi pas 75hz, voir 90hz

Édité par depfryer

+0 -0

OK… dans cas, si tu tiens absolument à prendre un écran en Ultra HD (3.840x2.160), soit tu es pressé et tu prends un SAMSUNG U32H850 (à mon avis, ça serait dommage), soit tu patientes jusqu’à la sortie (en 2021) des écrans de 32" en Ultra HD (3.840x2.160) @144Hz comme le VIEWSONIC Elite XG320U (à mon avis, la meilleure solution à "long terme").

Par contre, ta config' actuelle ne permettant pas de jouer au moins correctement en Ultra HD (3.840x2.160), il faudra alors prévoir une upgrade de ta config' voir peut-être même de la changer : à l’heure actuelle, pour jouer en Ultra HD (3.840x2.160) @144Hz, il faudrait probablement une nVIDIA GeFORCE RTX 3090 (à confirmer à sa sortie dans quelques jours) + la prochaine génération de CPU d’INTEL (aucun ne semble actuellement suffisant pour 2nder un tel GPU).

PS : la 4K, c’est une définition de 4.096x2.160 pour le cinéma et il existe très peu d’écrans de ce type. En informatique, c’est de l’Ultra HD (3.840x2.160).

CyberS@m

Tu sais, c’est pas parce qu’il souhaite un écran 4K qu’il peut se permettre de mettre à jour sa config avec une RTX 3090, nouveau CPU, un écran à presque 1000 euros, etc.

Ce que tu proposes est disproportionné. Cela me fait penser à MSI et ses pc portables avec écran 300Hz alors que tu ne peux quasiment pas en profiter avec leur config très haut de gamme. J’ai un écran 240Hz et honnêtement, j’en profite pas (le vendeur m’a fait un prix que je ne pouvais refuser et il n’avait pas le modèle en 144Hz donc j’en ai profité car j’avais besoin d’une bonne mouture quand je suis en déplacement, mais voilà).

Oui, du 144Hz serait un plus car si l’on a une config assez costaud, sur des jeux peu gourmands en ressources ou bien optimisés, tu vas en profiter grave (genre Overwatch pour n’en citer qu’un). Mais, MAIS, ce n’est certainement pas un must-have et tu ne ressens pas la différence, le meilleur confort d’utilisation sur tous les jeux. Ce n’est pas un must-have, surtout pour l’utilisation que alliocha semble avoir car clairement, sur les jeux qu’il cite, il ne pourra pas être plus confortable en 144 qu’en 60, il n’y aura pas une grande différence en terme de ressenti. Cyberpunk 2077, c’est pas Overwatch hein.

144Hz, c’est bien mais c’est pas là-dessus que tu verras une différence phénoménale sur un jeu tel que Cyberpunk 2077 par rapport à du 60Hz. A moins de vouloir exploser ton compte à vue en changeant toute la config. Sauf que tout le monde n’a pas forcément envie de claquer du pognon pour une RTX 3090 ou même une 3080 (vu la faible différence qui semble y avoir entre les deux).

60Hz, c’est toujours une valeur sûr et offre un bon ratio prix/confort d’utilisation.

L’année prochaine, quelle sera la chansonnette ? "144Hz c’est dépassé, faut viser 240/300Hz pour bien profiter de tes jeux" ?

Édité par Arius

"Throw me to the wolves and I will return leading the pack." — Seneca

+5 -0

@Arius : la nVIDIA GeFORCE RTX 3090, si elle est bien aussi performante qu’nVIDIA le dit (à voir dans quelques jours quand elle aura enfin été testée) devrait probablement bien être la mieux adaptée pour jouer en Ultra HD (3.840x2.160).

Après, ce n’était qu’une indication dans le cas où alliocha1805 voudrait pouvoir jouer dans cette définition et à cette fréquence aujourd’hui afin qu’il ait une idée bien plus précise du budget (assez élevé) que ça pourrait représenter… les prochaines consoles devant pouvoir le permettre, le "144Hz" devrait être la prochaine norme pour jouer dans de bonnes conditions (le "60Hz" devenant le minimum). Du coup, plus tard, si il est pas trop pressé, ça devrait revenir (bien) moins cher.

De plus, à part en Ultra HD (3.840x2.160) où les écrans de 32" ne sont pas encore sortis et ne seront donc pas donnés, en Quad HD (2.560x1.440) et en Full HD (1.920x1.080), ils sont bien plus abordable (un peu moins de 400€ pour les 1ers et de 200€ pour les 2nds). Sans compter que les derniers GPU d’nVIDIA (et peut-être aussi ceux à venir d’AMD) permettent de jouer dans ces définitions (surtout en Quad HD (2.560x1.440) pour le moment, les modèles pour le Full HD n’ayant pas encore été annoncés) pour un prix bien plus faible qu’avec la génération précédente.

Par conséquent, il me semblerait, aujourd’hui, vraiment dommage de ne pas en profiter pour prendre un écran avec une fréquence de rafraichissement de 144Hz… même sans pouvoir en profiter dans les jeux un peu gourmands (quand c’est possible, ça apporte tout de même un gain de réactivité non-négligeable et il est difficile de repasser sur un écran @60Hz après). Par contre, au-delà de 144Hz, le gain est faible et, donc, peu intéressant pour la très grande majorité des joueurs.

+0 -0

les prochaines consoles devant pouvoir le permettre, le "144Hz" devrait être la prochaine norme pour jouer dans de bonnes conditions

Je vote sur "aucune chance que les consoles ne fassent tourner quoi que ce soit de sérieux à 144Hz en 4k", pas avant le revamp' des 2–3 ans de la console au moins.

ZdS, le best du Zeste ! | Tuto Arduino, blog, etc

+2 -0

les prochaines consoles devant pouvoir le permettre, le "144Hz" devrait être la prochaine norme pour jouer dans de bonnes conditions

Je vote sur "aucune chance que les consoles ne fassent tourner quoi que ce soit de sérieux à 144Hz en 4k", pas avant le revamp' des 2–3 ans de la console au moins.

Eskimon

Yep, car il faut déjà 1) attendre que les devs mettent à jour les moteurs de jeux pour profiter ded dernières avancées, 2) mettent à jour leur matériels (dans la plupart des studios, on ne tourne pas forcément avec des configurations très haut de gamme (ils ne vont pas acheter des 3090 dès le départ) ni tenter d’optimiser pour la 4k 144Hz, et 3) apprennent à exploiter les possibilités de la machine et des dernières avancées du moteur. Cela prend du temps.

AMHA, rien (ou très peu, avant Crytek s’en faisait un malin plaisir mais plus maintenant) avant l’horizon 2022. Au plus tôt, et en étant très optimiste.

Édité par Arius

"Throw me to the wolves and I will return leading the pack." — Seneca

+0 -0

Heu… je sais très bien que les consoles actuelles ont du mal à faire tourner les jeux en Ultra HD (3.840x2.160) @60Hz et qu’il va donc être très dur pour celles de nouvelle génération de les faire tourner dans cette même définition @120Hz comme MICROSOFT l’a indiqué pour la Xbox Series X mais on pourrait avoir quelques suprises si les nouveaux GPU d’AMD sont aussi bien qu’ils le laissent espérés. SONY va même encore plus loin en indiquant du 8K (7.680x4.320) mais, là, impossible d’y croire sérieusement.

En tout cas, tout ça pour dire que le jeux @144Hz va devenir la norme d’ici peu de temps pour le Quad HD (2.560x1.440) et le Full HD (1.920x1.080) et, vue les performances des nouveaux GPU d’nVIDIA, on peut même plus ou moins dire que c’est le cas et l’Ulra HD (3.840x2.160) va remplacer le Full HD (1.920x1.080) très rapidement… le Quad HD (2.560x1.440) n’étant qu’une transition (encore intéressante vue son prix) entre les 2 autres définitions.

Quant au moteur de jeu, si le CryEngine semble effectivement être paré pour l’Ultra HD (3.840x2.160), l’Unreal Engine l’est également (il semble même plus avancé vue la démo de présentation, sur PS5, qu’Epic avait publiée il y a quelques mois) et Unity ne devrait pas non plus être en reste.

+0 -0

le Quad HD (2.560x1.440) n’étant qu’une transition

Je suis pas d’accord… c’est comme dire "le 4k n’est qu’une transition le futur c’est le 8K" un ecran de 26" en 4k, je sais même si les graphistes ferait la difference par rapport a du 2K….

c’est pas comme si les stats de steam montrait que le 2K est en 3 eme position apres le 1080p et le 1366 x 768

les ecrans de cinema sont pour beaucoup en 4K et franchement je vois mal le veritable interet d’avoir d’aussi petit ecran avec une si grande resolution

a la rigueur le seul avantage serait la disparition de l’anti aliasing mais deja en 2K elle est déjà bien atténué

apres c’est moi mais avoir un jeu qui pese 100Go pour une qualité qu’une minorité exploite (je parle uniquement des qualité superieur, car inferieur, le jeux les utilisent) ca me fait chi*r de voir des lauchers qui ne propose pas le choix de la qualité maximum a telechargé et me retrouvé avec des jeux de 100Go alors que j’en utilise que 30Go (pour les joeur console c’est pire car bloqué a 1 voir maximum 2 disque dur)

+0 -0

Je confirme, le Quad HD (2.560x1.440) est bien une transition entre le Full HD (1.920x1.080) et l’Ultra HD (3.840x2.160) car revenant moins cher que ce dernier mais, contrairement aux 2 autres, n’étant pas réellement un standard (ces derniers étant "dictés" par les téléviseurs et il n’en existe aucun en Quad HD (2.560x1.440))… et il est possible qu’on voit sortir des écrans en 5.120x2.880 (il en existe déjà au moins un mais il est pas donné) en transition avant le 8K (7.680x4.320).

Par contre, si de l’Ultra HD (3.840x2.160) sur un écran de 27"/28" n’est pas agréable (les caractères sont trop p’tits), sur un écran de 23"/24", ça serait nettement mieux car, là, on ne devrait vraiment plus avoir besoin d’AntiAliasing… mais Windows n’est pas encore au top dans sa "mise à l’échelle".

Quant à l’histoire de la taille des jeux, je ne vois pas trop ce que ça vient faire ici mais, ça n’a pas tout à fait de rapport avec la définition à laquelle ils seront joués mais beaucoup plus avec la qualité/taille des textures affichées et donc avec les options graphiques ("Low", "Medium", "High" ou "Ultra"). Peu de personnes ayant de réelles connaissances en hardware, beaucou sont donc équipées avec des "PC de marque" ou préassemblés soient-disant adaptés au jeu mais en fait pas vraiment car la carte graphique est (trop) sous-dimensionnée (les vidéos affirmants qu’on peut jouer avec un budget sous-dimensionné à ses besoins n’aident pas non plus)… d’où, à mon avis, les résultats des rapports de Steam concernant le hardware des joueurs sur cette plateforme.

+0 -0

Quant au moteur de jeu, si le CryEngine semble effectivement être paré pour l’Ultra HD (3.840x2.160), l’Unreal Engine l’est également (il semble même plus avancé vue la démo de présentation, sur PS5, qu’Epic avait publiée il y a quelques mois) et Unity ne devrait pas non plus être en reste.

Attention car le fait que les moteurs évoluent (et il est vrai qu’ils sont de mieux en mieux maintenus à jour) ne veut pas dire que la grande majorité des studios vont en profiter, cf. mon post précédent. Il faut apprendre à maîtriser les machines (dans le cas des consoles), maîtriser les nouvelles capacités du moteur, etc. Au surplus, tout le monde n’utilise pas UE4, CE et cie. Il y a encore une part non négligeable de moteurs internes qui ne sont pas forcément mis à jour régulièrement pour bénéficier des nouvelles avancées techniques.

De plus, il y a toujours cette grande différence entre une démonstration et un produit à visée commerciale, comme un jeu. Ce ne sont pas les mêmes contraintes en terme d’optimisation, et si je prends l’exemple d’un studio utilisant UE4, ils n’ont pas forcément la maîtrise du moteur que les développeurs d’Epic Games ont. Revient dès lors au galop cette fameuse notion d’apprentissage.

On aura certainement plus de jeux peu ou moyennement gourmands apportant un meilleur confort sur du 144Hz, mais l’on ne verra pas tout de suite l’arrivée de jeux gourmands apportant ce même confort ou exploitant correctement les nouvelles avancées. Il y a un temps de battement entre ces deux phases. :)

Édité par Arius

"Throw me to the wolves and I will return leading the pack." — Seneca

+1 -0

les ecrans de cinema sont pour beaucoup en 4K et franchement je vois mal le veritable interet d’avoir d’aussi petit ecran avec une si grande resolution

depfryer

En réalité, la majorité des écrans de cinéma sont en 2K (cinéma, 2048 pixels de large) et pas en 4K. Même dans un cinéma récent (et hors de prix), seule la plus grande salle est équipée en 4K.

Quant à l’histoire de la taille des jeux, je ne vois pas trop ce que ça vient faire ici

Tout le monde doit télécharger des textures 4k pour une grande minorité capable de les utiliser. Du coup des assets énormes à télécharger qui prennent de la place sur les disques de tout le monde, même si inutile.

ZdS, le best du Zeste ! | Tuto Arduino, blog, etc

+1 -0
Auteur du sujet

Ah je vois des débats enflammés sur une simple question :D

Pour en revenir à mon point de départ merci pour toutes les infos après divers points :

  • Je comprend pas cette fixette sur le 144 Hz ==> Je l’ai actuellement et globalement osef a moins de jouer a des FPS nerveux (ce qui est pas prêt d’arriver chez moi)
  • Le choix d’un 27" est surtout pour une question d’encombrement : quand t’as déjà deux écrans sur un bureau normal pour un parisien les lubbies bourgeoise de double ecran 32/40 pouces c’est pas vraiment possibles ;) (1m² de plus par chez moi c’est 10 000 euros donc on va oublier :D)
  • Le choix d’un moniteur 4k est surtout "pour voir venir" je veux pas m’amuser a changer de matos tous les deux ans pour suivre la mode mais plutôt me foutre en 4k et je passerai a la 12k le jour ou elle arrivera (dans 10 ans ?)

Par contre je comprend bien le point que ma config ne ferra jamais tourner de jeux en 4K selon les standards du marché actuel : c’est juste que je me fout royalement de jouer en 144Hz et tout le tintouin ==> Pouvoir jouer a The witcher en 50FPS si je peux faire plaisir à ma rétine sur le jeu ca me va parfaitement ;)

+2 -0

Attention car le fait que les moteurs évoluent (et il est vrai qu’ils sont de mieux en mieux maintenus à jour) ne veut pas dire que la grande majorité des studios vont en profiter, cf. mon post précédent. Il faut apprendre à maîtriser les machines (dans le cas des consoles), maîtriser les nouvelles capacités du moteur, etc. Au surplus, tout le monde n’utilise pas UE4, CE et cie. Il y a encore une part non négligeable de moteurs internes qui ne sont pas forcément mis à jour régulièrement pour bénéficier des nouvelles avancées techniques.

Source:Arius

J’ai récemment vu une interview d’un développeur de jeux vidéos français travaillant au Japon qui disait que sur dix jeux commercialisés, seulement un seul était encore développé avec un moteur maison, et le resté développé avec un moteur comme Unreal ou Unity.

Seulement les grosses boîtes de développement de jeu vidéo travaillent encore avec des moteurs maisons (Naughty Dog, Nintendo, Electronic Arts …).

D’ailleurs même si le logo Unreal n’apparaît pas dans les crédits d’un jeu, ça ne veut pas dire qu’ils ne l’ont pas utilisé. :)

Édité par Tonio

+0 -0

Attention car le fait que les moteurs évoluent (et il est vrai qu’ils sont de mieux en mieux maintenus à jour) ne veut pas dire que la grande majorité des studios vont en profiter, cf. mon post précédent. Il faut apprendre à maîtriser les machines (dans le cas des consoles), maîtriser les nouvelles capacités du moteur, etc. Au surplus, tout le monde n’utilise pas UE4, CE et cie. Il y a encore une part non négligeable de moteurs internes qui ne sont pas forcément mis à jour régulièrement pour bénéficier des nouvelles avancées techniques.

Source:Arius

J’ai récemment vu une interview d’un développeur de jeux vidéos français travaillant au Japon qui disait que sur dix jeux commercialisés, seulement un seul était encore développé avec un moteur maison, et le resté développé avec un moteur comme Unreal ou Unity.

Seulement les grosses boîtes de développement de jeu vidéo travaillent encore avec des moteurs maisons (Naughty Dog, Nintendo, Electronic Arts …).

D’ailleurs même si le logo Unreal n’apparaît pas dans les crédits d’un jeu, ça ne veut pas dire qu’ils ne l’ont pas utilisé. :)

Tonio

Oui et non. De nombreux développeurs utilisent encore des solutions internes :

  • pour éviter de payer des royalties (EA, Ubisoft, les studios Sony (ND, Guerrilla games,…), Quantic Dream,… par exemple.
  • pour des besoins spécifiques (MMO, les besoins spécifiques de studios comme Remedy, par exemple), même si la versatilité des solutions comme Unity ou UE4 grappillent du terrain.
  • pour préserver un savoir-faire.

Je ne dirais pas un jeu commercial sur 10. En tous cas, si l’on se limite aux productions non indépendantes. Mais c’est effectivement la "minorité"

Édité par Arius

"Throw me to the wolves and I will return leading the pack." — Seneca

+0 -0

@alliocha1805 : le "144Hz" ne concerne pas uniquement les jeux et pas uniquement les FPS mais tous les types de jeux et la bureautique, la programmation, le graphisme, la vidéo, etc. De plus, aujourd’hui, tous les GPU de dernière génération ou presque semblent parés pour jouer à une telle fréquence (qui, je le rappel, correspond au fps affichables). Donc, bien franchement et à moins de ne pas du tout en avoir le choix, rester sur un écran @60Hz ne serait vraiment pas une bonne idée aujourd’hui.

Sinon, je comprends bien ton problème de place mais, comme déjà dit, 27", pour de l’Ultra HD (3.840x2.160), ça signifie un pitch très (trop) p’tit et donc des caractères vraiment p’tits (ils le sont déjà un peu sur les modèles de 32") qui sont pas toujours facile à lire… même avec le nez collé sur l’écran.

Donc, bien franchement, à moins d’être sûr d’avoir le budget (aujourd’hui ou plus tard) pour prendre une config' (unité centrale + écran) permettant de jouer sans problème en Ultra HD (3.840x2.160) au moins @60Hz et même si il faudra le changer dans quelques temps (d’ici 2 ou 3 ans minimum, le compromis qu’apporte le Quad HD (2.560x1.440) @144Hz me paraît très intéressant… comme précéemment indiqué, jouer dans cette définition et à cette fréquence revient plus ou moins au même que de jouer en Ultra HD (3.840x2.160) @60Hz et, quand tu voudras passer à cette définition, il suffira juste de changer d’écran car l’unité centrale pourra suivre.

@Arius : les consoles de nouvelle génération devant pouvoir permettre de jouer au moins en Ultra HD (3.840x2.160) @120Hz (c’est ce que les constructeurs indiquent, ça reste bien sûr à confirmer), tous les moteurs de jeu (génériques ou propriétaires) vont sûrement permettre au moins à court/moyen terme de profiter de cette définition et de cette fréquence afin de suivre le mouvement comme ça s’est plus ou moins fait avec les consoles des générations précédentes.

@Eskimon : là, c’est aux personnes qui utilisent les différents moteurs de jeu ainsi qu’à ceux qui fabriquent ces derniers de te plaindre car ils n’optimisent, de ton point de vue, pas correctement leurs jeux et t’obligent à installer des textures d’une qualité que tu ne peux pas utiliser. Après, j’avoue qu’avec les connexions au Net qu’on a aujourd’hui (ce n’est malheureusement pas encore le cas de tout le monde), il devrait être possible de n’installer/télécharger que les textures à afficher en fonction des options graphiques qu’on a sélectionnées… en désinstallant automatiquement celles qu’on utilise pas/plus. Après, ça pose surtout un problème sur les consoles où la capacité des HDD/SSD est limitée et difficilement augmentable… sur PC et vue les prix des SSD aujourd’hui, on peut toujours en rajouter un supplémentaire.

+0 -0

@alliocha1805 : le "144Hz" ne concerne pas uniquement les jeux et pas uniquement les FPS mais tous les types de jeux et la bureautique, la programmation, le graphisme, la vidéo, etc.

CyberS@m

Je veux bien des détails sur en quoi un écran à 144 Hz permettrait d’améliorer mon confort sur un jeu de gestion bien calme, de la bureautique, de la programmation, de la retouche photo ou du visionnage de vidéo (qui sont généralement à 24, 25, 30 ou rarement 60 images par seconde selon la source).

C’est une vraie question hein : je ne comprends vraiment pas cet argument.

Édité par SpaceFox

là, c’est aux personnes qui utilisent les différents moteurs de jeu ainsi qu’à ceux qui fabriquent ces derniers de te plaindre car ils n’optimisent, de ton point de vue, pas correctement leurs jeux et t’obligent à installer des textures d’une qualité que tu ne peux pas utiliser. Après, j’avoue qu’avec les connexions au Net qu’on a aujourd’hui (ce n’est malheureusement pas encore le cas de tout le monde), il devrait être possible de n’installer/télécharger que les textures à afficher en fonction des options graphiques qu’on a sélectionnées… en désinstallant automatiquement celles qu’on utilise pas/plus. Après, ça pose surtout un problème sur les consoles où la capacité des HDD/SSD est limitée et difficilement augmentable… sur PC et vue les prix des SSD aujourd’hui, on peut toujours en rajouter un supplémentaire.

À mais je suis bien d’accord. C’est tout le fond de mon propos, je répondais juste à ta phrase "Quant à l’histoire de la taille des jeux, je ne vois pas trop ce que ça vient faire ici" pour expliciter le propos.

En revanche ca "sur PC et vue les prix des SSD aujourd’hui, on peut toujours en rajouter un supplémentaire" non, c’est clairement pas un argument que je peux entendre. Un AAA ca prend 100–150 Go de disque. Ca veut dire que sur un SSD de 500Go tu es vite remplis. Et l’argument du "rajoute un SSD c’est pas cher n’a aucun sens, faut arrêter de penser que les gens ont des portefeuilles si profond :

  • C’est pas parce que ca coûte moins cher qu’avant qu’il faut consommer à tout prix
  • Tout le monde n’a pas 5 ports M2 et 10 ports SATA pour rajouter des SSD à l’infini…

ZdS, le best du Zeste ! | Tuto Arduino, blog, etc

+2 -0

@SpaceFox : une fréquence plus élevée va permettre de rafraichir plus rapidement ce qu’il y a d’affiché à l’écran et, par conséquent, si ça n’apporte pas grand chose lorsque l’affichage est statique, dès qu’il y a du mouvement, c’est tout autre chose (lors de scrolling notamment… chose qu’on peut faire en programmation, en rédigeant un texte, en surfant sur le Net, dans les jeux, ect., on aura moins voir plus d’effet de flou à ces moment-là… c’est un exemple parmi d'autres, je t’invite à lire les tests d’écrans de ce type pour avoir des infos plus précises et d’aller en magasin pour voir ça par toi-même).

@Eskimon : d’où l’intérêt de bien estimer la capacité de son SSD au moment de le prendre car, aujourd’hui, 500Go, c’est trop faible pour les joueurs et il faut du 1To minimum. Et, dans le cas où le SSD principal serait un modèle M.2 (NVMe de préférence), si il n’y a pas d’autres slots M.2 sur la carte mère, un SSD SATA de 2,5" fera très bien l’affaire… en plus, ils sont généralement moins chers.

+0 -0

@SpaceFox : une fréquence plus élevée va permettre de rafraichir plus rapidement ce qu’il y a d’affiché à l’écran et, par conséquent, si ça n’apporte pas grand chose lorsque l’affichage est statique, dès qu’il y a du mouvement, c’est tout autre chose (lors de scrolling notamment… chose qu’on peut faire en programmation, en rédigeant un texte, en surfant sur le Net, dans les jeux, ect., on aura moins voir plus d’effet de flou à ces moment-là… c’est un exemple parmi d'autres, je t’invite à lire les tests d’écrans de ce type pour avoir des infos plus précises et d’aller en magasin pour voir ça par toi-même).

CyberS@m

Non, mais concrètement, en vrai dans la vraie vie ? Le lien que tu donnes insiste bien sur le fait que c’es intéressant surtout pour les FPS rapides ! Si je reprends les arguments que le site donne :

  • Réduction du flou de mouvement : en utilisation bureautique, de programmation, de surf, tu n’essaie pas de lire le texte pendant qu’il est en train de scroller. Allez, à la limite les animations de jeux calmes seront un poil plus jolies. L’argument ne s’applique pas.
  • Réduction de la latence : en utilisation bureautique, de programmation, de surf ou de jeu calme, un lag considéré comme confortable est très lent par rapport à un fast FPS. On va attendre l’affichage d’une lettre à l’écran, ou la réaction à un raccourci clavier ou un clic de souris hors contexte de réflexe. L’argument ne s’applique pas.
  • Réduction du ghosting : même réponse que pour le flou de mouvement.
  • Réduction du tearing : sauf erreur de ma part, avec la synchronisation verticale activée et si l’ordinateur arrive à suivre la fréquence de rafraîchissement, il ne doit pas du tout arriver, quelle que soit cette fréquence. De mémoire c’était même l’un des arguments de vente de G-SYNC / FreeSync (et c’est d’ailleurs ce que dit l’article). Donc je ne comprends pas dans quel cas cet argument peut s’appliquer, à l’exception du cas très particulier du joueur de fast FPS qui a complètement désactivé la synchro verticale pour gagner un peu de lag à l’affichage. Peut-être avec certaines fréquences de vidéo, mais je ne me rappelle pas avoir eu du tearing sur une quelconque vidéo un jour.

Bilan des courses : le seul avantage concret que j’arrive à imaginer avoir un écran haute fréquence (> 60 Hz) dans un contexte de d’utilisation non-réflexe (bureautique, programmation, surf, traitement photo, jeu calme…), c’est de pouvoir lire un texte qui scrolle lentement. Ça me parait être un cas d’usage assez limité.

On peut imaginer que la réduction du ghosting et du flou de mouvement améliorent la qualité d’image en vidéo, mais j’ai l’impression que ce cas n’est pas traité par les articles sur le sujet.

@SpaceFox : concernant le flou et le ghosting, il me semble que c’est quand même bien plus agréable si on peut voir le texte lorsqu’on scrolle dans un traitement de texte, sur le Net ou autre et, en jeu (dans un RTS par exemple), ça l’est également si on peut garder un oeil sur la map/voir ses ennemis à ce moment-là. Et, c’est aussi utile dans les films lors des travelings et des mouvements un peu brusques.

Sinon, pour le tearing, FreeSync et G-Sync font effectivement l’essentiel du taff mais, sur les écrans n’étant pas compatibles avec ces fonctionnalités (à mon avis, indispensables aujourd’hui), ça permet de le réduire voir de l’éviter (par contre, il y devrait toujours y avoir du stuttering).

Quant à la latence, là, je suis d’accords avec toi, c’est toujours mieux pour le "joueur lambda" mais c’est essentiellement utile pour les "pro gamers" et donc très 2ndaire ici.

En tout cas, la seule chose qui pourra te/vous convaincre (ou pas), c’est de tester par toi-même/vous-même… je pense que tu risquerais/vous risqueriez d’être surpris et, comme déjà dit, le retour en arrière est très difficile (un peu comme passer d’un HDD à un SSD)

+0 -0
Auteur du sujet

Ba justement je passe souvent d’un 60Hz a un 144Hz et clairement hors jeu je vois littéralement aucun changement …

Quand a Gsync ca a l’air sympa mais ca a un défaut majeur : le cout ! Le surcout juste pour ajouter cette techno est énorme comparé a Freesync et la liste (officielle tout du moins) de moniteur Gsync compatible est pas si longue que ca :(

+0 -0

concernant le flou et le ghosting, il me semble que c’est quand même bien plus agréable si on peut voir le texte lorsqu’on scrolle dans un traitement de texte, sur le Net ou autre et, en jeu (dans un RTS par exemple)

Mais ça t’arrive réellement de lire un texte qui défile ? Personnellement quand j’ai un texte qui défile, il va tellement vite que quelle que soit la fréquence de rafraichissement, il sera de toutes façons illisible. Même quand je surveille des logs, ils sont soit assez lents pour être lus affichés à 60 Hz, soit trop rapides pour être lus avec le défilement activé (en plus du fait que le cas est assez particulier, parce que ça défile par ligne et pas par pixel).

en jeu (dans un RTS par exemple), ça l’est également si on peut garder un oeil sur la map/voir ses ennemis à ce moment-là.

Dans tous les jeux que je connais, la minimap est fixe par rapport à l’écran. Éventuellement dans certains TPS la carte affichée tourne sur elle-même, mais c’est pas là-dessus que le problème de flou va être critique. Quant à l’affichage principal, même un moniteur d’il y a 10 ans pas du tout calibré pour le jeu était déjà largement assez réactif pour qu’un joueur moyen (littéralement en terme de classement dans le jeu) soit handicapé par ses réflexes et pas par un mauvais affichage de ce qui se passe sur l’écran principal (quelques centaines d’heures de StarCraft II en l’occurrence) (que tous les pros jouent avec les détails au minimum, d’ailleurs).

L’écran affichait un ghosting prononcé surtout sur les violets et/ou les changements noir-blanc ou blanc/noir, et pourtant c’est jamais ça qui m’a empêché d’identifier un zergling ou de cliquer dessus à temps (j’avais essayé avec mon autre écran à l’époque mon nouvel écran – bien plus réactif – ça n’a rien changé à mes performances en jeu).

Édité par SpaceFox

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte