Derniers messages sur Zeste de Savoirhttps://zestedesavoir.com/forums/2021-09-23T22:09:13+02:00Les derniers messages parus sur le forum de Zeste de Savoir.Apport du FPGA / GPU, message #2377162021-09-23T22:09:13+02:00buffalo974/@buffalo974https://zestedesavoir.com/forums/sujet/15716/apport-du-fpga-gpu/?page=1#p237716<p>merci simbilou</p>Apport du FPGA / GPU, message #2377122021-09-23T17:49:49+02:00simbilou/@simbilouhttps://zestedesavoir.com/forums/sujet/15716/apport-du-fpga-gpu/?page=1#p237712<p>Bonjour,</p>
<p>Un FPGA ne fait pas de calcul en lui même, c’est un ensemble de LUT et de bascule que l’on peut câbler comme on veut pour réaliser à peut près n’importe quel circuit numérique. Le circuit numérique ainsi implémenté dans le FPGA lui fait bien le calcul que tu veux, et même séquentiellement si ça te chante (ce serait contre-productif mais possible).</p>
<p>La différente avec un GPU c’est que tu fais le circuit que tu veux, un GPU lui a un grand nombre de petit circuits particulièrement optimisés pour le calcul de rendu 3D. Ces circuits sont plus où moins indépendants les uns des autres ce qui permet de paralléliser beaucoup de calcul. Cela a été développé à la base pour accélérer le rendu 3D, mais ça reste très efficace si tes calculs ont les mêmes caractéristiques qu’un rendu 3D, c’est à dire si tu as toujours les mêmes calculs ou presque à faire sur un grand nombre de données indépendantes (paradigme <a href="https://fr.wikipedia.org/wiki/Single_instruction_multiple_data">SIMD</a>).</p>
<p>Je ne sais pas vraiment ce qu’est un NPU donc je ne peux pas répondre de manière pertinente.</p>
<p>De ma compréhension, l’apport des FPGA pour l’IA n’est pas très intéressant en dehors des phases de prototypage (comme de coutume avec les FPGA d’ailleurs…). Une fois les circuits nécessaires clairement identités, on fera des puces spécialisées type GPU, TPU, etc.. </p>
<p>L’ordinateur quantique ça n’existe pas encore en dehors de quelques essais en laboratoire et si on peut certainement trouver du contenu de qualité sur le sujet je suis de mon côté pas assez calé sur le sujet pour séparer le grain de l’ivraie.</p>
<p>Enfin pour tes questions bonus: il n’y a pas d’équivalent de langage d’assemblage pour un FPGA car on ne donne pas des instructions à une machine, on décrit un circuit. Après il est vrai que l’on décrit généralement les circuit avec un langage de plus haut niveau (un <a href="https://fr.wikipedia.org/wiki/Langage_de_description_de_mat%C3%A9riel">HDL</a>) et que au final on a un fichier binaire à aller charger dans le FPGA pour qu’il se comporte comme le circuit décrit. Les étapes successives pour passer du HDL au bitstream peuvent être vaguement mise en regard de celles nécessaire à l’élaboration d’un exécutable depuis son code source mais ce n’est qu’une analogie. Je veux bien essayer de m’y risquer si ça t’intéresse mais en vrai pour bien saisir ce qu’il se passe il faut suivre un cours d’électronique numérique.</p>Apport du FPGA / GPU, message #2377032021-09-23T13:21:23+02:00buffalo974/@buffalo974https://zestedesavoir.com/forums/sujet/15716/apport-du-fpga-gpu/?page=1#p237703<p>Salut,
j’ai compris que le FPGA faisait du calcul parallele.
Quelle difference avec un GPU ? NPU Neural Processing Unit ?
Apport pour l' IA et l’ordinateur quantique ?</p>
<p>et question bonus : quel est l' équivalent du langage d’assemblage et assembleur , linkeur , debuguer pour le FPGA ?</p>3D Webgpu avec Rust : tuto wgpu officiel pas terrible, message #2216132020-06-01T12:40:07+02:00buffalo974/@buffalo974https://zestedesavoir.com/forums/sujet/14154/3d-webgpu-avec-rust-tuto-wgpu-officiel-pas-terrible/?page=1#p221613<p>Salut,
je trouve que le tuto suivant n’est pas assez didactique, auriez vous trouvé quelque chose d' autre à ce sujet
<a href="https://sotrh.github.io/learn-wgpu/">https://sotrh.github.io/learn-wgpu/</a></p>Introduction aux compute shaders, message #1386192017-01-14T11:30:53+01:00Glordim/@Glordimhttps://zestedesavoir.com/forums/sujet/7018/introduction-aux-compute-shaders/?page=1#p138619<p>Suite à la publication du tuto la bêta a été désactivée. <img alt=";)" src="/static/smileys/clin.png"></p>Introduction aux compute shaders, message #1293602016-11-02T11:22:01+01:00denissalem/@denissalemhttps://zestedesavoir.com/forums/sujet/7018/introduction-aux-compute-shaders/?page=1#p129360<div align="center">
<p><a href="https://zestedesavoir.com/contenus/beta/1554/introduction-aux-compute-shaders/">Introduction aux compute shaders</a> </p>
</div>
<p>Ça n'a pas changé des masses depuis la dernières fois, mais j'ai oublié de mettre à jour la bêta. Vous pouvez donc lire ce que les validateurs lisent.</p>
<p>Si j'ai oublié quelque chose ou que la forme ne semble pas convenir dite le moi, je n'ai pas eu tant que ça de retour donc je ne sais pas trop où on en est… Même si j'ai proposé le tuto en validation je reste ouvert à toute suggestion.</p>Introduction aux compute shaders, message #1259232016-10-06T13:11:17+02:00denissalem/@denissalemhttps://zestedesavoir.com/forums/sujet/7018/introduction-aux-compute-shaders/?page=1#p125923<p>Bonjour les agrumes !</p>
<p>La bêta a été mise à jour et décante sa pulpe
à l'adresse suivante :</p>
<div align="center">
<p><a href="https://zestedesavoir.com/contenus/beta/1554/introduction-aux-compute-shaders/">Introduction aux compute shaders</a> </p>
</div>
<p>Merci à Shenzyn pour la précieuse relecture orthographique. J'ai également rajouté quelque reminders et reformulé des phrases un peu difficiles.
Merci d'avance pour vos commentaires.</p>Introduction aux compute shaders, message #1259132016-10-06T11:12:41+02:00denissalem/@denissalemhttps://zestedesavoir.com/forums/sujet/7018/introduction-aux-compute-shaders/?page=1#p125913<p>Bonjour les agrumes !</p>
<p>La bêta a été mise à jour et décante sa pulpe
à l'adresse suivante :</p>
<div align="center">
<p><a href="https://zestedesavoir.com/contenus/beta/1554/introduction-aux-compute-shaders/">Introduction aux compute shaders</a> </p>
</div>
<p>J'ai entre autre reformulé pas mal de choses pour rendre la lecture et la compréhension plus agréable et facile.
J'ai également ajouté des encadrées pour aérer et mettre en évidence de les informations anecdotiques ou au contraire très importantes.
Merci d'avance pour vos commentaires.</p>Introduction aux compute shaders, message #1257222016-10-04T10:50:24+02:00denissalem/@denissalemhttps://zestedesavoir.com/forums/sujet/7018/introduction-aux-compute-shaders/?page=1#p125722<p>Bonjour les agrumes !</p>
<p>La bêta a été mise à jour et décante sa pulpe
à l'adresse suivante :</p>
<div align="center">
<p><a href="https://zestedesavoir.com/contenus/beta/1554/introduction-aux-compute-shaders/">Introduction aux compute shaders</a> </p>
</div>
<p>j'ai ajouté des liens vers des cours en français OpenGL très complet ainsi qu'un liens vers un cours en anglais tout aussi complet et instructif. J'ai également corrigé deux ou trois coquilles. Merci à Ge0 pour sa relecture <img alt=";)" src="/static/smileys/clin.png"></p>
<p>Merci d'avance pour vos commentaires.</p>Introduction aux compute shaders, message #1256492016-10-03T11:21:19+02:00denissalem/@denissalemhttps://zestedesavoir.com/forums/sujet/7018/introduction-aux-compute-shaders/?page=1#p125649<p>Bonjour les agrumes !</p>
<p>La bêta a été mise à jour et décante sa pulpe
à l'adresse suivante :</p>
<div align="center">
<p><a href="https://zestedesavoir.com/contenus/beta/1554/introduction-aux-compute-shaders/">Introduction aux compute shaders</a> </p>
</div>
<p>Merci d'avance pour vos commentaires.</p>Introduction aux compute shaders, message #1256482016-10-03T11:20:03+02:00denissalem/@denissalemhttps://zestedesavoir.com/forums/sujet/7018/introduction-aux-compute-shaders/?page=1#p125648<p>Bonjour les agrumes !</p>
<p>La bêta a été mise à jour et décante sa pulpe
à l'adresse suivante :</p>
<div align="center">
<p><a href="https://zestedesavoir.com/contenus/beta/1554/introduction-aux-compute-shaders/">Introduction aux compute shaders</a> </p>
</div>
<p>Merci d'avance pour vos commentaires.</p>Introduction aux compute shaders, message #1254302016-09-30T19:58:54+02:00denissalem/@denissalemhttps://zestedesavoir.com/forums/sujet/7018/introduction-aux-compute-shaders/?page=1#p125430<p>Ok très bien, merci pour le retour! <img alt=":)" src="/static/smileys/smile.png">
J'ai corrigé ça.</p>Introduction aux compute shaders, message #1254152016-09-30T18:05:22+02:00victorlevasseur/@victorlevasseurhttps://zestedesavoir.com/forums/sujet/7018/introduction-aux-compute-shaders/?page=1#p125415<p>Salut,</p>
<p>J'ai parcouru le tutoriel assez rapidement mais il a l'air bien expliqué. <img alt=":)" src="/static/smileys/smile.png"></p>
<p>Par contre, c'est « groupe de travail » et non « groupe de travail<strong>le</strong> ».</p>Introduction aux compute shaders, message #1254122016-09-30T17:30:37+02:00denissalem/@denissalemhttps://zestedesavoir.com/forums/sujet/7018/introduction-aux-compute-shaders/?page=1#p125412<p>Tout le monde se secoue ! <img alt=":D" src="/static/smileys/heureux.png"></p>
<p>J'ai commencé (il y a 26 minutes) la rédaction d'un tutoriel au doux nom
de « Introduction aux compute shaders » et j'ai dans l'objectif de proposer en validation
un texte aux petits oignons. Je fais donc appel à votre bonté sans
limite pour dénicher le moindre pépin, que ce soit à propos
du fond ou de la forme. Vous pourrez consulter la bêta à votre guise à
l'adresse suivante :</p>
<div align="center">
<p><a href="https://zestedesavoir.com/contenus/beta/1554/introduction-aux-compute-shaders/">À présent, c'est à vous !</a> </p>
</div>
<p>Merci !</p>GTX 560 Ti pour remplacer une Radeon 4870 x2, message #463632015-03-03T18:43:53+01:00CyberS@m/@CyberS%40mhttps://zestedesavoir.com/forums/sujet/2575/gtx-560-ti-pour-remplacer-une-radeon-4870-x2/?page=1#p46363<p>D'après ce que j'ai pu trouver, l'AMD Radeon HD 4870x2 serait plus ou moins aussi performante qu'une <a href="http://www.hardware.fr/articles/770-23/recapitulatif-performances.html" title="AMD Radeon HD 5870">Radeon HD 5870</a> qui est elle-même plus ou moins équivalente à la <a href="http://www.hardware.fr/articles/879-21/upgrade-face-aux-anciennes-generations.html" title="nVIDIA GeFORCE GTX 560 Ti">nVIDIA GeFORCE GTX 560 Ti</a>.</p>
<p>Après, il nous faudrait les précisions demandées pour t'en dire plus et, éventuellement, t'en proposer une plus intéressante aujourd'hui… même si le budget risque d'être un peu faible.</p>GTX 560 Ti pour remplacer une Radeon 4870 x2, message #463442015-03-03T16:57:18+01:00louk/@loukhttps://zestedesavoir.com/forums/sujet/2575/gtx-560-ti-pour-remplacer-une-radeon-4870-x2/?page=1#p46344<p>Je sais qu'il faut des précisions, d'où ma dernière phrase.</p>
<p>En regardant les benchmarks, la GeForce semblait environ 1.5 fois meilleure niveau performances.</p>
<p>Je modifierai dès que j'aurai les infos. Et si la GTX 560 Ti ne convient pas, j'aimerais savoir par quoi je pourrais la remplacer avec un budget de 100 € ou moins.</p>GTX 560 Ti pour remplacer une Radeon 4870 x2, message #463332015-03-03T15:32:07+01:00CyberS@m/@CyberS%40mhttps://zestedesavoir.com/forums/sujet/2575/gtx-560-ti-pour-remplacer-une-radeon-4870-x2/?page=1#p46333<p>Salut <img alt=":)" src="/static/smileys/smile.png"> </p>
<p>Il nous faudrait des précisions sur ta config' (les marques et modèles exactes des CPU, carte mère, RAM, SSD/HDD, alim', boîtier et écran), de l'OS (lequel ? 32bit ou 64bit ? BOX ou OEM ?) et de l'utilisation (si jeux, lesquels ? Overclocking ?) pour correctement te répondre.</p>
<p>En attendant, si les 550W de l'alim' seraient suffisants, l'AMD Radeon HD 4870x2 et la nVIDIA GeFORCE GTX 560 Ti semblant assez proches en terme de performances, pas sûr que ce soit réellement intéressant.</p>GTX 560 Ti pour remplacer une Radeon 4870 x2, message #463042015-03-03T13:25:57+01:00louk/@loukhttps://zestedesavoir.com/forums/sujet/2575/gtx-560-ti-pour-remplacer-une-radeon-4870-x2/?page=1#p46304<p>Bonjour !</p>
<p>J'ai trouvé une GTX 560 Ti à 90 € négociable sur Leboncoin que je peux prendre en main propre (elle est vendue dans la ville où j'habite) et je me demande si ça vaut le coup pour remplacer une Radeon 4870 x2 qui chauffe un peu trop à mon goût.</p>
<p>D'ailleurs, j'en profite pour demander si 550 W suffit ?</p>
<p>De mémoire (l'ordi est chez mon père), voici la config :<br>
Processeur : Intel 4 coeurs 3.0 GHz 2e ou 3e génération. Je pense que c'est un i5 mais je ne suis pas sûr.<br>
Mémoire vive : 2 x 2Go DDR3<br>
Carte graphique : Radeon HD 4870 x2<br>
Disque dur : 2 x 500 Go (aucune idée de la marque)<br>
Alim : entre 500 et 600 W, je ne l'ai jamais regardé.</p>
<p>Je sais que c'est très flou comme informations, j'essayerai de compléter/corriger d'ici quelques jours.</p>Inconvénients des geometry shaders, message #77332014-07-14T17:03:43+02:00gbdivers/@gbdivershttps://zestedesavoir.com/forums/sujet/526/inconvenients-des-geometry-shaders/?page=1#p7733<p>Il ne faut oublier que les GS peuvent aussi supprimer des points ou des triangles. On peut donc les utiliser aussi pour faire du face culling (mais c'est en pratique peu utilisé, il sera généralement plus performant de faire le tri côté CPU et n'envoyer que ce que l'on a besoin)</p>
<p>Sinon, il y a quelques exemples d'utilisation des GS dans les livres GPU Pro : génération de terrain, l'illumination par voxel, de l'antialiasing, etc
Le gros problème des GS est qu'ils font souvent double emploi avec la tesselation (en moins performant)</p>Inconvénients des geometry shaders, message #66962014-07-11T14:50:42+02:00Truitemouth/@Truitemouthhttps://zestedesavoir.com/forums/sujet/526/inconvenients-des-geometry-shaders/?page=1#p6696<p>Je confirme ce qui a été dit ; l’intérêt d’un Geometry Shader réside dans sa capacité à générer du maillage de façon dynamique et procédurale.</p>
<p>Pour reprendre ton idée de départ ; j’imagine mal qu’un maillage bien spécifique (tel un véhicule ou un personnage) puisse être modélisé par le biais d’une formule mathématique, or c’est là que réside l’intérêt d’un GS (lui passer une liste de points et lui demander de construire un maillage ce n’est pas vraiment son rôle et je doute qu’on atteigne des sommets d’optimisation en procédant ainsi). On fera donc davantage appel à la tesselation pour "manipuler" des maillages conventionnels (tu me diras on peut théoriquement utiliser un GS pour faire de la subdivision de maillage tel que le ferait un Tesselation Shader, mais les perfs seraient moins bonnes). </p>
<p>A titre d’exemple, un GS peut être utilisé pour générer et animer un océan déchainé, des vêtements, de la fourrure, de l’herbe, des ombres volumétriques, etc… (Typiquement, Minecraft gagnerait à utiliser un GS pour générer ses cubes ^^). </p>Inconvénients des geometry shaders, message #64432014-07-11T09:29:20+02:00Stranger/@Strangerhttps://zestedesavoir.com/forums/sujet/526/inconvenients-des-geometry-shaders/?page=1#p6443<p>A priori le geometry shader n'a aucune raison de s'exécuter sur un seul shader core avec un GPU moderne (ça peut être le cas sur des plateformes plus exotiques). Je serais tenté de dire que c'est toujours plus rapide de calculer des points dans le GPU que de les batcher depuis le CPU. </p>
<p>Le souci c'est que tu dois de toute façon charger les données en VRAM à un moment, et on peut déjà s'amuser un peu avec les vertex buffer pour ne les charger qu'une seule fois, du coup le passage au geometry shader n'apporterait rien pour un mesh classique, ça sert quand on peut générer procéduralement le mesh (e.g. tissu, subdisivion d'un mesh existant…).</p>