je balance en continue 500 GET sur 8 thread en parallèle
Je comprends définitivement pas.
Quand je fais un test de charge, j'essaie d'instancier un thread par client, justement pour qu'ils vivent leur vie indépendamment les uns des autres.
Si possible, pas complètement synchrones histoire de m'approcher de la réalité.
Après je regarde combien de threads sont utilisés côté serveur en fonction du nombre de clients que j'ai instanciés.
Et c'est très rarement du 1 pour 1.
Là ça me paraît très théorique comme approche, ou alors encore une fois j'ai raté un truc.
Si j'ai bien compris :
-
tes requêtes sont synchrones : j'envoie, quand j'ai le résultat j'en envoie une seconde. Et ce, 500 fois d'affilée
-
tu utilises 8 threads en parallèle, donc 8 requêtes partent au même moment (à t0) et tu supposes que 8 workers seront utilisés côté serveur pour les traiter
-
les temps de réception de chaque réponse sont évidemment différents pour chaque requête (rien que du fait de la gigue/latence réseau)
-
dès la deuxième requête http, tes requêtes sont désynchronisées. Dès lors, difficile de savoir sur combien de workers tu tapes
Ce que je ne comprends pas, vraiment, c'est le coup des 8 threads. C'est pas parce que t'as 8 threads côté clients que tu t'assures que t'as tapé sur les 7 workers. Y'a vraiment un truc qui me dépasse là.
Mais bon c'est ptetre que je connais mal WSGI.