Résurrection d'un ordinosaure - Épisode 1

Rendre service sans argent et en gagnant de la place chez soi

J’ai pour projet de redonner sa dignité à un vieil ordinateur.

Ce billet est le premier d’une série décrivant ma progression. J’y présente ce qui m’a mené à lancer ce projet, l’ordinateur qui aura la chance, le cas échéant, de bénéficier d’une seconde vie et le cahier des charges que je me suis fixé.

Contexte

Dans ma famille, il y a une maîtresse d’école. Elle aime utiliser les technologies numériques pour construire ses leçons. Dans son arsenal, on retrouve notamment la présentation de documents multimédia, les enregistrements vidéo ou audio des élèves, et même la réalisation de livres numériques par les élèves eux-mêmes.

Malheureusement, son école n’est pas équipée de manière satisfaisante : il n’y a qu’un seul vidéoprojecteur dans tout le bâtiment, difficilement accessible, et il n’y a pas non plus d’écran utilisable en classe, et encore moins d’ordinateur disponible en dehors de la salle informatique. Cette maîtresse utilise actuellement son ordinateur portable pour dépanner, mais il est trop encombrant pour être transporté tous les jours en plus du reste. Il n’est pas non plus question de le laisser sur place à cause du risque de vol. La situation actuelle pose ainsi deux problèmes : incapacité de montrer facilement des contenus multimédias et difficulté du transport.

Parmi toutes les solutions potentielles, il a été choisi de réutiliser ma vieille unité centrale et ses périphériques (écran, clavier, souris et même haut-parleurs) assortie d’une distribution Linux. Cette solution présente les avantages décisifs suivants :

  • budget quasi-nul (12 € de DVD vierges pour le moment),
  • pas de perte financière significative en cas de vol et risque de vol plus faible,
  • familiarité de ma part avec le matériel et certaines distributions Linux.

Il y a aussi quelques bonus :

  • c’est un projet qui m’amuse beaucoup,
  • je gagne de la place dans mon appartement (mine de rien ça prend de la place ces vieilleries) sans avoir besoin d’aller à la déchetterie.

Cahier des charges fonctionnel

L’idée générale est de faire un poste de travail multimédia capable au minimum de :

  • lire des images dans tous les formats courants,
  • lire des vidéos dans tous les formats courants,
  • lire des films en DVD,
  • lire des fichiers audios dans tous les formats courants,
  • lire les documents dans des formats usuels (PDF notamment) et assurer compatibilité suffisante avec la suite Microsoft Office (dans le but d’éviter de devoir exporter à tire-larigot).

Les données doivent être pouvoir lue sur :

  • clé USB, nécessairement,
  • CD, DVD, autant que possible,
  • depuis des périphériques type MTP (baladeur, téléphones portable) dans l’idéal.

L’ordinateur n’aura a priori pas besoin d’avoir accès à Internet sur son lieu d’implantation, mais par précaution, il devra :

  • pouvoir se connecter à Internet par câble et autant que possible en Wi-Fi (pour faciliter d’éventuelles mises à niveau),
  • naviguer sur les sites Web modernes, avec un navigateur au fait des dernières normes (qui sera lent sur une vieille machine, j’en suis conscient).

Pour le confort de l’utilisatrice principale, je rajoute encore quelques caractéristiques souhaitables :

  • tout en français,
  • pas de mises à jour intempestives,
  • ressemble à Windows en termes d’applications (pour les trouver facilement, par exemple VLC) et de look-and-feel (ouverture automatique des clés USB, logique des menus et des fenêtres),
  • réactif (temps de chargement raisonnables, fluidité de l’interface).

Ordinosaure

Caractéristiques principales

L’unité centrale destiné à la résurrection date de 2003. Déjà à l’époque, ce n’était pas un foudre de guerre, comme le montrent ses spécifications :

  • carte mère MS-6577 de chez MSI ;
  • processeur Intel Celeron 2.2 GHz, 128 ko de cache L2, 32 bits (modèle exact) ;
  • 768 Mo de RAM DDR no-name ;
  • carte graphique à base d’ATI Radeon 9200,
  • deux disques durs à 5400 tr/min pour un total de 200 Go.

La machine dispose également d’un lecteur de DVD et d’un combo lecteur-graveur de CD.

La connectique est le standard de l’époque : Ethernet, quelques ports USB 2.0 (ou peut-être 2.1), Firewire, VGA, PS2 pour le clavier et la souris, port série, port parallèle et entrées/sorties audio. Une carte Wi-Fi rajoute une possibilité de connexion sans fil.

Quelques périphériques externes sont aussi de la partie. Je dispose d’un clavier un peu décoloré, d’une souris à boule, d’une paire d’enceintes stéréo presque compactes et d’un écran presque plat.

La configuration montrée ci-dessus est l’aboutissement d’une série d’opérations au fil du temps, qui ont bien rafraîchit la machine par rapport à son état d’origine :

  • remplacement à l’identique du disque dur d’origine tombé en panne (qui tient jusqu’à aujourd’hui),
  • barrette de RAM de 512 Mo, issue de la récup’ (triplement de la mémoire vive !),
  • remplacement du graveur de CD tombé en panne par un modèle similaire de récup’ (sauvé !),
  • ajout d’un disque dur de 120 Go (doublement de l’espace disque !) et enlèvement du lecteur de disquettes,
  • ajout d’une carte Wi-Fi (très pratique),
  • remplacement de l’écran cathodique d’origine (17 pouces de diagonale, 25 kg) par un écran presque plat.

Historique

Cet ordinateur a déjà une longue vie derrière lui. C’est mon premier ordinateur rien qu’à moi, acheté avec mon argent de poche. Je casse ma tirelire en 2003 pour m’offrir ce merveilleux ensemble en promotion pour la somme de 729 € (ou 779 €, je ne me souviens plus très bien).

Sa vie commence avec Windows XP. Ce sont les belles années où je joue à SimCity 4, GTA Vice City et Need For Speed Underground 2. Par la suite, je m’intéresse à la programmation. N’étant pas directement connecté à Internet, je télécharge les logiciels et tutos sur l’ordinateur familial et je les transfère en les copiant sur des CD-RW d’abord puis des clés USB ensuite quand leur prix devient raisonnable. Mon apprentissage de la programmation éveille ma curiosité pour Linux.

Vers 2006, j’installe Ubuntu sur le PC. J’ai retrouvé un CD-RW qui arbore une étiquette "Ubuntu 6.10", qui est probablement la première version que j’ai installée ou alors une mise à niveau. C’est l’époque où Ubuntu est à dominante marron, démarre avec des bruits de tam-tam et tourne à base de Gnome 2. J’utilise la machine sous Ubuntu jusqu’à approximativement 2008 où j’achète un ordinateur portable (qui sommeille désormais dans un placard dans l’attente d’une nouvelle vie !).

À l’occasion du changement d’ordinateur, je remets Windows XP sur la vieille machine et la prête à ma sœur, qui s’en sert pendant le début de ses études supérieures.

Après deux ou trois années, il revient en ma possession et subit son plus important rafraîchissement (disque dur, RAM, Wifi, écran). Nouvelle installation d’une distribution Linux (peut-être Debian ou Xubuntu, à moins que ce ne soit Lubuntu) et devient un PC pour la musique, le Web et les films quand je suis de passage à l’appartement familial. On doit être environ en 2011. Cet état dure tant que je suis occupé loin de la maison pour mes études, jusqu’en 2016.

La dernière période de bidouille remonte à deux ans quand je suis de retour à la maison le temps de trouver un emploi et que j’essaie de tirer quelque chose de la bête. La machine est alors passé sous Lubuntu 16.04 LTS et sert de jukebox.

Depuis, rien de significatif (pour le moment).

En fin de compte l’ordinateur a été utilisé quasiment sans interruption comme ordinateur principal pendant près de 8 ans, avant d’être utilisé par intermittence pendant les 7 années suivantes. Après 15 ans, son maintien en condition opérationnelle me donne l’impression qu’il est pleine forme, malgré les ralentissements liés à l’évolution des logiciels (obsolescence programmée diront certains).


La suite au prochain épisode !

20 commentaires

J’ai fait la même pour mes grands-parents. Ils sont passés de Windows XP SP3 à Lubuntu 16.04 LTS (de mémoire). 2x512 Mio de RAM (au lieu des 256 d’origine), un Pentium IV cadencé à 1,6 GHz (que je trouvais pas mal pour l’époque, du coup je suis surpris de voir un Celeron 2,2 GHz dans ta config que tu qualifies de modeste pour l’époque :D ), 30 Gio de disque dur (d’origine), et à priori du 100 Mbits pour le port ethernet de la carte mère.

Cette machine a étonnamment pu booter sur un « Live » USB de Lubuntu, version alternative (sans GUI de test).

Les ordinosaures sont increvables ^^ Personnellement, j’attends de voir la longévité de la tour que j’ai montée, et celle de mon PC portable actuel, en comparaison…

+1 -0

un Pentium IV cadencé à 1,6 GHz (que je trouvais pas mal pour l’époque, du coup je suis surpris de voir un Celeron 2,2 GHz dans ta config que tu qualifies de modeste pour l’époque :D )

Celeron est la marque bas de gamme de l’époque, sur le même coeur que les Pentium 4. En gros, ce sont des Pentium 4 dégonflés. Ils ont beaucoup moins de cache L2 (et L1) notamment, ce qui peut avoir un impact sur les performances. À l’époque, tous les PC plus haut de gamme tournaient sur des Pentium 4, jusqu’à des fréquences démentielles (je crois avoir vu du 3,8 GHz en non overclocké, simple coeur évidemment). Le Celeron était plutôt réservé à des PC de bureau ou multimédia, avec des fréquences plus faibles.

J’ai eu du mal à trouver un article de l’époque, mais j’ai fini par trouver ce dossier, qui explique pas mal les différences entre les deux gammes.

Cette machine a étonnamment pu booter sur un « Live » USB de Lubuntu, version alternative (sans GUI de test).

Je ne suis pas étonné, car même avec la GUI mon PC boote tranquillement sur la dernière version de Lubuntu. Les problèmes arrivent ensuite, mais je ne veux pas gâcher le prochain épisode. ;)

Les ordinosaures sont increvables ^^ Personnellement, j’attends de voir la longévité de la tour que j’ai montée, et celle de mon PC portable actuel, en comparaison…

Breizh

J’ai un peu le biais du survivant avec mon ordinosaure, mais il est plus fiable que mon PC portable actuel, qui me paraît moins fiable que mon ancien ordinateur portable.

Le plus gros problème, c’est l’évolution de l’environnement (vidéos HD, web moderne, etc.), j’en parlerais dans mon prochain billet.

Il boote très bien sur Lubuntu, c’est simplement que le LiveUSB sur 256 Mio de RAM, ça passe pas (je n’avais pas encore la RAM supplémentaire, c’pas simple de trouver de la DDR). Je suis donc passé par l’alternate CD (toujours sur clef USB) pour installer tout ça.

+0 -0

Le matériel informatique dans les écoles est assez lamentable.

Dans ma famille aussi, il y a une maitresse d’école (on dit « professeur des écoles », maintenant), et j’ai eu la joie de l’aider à monter une salle info ! C’était il y a 6 ans environ. Les PC, présents depuis quelques années dans une salle dans laquelle personne n’allait jamais, étaient sous Windows 98. La reconnaissance du matériel au démarrage m’indique qu’ils n’ont jamais été démarrés… Les machins étaient tellement vieux que j’ai dû mettre ASRI dessus, un dérivé pour l’éducation de Toutou Linux. Comprendre : LXDE était trop lourd pour marcher…

Je découvre d’ailleurs en rédigeant ce message que le site de la distribution est mort, et celle-ci probablement plus développée. Étant donné que les ordisaures ne changent que peu, les vieilles ISO encore disponibles en ligne doivent encore pouvoir être utilisées.

La salle est, à ma connaissance, retournée dans l’oubli après le départ de la maitresse d’école de ma connaissance. Aucun enfant de l’école ne touchera donc un PC en présence d’un instituteur jusqu’au collège, donc. C’est triste, sachant que c’est à cet âge là qu’on pourrait leur apprendre à faire une recherche correctement, par exemple.

Ce n’est pas qu’une historie de matériel, donc.

+2 -0

malgré les ralentissements liés à l’évolution des logiciels (obsolescence programmée diront certains).

Je suis contre l’usage de ce terme dans ce contexte,cela n’a rien à voir. Je suis assez attristé de la banalisation d’une fausse idée de ce qu’est l’obsolescence programmée.

J’en ai d’ailleurs écrit un billet sur la question.

La salle est, à ma connaissance, retournée dans l’oubli après le départ de la maitresse d’école de ma connaissance. Aucun enfant de l’école ne touchera donc un PC en présence d’un instituteur jusqu’au collège, donc.

et

pas de mises à jour intempestives,

Faire attention quand même à la sécurité du parc de machines. C’est quand même une question importante.

+2 -0

@Renault : je suis d’accord que ce n’est pas spécifiquement de l’obsolescence programmée, mais force est de constater que certains logiciels considèrent l’achat de plus de RAM, d’un meilleur CPU ou d’un nouveau PC comme une solution au code mal foutu.

Sans parler des applications tournant sur Electron, apparemment avoir 15 navigateurs ouverts en même temps c’est pratique. Surtout que le navigateur en question a de gros soucis de consommation de ressources à la base…

Évidemment, ce n’est pas un problème général, et certains logiciels ont simplement plus de besoins, mais il y a, je trouve, un certain abus.

+0 -0

Les ordinosaures sont increvables ^^ Personnellement, j’attends de voir la longévité de la tour que j’ai montée, et celle de mon PC portable actuel, en comparaison…

De mon point de vue, cette comparaison est biaisée :

  • Tu compares des choses qui n’ont absolument rient à voir, un PC fixe est beaucoup plus solide qu’un PC portable, par conception ;
  • Il y a un phénomène du survivant : aujourd’hui, on voit le vieux matériel qui a survécu et le matériel actuel en train de crever, mais on a oublié quand le vieux matériel crevait.
  • Le matériel évolue beaucoup moins vite qu’à une époque : en 2018, tu installes un jeu neuf sur un PC de jeu « normal » de 2016, tu peux y jouer avec tout à fond ou presque. En 2004, installer un neuf sur un PC de 2002, tu devais mettre les réglages très bas pour que ce soit jouable. En 2018, du matériel vieux de 10 ans (un Core 2 Duo 3.16 GHz avec suffisamment de RAM et un disque dur pas trop mou) fait tourner des OS récents et permet de faire du travail de bureau de manière tout à fait satisfaisante.

malgré les ralentissements liés à l’évolution des logiciels

On a aussi complètement oublié à quelle point l’informatique est devenue plus réactive et agréable à utiliser depuis 15 ans. Il y a quelques mois j’ai retrouvé ma vielle tour de 2004 un peu upgradée (Athlon XP 3200+, 2 Go de RAM, disque dur IDE). Je l’ai redémarrée, elle fonctionnait. Mais c’était lent. Le truc n’a pas été mis à jour, donc elle devait tourner comme quand je l’ai abandonnée en 2009… mais sérieux on a oublié comment c’était lent à l’époque avec les logiciels de l’époque. Surtout si vous avez l’habitude d’un SSD. Simplement, on ne s’en rendait pas compte parce que c’était normal, et probablement plus réactif que les générations précédentes.

mais force est de constater que certains logiciels considèrent l’achat de plus de RAM, d’un meilleur CPU ou d’un nouveau PC comme une solution au code mal foutu.

C’est tout simplement une question de coût. Optimiser un logiciels coûte cher, et de toutes façons la plupart des gens ont du matériel assez puissant pour faire tourner la version pas optimisée de manière agréable. Pourquoi on se ferait chier à optimiser pour rien ?

Cet argument est valable pour les logiciels « lourds » comme pour ce qui tourne sur les serveurs web. D’une manière générale, tu n’optimises que ce qui est problématique en terme de performance, optimiser autre chose, c’est du gâchis.

@Renault : je suis d’accord que ce n’est pas spécifiquement de l’obsolescence programmée, mais force est de constater que certains logiciels considèrent l’achat de plus de RAM, d’un meilleur CPU ou d’un nouveau PC comme une solution au code mal foutu.

Mais est-ce que Firefox par exemple est plus lourd à cause d’un code mal foutu ? Je doute que Firefox soit mieux écrit en 2009 qu’aujourd’hui (je dirais même que c’est l’inverse). Mais Firefox propose plus de fonctions aujourd’hui, tout comme le Web. Le chiffrement est généralisé, les vidéos et images sont plus lourdes car de meilleure qualité, certains sites web sont devenus de vraies applications.

Tu ne peux espérer que ta machine conçue en 2009, avec un Firefox de 2009, puisse supporter cette évolution dans le temps.

Et si tous les logiciels n’évoluaient plus pour que l’ordi de 2009 reste à jour, quel est l’utilité de produire du matériel plus rapide si le logiciel n’est pas capable d’en tirer parti ?

Concilier tout le monde est difficile, et cela coûte cher. On ne peut tout avoir.

C’est en ça que le terme obsolescence programmée est mal utilisée, on est juste face à une question d’ingénieusement élémentaire : trouver un compromis entre coût, performance et maintenance. Tout miser sur la maintenance aura un impact négatif sur les autres variables. Et d’ailleurs cette expression populaire depuis un certain reportage d’Arte occulte cet aspect alors qu’il est pourtant essentiel. L’obsolescence programmée est un sabotage du constructeur. C’est tout. Ce n’est pas Intel ou nVidia qui obligent les éditeurs à faire des logiciels plus lourds, et je ne crois pas que leur puce sont plus lent de manière volontaire au bout d’un certain temps.

Sans parler des applications tournant sur Electron, apparemment avoir 15 navigateurs ouverts en même temps c’est pratique.

Mais Electron propose une certaine portabilité et certaines fonctionnalités de hauts niveau en standard ce qui a aussi son avantage. De même que Java et Python ont leur intérêt face au C ou C++. Tout est question de compromis.

Évidemment, ce n’est pas un problème général, et certains logiciels ont simplement plus de besoins, mais il y a, je trouve, un certain abus.

Et c’est quoi la solution alors ?

Personnellement,pour éviter cet abus je ne vois qu’une solution : payer plus cher le matériel et le logiciel pour permettre une telle maintenance. Étrangement ce n’est pas une solution populaire,mais c’est pourtant la seule. D’ailleurs c’est globalement l’impact qu’aura toute loi obligeant des garanties ou une maintenance plus longue (non pas que je sois contre ces lois, mais il ne faut pas oublier de tels impacts).

+0 -0

Autant pour un même soft qui évolue, d’accord, autant quand il existe des alternatives meilleures, il faut se poser des questions.

Quant à la fluidité, effectivement, l’informatique d’avant était plus lente. Mais il existe pourtant des logiciels plus rapide que d’autres sur un même matériel, sans forcément être plus vieux ou moins complet.

Et quant au fait de tirer parti des performances, il faut aussi penser au fait qu’on fait plus de choses en même temps. Si j’ai un PC plus puissant qu’avant, c’est pas pour que mon navigateur aille plus vite, mais pour pouvoir le garder ouvert quand j’utilise LibreOffice. Et que le système reste réactif.

Quand j’étais en DUT Informatique, j’ai dû faire du Java pour Android. L’IDE spécifique (Android Studio je crois) est tellement lourd que lire la doc dans Firefox en même temps rendant l’utilisation du PC insupportable. Si j’avais pas ajouté de la RAM quelques mois plus tôt pour jouer, je n’aurais pas pu lancer les deux logiciels en même temps sans utiliser la swap.

Je ne trouve pas normal qu’un IDE consomme autant de ressources quand il existe des logiciels comme (g)Vim, Sublime Text, ou même Atom, pourtant basé sur Electron, avec quelques plugins, fournissent les même fonctionnalités sans mettre à genoux mon PC plutôt récent (j’ai d’ailleurs fini mes projets avec Atom).

+1 -1
  • Tu compares des choses qui n’ont absolument rient à voir, un PC fixe est beaucoup plus solide qu’un PC portable, par conception ;

Quand je compare mon vieux PC portable avec mon actuel, je vois également la différence. Et ce n’est pas le biais du survivant, mon PC portable actuel s’est dégradé très vite, que ce soit les matériaux (usure du revêtement, décoloration) ou le matériel (clavier, pavé tactile, graveur, même une partie du chassis s’est décollée). Et je ne parle que de ce qui est comparable, puisque mon ancien PC était plus cher et disposait notamment d’un chassis alu qui le refroidissait très bien et d’un écran suffisamment bien foutu pour ne pas avoir un poil de barbe et une poussière mystérieuse à l’intérieur.

En 2018, du matériel vieux de 10 ans (un Core 2 Duo 3.16 GHz avec suffisamment de RAM et un disque dur pas trop mou) fait tourner des OS récents et permet de faire du travail de bureau de manière tout à fait satisfaisante.

En 2018, mon ordinateur du travail est un PC fixe avec un Pentium dedans (un Pentium récent, je l’avoue), un disque dur un peu mou et une RAM qui a dû être passé 8 Go de RAM pour éviter de swapper pendant la moitié de la journée, et il est quand même moins bien que mon PC portable d’il y a 10 ans… Et tu sais ce qui plombe le plus mon PC de travail ? Ce n’est pas le logiciel de simu tentaculaire avec des parties encore issues des années 1990. C’est Google Chrome. Et je passe des heures dans Google Chrome, vu que l’entreprise est officiellement passé à Google Docs et compagnie. J’ai dû abandonner du confort d’utilisation de Microsoft Office (réactivité, haut niveau de fonctionnalité, compatibilité) contre des fonctionnalités peu utiles (Google Drive, youpi…), une lenteur inouïe et une ergonomie du passé.

On a aussi complètement oublié à quelle point l’informatique est devenue plus réactive et agréable à utiliser depuis 15 ans. Il y a quelques mois j’ai retrouvé ma vielle tour de 2004 un peu upgradée (Athlon XP 3200+, 2 Go de RAM, disque dur IDE). Je l’ai redémarrée, elle fonctionnait. Mais c’était lent. Le truc n’a pas été mis à jour, donc elle devait tourner comme quand je l’ai abandonnée en 2009… mais sérieux on a oublié comment c’était lent à l’époque avec les logiciels de l’époque. Surtout si vous avez l’habitude d’un SSD. Simplement, on ne s’en rendait pas compte parce que c’était normal, et probablement plus réactif que les générations précédentes.

Le SSD résout le problème du temps de chargement, mais pas de la latence du système. Et il n’empêche pas les logiciels d’être de plus en plus gros à charger.

Force est de constater que les systèmes actuels ont une latence bien plus importante qu’avant. Tu peux trouver beaucoup de ressources qui montrent que la latence a augmenté (pour les claviers par exemple, mais aussi ici pour tout la chaîne clavier-affichage). C’est quelque chose que l’on peut ressentir dans certaines conditions. Par exemple, lorsqu’on écrit des textes de manière rapide, c’est sensible.

Les systèmes modernes ont aussi abusé des effets de fenêtre. Les animations de transition sur fenêtres (réduction, agrandissement, et autres gigotements) nuisent à mon expérience utilisateur. Je les désactive dès que possible, ce qui augmente mon agrément en augmentant la réactivité. C’est quelque chose que je faisais déjà avec XP, comme quoi ce n’est pas un problème récent.

La mode est aussi aux effets de curseur. Dans une version relativement récente de Microsoft Word, le curseur bouge de manière continue au fur et à mesure de la frappe, et non plus caractère par caractère. Cela rajoute une latence parce que quand je navigue, j’aime savoir exactement où est mon curseur, c’est-à-dire pas à mi-chemin entre là où il était et là où il va. Idem pour Excel, il y a une espèce d’animation lorsqu’on navigue au clavier entre les cellules. Je ne parle même pas de mon téléphone, qui me fait des fondus et des transitions à tire-larigot.

Les technologies qui facilitent la vie des développeurs ne sont pas toujours agréables pour l’utilisateur final. Quand j’utilisais XP, la plupart des logiciels utilisaient l’API Win32 pour gérer leurs fenêtres, avec des performance très honorable sur les chargements. Même dans Ubuntu c’était pépère, les trois quarts des logiciels tournaient avec Gtk derrière. Maintenant, il y a beaucoup de chaos : Atom charge Electron, Pycharm va charger Qt, Gimp va charger Gtk, les applications Metro chargent sûrement aussi quelque chose de spécifique, etc.

Après, je ne dis pas que tout est nul maintenant. J’adore les barres d’adresse/champ de recherche qui permette de trouver rapidement des sites webs ou des logiciels sans lâcher le clavier. J’adore les onglets dans les navigateurs. J’adore que la plupart des périphériques soit plug-and-play. J’adore les clés USB et les connexions Internet haut-débit. J’adore les écrans plats HD et les claviers rétro-éclairés. De manière générale, l’ergonomie est bien meilleure qu’avant.

C’est tout simplement une question de coût. Optimiser un logiciels coûte cher, et de toutes façons la plupart des gens ont du matériel assez puissant pour faire tourner la version pas optimisée de manière agréable. Pourquoi on se ferait chier à optimiser pour rien ?

La plupart des gens que je connais changent d’ordinateur parce qu’il est devenu lent. Pourtant, leur besoin n’évolue pas réellement : ils veulent toujours regarder des films (pas en HD), trier leurs photos de vacance (et ce n’est pas des images de 300 mégapixels), traîner sur quelques sites utiles mais pas d’une complexité incroyable, regarder parfois des vidéos rigolotes sur Youtube, travailler sur des documents bureautiques, écouter de la musique en MP3 pour les gens normaux, en FLAC pour les audiophiles. La même chose qu’il y a 10 ans en fait.

D’une manière générale, tu n’optimises que ce qui est problématique en terme de performance, optimiser autre chose, c’est du gâchis.

SpaceFox

Faut-il encore que tes critères de performance correspondent au besoin de tes clients. Par exemple, je valorise très fortement la réactivité de mon système, éventuellement au détriment de sa beauté. Je cherche aussi une bonne ergonomie (faire avec peu d’effort ce que je fais régulièrement), ce qui se traduit pour moi par beaucoup de raccourcis clavier au détriment de la souris. En parallèle, j’apprécie de pouvoir découvrir facilement les fonctionnalités, et j’évite donc les choses trop exotiques comme emacs. Je suis peut-être dans la minorité, mais du coup mon besoin n’est pas rempli.

Autant pour un même soft qui évolue, d’accord, autant quand il existe des alternatives meilleures, il faut se poser des questions.

Bah tu utilises l’alternative dans ce cas, non ? Je ne vois pas où tu veux en venir.

Et quant au fait de tirer parti des performances, il faut aussi penser au fait qu’on fait plus de choses en même temps. Si j’ai un PC plus puissant qu’avant, c’est pas pour que mon navigateur aille plus vite, mais pour pouvoir le garder ouvert quand j’utilise LibreOffice. Et que le système reste réactif.

C’est peut être vrai pour toi, mais pour beaucoup de gens c’est plus intéressant qu’un logiciel donné soit plus rapide. Il ne faut pas penser qu’à son propre cas d’usage.

Quand j’étais en DUT Informatique, j’ai dû faire du Java pour Android. L’IDE spécifique (Android Studio je crois) est tellement lourd que lire la doc dans Firefox en même temps rendant l’utilisation du PC insupportable. Si j’avais pas ajouté de la RAM quelques mois plus tôt pour jouer, je n’aurais pas pu lancer les deux logiciels en même temps sans utiliser la swap.

Je connais la situation d’Android Studio. Mais est-ce que tu crois vraiment que Google met tout en œuvre pour rendre cet outil lent pour que tu achètes une machine plus récente ? Sachant que Google ne tire pas de revenus de la vente d’un nouveau PC et a tout intérêt d’avoir le maximum de développeurs pour sa plate forme, je suis convaincu du contraire.

Je ne trouve pas normal qu’un IDE consomme autant de ressources quand il existe des logiciels comme (g)Vim, Sublime Text, ou même Atom, pourtant basé sur Electron, avec quelques plugins, fournissent les même fonctionnalités sans mettre à genoux mon PC plutôt récent (j’ai d’ailleurs fini mes projets avec Atom).

Mouais. Sans être désobligeant tu compares vraiment des outils difficilement comparables. J’ai travaillé avec des Eclipse personnalisées par des constructeurs pour plateforme embarquée, et tu es à mille lieux d’une expérience avec un éditeur de texte quelqu’il soit. Intégration avec le débogueur, avec une machine virtuelle pour lancer les tests, des fonctionnalités de refactoring ou d’autocomplétion assez difficiles à égaler, intégration de valgring, déploiement sur la cible, etc.

Tout cela est possible avec les outils que tu cites, mais cela demande des semaines de configuration et de prise en main. Et le résultat n’est pas toujours à la hauteur. En tout cas pour de l’embarqué, gérer le tout à l’aide uniquement d’éditeur de texte ce n’est pas confortable et le plus productif.

+0 -0

Je plussoie totalement Aabu, qui est bien plus doué que moi pour exprimer sa pensée, avec laquelle je suis tout à fait d’accord. :D

Concernant l’alternative, oui, personnellement je l’utilise. C’est simplement que souvent, les gens ne sont même pas au courant qu’elle existe. Il ne sont parfois même pas au courant du logiciel qu’ils utilisent (n’est pas Google Chrome…). Après, ouais, c’est un autre problème…

Concernant Android Studio, Google ne met pas tout en œuvre pour que l’outil soit lent. C’est juste qu’ils ne font aucun effort pour qu’il soit rapide. Ça tourne correctement sur leurs PCs, ça suffit. Et ça vaut pour Chrome aussi, d’ailleurs. Chrome est très réactif quand il peut consommer les ressources en masse, pas de problème. Sur un PC récent, Chrome ou Firefox, aucune différence. Sur mon ancien PC portable, Chrome était inutilisable, alors que Firefox s’en sortait bien (sauf quelques sites bourrés de JS, faut bien avouer que le moteur de Chrome est plus performant pour ça).

Concernant le fait que ce soit mon usage, ok. Mais si on achète un nouveau PC pour qu’un logiciel donné aille plus vite, c’est quand même pas pour que 3 mois après il consomme encore plus parce qu’on lui a donné plus de ressources.

Concernant les besoins spécifiques que tu cites (Eclipse customisé, etc), effectivement, mon besoin était simple, je comprends bien qu’on ait pas forcément le choix.

En attendant, Firefox a récemment subit une grosse amélioration, il est bien plus efficace et efficient. Effectivement, c’est coûteux comme opération, de le recoder de zéro.

+0 -0

Google (et en fait Jetbrains, qui crée IntelliJ qui est à la base d’Android Studio) n’ont un peu rien à faire que leur outil soit utilisable sur un petit portable. Le public cible, c’est des professionnels qui pourront se faire payer des ordinateurs avec assez de RAM pour que ça tourne sans souci. Et donc la priorité, c’est de mettre dans l’IDE standard le plus d’outils possibles pour simplifier au max la vie du développeur pro.

De plus, IntelliJ est plutôt bien optimisé : au passage de Android Studio Eclipse à Android Studio IntelliJ, la consommation de RAM n’a pas beaucoup augmenté quand les fonctionnalités et le confort d’utilisation ont explosés. D’ailleurs, en terme de fonctionnalités, on est à des années-lumières des alternatives que tu proposes.

Faut-il encore que tes critères de performance correspondent au besoin de tes clients. Par exemple, je valorise très fortement la réactivité de mon système, éventuellement au détriment de sa beauté. Je cherche aussi une bonne ergonomie (faire avec peu d’effort ce que je fais régulièrement), ce qui se traduit pour moi par beaucoup de raccourcis clavier au détriment de la souris. En parallèle, j’apprécie de pouvoir découvrir facilement les fonctionnalités, et j’évite donc les choses trop exotiques comme emacs. Je suis peut-être dans la minorité, mais du coup mon besoin n’est pas rempli.

Tu le dis toi-même : tes attentes sont celles d’une minorité. Tu ne peux donc pas supposer que les logiciels grand public correspondent à tes attentes, puisqu’ils sont développés selon les attentes et contraintes d’une majorité.

La plupart des gens que je connais changent d’ordinateur parce qu’il est devenu lent. Pourtant, leur besoin n’évolue pas réellement : ils veulent toujours regarder des films (pas en HD), trier leurs photos de vacance (et ce n’est pas des images de 300 mégapixels), traîner sur quelques sites utiles mais pas d’une complexité incroyable, regarder parfois des vidéos rigolotes sur Youtube, travailler sur des documents bureautiques, écouter de la musique en MP3 pour les gens normaux, en FLAC pour les audiophiles. La même chose qu’il y a 10 ans en fait.

Deux questions :

  1. L’ordinateur est-il entretenu, lui ? Généralement non, et c’est la cause de beaucoup de lenteurs.
  2. Les besoins ont évolués, contrairement à ce que tu sembles penser, même de façon inconsciente. En 10 ans, les tailles des photos ont beaucoup augmentées, les plate-formes de lecture de films en ligne (dont YouTube) te bascule en HD par défaut, énormément de sites sont d’une complexité incroyable (à commencer par presque tous les réseaux sociaux)…

Oui, c’est justement pour ces objections là que j’ai précisé que au boulot j’ai quand même un PC de merde. Donc je suis un professionnel avec un PC de merde qui doit attendre 10 min qu’il démarre.

Et en plus non, les gens que je connais ne regardent pas de vidéos en HD sur leur écran de PC portable pas HD et en prime, les photos ont en moyenne réduit puisque le téléphone fait des photos plus petite que de nombreux appareils photo d’avant.

Et oui leur ordinateur est entretenu par moi-même, ce qui n’a pas permis de compenser l’embonpoint de nombreux logiciels.

Donc non leur besoin n’a pas véritablement évolué.

Je t’accorde cependant que les sites Web modernes sont gourmands, mais ils ne font pas partie du cœur d’activité des gens dont je parle.

J’aimerai d’ailleurs que tu arrêtes de vouloir me convaincre que les besoins ont évolués de manière inconsciente. La plupart ses gens continuent de regarder des DVD, parce que la qualité et l’ergonomie sont mieux que les VHS et suffisante. Idem pour la musique, il n’y a pas de format ultra HD, on reste sur du type CD. Si les gens ont des télés 4K, c’est parce que tu as du mal à trouver autre chose en grande taille et si le blu-ray a décollé, c’est en partie grâce à la PS3.

Il y a une forte partie de marche forcée en ce qui concerne la technologie.

Salut,

Cet argument est valable pour les logiciels « lourds » comme pour ce qui tourne sur les serveurs web. D’une manière générale, tu n’optimises que ce qui est problématique en terme de performance, optimiser autre chose, c’est du gâchis.

SpaceFox

Foncièrement, il y a simplement un problème d’idéologie ici. Je fais partie des personnes qui considèrent qu’au contraire, ne pas optimiser un programme est un immense gâchis. De mon point de vue, il est impensable qu’un programme se permettent de réserver des ressources dont il n’a pas besoin.

Toutefois, je sais pertinemment d’une part qu’une large majorité des programmes ne sont pas optimisés dans cet optique et, d’autre part, qu’arriver à une situation où la plupart des programmes seraient conçus pour éviter des surcoût en ressources (comprendre : au-delà du nécessaire) est probablement impossible étant donné que cela induirait une importante augmentation des coûts de développement à divers niveau : réduction de l’utilisation des langages interprétés, réecriture de portions de code pour éviter de dépendre de bibliothèques lourdes, analyse du programme, réecriture d’algorithme, etc.

Or, dans une société où le facteur le plus important est le facteur économique, c’est impossible. On ne peut se soucier de l’optimisation quand les délais imposés sont courts, que les ressources financières et humaines sont (trop) limitées et que la concurrence est favorisée (pour ne pas dire sacralisée).

Donc, non, dans l’absolu optimiser complètement un programme n’est certainement pas du gâchis, pas plus que d’augmenter les ressources utilisées pour réduire le temps de développement ou pour diminuer le nombre de personnes nécessaires.

+2 -0

Y’a malheureusement pas uniquement ce que tu décris là.

Je peux vouloir optimiser un programme pour améliorer son temps de réponse par exemple. Ca veut dire mettre en cache des tonnes et des tonnes de machins pour éviter d’aller les chercher au besoin.

C’est nettement moins efficace du point de vue des "ressources mémoire" et pourtant, ça améliore sans doute le temps de réponse et l’utilisation des I/O.

Quand on critique la plupart des applications web citées plus haut, et leur utilisation de ressources, on oublie, je pense, une partie du problème. Si vous disposez d’une connexion internet plutôt bonne, que dirait celui qui dispose d’une machine très puissante mais d’une connexion internet pourrie, en voyant la même requête HTTP partir 3 fois sur 3 pages différentes, et renvoyant 3 fois le même résultat. "Non mais les mecs pourraient pas optimiser un peu ? Genre mettre le résultat en cache !".

Le coût de développement est une facette du problème, certainement. Mais clairement pas le seul.

Et je rejoins les personnes qui disent se méfier de "l’obsolescence programmée" telle qu’elle est décrite ici. Je suis le premier à être méfiant, et vraiment agacé, quand après une mise à jour le clavier de mon téléphone se met à ramer, et j’aurais franchement tendance à taxer la boîte qui a conçu l’OS d’essayer de m’entuber (et visiblement, je suis pas le seul).

Mais c’est quand même hyper complexe. Soit, effectivement dans le code, y’a un truc louche et fait EXPRES pour ralentir le clavier sur mon OS auquel cas j’espère bien qu’ils vont se faire allumer.

Mais si c’est pas le cas, bah… ça ne peut que relever du procès d’intention. Si j’avais participé au daily meeting des développeurs de "l’assistant à la saisie" qu’ils ont intégré à l’OS, je pourrais savoir si y’a vraiment un mec qui s’est dit "Non mais Patrick, ta feature elle est vraiment trop gourmande pour les vieux téléphones…", "Lol osef comme ça ils en rachèteront un autre".

Y’a forcément des cas comme ça, mais y’a forcément des cas où c’est juste "Non mais si on propose pas un assistant de saisie on est cramé, aujourd’hui c’est devenu quasiment un standard de fait".

Votre partie pris là-dedans c’est "si j’ai le choix de ce que j’installe, etc. je n’aurais pas ce problème". Oui ! Parfaitement ! Vous avez tout à fait raison.

Par contre de là à prendre le raccourci "les gens font exprès de foutre des fonctionnalités inutiles et mal codées pour pousser à la consommation" : vous n’êtes absolument pas en mesure de l’affirmer (ou alors vous avez des preuves, et hop, procès, c’est puni par la loi).

Gaffe à ne pas tirer des conclusions trop hâtives et/ou tout mélanger. L’idée de ressusciter un ordinosaure est chouette, il trouvera un usage et c’est top. En profiter pour parler d’obsolescence programmée, euh, y’a eu un raccourci de pris quelque part là.

+2 -0

Gaffe à ne pas tirer des conclusions trop hâtives et/ou tout mélanger. L’idée de ressusciter un ordinosaure est chouette, il trouvera un usage et c’est top. En profiter pour parler d’obsolescence programmée, euh, y’a eu un raccourci de pris quelque part là.

Javier

J’ai volontairement précisé "obsolescence programmée diront certains". Je ne pense pas personnellement que ce soit de l’obsolescence programmée. À te lire, j’ai l’impression que tu me fais dire des choses que je n’ai pas dites.

Quand je parle d’évolution des logiciels qui ralentissent le PC, il faut comprendre que les logiciels modernes et disposant encore de support de sécurité ont été conçus pour des machines récentes, et que de fait, il n’y a un soucis de fonctionnalité.

C’est un peu comme si tu voulais faire fonctionner une vieille imprimante mais que plus personne ne fabriquait de cartouches, que tu cherchais à acheter des airbags pour 2CV mais que personne n’en fabriquait, ou que tu souhaitais brancher ton phonographe de 1900 à ta chaîne Hi-Fi, mais qu’aucun fabricant ne propose l’option.

C’est juste que faire fonctionner du vieux matériel au sein du monde entrain d’avancer pose quelques obstacles techniques.

+2 -0

j’ai l’impression que tu me fais dire dès choses que je n’ai pas dites.

J’aurais dû le préciser, pardon. Je ne visais personne d’autre que "le fil de commentaires". Mes excuses si tu t’es senti visé.

+2 -0
Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte