Réinventons l'informatique !

Enfin... pensons-y au moins

a marqué ce sujet comme résolu.

Attention ! Ce qui va suivre est très farfelu ! :D

Pour commencer, bonsoir ! :)

Il y à quelques jours, je me suis perdu dans mes réflexions totalement surréalistes (comme tout les jours en fait). Je me suis posé la question : Et si on réinventer l’informatique ?

Aujourd’hui, vous n’êtes pas sans savoir qu’un ordinateur est composé de plusieurs composants (j’aime bien cette phrase). On y retrouve une carte mère, des barrettes de RAM, un processeur, une carte graphique… bref, plein de choses !

Et si, justement, tout ceci changeait ?

C’est vrai, on est partis sur cette base pour je ne sais quelle raison (je tiens à préciser pour la suite de ce message, que j’ai une connaissance proche de zéro dans tout ce domaine). Et si aujourd’hui, on décidait de changer totalement tout l’informatique, en repartant de zéro mais avec nos connaissances actuelles ?

En gros, on aurait plus besoin de tout ce qu’il y à aujourd’hui dans un PC (je dit un PC, mais ça peut aller sur d’autres choses) et on inventerais une toute nouvelle "architecture".

Pensez-vous que ce soit faisable ? Et utile ?

Dans l’idée, on aurait de nouveaux composants, différents de ceux actuels, peut être moins nombreux que ceux actuels, qui coûterais peut être moins cher à produire et serait plus performant (ou pas, mais qui au final donnerait un meilleur résultat car les choses serait très différentes).

Après, si cela est réellement possible et peut être utile, il faudrait alors se poser la question : Est-ce que ça pourrait toujours être compatible avec les systèmes actuels (ex : Les système d’exploitation) ou si il faudrait là aussi tout refaire.

Et vous, z’en pensez quoi ?

Edit : J’édite ce message pour apporter un peu plus de questions et d’éléments de réflexions.

L’informatique actuel est-il encore viable dans un avenir plus ou moins proche ? N’y aura-t-il pas un moment où nous aurons atteint la limite maximum de ce que nous pourront faire avec ?

Aussi, si un jour on réinvente l’informatique, le côté "marketing" ne serait-il pas un frein ? Sûrement que les grosses entreprises voudront eux aussi en profiter, et nous verrons ainsi naître des systèmes très fermés et propriétaires, que nous seront obligé d’accepter (du moins dans un premier temps) car nous n’auront aucune alternative ?

+3 -0

Coucou \o

L’architecture actuellement utiliser dans les PCs est l’architecture de Von Neumann. Il existe d’autres architectures mais qui sont utilisées dans des cas particuliers.

Attention, ça ne révolutionne pas l’informatique. Juste l’architecture des ordinateurs. L’informatique, c’est la science du traitement de l’information. Elle restera ce qu’elle est peu importe l’évolution des ordinateurs :)

+3 -0

Personnellement, je pense que quand ça sera nécessaire, ça sera fait. Après tout, ce qui compose les ordinateurs aujourd’hui est très différent des premiers appareils utilisés.

Quand les machines prenaient un étage entier, on utilisait pas de CPU en silicium de quelques cm². Les disques durs magnétiques sont arrivés pour le stockage assez tard aussi. Et même plus récemment, les premiers ordinateurs grand public n’avaient pas de GPU, par exemple, ils sont arrivés plus tard quand on s’est rendu compte que le rendu graphique demandait une autre architecture.

Et plus récemment, les SSD ont commencé à remplacer les disques durs mécaniques.

Du coup je m’inquiète pas trop de notre capacité à faire évoluer tout ça. Même s’il est vrai que les CPU évoluent assez peu désormais (du moins j’en ai l’impression), les GPU semblent avoir encore un peu de marge.

Et aujourd’hui, on a une certaine compatibilité qu’on essaie de garder (x86, les différentes versions de PCI(e), etc), ce qui n’aide pas forcément à évoluer radicalement. Mais bon. On verra ^^

+0 -0

Je ne sais pas trop quoi en penser mais la technologie de l’ordinateur quantique va sans doute impliquer des changements ?

Croal

Je ne pense pas que l’ordinateur quantique va remplacer l’ordinateur tel qu’on le connaît aujourd’hui. Il va plutôt être utilisé en complément un peu comme on utilise le GPU ou le Cloud aujourd’hui, c’est-à-dire s’occuper de certaines tâches pour lesquelles il est optimisé (certains calculs scientifiques, certaines opérations de cryptographie, etc). Enfin, on verra bien car on peut toujours trouver de nouvelles applications auxquelles on n’avait pas pensé avant.

+0 -0

À mon sens, le plus grand défi sera de faire de l’informatique avec la pénurie à venir des terres rares.

qwerty

Elle est pas si proche que ça cette pénurie. Actuellement on en extrait qu’à peu d’endroits à cause des contraintes que ça implique, mais techniquement, on a pas mal de réserves non exploitées, il me semble.

+0 -0

Ça dépend lesquelles. Dans 10ans, pour l’indium, c’est du court terme.

Bon, après, je pense qu’on va trouver d’autres mines entre temps quand même.

+0 -0

A mon sens, il n’y a pas de raison de ré-inventer l’informatique parce qu’elle ne dépend pas des ordinateurs. Les propriétés mathématiques qu’on vérifie sont vérifiables dans un système mathématique qui ne dépend pas des ordinateurs. Ce système est suffisamment expressif pour décrire les problèmes qu’on souhaite résoudre, suffisamment simple pour qu’on puisse y vérifier les propriétés qu’on cherche, et rien n’indique qu’il est incohérent à ce jour.

Dans ce système, ce qui est calculable peut l’être avec une machine de Turing universelle, qui peut émuler n’importe quelle machine. On a aujourd’hui des machines capables de réaliser en un cycle ce qui nécessite des milliers de cycles à une machine turing-complete, avec des machines quantiques, on peut réduire la classe de complexité de nombreux problèmes, mais justement, notre système permet de les caractériser sans problème.

En fait, la thèse de Church (1935), affirme que tout traitement systématique réalisable par un processus physique ou mécanique est mathématiquement équivalent à un autre. Vous pourrez me demander si en 1935 on a vraiment pris en compte les machines quantiques en compte. C’est une bonne question, mais Feynman a répondu en 1982 que ça marchait aussi pour les systèmes quantiques (même si c’est notablement inefficace. Mathématiquement la question de la calculabilité est de savoir si le temps est fini ou non, pas si il est court).

Vous pouvez poser une question un peu différente: est ce que les machines quantiques peuvent faire plus de choses que les machines classiques ? Là c’est Deutsch (1985) qui a créé un modèle, qui exprime notamment la capacité à générer des nombres aléatoires (ce qui n’est pas faisable en calcul classique, mais ce n’est pas un calcul). Et là ça devient intéressant, parce qu’on avait dit que le calcul classique permet en théorie de calculer les résultats trouvables par des machines quantiques, mais avec ce modèle des machines quantiques, Jozsa a montré en 1991 que les machines quantiques ne pouvaient pas calculer autant de propriétés que les système calculatoires classiques.

Bref, l’évolution des sciences justifie effectivement de développer des modèles post-informatique, et ça a été fait il y a plus de 30 ans. Quant à l’architecture des ordinateurs, elle change tout le temps, et on a réussi à le faire pendant 50 ans sans que l’acheteur ait à comprendre en détail ce qui a changé, toujours en faveur des performances, et on arrivera à continuer.

À mon sens, le plus grand défi sera de faire de l’informatique avec la pénurie à venir des terres rares.

qwerty

Elle est pas si proche que ça cette pénurie. Actuellement on en extrait qu’à peu d’endroits à cause des contraintes que ça implique, mais techniquement, on a pas mal de réserves non exploitées, il me semble.

Breizh

Une majorité des terres rares accessibles à un prix commercialement intéressant(c’est comme le pétrole hein) se concentrent en Chine. Géopolitiquement, ça compte, surtout quand il y a la prétention d’être une hyperpuissance.

+0 -0

Bon, ce n’est pas une révolution mais avec la rapidité des connexions qui augmentent sans cesse, on pourrait imaginer (et cela existe déjà) que l’ordinateur de demain ne soit qu’un terminal qui se contente d’aller chercher des informations sur un serveur et donc qui a peu de besoin en terme de composant

+1 -0

Il y a, je crois, une boîte qui vends des ordinateurs de « cloud gaming » : le pc de gaming est déporté dans leur data serveur.

qwerty

Il y en à plusieurs, mais je connais uniquement Shadow. Tu paye un abonnement et tu as accès à un Windows classique, mais dans le cloud (enfin, sur leurs serveurs quoi). Il y à aussi Stadia de Google dans une certaine mesure.

Sinon, merci à tous pour vos réponses. C’est très intéressant à lire, et le problème va un peu plus loin que ce que j’avais pensé à la base. :)

+0 -0

Il m’arrive aussi régulièrement de me poser des questions de ce genre, mais plutôt en ce qui concerne les couches supérieures, notamment : qu’en serait-il si on réinventait un système d’exploitation à partir de zéro ? Et c’est là qu’on peut se rendre compte que certains concepts nous paraissent fondamentaux juste parce qu’ils existent depuis le début, mais qu’en théorie ils pourraient ne plus exister du tout.

Par exemple, si on recrée un OS à partir de rien, devrait-t-on toujours enregistrer manuellement ses fichiers ? On pourrait imaginer qu’aucune application ne doive fournir une telle fonctionnalité, et qu’à la place, l’OS conserverait nativement plusieurs versions antérieures.

D’ailleurs, y aurait-t-il toujours le concept de fichier ? Est-ce que cela a du sens qu’un programme, un fichier de configuration ou un document soient tous perçus et traités de la même manière ? Qu’ils soient tous organisés dans une hiérarchie de dossiers entièrement transparente à l’utilisateur et au développeur ?

Ou à niveau encore supérieure : qu’en serait-il du web ? Y aurait-il toujours une distinction entre application native et application web, ou est-ce que tout serait uniformisé ? Y aurait-il toujours un "navigateur web" ou est-ce que chaque document web et application web serait confondu avec ceux du système ?

Bref, j’ai cité rapidement ce que j’avais en tête, mais je pourrais en écrire un roman. Concrètement, j’imagine qu’un tas de trucs pourraient être exposés de façon plus abstraite, autant aux utilisateurs qu’aux développeurs. Mais évidemment, ça n’arrivera que si on recommence absolument tout depuis zéro (ou presque).

L’ordinateur sur le réseau, ça se faisait déjà dans les années 60 (en fait il n’y avait que ça). J’ai du mal à y voir un vrai progrès.

Pour ce qui est de l’OS, il faut savoir que le concept unique de fichier est la force d’UNIX. Votre carte réseau est un fichier, votre affichage est un fichier, votre connexion à ZdS est un fichier, votre sauvegarde de jeu vidéo est un fichier, tout est fichier, et tout se gère de la même façon. Vous pouvez renommer fichier en autre chose, mais il est peu probable que cette unification disparaisse. Pour ce qui est de les sauvegarder à la main, dans les exemples ci-avant, il n’y en a pas un seul que vous avez besoin de gérer manuellement. Pour ce qui est de la hiérarchie, ça a déjà été remis en cause, j’ai plus le nom du projet en tête, mais, sans l’habitude des utilisateurs, on ferait possiblement autrement aujourd’hui (attributs de fichiers, sélection par attributs sans hiérarchie de ceux ci, …). Quant à la sauvegarde des versions précédentes, c’est à l’application de le faire: l’OS ne connaît pas les données qu’il manipule, il ne sait pas reconnaître un ensemble cohérent. Et du coup, ça existe déjà.

Enfin, pour les systèmes où le web et l’ordinateur sont confondus, c’est un peu le principe des chromebooks, entre autres. Et si c’est pas aussi bien unifié qu’imaginé ici, c’est parce que ce n’est pas encore possible de masquer totalement la localité des données, sauf à les laisser toujours sur internet, et faire du PC un terminal, comme avec Shadow.

Il ne faut pas croire que les choses ne peuvent pas arriver parce qu’il faudrait tout recommencer depuis 0. Ce sont des choses qui se font souvent, et parfois ça marche. Voyez l’iPhone, à un moment des gens ont dit "on va faire un ordinateur, permettant d’aller sur internet, de lire ses mails, … mais les gens passeront par nous pour avoir des applications, on forcera toutes les applis à se ressembler, ils n’auront pas d’explorateur de fichiers, …" et ça a marché, et bien mieux que les Windows mobiles qui existaient de longue date et offraient une interface aussi complète qu’un PC, identique à celle d’un PC. Notez d’ailleurs que ce ne sont pas forcément les premiers qui réussissent, les caractéristiques que je présente ci-avant était déjà la norme sur Palm. L’iPhone est sorti à un moment plus opportun, que ce soit au niveau des technologies disponibles pour le réaliser ou des services à y connecter.

Connectez-vous pour pouvoir poster un message.
Connexion

Pas encore membre ?

Créez un compte en une minute pour profiter pleinement de toutes les fonctionnalités de Zeste de Savoir. Ici, tout est gratuit et sans publicité.
Créer un compte