... mais jusqu'où ?

En informatique, les vitesses et les puissances des appareils sont toujours plus rapides : rapidité d'exécution, vitesse de transfert, taille des disques durs… Mais jusqu’où peut-on aller, avant d’arriver aux limites de la physique ?

le Processeur

cpu

Le cœur de l'ordinateur. C'est lui qui fait les calculs. Les calculs sont effectués à une cadence précise, en Hertz (Hz). Depuis quelques années je constate que la vitesse en GHz cesse de croitre comme avant : on n'augmente plus vraiment la vitesse de calculs, mais on augmente le nombre de processeurs : avec les bi-cœur, quadri-cœur, etc.

Le nombre de transistors continue tout de même d'augmenter (suivant la loi de Moore), et c'est là la limite. On ne pourra pas réduire indéfiniment l'espace entre chaque transistor, qui est aujourd'hui déjà de quelques nanomètres.
Le problème c'est que cette dimension correspond à la taille de seulement quelques atomes !
Au final si la taille est trop petite, ce sont des effets d’origine quantique qui commencent à interférer avec le courant électrique, comme l'effet tunnel : les électrons (le courant) : il passe au travers de l'atome, sans être traité.

Pour pallier à cela, on envisage diverses solutions, comme la gravure en 3D (les transistors sont assemblés en structures 3D au lieu d’une structure 2D classiques).
La recherche se penche également sur des technologies totalement différentes du silicium, comme des processeurs à nanotubes de carbone ou des processeurs quantiques, voire même des photo-processeurs, où ce n’est plus le courant électrique (lent) qui transporte des informations, mais des photons (la lumière, rapide)…

Les vitesses de transfert

optic fiber

L'informatique consiste en un traitement de 0 et de 1, des tensions basses et hautes qui sont appliquées sur des composants électroniques. Pour pouvoir être utilisée, cette information est envoyée entre les périphériques de l'ordinateur au moyen de courants électriques, ondes radio ou fibre optique. Les bits dans les ordinateurs se suivent à des nanosecondes d'intervalle.

Là encore, on peut essayer d'envoyer les données à des intervalles encore plus faibles, mais des limites vont apparaître : la durée de transition d'un état "0" à un état "1" risque de s'approcher de la durée entre deux bits et au final le signal envoyé est trop déformé pour être utilisé. Sur de très longues distances, il y a aussi un effet de dispersion dans le temps, d'atténuation et de perturbations électromagnétiques externes ce qui nous empêche d’envoyer les informations encore plus vite.

Je ne pense pas qu’il soit possible d’augmenter la fréquence des ondes radio (ils deviendraient dangereux et moins puissants), mais peut-être qu’on en viendra à transmettre plusieurs ondes à la fois, un peu comme des canaux parallèles, pour augmenter les débits. Une autre idée serait de transmettre des ondes superposées se basant sur la polarisation de l’onde (utiliser plusieurs plans d’ondes simultanément)…

Les disques durs

hard drive

Là aussi, bien que la capacité des disques augmente sans cesse (on trouve désormais des disques de plusieurs téraoctets facilement), la vitesse de transfert joue aussi un rôle dans les performances.

Un disque dur tourne et la tête de lecture lit les bits les uns à la suite des autres sur le disque : pour avoir plus de bits lus par seconde, on doit réduire la taille des bits (qui sont des particules magnétisées) et au final se retrouver au problème précédent : une particule magnétique et son champ peuvent interférer avec la particule voisine.
On peut aussi augmenter la vitesse de rotation (qui peut atteindre 20 000 tours par minute) mais ça augmente les contraintes mécaniques (chauffe, frottements, vibrations...).
Certains ont aussi peut-être trouvé un moyen d’utiliser des transitions de température plutôt que des transitions de champs magnétiques pour inscrire des données sur un disque. Cela serait une centaine de fois plus rapide et moins gourmand en énergie, mais il resterait toujours un plateau mécanique bruyant qui tourne…

Les disques durs SSD, sans plateaux sont constitués de mémoire flash, très rapide d'accès, mais qui ne sont pas aussi fiables que les disques durs à surface magnétique (nombre de cycles de lecture/écriture limitée pour les SSD).

Les disques durs sont aujourd'hui les composants le plus lents d'un ordinateur, mais ils offrent une capacité de stockage pratiquement illimitée. Pour pallier à cette lenteur, je me demande si on ne peut pas par exemple utiliser un système d'exploitation "all-in-ram" : tout est en mémoire (très rapide) et les données ne sont écrites sur le disque qu'à la fermeture du système (au risque de tout perdre en cas de panne de courant, évidemment…). Mais ça ne fera que repousser le problème et n’est pas très innovant.

Il me semble que certains labos font de la recherche sur du stockage en 3D de la lumière avec la mémoire holographique. Les hologrammes (et les holographies) sont juste des photographies à base laser prenant en compte non seulement la couleur, mais également la phase et la polarisation de la lumière. Et à terme, pourquoi pas la mémoire holographique électronique, stockant les longueurs d’onde des électrons (principe de De Broglie), donnant des densités de stockage encore plus énormes.

Les lecteurs optiques

cd

Malgré l’acharnement à rester dans les technologies du passé des seuls utilisateurs de CD/DVD/BRD, les éditeurs de musique, vidéo et jeux vidéos utilisent encore cette vieille technologie. Je pense que c’est totalement dépassé. Ces disques sont lents, gros, fragiles, chers.
L’avenir est à mon avis aux cartes mémoire comme les micro-SD : la densité d’information est bien plus grande (680 fois plus importante que les DVD) et ils sont pratiquement indestructibles (on peut les passer à la machine à laver sans soucis), voire même au 100 % dématérialisé : on paye, on télécharge un fichier ISO et hop.

Outre les inconvénients cités plus haut, la technologie derrière se heurte aussi à des limites : les lasers. Ils sont plus difficiles à fabriquer pour des longueurs d’onde plus courtes. Les Lasers bleus des Blu-Ray sont chers et faire encore plus bas le serait sûrement trop pour être commercialisable. Sans compter les bits sur les disques, dont la taille se réduit de plus en plus et la méthode de gravure ne pourra là non plus pas se miniaturiser à l’infini, ni la pérennité : un CD se raye et s’use au fil du temps.

Pour conclure

Toujours plus petits, les composants élémentaires d'un ordinateur sont désormais de la taille de quelques atomes et il arrivera un moment où l'on ne pourra plus aller plus bas avec les technologies actuelles (puces de silicium).

Aussi, tant que tout n'augmentera pas à la même vitesse les performances d'un ordinateur se cantonneront globalement à celle du composant le plus lent, donc rien à faire si vous avez un processeur à 12 GHz et 16 Go de mémoire, si vous avez un disque dur merdique, les performances ce votre ordinateur seront merdiques aussi. Pour avoir moi même testé à un moment : rien ne vaut une mise à jour d’un disque dur (j’étais passé d’un 4200 tpm à un 5400 tpm, et le changement est flagrant).

On devra donc passer dans le futur à d'autres technologies, qui sont encore en cours d’invention, si l'on veut continuer d'accroitre la puissance des ordinateurs…

images de Olivander, Rq?, Limaoscarjuliet et Cobalt123

13 commentaires

gravatar
qwerty a dit :

On a atteint la limite du transitor avec 1 atome (http://etudiant-libre.fr.nf/news-93.html)
L'ordinateur quantique pour faire plus petit ?

gravatar
Zrk a dit :

Une conférence de Richerd Feynmann de 1959 très adaptée au sujet, et très visionnaire pour son temps : "Il y a plein de place en bas" (traduction en français par Philippe Guglielmetti et Maxence Dolle en 2009)

gravatar
zac03 a dit :

Tout ça est très intéressant, je n'avait jamais entendu parlé de structure 3D pour les transistors, ni de mémoire holographique. Par contre, j'ai entendu d'autre choses très intéressantes sur le sujet :

Il se trouve que quelqu'un (je ne retrouve plus son nom) à eu l'idée d'organiser l'ordinateur comme le cerveau afin de gagner encore plus place et régler le problème de chauffe de l'ordinateur. En effet, le sang qui circule dans notre cerveau sert à le fournir en énergie, et à le refroidir par la même occasion. Ca lui a donné son idée de deux en un qui consisterai à faire circuler un liquide transportant des neutrons, sous forme de réseau afin d'alimenter la machine en électricité et la refroidir en même temps.

Autre performance intéressante mais malheureusement incompatible avec l'idée ci-dessus. Des chercheurs ont réussi a faire circuler du courant dans un fil de moins de 11 nanomètre de diamètre sans qu'il y est d'échappées de neutrons ni d'interactions quantiques de X nature. Alors qu'on avait prédit que passé ce seuil, la mécanique quantique prendrait le pouvoir et qu'on ne pourrai plus rien contrôler.

Enfin, pour les communications à longue distance, ne saurait-il pas intéressant de développer le principe de l'anside ? Malgré les obstacles, je pense que c'est réalisable.

Très bon article.

zac03.

gravatar
GoustiFruit a dit :

Comme dirait l'autre: "mais jusqu'où s'arrêteront-ils ?"

gravatar
djibey a dit :

Ce n'est pas qu'une histoire de fréquence et de multiplication des coeurs, les processeurs deviennent surtout de plus en plus performants grâces aux multiples optimisations de leurs pipelines/jeux d'instructions. Même en restant dans du matériel récent, compare un core i5 ivy bridge et un core 2 quad à fréquence égale, c'est assez impressionnant !

gravatar
BenGamin a dit :

@djibey : Effectivement l'évolution en terme de performance tient de nos jours plus à l'architecture et aux instructions exécutées matériellement. Je ne vois réellement pas la différence entre un core 2 d'il y a 4 ans et un i5, hors utilisation spécifique.

En ce moment, ce qui limite le plus est le disque dur, sans conteste possible. Je le constate tout les jours depuis que j'ai mon ssd. J'ai vraiment du mal à retourner sur un ordi avec un disque moins performant.

gravatar
Le Hollandais Volant a dit :

@BenGamin :


Je ne vois réellement pas la différence entre un core 2 d'il y a 4 ans et un i5, hors utilisation spécifique.


Côté performances je ne dis pas le contraire, mais côté consommation ? Chauffe ? Bruit ?

J’ai un i3, mon frère un Core2 et ma mère un Centrino 1 (mon ancien PC) : le mien (le plus récent) est celui qui consomme de loin le moins et qui chauffe beaucoup moins aussi.

gravatar
BenGamin a dit :

@Le Hollandais Volant : Bien sur je parlais en terme de performance. Après la conso joue énormement sur portable, sur fixe c'est vraiment pas ce qui m'inquiète, après avoir trainé une 8800 GTX pendant 4 ans, j'ai une toute relative vision de la conso ... :)

gravatar
jzkhaz a dit :

@BenGamin www.cpubenchmark.net


@Le Hollandais Volant "(lent) qui transporte des informations, mais des photons (la lumière, rapide)"

Tu est sur de cela qu'elle est la vitesse de l'électricité et de la lumière ;o ?
Ce n'est pas cette spécification qui joue ^^

gravatar
Le Hollandais Volant a dit :

@jzkhaz : je sais, il y a surtout la quantité d’information qu’on peut faire passer par unité de temps, oscillations plus courtes et plus rapides, etc.

Les commentaires sont fermés pour cet article