... mais jusqu'où ?

En informatique, les vitesses et les puissances des appareils sont toujours plus rapides : rapidité d'exécution, vitesse de transfert, taille des disques durs… Mais jusqu’où peut-on aller, avant d’arriver aux limites de la physique ?

le Processeur

cpu

Le cœur de l'ordinateur. C'est lui qui fait les calculs. Les calculs sont effectués à une cadence précise, en Hertz (Hz). Depuis quelques années je constate que la vitesse en GHz cesse de croitre comme avant : on n'augmente plus vraiment la vitesse de calculs, mais on augmente le nombre de processeurs : avec les bi-cœur, quadri-cœur, etc.

Le nombre de transistors continue tout de même d'augmenter (suivant la loi de Moore), et c'est là la limite. On ne pourra pas réduire indéfiniment l'espace entre chaque transistor, qui est aujourd'hui déjà de quelques nanomètres.
Le problème c'est que cette dimension correspond à la taille de seulement quelques atomes !
Au final si la taille est trop petite, ce sont des effets d’origine quantique qui commencent à interférer avec le courant électrique, comme l'effet tunnel : les électrons (le courant) : il passe au travers de l'atome, sans être traité.

Pour pallier à cela, on envisage diverses solutions, comme la gravure en 3D (les transistors sont assemblés en structures 3D au lieu d’une structure 2D classiques).
La recherche se penche également sur des technologies totalement différentes du silicium, comme des processeurs à nanotubes de carbone ou des processeurs quantiques, voire même des photo-processeurs, où ce n’est plus le courant électrique (lent) qui transporte des informations, mais des photons (la lumière, rapide)…

Les vitesses de transfert

optic fiber

L'informatique consiste en un traitement de 0 et de 1, des tensions basses et hautes qui sont appliquées sur des composants électroniques. Pour pouvoir être utilisée, cette information est envoyée entre les périphériques de l'ordinateur au moyen de courants électriques, ondes radio ou fibre optique. Les bits dans les ordinateurs se suivent à des nanosecondes d'intervalle.

Là encore, on peut essayer d'envoyer les données à des intervalles encore plus faibles, mais des limites vont apparaître : la durée de transition d'un état "0" à un état "1" risque de s'approcher de la durée entre deux bits et au final le signal envoyé est trop déformé pour être utilisé. Sur de très longues distances, il y a aussi un effet de dispersion dans le temps, d'atténuation et de perturbations électromagnétiques externes ce qui nous empêche d’envoyer les informations encore plus vite.

Je ne pense pas qu’il soit possible d’augmenter la fréquence des ondes radio (ils deviendraient dangereux et moins puissants), mais peut-être qu’on en viendra à transmettre plusieurs ondes à la fois, un peu comme des canaux parallèles, pour augmenter les débits. Une autre idée serait de transmettre des ondes superposées se basant sur la polarisation de l’onde (utiliser plusieurs plans d’ondes simultanément)…

Les disques durs

hard drive

Là aussi, bien que la capacité des disques augmente sans cesse (on trouve désormais des disques de plusieurs téraoctets facilement), la vitesse de transfert joue aussi un rôle dans les performances.

Un disque dur tourne et la tête de lecture lit les bits les uns à la suite des autres sur le disque : pour avoir plus de bits lus par seconde, on doit réduire la taille des bits (qui sont des particules magnétisées) et au final se retrouver au problème précédent : une particule magnétique et son champ peuvent interférer avec la particule voisine.
On peut aussi augmenter la vitesse de rotation (qui peut atteindre 20 000 tours par minute) mais ça augmente les contraintes mécaniques (chauffe, frottements, vibrations...).
Certains ont aussi peut-être trouvé un moyen d’utiliser des transitions de température plutôt que des transitions de champs magnétiques pour inscrire des données sur un disque. Cela serait une centaine de fois plus rapide et moins gourmand en énergie, mais il resterait toujours un plateau mécanique bruyant qui tourne…

Les disques durs SSD, sans plateaux sont constitués de mémoire flash, très rapide d'accès, mais qui ne sont pas aussi fiables que les disques durs à surface magnétique (nombre de cycles de lecture/écriture limitée pour les SSD).

Les disques durs sont aujourd'hui les composants le plus lents d'un ordinateur, mais ils offrent une capacité de stockage pratiquement illimitée. Pour pallier à cette lenteur, je me demande si on ne peut pas par exemple utiliser un système d'exploitation "all-in-ram" : tout est en mémoire (très rapide) et les données ne sont écrites sur le disque qu'à la fermeture du système (au risque de tout perdre en cas de panne de courant, évidemment…). Mais ça ne fera que repousser le problème et n’est pas très innovant.

Il me semble que certains labos font de la recherche sur du stockage en 3D de la lumière avec la mémoire holographique. Les hologrammes (et les holographies) sont juste des photographies à base laser prenant en compte non seulement la couleur, mais également la phase et la polarisation de la lumière. Et à terme, pourquoi pas la mémoire holographique électronique, stockant les longueurs d’onde des électrons (principe de De Broglie), donnant des densités de stockage encore plus énormes.

Les lecteurs optiques

cd

Malgré l’acharnement à rester dans les technologies du passé des seuls utilisateurs de CD/DVD/BRD, les éditeurs de musique, vidéo et jeux vidéos utilisent encore cette vieille technologie. Je pense que c’est totalement dépassé. Ces disques sont lents, gros, fragiles, chers.
L’avenir est à mon avis aux cartes mémoire comme les micro-SD : la densité d’information est bien plus grande (680 fois plus importante que les DVD) et ils sont pratiquement indestructibles (on peut les passer à la machine à laver sans soucis), voire même au 100 % dématérialisé : on paye, on télécharge un fichier ISO et hop.

Outre les inconvénients cités plus haut, la technologie derrière se heurte aussi à des limites : les lasers. Ils sont plus difficiles à fabriquer pour des longueurs d’onde plus courtes. Les Lasers bleus des Blu-Ray sont chers et faire encore plus bas le serait sûrement trop pour être commercialisable. Sans compter les bits sur les disques, dont la taille se réduit de plus en plus et la méthode de gravure ne pourra là non plus pas se miniaturiser à l’infini, ni la pérennité : un CD se raye et s’use au fil du temps.

Pour conclure

Toujours plus petits, les composants élémentaires d'un ordinateur sont désormais de la taille de quelques atomes et il arrivera un moment où l'on ne pourra plus aller plus bas avec les technologies actuelles (puces de silicium).

Aussi, tant que tout n'augmentera pas à la même vitesse les performances d'un ordinateur se cantonneront globalement à celle du composant le plus lent, donc rien à faire si vous avez un processeur à 12 GHz et 16 Go de mémoire, si vous avez un disque dur merdique, les performances ce votre ordinateur seront merdiques aussi. Pour avoir moi même testé à un moment : rien ne vaut une mise à jour d’un disque dur (j’étais passé d’un 4200 tpm à un 5400 tpm, et le changement est flagrant).

On devra donc passer dans le futur à d'autres technologies, qui sont encore en cours d’invention, si l'on veut continuer d'accroitre la puissance des ordinateurs…

images de Olivander, Rq?, Limaoscarjuliet et Cobalt123