Magazine High tech

Multiplication des multicoeurs : pour quoi faire au juste ?

Publié le 08 février 2009 par Ecoleinfo

Core2 Quad

Le dernier rapport de Carl Claunch du Gartner illustre ce que nous ressentions tous depuis longtemps. La multiplication du nombre de cœurs dans les processeurs n’engendre aucun gain de puissance perceptible du côté de l’utilisation des logiciels.

Les limites de la technologie cuivre

La course à la fréquence à laquelle se sont livrées les sociétés Intel et Amd a abouti à ce que nous sachions que la limite de la fréquence d’un processeur cuivre était sensiblement de 3Ghz. Du coup, pour compenser la perte de puissance et afin de garantir la loi de Moore qui ne s’est toutefois jamais vérifiée dans les faits, les fabricants de processeurs ont fait le choix de multiplier les cœurs dans les processeurs. Autrement dit, l’architecture CISC qui fonctionnait en série a été remplacée par une architecture de type RISC permettant réellement le parallélisme.

Le développement logiciel à des années-lumière des technologies utilisées dans les processeurs

Concernant Windows Vista, la gourmandise de ressources conjuguée à la baisse de la fréquence des processeurs a donné la sensation d’un début de régression sur le plan de la vitesse. Mais l’erreur de Microsoft ne se situe sans doute pas là et le risque est de la prolonger pour Windows Seven. Programmé sur des bases identiques à ceux de Windows Xp, Windows Vista n’exploite que peu ou prou la puissance des architectures multicœurs. C’est cette même sensation qui prévaut pour Windows 2008 également. A chaque clic, à chaque affichage, nous éprouvons un sentiment de lenteur.

Très adaptée à la virtualisation, l’architecture de type “multicœurs” n’est que partiellement exploitée par les hyperviseurs. La dernière version de Vmware prend en charge 32 coeurs maximum alors que devraient apparaître, dans les prochains mois, les premières plates-formes dotées de 512 coeurs (32 sockets x 16 cœurs).

Goulets

Mais le pire n’est peut-être encore pas là ! L’architecture en bus héritée de John Von Neumann fait que les capacités de traitement du processeur exigeraient un véritable parallélisme quant au fonctionnement des périphériques. Mémoire, affichage vidéo, disque dur constituent les principales sources de ralentissement de la machine. A quoi sert, en effet, le parallélisme s’il ne s’accompagne pas profondément d’une modification complète de l’architecture interne du micro-ordinateur ? Certains ont évoqué l’USB. D’autres… Ethernet et la fibre. Telle sœur Anne, nous ne voyons toujours rien venir.

Dans de nombreux domaines, le XXIe siècle devrait nous permettre de mieux comprendre le sens attaché au mot “limite”.

Sources


Retour à La Une de Logo Paperblog

A propos de l’auteur


Ecoleinfo 201 partages Voir son profil
Voir son blog

l'auteur n'a pas encore renseigné son compte l'auteur n'a pas encore renseigné son compte