Accueil » Blog » La Loi de Moore «Plus» du directeur de la technologie d’AMD

La Loi de Moore «Plus» du directeur de la technologie d’AMD

Le directeur et vice président de la technologie d’AMD s’est exprimé vis à vis du futur de l’informatique et des changements que ce domaine subit et subira au cours des années à venir. Changements qui, selon lui, emmèneront à une loi de Moore évoluée, la loi de Moore « plus ».

La loi de Moore nous suit depuis les années 1970

Gordon Moore, ayant remarqué une évolution constante du nombre de transistors au sein des microprocesseurs depuis leur invention, a extrapolé ce constant en prédisant un doublement du nombre de transistors tout les deux ans. 

Cette loi empirique s’est trouvée être remarquablement fiable pendant plus de trente ans.

Seulement on ne peut échapper aux vraies lois de la physique. La réduction de la taille de gravure atteint ses limites en s’approchant du nanomètre, il devient en effet de plus en plus difficile et cher d’augmenter la précision de la gravure.

On peut compter de moins en moins sur ce facteur pour augmenter le nombre de transistors et améliorer l’efficacité énergétique ainsi que la rentabilité. La loi de Moore tel qu’on la connaît ne sera bientôt plus que du passé.

Néanmoins depuis quelques années la société tend à être de plus en plus hyper-connectée, cela entraîne une demande forcément énorme de données à traiter, et donc une puissance derrière qui puisse être en mesure de suivre cette demande. Outre ces considérations déjà en place dans la société, l’explosion récente du deep learning a emmené un autre besoin insatiable de puissance avec des applications tout à fait remarquables telles que des pilotes automatiques, des drones, ou des systèmes de détection médicaux automatisés. La montée en popularité de la VR/AR est aussi un facteur important de la demande en puissance.

Néanmoins depuis quelques années la société tend à être de plus en plus hyper-connectée, cela entraîne une demande forcément énorme de données à traiter, et donc une puissance derrière qui puisse être en mesure de suivre cette demande. Outre ces considérations déjà en place dans la société, l’explosion récente du deep learning a emmené un autre besoin insatiable de puissance avec des applications tout à fait remarquables telles que des pilotes automatiques, des drones, ou des systèmes de détection médicaux automatisés. La montée en popularité de la VR/AR est aussi un facteur important de la demande en puissance.

C’est pourquoi, Papermaster a évoqué une solution à ce problème. Il a exprimé une loi de Moore « plus » à laquelle l’industrie devrait s’adapter pour espérer suivre le rythme de la demande.
Cette nouvelle loi ce base sur quatre axes principaux :

  •  Continuer à réduire la taille des systèmes basés sur des semi-conducteurs, ainsi qu’améliorer leur rentabilité. Mais aussi améliorer fortement l’inter-connectivité entre ces différents systèmes pour permettre une utilisation plus flexible de ceux ci.
  • S’appuyer sur une puissance de calcul hétérogène, mixant les CPU, GPU et autres accélérateurs spécialisés, pour mieux répartir les charges de calcul.
  • Un écosystème open-source de logiciels et de frameworks facile d’accès et tirant avantage du calcul hétérogène.
  • Des logiciels simplifiant la programmation utilisant des technologies avancées, tel que le deep learning, le rendu pour la VR/AR ou encore le data analytics.

Du côté hardware Papermaster cite plusieurs avancées technologiques qu’il considère comme nécessaire. En premier lieu, la lithographie aux ultraviolets extrêmes sera un moyen efficace pour poursuivre la réduction de la taille de gravure. Mais ce n’est pas tout, Papermaster prévoit aussi une augmentation de l’empilage 3D des die de CPU, GPU, mémoire et autre puces connectées sans la présence du wafer sous-jacent. Il insiste aussi sur l’importance d’apporter les connexions optiques dans la micro électronique, et même directement à l’intérieur du die dans le futur.

Néanmoins des améliorations sur le plan hardware nécessitent aussi une refonte du côté software, car la puissance seule n’est rien si elle n’est pas bien exploitée. Nous possédons actuellement un bon écosystème pour les CPUs, cependant les GPUs et autres accélérateurs spéciaux ne sont pas encore bien intégrés pour de gros calculs. On a besoin de créer et peaufiner un écosystèmes pour ces processeurs. Cependant Papermaster souligne bien le besoin que cela soit open source, pour unifier et simplifier la vie des développeurs, sans compter le coût supplémentaire d’utiliser des solutions propriétaires.

AMD a d’ailleurs cofondé la fondation HSA (Heterogeneous Systems Architecture). Elle vise à permettre aux CPU, GPU, et autres accélérateurs tel que les FPGAs de mieux fonctionner ensembles, partager leur mémoire et être optimisés en tant qu’un seul système global, et non plusieurs sous-systèmes ; pour atteindre ce fameux « calcul hétérogène ». Ce calcul hétérogène est déjà en partie intégré dans certains domaines, par exemple dans l’édition vidéo on observe des gains phénoménaux où un simple i7 6700K peut se retrouver au niveau de processeurs dix fois plus chers une fois assisté par un GPU.

AMD voit le futur de l’informatique dans la coopération entre les différents acteurs de l’industrie, mais aussi avec les universités et autres lieux de développements. Ils cherchent à créer des standards ouverts à tous pour créer un environnement facilitant la tâche des programmeurs.

La loi de Moore évoluera donc vers un nouvel état, elle ne sera plus réduite à un simple doublement de transistors tout les 24 mois mais plutôt sur une évolution de fond de celle ci. Évolution qui, on l’espère, se mettra réellement en place.