La finesse de gravure des processeurs est vertigineuse

Proposé par
le

Les microprocesseurs sont les "cerveaux" de nos ordinateurs. Leur finesse de gravure est impressionnante : de l'ordre de 10 nm. Cette finesse est difficilement concevable pour l'être humain, car elle correspond à 1/10 000e du diamètre d'un cheveu ou seulement 50 fois le diamètre d'un atome de fer.


Commentaires préférés (3)

Ce qui est drôle, c'est que les premiers circuits intégrés avaient été conçus pour des applications très humbles (commande d'imprimante, machine à laver ...). Ce n'est qu'à cause d'un relatif échec commercial qu'Intel, se demandant ce qu'il allait faire de ces travaux de recherche perdus, a eu l'idée, au début des années 1970, que l'on pouvait miniaturiser les gros ordinateurs en utilisant les mêmes techniques. IBM, le géant de l'époque, a été très long à comprendre (début des années 1980) et a dû sous-traiter construction (PC) et logiciels (Microsoft), n'ayant pas les compétences internes.
D'ailleurs, dans les années 70, pour la plupart, les informaticiens sérieux considéraient le micro-ordinateur comme un jouet sans intérêt.
Les réels innovateurs en logiciel étaient ceux d'Apple, qui ont conçu Lisa au début des années 80, précurseur du MacIntosh, et ses idées révolutionnaires ont été reprises par Windows, qui piétinait alors dans le pénible MS-DOS.

www.intel.co.uk/content/www/uk/en/history/museum-story-of-intel-4004.html
www.computermuseum.li/Testpage/MicroprocessorHistory.htm

D'ailleurs afin de palier au limite de la technologie actuelle qui ne permet pas de faire plus petit que ce qui se fait actuellement a cause des lois de la physique, certains scientifiques se penchent sur des circuits moléculaire organique (ADN, protéine etc.).

Pour ceux qui veulent se faire une idée, si on faisait une boule de 10nm de large, on ne pourrait pas la voir, même avec le plus gros microscope (optique) au monde. En effet, elle serait trop petite pour réfléchir la lumière !

Pour ceux qui n'ont pas peur de l'anglais, Physics Girl a fait une vidéo bien plus claire que mon commentaire sur le sujet, trouvable sur YouTube.


Tous les commentaires (58)

Il me semble que la miniaturisation de ces gravures est la clé de l'augmentation de la puissance des processeurs mais je crois que nous sommes arrivés au limite des matériaux utilisés

c'est d'ailleur tout le probleme du developement des ordinateurs, on arrive a des circuits tellement petit qu'un jour il sera impossible d'aller plus loin a cause de la taille des atomes

Posté le

windowsphone

(11)

Répondre

Ce qui est drôle, c'est que les premiers circuits intégrés avaient été conçus pour des applications très humbles (commande d'imprimante, machine à laver ...). Ce n'est qu'à cause d'un relatif échec commercial qu'Intel, se demandant ce qu'il allait faire de ces travaux de recherche perdus, a eu l'idée, au début des années 1970, que l'on pouvait miniaturiser les gros ordinateurs en utilisant les mêmes techniques. IBM, le géant de l'époque, a été très long à comprendre (début des années 1980) et a dû sous-traiter construction (PC) et logiciels (Microsoft), n'ayant pas les compétences internes.
D'ailleurs, dans les années 70, pour la plupart, les informaticiens sérieux considéraient le micro-ordinateur comme un jouet sans intérêt.
Les réels innovateurs en logiciel étaient ceux d'Apple, qui ont conçu Lisa au début des années 80, précurseur du MacIntosh, et ses idées révolutionnaires ont été reprises par Windows, qui piétinait alors dans le pénible MS-DOS.

www.intel.co.uk/content/www/uk/en/history/museum-story-of-intel-4004.html
www.computermuseum.li/Testpage/MicroprocessorHistory.htm

Cette finesse extrême risque de bloquer le développement de la puissance des microprocesseurs dans un futur proche.

Sans doute la fin de la loi de Moore, à moins qu'une rupture technologique n'ouvre de nouvelles portes...

D'ailleurs afin de palier au limite de la technologie actuelle qui ne permet pas de faire plus petit que ce qui se fait actuellement a cause des lois de la physique, certains scientifiques se penchent sur des circuits moléculaire organique (ADN, protéine etc.).

C'est d'ailleurs dû au faite que la miniaturisation atteint ces limites que certain scientifique travail sur dès processeur quantique. Dedans il y a ce qu'on appelle des qbit, des bit quantique. 40qbit peuvent stocker toutes les donnes internet du monde !!!

La finesse de gravure a déjà été réduite, mais l'on obtient des processeurs qui donnent de mauvais résultats. En cause : l'effet tunnel. Les pistes du circuit sont tellement fines que les électrons sont capables de sauter d'une piste à l'autre. Les calculs deviennent incohérents...

Pour ceux qui veulent se faire une idée, si on faisait une boule de 10nm de large, on ne pourrait pas la voir, même avec le plus gros microscope (optique) au monde. En effet, elle serait trop petite pour réfléchir la lumière !

Pour ceux qui n'ont pas peur de l'anglais, Physics Girl a fait une vidéo bien plus claire que mon commentaire sur le sujet, trouvable sur YouTube.

a écrit : c'est d'ailleur tout le probleme du developement des ordinateurs, on arrive a des circuits tellement petit qu'un jour il sera impossible d'aller plus loin a cause de la taille des atomes Plutôt à cause des lois de la physique qui changent à une échelle très petite. Le circuit ÉLECTRONique se base sur des électrons, qui voyagent dans le circuit ou sont bloqués selon l'information envoyée.
Le fait est que si le circuit est trop petit, selon les lois de la physique quantique, un electron peut "se téléporter" et donc passer outre les "cloisons" du circuit et fausser le signal.

a écrit : Pour ceux qui veulent se faire une idée, si on faisait une boule de 10nm de large, on ne pourrait pas la voir, même avec le plus gros microscope (optique) au monde. En effet, elle serait trop petite pour réfléchir la lumière !

Pour ceux qui n'ont pas peur de l'anglais, Physics Girl a fait une vid
éo bien plus claire que mon commentaire sur le sujet, trouvable sur YouTube. Afficher tout
Je suis etudiant en nanotechnologies, a vrais dire c'est un domaine que je commence a maîtriser, il est tout a fait possible de visualiser des nanoparticules a l'aide d'un microscope optique, on peut déjà savoir comment elles ont organiser et reconnaître leurs forme. Pour plus de précision ont utilise un MeB (microscope a balayage électronique) ou encore un AFM qui offre une résolution au nanomètre près.

C'est d'ailleurs assez proche des limite physique maintenant. C'est pourquoi pas mal de chercheur essayent de remplacer l'electronique par l'optique.

a écrit : Ce qui est drôle, c'est que les premiers circuits intégrés avaient été conçus pour des applications très humbles (commande d'imprimante, machine à laver ...). Ce n'est qu'à cause d'un relatif échec commercial qu'Intel, se demandant ce qu'il allait faire de ces travaux de recherche perdus, a eu l'idée, au début des années 1970, que l'on pouvait miniaturiser les gros ordinateurs en utilisant les mêmes techniques. IBM, le géant de l'époque, a été très long à comprendre (début des années 1980) et a dû sous-traiter construction (PC) et logiciels (Microsoft), n'ayant pas les compétences internes.
D'ailleurs, dans les années 70, pour la plupart, les informaticiens sérieux considéraient le micro-ordinateur comme un jouet sans intérêt.
Les réels innovateurs en logiciel étaient ceux d'Apple, qui ont conçu Lisa au début des années 80, précurseur du MacIntosh, et ses idées révolutionnaires ont été reprises par Windows, qui piétinait alors dans le pénible MS-DOS.

www.intel.co.uk/content/www/uk/en/history/museum-story-of-intel-4004.html
www.computermuseum.li/Testpage/MicroprocessorHistory.htm
Afficher tout
Très intéressant.
Mais sur la fin, si tu parles de l'interface graphique et de la souris de l'Apple II, ces innovations ont été volées à Xerox. Les ingénieurs d'Apple ont réinventé la roue ^^

Posté le

android

(12)

Répondre

a écrit : Cette finesse extrême risque de bloquer le développement de la puissance des microprocesseurs dans un futur proche.

Sans doute la fin de la loi de Moore, à moins qu'une rupture technologique n'ouvre de nouvelles portes...
Les ordinateurs quantiques

Le patron d'intel à déclarer qu'il pourrais aller jusqu'à 5nm de finesse de gravure !

a écrit : Cette finesse extrême risque de bloquer le développement de la puissance des microprocesseurs dans un futur proche.

Sans doute la fin de la loi de Moore, à moins qu'une rupture technologique n'ouvre de nouvelles portes...
En attendant, les progrès réalisés sur la consommation sont très grands, rien qu'à voir entre Skylake et Hashwell, 25 (d'après mes souvenirs) watts de TDP à dissiper en moins, ce qui va relancer l'accumulation en termes de transistors (surtout pour les cartes graphiques en fait).

Posté le

windowsphone

(9)

Répondre

a écrit : c'est d'ailleur tout le probleme du developement des ordinateurs, on arrive a des circuits tellement petit qu'un jour il sera impossible d'aller plus loin a cause de la taille des atomes En effet, à force de pousser trop loin, on commencera à avoir des perturbations dûs aux aléas de la physique quantique, il va falloir songer à se tourner du côté des ordinateurs quantiques...

Posté le

windowsphone

(9)

Répondre

a écrit : Ce qui est drôle, c'est que les premiers circuits intégrés avaient été conçus pour des applications très humbles (commande d'imprimante, machine à laver ...). Ce n'est qu'à cause d'un relatif échec commercial qu'Intel, se demandant ce qu'il allait faire de ces travaux de recherche perdus, a eu l'idée, au début des années 1970, que l'on pouvait miniaturiser les gros ordinateurs en utilisant les mêmes techniques. IBM, le géant de l'époque, a été très long à comprendre (début des années 1980) et a dû sous-traiter construction (PC) et logiciels (Microsoft), n'ayant pas les compétences internes.
D'ailleurs, dans les années 70, pour la plupart, les informaticiens sérieux considéraient le micro-ordinateur comme un jouet sans intérêt.
Les réels innovateurs en logiciel étaient ceux d'Apple, qui ont conçu Lisa au début des années 80, précurseur du MacIntosh, et ses idées révolutionnaires ont été reprises par Windows, qui piétinait alors dans le pénible MS-DOS.

www.intel.co.uk/content/www/uk/en/history/museum-story-of-intel-4004.html
www.computermuseum.li/Testpage/MicroprocessorHistory.htm
Afficher tout
Réels innovateurs Apple ? Sérieusement ? Apple n'a jamais rien inventé, comment écrire une telle bêtise.
Décidément les aficionados sont prêts à déformer l'histoire pour défendre leur croyance.
Apple a intégré le processeur Mos sur son Apple I. Sur l'Apple 2 cest in motorola. Depuis quelques années les Mac sont de simples PC (mais vendus plus chers :-))

a écrit : Réels innovateurs Apple ? Sérieusement ? Apple n'a jamais rien inventé, comment écrire une telle bêtise.
Décidément les aficionados sont prêts à déformer l'histoire pour défendre leur croyance.
Apple a intégré le processeur Mos sur son Apple I. Sur l'Apple 2 cest in motorola. Depuis quelque
s années les Mac sont de simples PC (mais vendus plus chers :-)) Afficher tout
Troll

Apparemment la taille des microprocesseurs ne devrait plus trop baisser, puisqu'à cause des lois de la physique quantique, ils ne fonctionneraient plus correctement en dessous de 7 nm. Source : un article de SVJ

Posté le

android

(3)

Répondre