La finesse de gravure des processeurs est vertigineuse

Proposé par
le

Les microprocesseurs sont les "cerveaux" de nos ordinateurs. Leur finesse de gravure est impressionnante : de l'ordre de 10 nm. Cette finesse est difficilement concevable pour l'être humain, car elle correspond à 1/10 000e du diamètre d'un cheveu ou seulement 50 fois le diamètre d'un atome de fer.


Tous les commentaires (59)

a écrit : Pour ceux qui veulent se faire une idée, si on faisait une boule de 10nm de large, on ne pourrait pas la voir, même avec le plus gros microscope (optique) au monde. En effet, elle serait trop petite pour réfléchir la lumière !

Pour ceux qui n'ont pas peur de l'anglais, Physics Girl a fait une vid
éo bien plus claire que mon commentaire sur le sujet, trouvable sur YouTube. Afficher tout
Soit je n'ai pas compris ton commentaire soit je n'ai pas compris comment font il pour le construire si il ne peuvent même pas le voir au microscope

a écrit : Très intéressant.
Mais sur la fin, si tu parles de l'interface graphique et de la souris de l'Apple II, ces innovations ont été volées à Xerox. Les ingénieurs d'Apple ont réinventé la roue ^^
A vrai dire, il me semble que Apple n'a rien "volé", ils ont racheté la technologie inventée par Xerox qui n'a pas dû réaliser la portée de ses innovations. Par contre Microsoft aurait réellement "volé" le savoir faire de Apple, en effet Bill Gates est allé à la rencontre des ingénieurs d'Apple (Gates etait un ami de Jobs) et a discuté avec eux pour obtenir des infos.

a écrit : oui, aussi; j'ai vu un vieux manuel d'utilisation du Mac; en fait pratiquement tout de ce à quoi nous sommes habitués sous Windows/Word/Excel a été inventé par Apple

j'ai vu aussi un manuel MS-DOS de la même époque: à se flinguer
Je sais pas, je n'utilise ni Windows, ni mac OS.

De plus, je me fou complètement de savoir qui a inventé ceci ou cela, le plus important étant que ça a été inventé.

a écrit : Pour ceux qui veulent se faire une idée, si on faisait une boule de 10nm de large, on ne pourrait pas la voir, même avec le plus gros microscope (optique) au monde. En effet, elle serait trop petite pour réfléchir la lumière !

Pour ceux qui n'ont pas peur de l'anglais, Physics Girl a fait une vid
éo bien plus claire que mon commentaire sur le sujet, trouvable sur YouTube. Afficher tout
Même un atome unique renvoie la lumière. Un photon est infiniment plus petit qu'un atome.

En fait le problème, c'est que le grossissement d'un microscope optique modifie la longueur d'onde de la lumière que renvoie l'objet, et à un moment bascule dans l'infrarouge et devient donc invisible pour l'oeil humain (à partir d'un grossissement de 1500x environ.

a écrit : Je suis etudiant en nanotechnologies, a vrais dire c'est un domaine que je commence a maîtriser, il est tout a fait possible de visualiser des nanoparticules a l'aide d'un microscope optique, on peut déjà savoir comment elles ont organiser et reconnaître leurs forme. Pour plus de précision ont utilise un MeB (microscope a balayage électronique) ou encore un AFM qui offre une résolution au nanomètre près. Afficher tout Un microscope électronique n'est pas un microscope optique.
L'optique utilise des lentilles transparentes pour grossir l'image, l'électronique utilise un canon à électron (balayage électronique) qui frappe l'objet et qui analyse la réflexion du rayon pour déterminer la forme de ce qu'on observe.

a écrit : Cette finesse extrême risque de bloquer le développement de la puissance des microprocesseurs dans un futur proche.

Sans doute la fin de la loi de Moore, à moins qu'une rupture technologique n'ouvre de nouvelles portes...
La limite physique de la loi de Moore est atteinte depuis une dizaine d'années déjà. Les microprocesseurs n'augmentent plus en fréquence depuis un moment, on trouve difficilement mieux que 3Ghz dans le commerce alors qu'il existait des puces cadencées à 3ghz depuis le milieu des années 2000 car au delà ils deviennent instables (comme expliqué un peu en dessous de ton comm mais aussi à cause de la chaleur dégagée par ces derniers qui diminuent les capacités isolantes du circuit).

Les seules alternatives avec le silicium sont de multiplier les puces (double coeur, quad core, 8 et bientôt 16) où d'améliorer l'architecture (comme améliorer le plan d'une ville afin d'accélérer la circulation routière tout en diminuant la consommation électrique). La deuxième solution est celle qui équipe tous les ordinateurs récent, mais cela implique une grosse consomation d'électricité. Par exemple, ma tour 8 coeurs a une alimentation de 1250 watts, soit autant qu'un radiateur électrique et le système est refroidi par watercooling (refroidissement liquide... quel zinzin^^)

Il y a des recherches suivant des pistes telles que le quantique, la gravure faite sur un genre de diamant synthétique et les circuits optiques, mais c'est très cher à développer.

a écrit : En attendant, les progrès réalisés sur la consommation sont très grands, rien qu'à voir entre Skylake et Hashwell, 25 (d'après mes souvenirs) watts de TDP à dissiper en moins, ce qui va relancer l'accumulation en termes de transistors (surtout pour les cartes graphiques en fait). Valable pour les ordinateurs classiques (bureautique, navigation) qui sont de moins en moins énergivores, mais pour les machines servant à certaines tâches (jeux vidéos, animation) la demande en puissance de calcul augmente plus vite que le progrès technologique si l'on veut rester à la page et les machines en sont de plus en plus gourmandes (et chères^^)

Pour les cartes graphiques je suis d'accord, mais c'est parce qu'elles ne sont pas encore limitées par l technologie, mais on y viendra. Si ça continue comme c'est parti, elles seront autant gourmandes que tout le reste du PC, d'ailleurs maintenant une CG est quasiment un PC car elle intègre tous les systèmes (RAM, processeurs<--notez le "S", refroidisement actif) sauf les périphériques de base (écran, clavier, souris, son). Un ami un peu exigeant a d'ailleurs branché deux cartes graphiques en parallèles sur une alimentation séparée du reste de la machine, c'est pour dire où certains fous furieux de la performance sont prêts à aller pour être au top! ^^

a écrit : Apple n'a jamais rien inventé en matériel, mais révolutionné les interfaces: fenêtres, utilisation systématique de la souris, copier-coller, etc., tous copiés ensuite par Microsoft. Comment les informaticiens pouvaient se débrouiller avant disons 1990, c'est inimaginable. A l'époque, c'était à l'homme d'apprendre la langue des machines (BASIC). Aujourd'hui c'est l'inverse, sauf pour les programmeurs bien entendu: et encore, aujourd'hui, l'essentiel de la programmation se fait aussi à l'aide de logiciels, sans ça il serait matériellement impossible d'entrer à la main des centaines de millions de lignes de code pour un jeu vidéo remplissant un blu-ray entier!

a écrit : C'est bien pour cela que les ordinateurs sont câblés pour s'adresser au démarrage à une ROM qui reste inaltérée en cas de coupure d'alimentation, et se charge d'activer le disque système. Exact, c'est le BIOS, le logiciel de base de tout ordinateur sans lequel il n'y aurait qu'un curseur clignotant à l'allumage et absolument rien d'autre en train de tourner dans la bécane à part les ventilos! ^^
Cela dit, ce programme a lui aussi besoin d'énergie pour ne pas s'effacer, et c'est pour cela qu'il y a une pile-bouton insérée dans la carte-mère qu'il faut éventuellement changer, cela dépend du temps où l'ordinateur reste débranché du secteur car il reste alimenté par des condensateurs (batteries) si il est allumé assez régulièrement pour les recharger et la pile est là pour les remplacer en cas de coupure très longue mais pas d'inquiétude, allumer la machine une fois par an suffit à ne pas user la pile, mais un ordi stocké des années dans un grenier risque le reset complet. Ca se répare, mais faut être calé.

a écrit : Ils n'ont rien inventé en interface non plus.
Ils ont récupéré les inventions du Xerox Palo Alto pour cela aussi.
Ils ont popularisé les interfaces, ok.
Mais de là à les présenter comme des inventeurs que Crosoft aurait juste copié ...
C'est un fait, Apple est une société commerciale, côté innovation technologique, ils ne valent ps grand chose depuis le début des années 80.
Oui ils ont inventé le Iphone, le Imac, la Iwatch, le Ipod et le client Ipaye, Irepaye et Ijettesonbiduleparcequonpeutpaschangerlabatterie... . Ils ont pris des composants et des systèmes qui existaient déjà et en on fait un bidule à 800€ quoi. C'est de l'innovation entubatoiro-gadgettiste car ils ont réussi à persuader le monde entier que c'est absolument nécessaire dans la vie alors qu'un 3310 et un PC à la c... à 150€ font le même boulot mais en mieux (en moins pratiques certes) ! ^^
Et en plus faut payer les applications pour le faire tourner correctement parce qu'ils sont pas foutus de les faire eux même, ils ne font que les racheter pour en avoir l'exclusivité. Le meilleur exemple étant SIRI.

a écrit : Détrompe toi.
Lorsqu'on a l'habitude, on va beaucoup plus vite avec un clavier qu'avec une souris, en tous cas pour certaines tâches.
Moi ce qui me stresse, c'est de voir le temps que les gens perdent à faire des tas de clics alors que c'est direct au clavier.
Chacun son truc.
Disons que la souris c'est plus grand public, j'ai jamais pu me faire aux raccourcis, jme plante de bouton à chaque fois et j'ai un mal fou à apprendre les choses par coeur.
La souris, ca a été un de ces changements pour moi, mais j'admets que je préfère perdre du temps à chercher visuellement et cliquer que d'apprendre des fonctions dont je ne me servirai pas suffisamment pour m'en souvenir.

Chacun son truc, comme tu dis :)

a écrit : Mieux vaut regarder des filles toutes nues que lire des commentaires si déplorables... enfin, quand on peut ;) Désolé mais il a raison quelquepart. le porno représente une part hallucinante de ce qui est traité par les descendants des calculateurs d'avant le Personnal Computer.
Au début des années 2000, cela représentait 40% des échanges de données dans le monde et si je mens que l'écran, quel qu'il soit, qui n'a jamais affiché du porno au moins une fois m'électrocute sur le champ jusqu'à ce que mort s'ensuive!
Nous ne sommes que des singes après tout! ^^

a écrit : Soit je n'ai pas compris ton commentaire soit je n'ai pas compris comment font il pour le construire si il ne peuvent même pas le voir au microscope Il y a d'autres systèmes pour "voir" les atomes que le microscope classique.

Par exemple, avec un grand télescope, on peut voir des étoiles lointaines que l'on ne verrait pas à l'oeil nu (macroscopie) mais ces images doivent êtres traitées, analysées, recomposées via un travail suivant.

Pour le micro (nano plutôt), c'est pareil. On observe pas directement les atomes, on mesure leur type et leur position via des machines et on peut reconstituer une image et travailler dessus (je schématise hein, ces technologies sont bien plus compliquées que ça mais dans le principe ça colle)

En fait, ces machines nous servent à voir ce que nos sens ne peuvent percevoir, on voit les choses invisibles via reconstitution et fabrication d'images sensées représenter le plus fidèlement possible la réalité en combinant des données entre elles.

Par exemple, dans ta voiture, tu ne vois pas ce qui se passe dans le moteur, mais un compte-tour et un indicateur de température sur le tableau de bord te montreront virtuellement que tu le pousse dans le rouge et que tu risque de l’abîmer. Pas besoin d'avoir l'oeil dans le cylindre pour avoir des informations utilisables sur ce qui se passe dedans.

a écrit : A vrai dire, il me semble que Apple n'a rien "volé", ils ont racheté la technologie inventée par Xerox qui n'a pas dû réaliser la portée de ses innovations. Par contre Microsoft aurait réellement "volé" le savoir faire de Apple, en effet Bill Gates est allé à la rencontre des ingénieurs d&#039;Apple (Gates etait un ami de Jobs) et a discuté avec eux pour obtenir des infos. Afficher tout Gates et Jobs ont commencé ensemble l'aventure informatique moderne.

Jobs était un financier, Gates est un découvreur (qui ne découvre plus grand chose aujourd'hui j'admets^^).

Qui a volé qui? Un peu les deux en fait! ^^

a écrit : Je sais pas, je n'utilise ni Windows, ni mac OS.

De plus, je me fou complètement de savoir qui a inventé ceci ou cela, le plus important étant que ça a été inventé.
Tu utilise quoi alors? Je serais curieux de connaitre le système utilisé pour écrire ton commentaire ;)

Bon, ton "je me fous complètement de comment ça fonctionne tant que ça fonctionne et que j'en ai pour mon fric" me plait beaucoup, j'adore ce genre de point de vue, c'est vrai quoi, on s'en tape de comment ça marche tant que ça marche après tout ^^(je suis sincère) mais dans ce cas ton commentaire n'est que violence gratuite trollesque. La moindre des choses en commentant un commentaire c'est de s'intéresser un minimum au sujet, quitte à dire des c...ries et se faire reprendre par des gens plus calés (ce que je vis souvent sur SCMB) et d'apprendre. Tu ne pense pas?

Allez sans rancune ;)

a écrit : Tu utilise quoi alors? Je serais curieux de connaitre le système utilisé pour écrire ton commentaire ;)

Bon, ton "je me fous complètement de comment ça fonctionne tant que ça fonctionne et que j'en ai pour mon fric" me plait beaucoup, j'adore ce genre de point de vue, c'est vrai qu
oi, on s'en tape de comment ça marche tant que ça marche après tout ^^(je suis sincère) mais dans ce cas ton commentaire n'est que violence gratuite trollesque. La moindre des choses en commentant un commentaire c'est de s'intéresser un minimum au sujet, quitte à dire des c...ries et se faire reprendre par des gens plus calés (ce que je vis souvent sur SCMB) et d'apprendre. Tu ne pense pas?

Allez sans rancune ;)
Afficher tout
J'utilise Debian.

Sinon j'ai jamais dit que je me foutait de savoir comment ça marche, au contraire.
J'ai dit que je me foutait de savoir qui l'avait inventé.

Et je répondais à un commentaire qui me répondais.

a écrit : Il y a d'autres systèmes pour "voir" les atomes que le microscope classique.

Par exemple, avec un grand télescope, on peut voir des étoiles lointaines que l'on ne verrait pas à l'oeil nu (macroscopie) mais ces images doivent êtres traitées, analysées, recomposées via un travail sui
vant.

Pour le micro (nano plutôt), c'est pareil. On observe pas directement les atomes, on mesure leur type et leur position via des machines et on peut reconstituer une image et travailler dessus (je schématise hein, ces technologies sont bien plus compliquées que ça mais dans le principe ça colle)

En fait, ces machines nous servent à voir ce que nos sens ne peuvent percevoir, on voit les choses invisibles via reconstitution et fabrication d'images sensées représenter le plus fidèlement possible la réalité en combinant des données entre elles.

Par exemple, dans ta voiture, tu ne vois pas ce qui se passe dans le moteur, mais un compte-tour et un indicateur de température sur le tableau de bord te montreront virtuellement que tu le pousse dans le rouge et que tu risque de l’abîmer. Pas besoin d'avoir l'oeil dans le cylindre pour avoir des informations utilisables sur ce qui se passe dedans.
Afficher tout
Merci de ta réponse, c'est super explicite

a écrit : Je suis etudiant en nanotechnologies, a vrais dire c'est un domaine que je commence a maîtriser, il est tout a fait possible de visualiser des nanoparticules a l'aide d'un microscope optique, on peut déjà savoir comment elles ont organiser et reconnaître leurs forme. Pour plus de précision ont utilise un MeB (microscope a balayage électronique) ou encore un AFM qui offre une résolution au nanomètre près. Afficher tout Merci je me disais aussi...

Aujourd'hui on arrive à graver du 5nm .