La finesse de gravure des processeurs est vertigineuse

Proposé par
le

Les microprocesseurs sont les "cerveaux" de nos ordinateurs. Leur finesse de gravure est impressionnante : de l'ordre de 10 nm. Cette finesse est difficilement concevable pour l'être humain, car elle correspond à 1/10 000e du diamètre d'un cheveu ou seulement 50 fois le diamètre d'un atome de fer.


Tous les commentaires (58)

Il est difficile de se représenter la vitesse de calcul des processeurs actuels. Pour donner un ordre d'idée, un processeur exécute des instructions simples comme des additions, soustraction, opération en mémoire...
Si on écrivait une instruction par ligne sur une feuille grand carreaux, il lirait cette feuille à une vitesse de 24 000 km/seconde, soit plus de 4 fois la distance Paris/New York chaque seconde.
Pour relativiser cela, il faut savoir que les processeurs aujourd'hui passent une grande partie de leur temps à attendre la mémoire nettement plus lente.

Et la mémoire c'est comment ? C'est comme le papier des orgues de barbarie mais en vachement microcospique ? Et comment ça lit, c'est un laser ?

N'empêche quand on y pense c'est épatant, un tel niveau technologique pour au final passer tant de temps à regarder des filles toutes nues.

a écrit : Il me semble que la miniaturisation de ces gravures est la clé de l'augmentation de la puissance des processeurs mais je crois que nous sommes arrivés au limite des matériaux utilisés Effectivement, une gravure plus fine dégage moins de chaleur et donc est capable de tourner à des fréquences plus élevés, d'où le gain de puissance et la baisse de consommation. Toutefois comme c'est dit dans les commentaires, on arrive à la limite qui si dépassée, les propriétés des atomes vont avoir un impact sur le fonctionnement du machin

a écrit : Et la mémoire c'est comment ? C'est comme le papier des orgues de barbarie mais en vachement microcospique ? Et comment ça lit, c'est un laser ? La mémoire RAM est un circuit gravé dans le silicium comme le processeur.
Des courants électriques sont "enfermés" et entrenus pour faire des 1 ou des 0 en l'absence de courant.
Dès que l'alimentation est coupée, toutes les données s'effacent (cas spécifique de la RAM).

Apple n'a jamais rien inventé en matériel, mais révolutionné les interfaces: fenêtres, utilisation systématique de la souris, copier-coller, etc., tous copiés ensuite par Microsoft. Comment les informaticiens pouvaient se débrouiller avant disons 1990, c'est inimaginable.

a écrit : La mémoire RAM est un circuit gravé dans le silicium comme le processeur.
Des courants électriques sont "enfermés" et entrenus pour faire des 1 ou des 0 en l'absence de courant.
Dès que l'alimentation est coupée, toutes les données s'effacent (cas spécifique de la RAM).
C'est bien pour cela que les ordinateurs sont câblés pour s'adresser au démarrage à une ROM qui reste inaltérée en cas de coupure d'alimentation, et se charge d'activer le disque système.

a écrit : Apple n'a jamais rien inventé en matériel, mais révolutionné les interfaces: fenêtres, utilisation systématique de la souris, copier-coller, etc., tous copiés ensuite par Microsoft. Comment les informaticiens pouvaient se débrouiller avant disons 1990, c'est inimaginable. Avec des raccourcis clavier?

a écrit : Avec des raccourcis clavier? oui, aussi; j'ai vu un vieux manuel d'utilisation du Mac; en fait pratiquement tout de ce à quoi nous sommes habitués sous Windows/Word/Excel a été inventé par Apple

j'ai vu aussi un manuel MS-DOS de la même époque: à se flinguer

a écrit : La mémoire RAM est un circuit gravé dans le silicium comme le processeur.
Des courants électriques sont "enfermés" et entrenus pour faire des 1 ou des 0 en l'absence de courant.
Dès que l'alimentation est coupée, toutes les données s'effacent (cas spécifique de la RAM).
Si je peux me permettre, en électronique on définit généralement l'absence de tension par un 1 logique et la présence par un 0 logique. La raison : la détection des pannes est beaucoup plus facile comme ça ;).

a écrit : Si je peux me permettre, en électronique on définit généralement l'absence de tension par un 1 logique et la présence par un 0 logique. La raison : la détection des pannes est beaucoup plus facile comme ça ;). je n'ai pas compris pourquoi cela permet de mieux détecter une panne; en fait, quand on a voulu définir la charge de l'électron, c'était plus ou moins? Logiquement, c'était plus, mais il y avait une chance sur deux de se tromper, et c'est le mauvais choix qui a prévalu

a écrit : Apple n'a jamais rien inventé en matériel, mais révolutionné les interfaces: fenêtres, utilisation systématique de la souris, copier-coller, etc., tous copiés ensuite par Microsoft. Comment les informaticiens pouvaient se débrouiller avant disons 1990, c'est inimaginable. Ils n'ont rien inventé en interface non plus.
Ils ont récupéré les inventions du Xerox Palo Alto pour cela aussi.
Ils ont popularisé les interfaces, ok.
Mais de là à les présenter comme des inventeurs que Crosoft aurait juste copié ...

a écrit : oui, aussi; j'ai vu un vieux manuel d'utilisation du Mac; en fait pratiquement tout de ce à quoi nous sommes habitués sous Windows/Word/Excel a été inventé par Apple

j'ai vu aussi un manuel MS-DOS de la même époque: à se flinguer
Détrompe toi.
Lorsqu'on a l'habitude, on va beaucoup plus vite avec un clavier qu'avec une souris, en tous cas pour certaines tâches.
Moi ce qui me stresse, c'est de voir le temps que les gens perdent à faire des tas de clics alors que c'est direct au clavier.
Chacun son truc.

a écrit : Très intéressant.
Mais sur la fin, si tu parles de l'interface graphique et de la souris de l'Apple II, ces innovations ont été volées à Xerox. Les ingénieurs d'Apple ont réinventé la roue ^^
Oui enfin si c'est pour faire de l'Apple bashing, autant le faire sur de vraies problématiques, parce que l'interface graphique n'a pas été volé mais acheté par Apple à Xerox et la souris, quant à elle, n'a même pas été inventée au Xerox Park... c'est une légende tenace d'ailleurs.

a écrit : Ce qui est drôle, c'est que les premiers circuits intégrés avaient été conçus pour des applications très humbles (commande d'imprimante, machine à laver ...). Ce n'est qu'à cause d'un relatif échec commercial qu'Intel, se demandant ce qu'il allait faire de ces travaux de recherche perdus, a eu l'idée, au début des années 1970, que l'on pouvait miniaturiser les gros ordinateurs en utilisant les mêmes techniques. IBM, le géant de l'époque, a été très long à comprendre (début des années 1980) et a dû sous-traiter construction (PC) et logiciels (Microsoft), n'ayant pas les compétences internes.
D'ailleurs, dans les années 70, pour la plupart, les informaticiens sérieux considéraient le micro-ordinateur comme un jouet sans intérêt.
Les réels innovateurs en logiciel étaient ceux d'Apple, qui ont conçu Lisa au début des années 80, précurseur du MacIntosh, et ses idées révolutionnaires ont été reprises par Windows, qui piétinait alors dans le pénible MS-DOS.

www.intel.co.uk/content/www/uk/en/history/museum-story-of-intel-4004.html
www.computermuseum.li/Testpage/MicroprocessorHistory.htm
Afficher tout
C'est en effet extrêmement drôle ... Je ris aux éclats grâce à ce commentaire. Merci

a écrit : N'empêche quand on y pense c'est épatant, un tel niveau technologique pour au final passer tant de temps à regarder des filles toutes nues. Mieux vaut regarder des filles toutes nues que lire des commentaires si déplorables... enfin, quand on peut ;)

a écrit : Mieux vaut regarder des filles toutes nues que lire des commentaires si déplorables... enfin, quand on peut ;) enfin, quand on peut pas, c'est toujours ça

c'est comme les eunuques, ils savent comment on fait, le voient faire tous les jours, mais peuvent pas

a écrit : Apple n'a jamais rien inventé en matériel, mais révolutionné les interfaces: fenêtres, utilisation systématique de la souris, copier-coller, etc., tous copiés ensuite par Microsoft. Comment les informaticiens pouvaient se débrouiller avant disons 1990, c'est inimaginable. Je fais de l'informatique depuis 1982. Je suis ingénieur et j'ai vu l'arrivée des premiers Apple 2 en France.
Il n'y a aucune révolution faite par Apple contrairement a évoqué le mythe veut nous faire croire. Les IHM graphique était jugée peu productive a l'épique. Il y en avait un certain nombre, dont celle d'Apple (qui, encore une fois, n'a rien inventé et uniquement copié les autres).
Toutes les sociétés préféraient à l'épique un Word sous dos plutot qu'un système exotique type Apple. D'ailleurs Apple n'a jamais pu investir le marché professionnel (à part les arts graphiques, et encore plutot chez les indépendants). Cela reste un système sympa, mais un système d'amateur. Il existe des centaines d'études de productivité qui démontrent que les systèmes Apple sont les moins productifs, administrables et intégrables dans une architecture complexe professionnel.
Ce qui est drôle c'est que le marketing d'Apple est tellement puissant qu'en énonçant simplement ces vérités on se fait traiter de troll...

a écrit : Je suis etudiant en nanotechnologies, a vrais dire c'est un domaine que je commence a maîtriser, il est tout a fait possible de visualiser des nanoparticules a l'aide d'un microscope optique, on peut déjà savoir comment elles ont organiser et reconnaître leurs forme. Pour plus de précision ont utilise un MeB (microscope a balayage électronique) ou encore un AFM qui offre une résolution au nanomètre près. Afficher tout Oui puis graver à l aveugle pas terrible :)

Posté le

android

(0)

Répondre

a écrit : Je suis etudiant en nanotechnologies, a vrais dire c'est un domaine que je commence a maîtriser, il est tout a fait possible de visualiser des nanoparticules a l'aide d'un microscope optique, on peut déjà savoir comment elles ont organiser et reconnaître leurs forme. Pour plus de précision ont utilise un MeB (microscope a balayage électronique) ou encore un AFM qui offre une résolution au nanomètre près. Afficher tout AFM (microscope a force atomique) ou a balayage électronique.
ne son justement pas des microscope ''optique '' !!!
microscope optique = microscope photonique !
L'optique est la branche de la physique  qui traite de la lumiere et de ses propriétés, du rayonnement électromagnétiques de la vision ainsi que les systèmes utilisant ou émettant de la lumière ....