Une tonne pour un fichier mp3

Proposé par
le

Commercialisé par IBM en 1956, le premier disque dur, l'IBM 350, pesait plus d'une tonne et coutait 50 000 dollars. Il pouvait alors stocker 5 Mo, soit environ l'équivalent d'un seul fichier MP3 ou d'une seule photographie de smartphone. En 5 ans, IBM a tout de même réussi à en vendre un millier.


Tous les commentaires (43)

a écrit : Tu affirmes ça comme si c'était une vérifié universelle. Mais je suis au regret de t'informer que, si tu crois ça, c'est uniquement parce que tu as bien appris la leçon de Bill Gates, qui a réussi à te faire croire que la fragmentation est inhérente aux disques durs et n'a rien à voir avec son OS merdique... Il était bien meilleur en marketing qu'en informatique, apparemment. Le disque dur lui-même n'est pas responsable de la fragmentation, il se contente d'écrire ou lire les données là où le système lui dit de le faire. C'est bien le DOS (Disk Operating System) de l'ordinateur qui gère la manière dont sont stockés les fichiers sur le disque, et c'est là qu'intervient le système de fichiers FAT de MS-DOS (repris par Windows mais abandonné dans les versions les plus récentes de Windows au profit du nouveau système NTFS) qui est particulièrement merdique, alors qu'on faisait déjà beaucoup mieux à l'époque, avec UNIX par exemple. Tu peux utiliser le même disque avec UNIX (ou sa version dérivée la plus courante actuellement : Linux) et il n'aura pas besoin d'être défragmenté ! Tout simplement parce qu'un système conçu intelligemment laisse beaucoup de place autour des fichiers (tant qu'il y a de la place libre) pour leur permettre de s'agrandir sans être fragmentés et qu'il peut déplacer des fichiers si besoin sans qu'il y ait besoin de lancer un traitement spécial pour ça. Et d'ailleurs il n'y a pas de traitement de défragmentation dans les systèmes UNIX ou Linux ! Je pense que le succès de la défragmentation n'est pas dû à un soudain intérêt des utilisateurs pour la technique mais plutôt au joli utilitaire qui faisait clignoter des petites cases sur l'écran pendant la défragmentation pour arriver finalement à un joli résultat bien propre. C'est un très bon coup de marketing de réussir à faire un utilitaire aussi joli et apparemment indispensable pour palier les déficiences d'un système merdique. Moi aussi j'adorais regarder ça ! Afficher tout C'est vrai que c'était joli tous ces petits carrés qui s'alignaient proprement. Cela donnait l'impression d'un grand inventaire d'atelier.

Cela dit il existe quelques utilitaires de défrag sur linux mais c'est vraiment peu utile. C'est encore moins utile aujourd'hui quelque soit l'OS avec la généralisation des SSD.

a écrit : Tu affirmes ça comme si c'était une vérifié universelle. Mais je suis au regret de t'informer que, si tu crois ça, c'est uniquement parce que tu as bien appris la leçon de Bill Gates, qui a réussi à te faire croire que la fragmentation est inhérente aux disques durs et n'a rien à voir avec son OS merdique... Il était bien meilleur en marketing qu'en informatique, apparemment. Le disque dur lui-même n'est pas responsable de la fragmentation, il se contente d'écrire ou lire les données là où le système lui dit de le faire. C'est bien le DOS (Disk Operating System) de l'ordinateur qui gère la manière dont sont stockés les fichiers sur le disque, et c'est là qu'intervient le système de fichiers FAT de MS-DOS (repris par Windows mais abandonné dans les versions les plus récentes de Windows au profit du nouveau système NTFS) qui est particulièrement merdique, alors qu'on faisait déjà beaucoup mieux à l'époque, avec UNIX par exemple. Tu peux utiliser le même disque avec UNIX (ou sa version dérivée la plus courante actuellement : Linux) et il n'aura pas besoin d'être défragmenté ! Tout simplement parce qu'un système conçu intelligemment laisse beaucoup de place autour des fichiers (tant qu'il y a de la place libre) pour leur permettre de s'agrandir sans être fragmentés et qu'il peut déplacer des fichiers si besoin sans qu'il y ait besoin de lancer un traitement spécial pour ça. Et d'ailleurs il n'y a pas de traitement de défragmentation dans les systèmes UNIX ou Linux ! Je pense que le succès de la défragmentation n'est pas dû à un soudain intérêt des utilisateurs pour la technique mais plutôt au joli utilitaire qui faisait clignoter des petites cases sur l'écran pendant la défragmentation pour arriver finalement à un joli résultat bien propre. C'est un très bon coup de marketing de réussir à faire un utilitaire aussi joli et apparemment indispensable pour palier les déficiences d'un système merdique. Moi aussi j'adorais regarder ça ! Afficher tout C'est une vérité universelle. Le fait que les systèmes Ext 2/3/4 de Linux soient mieux conçus que les NTFS ou FAT ne change rien au fait que lorsque le disque se rempli les fichiers se fragmentent pour utiliser au mieux l'espace disponible. Et le fait que Linux défragmente en automatique non plus. Tous les disques (hors stockage pur) ont besoins d'être reordonnés dans le temps pour être exploités au mieux.

a écrit : C'est une vérité universelle. Le fait que les systèmes Ext 2/3/4 de Linux soient mieux conçus que les NTFS ou FAT ne change rien au fait que lorsque le disque se rempli les fichiers se fragmentent pour utiliser au mieux l'espace disponible. Et le fait que Linux défragmente en automatique non plus. Tous les disques (hors stockage pur) ont besoins d'être reordonnés dans le temps pour être exploités au mieux. Afficher tout En te lisant on pourrait être impressionné par l'apparente compétence mais c'est quand même faux. Tu dis que la fragmentation n'est pas liée au fonctionnement d'un OS : ben si puisqu'il y a moins de fragmentation avec Linux qu'avec le système FAT de MS-DOS ou des anciens Windows, donc c'est tout à fait lié à la gestion du disque par l'OS. Tu dis que la fragmentation apparait quand on supprime des fichiers mais c'est aussi et surtout quand les fichiers augmentent de taille, d'où la gestion intelligente de ne pas les écrire bout à bout pour leur laisser la place d'augmenter de taille sans se fragmenter. Et non : les fichiers ne se fragmentent pas quand le disque se remplit puisqu'un système intelligent va choisir un emplacement comportant suffisamment de secteurs consécutifs pour pouvoir y écrire le fichier en entier (et même quelques secteurs en plus pour lui permettre de s'agrandir ultérieurement sans se fragmenter), et c'est bien le problème du système FAT qui utilise toujours les premiers secteurs disponibles même s'ils ne sont pas consécutifs et ne réserve pas de la place derrière en prévision d'une augmentation de taille du fichier, ce qui génère très rapidement énormément de fractionnement dès qu'on commence à modifier des fichiers, même si le disque est presque vide. Ce que tu n'as apparemment pas compris c'est que les disques gérés par Linux ou UNIX ne sont pas fractionnés non pas parce que ces OS défragmenteraient automatiquement au fur et à mesure, mais tout simplement car ils vont toujours choisir un emplacement non fractionné pour écrire leurs fichiers. Et ils n'ont aucun mal à en trouver tant que le disque n'est pas plein à 80 ou 90%, alors que le système FAT ne cherche même pas à écrire les fichiers sur des secteurs consécutifs. Donc non : le fractionnement n'est pas inhérent au fonctionnement d'un disque dur, puisque, pour que des fichiers soient fractionnés avec un bon système d'exploitation, il faut vraiement essayer de faire rentrer des gros fichiers dans un disque déjà presque plein ! Et donc j'en reviens à mon diagnostic : si tu crois que le fractionnement est inévitable et que l'utilitaire de défractionnement est la panacée c'est uniquement parce que Bill Gates a très bien vendu sa solution merdique en laissant croire qu'on ne pouvait pas faire autrement.

a écrit : En te lisant on pourrait être impressionné par l'apparente compétence mais c'est quand même faux. Tu dis que la fragmentation n'est pas liée au fonctionnement d'un OS : ben si puisqu'il y a moins de fragmentation avec Linux qu'avec le système FAT de MS-DOS ou des anciens Windows, donc c�39;est tout à fait lié à la gestion du disque par l'OS. Tu dis que la fragmentation apparait quand on supprime des fichiers mais c'est aussi et surtout quand les fichiers augmentent de taille, d'où la gestion intelligente de ne pas les écrire bout à bout pour leur laisser la place d'augmenter de taille sans se fragmenter. Et non : les fichiers ne se fragmentent pas quand le disque se remplit puisqu'un système intelligent va choisir un emplacement comportant suffisamment de secteurs consécutifs pour pouvoir y écrire le fichier en entier (et même quelques secteurs en plus pour lui permettre de s'agrandir ultérieurement sans se fragmenter), et c'est bien le problème du système FAT qui utilise toujours les premiers secteurs disponibles même s'ils ne sont pas consécutifs et ne réserve pas de la place derrière en prévision d'une augmentation de taille du fichier, ce qui génère très rapidement énormément de fractionnement dès qu'on commence à modifier des fichiers, même si le disque est presque vide. Ce que tu n'as apparemment pas compris c'est que les disques gérés par Linux ou UNIX ne sont pas fractionnés non pas parce que ces OS défragmenteraient automatiquement au fur et à mesure, mais tout simplement car ils vont toujours choisir un emplacement non fractionné pour écrire leurs fichiers. Et ils n'ont aucun mal à en trouver tant que le disque n'est pas plein à 80 ou 90%, alors que le système FAT ne cherche même pas à écrire les fichiers sur des secteurs consécutifs. Donc non : le fractionnement n'est pas inhérent au fonctionnement d'un disque dur, puisque, pour que des fichiers soient fractionnés avec un bon système d'exploitation, il faut vraiement essayer de faire rentrer des gros fichiers dans un disque déjà presque plein ! Et donc j'en reviens à mon diagnostic : si tu crois que le fractionnement est inévitable et que l'utilitaire de défractionnement est la panacée c'est uniquement parce que Bill Gates a très bien vendu sa solution merdique en laissant croire qu'on ne pouvait pas faire autrement. Afficher tout Tu te trompes. Et t'as une grande bouche pour un mec qui se trompe. Oui le FAT écrie toujours depuis le début. Le NTFS est un peu plus intelligent et laisse un peu de place mais pas assez. Et les Ext 2/3/4 laissent plus de place mais toujours pas assez lorsque le disque se rempli. Et non, c'est pas un problème de Windows, les Mac et ton cher Linux ont besoins de défragmenter aussi. Et si, Linux défragmente en automatique. Il n'est quand même pas très compliqué de comprendre que lorsque tu laisses des trous entre fichiers au bout d'un moment il va falloir les remplir.

a écrit : Tu te trompes. Et t'as une grande bouche pour un mec qui se trompe. Oui le FAT écrie toujours depuis le début. Le NTFS est un peu plus intelligent et laisse un peu de place mais pas assez. Et les Ext 2/3/4 laissent plus de place mais toujours pas assez lorsque le disque se rempli. Et non, c'est pas un problème de Windows, les Mac et ton cher Linux ont besoins de défragmenter aussi. Et si, Linux défragmente en automatique. Il n'est quand même pas très compliqué de comprendre que lorsque tu laisses des trous entre fichiers au bout d'un moment il va falloir les remplir. Afficher tout J'avais très bien compris et en effet ce n'est pas très compliqué à comprendre, en revanche tu sembles avoir du mal à comprendre que ton "au bout d'un moment" ne se produira pas tant que le disque n'est pas presque saturé si le disque est bien géré, pourtant ce n'est pas très compliqué à comprendre non plus, et avec les capacités des disques actuels c'est le cas le plus courant que les disques ne sont pas saturés. Et donc la fragmentation n'est pas inhérente aux disques durs mais seulement aux disques durs presque saturés, quel que soit le système, ou au disques durs gérés par un système merdique, mais pas aux disques durs non saturés et bien gérés. Et Linux n'est pas mon cher, c'est juste un exemple, je ne l'ai jamais utilisé, c'est UNIX que j'ai étudié en cours à l'époque. Et si j'insiste ce n'est pas parce que j'ai une grande bouche mais parce qu'on est ici pour se coucher moins bête et donc je ne peux pas laisser passer un commentaire susceptible de renforcer cette légende que la fragmentation est inhérente à l'utilisation des disques et qu'ils auraient besoin d'être défragmentés régulièrement, comme l'ont cru tous les utilisateurs de PC. La réalité c'est qu'avec une bonne gestion on peut éviter la fragmentation et les disques des PC avaient besoin d'être défragmentés car leur gestion était merdique.

a écrit : J'avais très bien compris et en effet ce n'est pas très compliqué à comprendre, en revanche tu sembles avoir du mal à comprendre que ton "au bout d'un moment" ne se produira pas tant que le disque n'est pas presque saturé si le disque est bien géré, pourtant ce n'est pas très compliqué à comprendre non plus, et avec les capacités des disques actuels c'est le cas le plus courant que les disques ne sont pas saturés. Et donc la fragmentation n'est pas inhérente aux disques durs mais seulement aux disques durs presque saturés, quel que soit le système, ou au disques durs gérés par un système merdique, mais pas aux disques durs non saturés et bien gérés. Et Linux n'est pas mon cher, c'est juste un exemple, je ne l'ai jamais utilisé, c'est UNIX que j'ai étudié en cours à l'époque. Et si j'insiste ce n'est pas parce que j'ai une grande bouche mais parce qu'on est ici pour se coucher moins bête et donc je ne peux pas laisser passer un commentaire susceptible de renforcer cette légende que la fragmentation est inhérente à l'utilisation des disques et qu'ils auraient besoin d'être défragmentés régulièrement, comme l'ont cru tous les utilisateurs de PC. La réalité c'est qu'avec une bonne gestion on peut éviter la fragmentation et les disques des PC avaient besoin d'être défragmentés car leur gestion était merdique. Afficher tout Ce qui est marrant c'est que tu t'autorises a donner des leçons alors que tu mélanges des concepts basiques. Linux tourne sur PC pour mémoire. PC ne veut pas dire Windows. Je le répète, peu importe l'OS, peu importe le système de fichiers, pour utiliser toute la capacité de stockage d'un disque dur à un moment il faut fragmenter les fichiers. Du coup au bout d'un moment pour récupérer de l'espace utile ou améliorer les perf il faudra défragmenter. C'est inhérent au fonctionnement d'un disque dur. Et c'est pas parce que la défragmentation est automatique qu'elle n'existe pas. Après évidemment quand t'utilises que 50% de ton disque t'as pas besoin de défragmenter, mais c'est valable pour tous les OS et systèmes de fichiers.

a écrit : Ce qui est marrant c'est que tu t'autorises a donner des leçons alors que tu mélanges des concepts basiques. Linux tourne sur PC pour mémoire. PC ne veut pas dire Windows. Je le répète, peu importe l'OS, peu importe le système de fichiers, pour utiliser toute la capacité de stockage d'un disque dur à un moment il faut fragmenter les fichiers. Du coup au bout d'un moment pour récupérer de l'espace utile ou améliorer les perf il faudra défragmenter. C'est inhérent au fonctionnement d'un disque dur. Et c'est pas parce que la défragmentation est automatique qu'elle n'existe pas. Après évidemment quand t'utilises que 50% de ton disque t'as pas besoin de défragmenter, mais c'est valable pour tous les OS et systèmes de fichiers. Afficher tout Je tente une dernière fois : même si on n'utilise que 50% du disque dur, un système FAT va créer des fragmentations et il faudra régulièrement défragmenter car le système ne cherche pas du tout à éviter les fragmentations quand il écrit des fichiers. Et c'est pourquoi je dis que ce système etait merdique et a repandu l'idée que la fragmentation etait inhérente aux disques durs, alors que les techniques pour éviter la fragmentation etaient tout à fait disponibles quand Bill Gates a développé MS-DOS. Et si tu comprenais un peu mieux tu aurais remarqué que je parlais de la FAT et des utilisateurs de PC au passé car PC impliquait bien une gestion du disque par MS-DOS. PC était une marque de IBM. Les ordinateurs étaient des IBM-PC puis il y a eu les compatibles PC d'autres marques mais répondant aux spécifications d'IBM et donc utilisant les mêmes processeurs et toujours sous MS-DOS (ou avec d'autres versions du DOS mais toujours le même système de fichiers). Puis il y a eu Windows mais le disque dur était toujours géré par MS-DOS derrière les fenêtres de Windows. Le fait d'installer d'autres systèmes sur des PC ou compatibles PC est venu bien après. J'arrête là : je crois que ceux qui n'avaient pas encore compris la théorie autour de la fragmentation ont largement eu de quoi apprendre et ils ont aussi largement de quoi juger lequel de nous deux est celui qui mélange des concepts basiques.

Juste pour information, sans rentrer dans les détails techniques :
- Oui, le (Q)DOS est un système de fichiers "Dirty"
- le système FAT (File Allocation Table) est une table d'allocations de fichiers (qui recensent les adresses physiques du premier octet d'un fichier sur le disque) en 8 ou 16 bits (32 bits pour la FAT32 qui n'a pas servi longtemps). L'adresse du fragment ultérieur est enregistré à la fin du segment précèdent. Évidemment, sur 8 bits ou 16 bits, le nombre d'adresses et la taille maximale de cette dernière (donc la taille maximale de la partition) est limitée, et la technologie l'a rendue rapidement obsolète.
- le système NTFS à apporter au FAT la sécurité des fichiers en définissant, dans son codage, les droits utilisateurs permettant son accès ainsi qu'un codage sur 32 bits ou 64 bits, accroissant largement la capacité de cette table d'allocations, mais pas la qualité de l'enregistrement des fichiers sous Windows (du moins, très peu).
- Enfin, et je ne sais pas si la différence provient de là, mais, à l'époque, DOS tournait sur de l'Intel (assujetti aux pages de codes) alors que les UniX (HP-UX, AIX) tournait sur du Motorola (comme Apple)
- Et ne pas oublier : Linux Is Not UX (UniX) ^^

a écrit : Juste pour information, sans rentrer dans les détails techniques :
- Oui, le (Q)DOS est un système de fichiers "Dirty"
- le système FAT (File Allocation Table) est une table d'allocations de fichiers (qui recensent les adresses physiques du premier octet d'un fichier sur le disque) en 8
ou 16 bits (32 bits pour la FAT32 qui n'a pas servi longtemps). L'adresse du fragment ultérieur est enregistré à la fin du segment précèdent. Évidemment, sur 8 bits ou 16 bits, le nombre d'adresses et la taille maximale de cette dernière (donc la taille maximale de la partition) est limitée, et la technologie l'a rendue rapidement obsolète.
- le système NTFS à apporter au FAT la sécurité des fichiers en définissant, dans son codage, les droits utilisateurs permettant son accès ainsi qu'un codage sur 32 bits ou 64 bits, accroissant largement la capacité de cette table d'allocations, mais pas la qualité de l'enregistrement des fichiers sous Windows (du moins, très peu).
- Enfin, et je ne sais pas si la différence provient de là, mais, à l'époque, DOS tournait sur de l'Intel (assujetti aux pages de codes) alors que les UniX (HP-UX, AIX) tournait sur du Motorola (comme Apple)
- Et ne pas oublier : Linux Is Not UX (UniX) ^^
Afficher tout
C'est pas toi qui m'avait dit d'ailleurs que QDOS voulait dire Quick and Dirty operating system. Je croyais à une blague vu que j'avais en tête Disk Operating System mais en vérifiant tu avais bien raison ^^.

J'avais également lu qu'UNIX restait le système d'exploitation le plus répandu toute machines confondues (ordi perso, serveurs, machine en usine, etc.). Est-ce que c'est toujours vrai ?

N'oublions pas qu'Unix existe depuis 1973... ^^

a écrit : Je tente une dernière fois : même si on n'utilise que 50% du disque dur, un système FAT va créer des fragmentations et il faudra régulièrement défragmenter car le système ne cherche pas du tout à éviter les fragmentations quand il écrit des fichiers. Et c'est pourquoi je dis que ce système etait merdique et a repandu l'idée que la fragmentation etait inhérente aux disques durs, alors que les techniques pour éviter la fragmentation etaient tout à fait disponibles quand Bill Gates a développé MS-DOS. Et si tu comprenais un peu mieux tu aurais remarqué que je parlais de la FAT et des utilisateurs de PC au passé car PC impliquait bien une gestion du disque par MS-DOS. PC était une marque de IBM. Les ordinateurs étaient des IBM-PC puis il y a eu les compatibles PC d'autres marques mais répondant aux spécifications d'IBM et donc utilisant les mêmes processeurs et toujours sous MS-DOS (ou avec d'autres versions du DOS mais toujours le même système de fichiers). Puis il y a eu Windows mais le disque dur était toujours géré par MS-DOS derrière les fenêtres de Windows. Le fait d'installer d'autres systèmes sur des PC ou compatibles PC est venu bien après. J'arrête là : je crois que ceux qui n'avaient pas encore compris la théorie autour de la fragmentation ont largement eu de quoi apprendre et ils ont aussi largement de quoi juger lequel de nous deux est celui qui mélange des concepts basiques. Afficher tout PC signifie "Personal Computer", soit "ordinateur personnel". T'as peut-être vu apparaître ce terme chez IBM mais aujourd'hui ca veut juste dire "ordinateur". Dans le langage usuel on oppose PC/MAC comme on oppose iPhone/Android, les 2 principaux OS sur le marché. Fondamentalement ce sont tous des PC. Mais certains étant plus verrouillés que d'autres les gens qui font tourner des OS underground comme Linux le font sur des architectures PC classique.

Tu pinailles avec tes histoires de FAT et DOS en rabachant que c'est caca.. mais ça n'est pas le sujet. On parle du besoin de défragmenter un disque dur, et ce besoin est présent quelques soit l'OS et la stratégie d'écriture de son système de fichiers. Parce qu'un disque dur est un support physique et que si tu laisses de l'espace de stockage inutilisé entre 2 fichiers au bout d'un moment soit tu fragmentes/défragmentes, soit tu perds en capacité de stockage.

Tu peux m'expliquer que concrètement tu n'a jamais défragmenté un disque sous Linux et je t'expliquerai que c'est normal vu qu'il le fait tout seul. Je peux même t'expliquer que j'ai jamais défragmenté mon PC sous Windows et que tout va bien alors que mon disque est plein a 95%. Pour autant, je sais que si je le faisais je récupérerai de la performance.

Bref c'est bien de mettre pleins de mots pour nous montrer que t'as des notions mais si quelqu'un propage de fausses idées c'est toi. C'est bel et bien là nature des disques durs qui impose fragmentation/défragmentation. Et même si les meilleurs systèmes de fichiers et OS rendent ce besoin transparent pour l'utilisateur, ça existe.

a écrit : Je tente une dernière fois : même si on n'utilise que 50% du disque dur, un système FAT va créer des fragmentations et il faudra régulièrement défragmenter car le système ne cherche pas du tout à éviter les fragmentations quand il écrit des fichiers. Et c'est pourquoi je dis que ce système etait merdique et a repandu l'idée que la fragmentation etait inhérente aux disques durs, alors que les techniques pour éviter la fragmentation etaient tout à fait disponibles quand Bill Gates a développé MS-DOS. Et si tu comprenais un peu mieux tu aurais remarqué que je parlais de la FAT et des utilisateurs de PC au passé car PC impliquait bien une gestion du disque par MS-DOS. PC était une marque de IBM. Les ordinateurs étaient des IBM-PC puis il y a eu les compatibles PC d'autres marques mais répondant aux spécifications d'IBM et donc utilisant les mêmes processeurs et toujours sous MS-DOS (ou avec d'autres versions du DOS mais toujours le même système de fichiers). Puis il y a eu Windows mais le disque dur était toujours géré par MS-DOS derrière les fenêtres de Windows. Le fait d'installer d'autres systèmes sur des PC ou compatibles PC est venu bien après. J'arrête là : je crois que ceux qui n'avaient pas encore compris la théorie autour de la fragmentation ont largement eu de quoi apprendre et ils ont aussi largement de quoi juger lequel de nous deux est celui qui mélange des concepts basiques. Afficher tout Encore une précision que j'avais omis de mentionner dans mon message précédent et qui justifie que je pouvais bien dire (au passé) que PC voulait dire que la machine tournait avec MS-DOS (ou Windows). Bill Gates avait négocié un contrat d'exclusivité avec IBM : les PC ne pouvaient pas être vendus sans MS-DOS, les acheteurs n'avaient pas le choix de l'OS (bien sûr ils auraient pu le désinstaller pour le remplacer par un autre OS après l'achat mais pourquoi s'embêter alors qu'ils avaient déjà acheté cet OS) c'est ce qui a permis l'hégémonie de MS-DOS malgré ses défauts et c'est pourquoi je disais que Bill Gates était plus doué en marketing qu'en informatique !

a écrit : PC signifie "Personal Computer", soit "ordinateur personnel". T'as peut-être vu apparaître ce terme chez IBM mais aujourd'hui ca veut juste dire "ordinateur". Dans le langage usuel on oppose PC/MAC comme on oppose iPhone/Android, les 2 principaux OS sur le marché. Fondamentalement ce sont tous des PC. Mais certains étant plus verrouillés que d'autres les gens qui font tourner des OS underground comme Linux le font sur des architectures PC classique.

Tu pinailles avec tes histoires de FAT et DOS en rabachant que c'est caca.. mais ça n'est pas le sujet. On parle du besoin de défragmenter un disque dur, et ce besoin est présent quelques soit l'OS et la stratégie d'écriture de son système de fichiers. Parce qu'un disque dur est un support physique et que si tu laisses de l'espace de stockage inutilisé entre 2 fichiers au bout d'un moment soit tu fragmentes/défragmentes, soit tu perds en capacité de stockage.

Tu peux m'expliquer que concrètement tu n'a jamais défragmenté un disque sous Linux et je t'expliquerai que c'est normal vu qu'il le fait tout seul. Je peux même t'expliquer que j'ai jamais défragmenté mon PC sous Windows et que tout va bien alors que mon disque est plein a 95%. Pour autant, je sais que si je le faisais je récupérerai de la performance.

Bref c'est bien de mettre pleins de mots pour nous montrer que t'as des notions mais si quelqu'un propage de fausses idées c'est toi. C'est bel et bien là nature des disques durs qui impose fragmentation/défragmentation. Et même si les meilleurs systèmes de fichiers et OS rendent ce besoin transparent pour l'utilisateur, ça existe.
Afficher tout
Tu espères vraiment convaincre quelqu'un en donnant la traduction de "personnal computer" ? Non, PC ne se traduit pas par "ordinateur personnel", c'est une marque déposée d'IBM. Et le fait qu'on l'emploie couramment aujourd'hui à propos d'une architecture sans préciser "compatible" n'a rien à voir avec mon explication qui était, je te le rappelle, située dans le passé, à la grande époque où les utilisateurs se faisaient un devoir de faire fièrement tourner la défragmentation et admiraient le travail de l'ordinateur en observant les petites cases clignotantes et ont eu leur esprit marqué par ça. Je l'avais pourtant bien précisé et ça ne me parait pas trop difficile à comprendre, alors je me demande pourquoi tu reviens avec des explications sur ce qui se dit aujourd'hui ?

C'est pas le peine d'essayer de tout mélanger, le passé et le présent, les PC et les Mac, la fragmentation et l'espace libre, etc. pour essayer d'avoir raison, car si : c'est le sujet. Le sujet c'est que j'ai dit que les gens croient que les disques se fragmentent irrémédiablement et qu'il faut les défragmenter de temps en temps car ils ont été conditionnés par le PC et son système d'exploitation MS-DOS, et c'est un fait.

Tu es tellement pressé de me contredire que tu n'as pas remarqué que je te disais que c'est faux d'affirmer, comme tu le fais, que "quand t'utilises que 50% de ton disque t'as pas besoin de défragmenter, c'est valable pour tous les OS et systèmes de fichiers" ? Alors je le répète et j'insiste : c'est faux. Avec le système FAT, que le disque soit utilisé à 10%, ou 50% ou 95%, le disque sera tout autant fragmenté au bout d'un moment et il aura tout autant besoin d'être défragmenté. Tu peux essayer de comprendre comment fonctionne le système FAT si tu t'intéresses à l'histoire de l'informatique, ou tu peux laisser les lecteurs juger par eux-mêmes. Et c'est de ce système de fichier merdique que vient cette légende qu'un disque va forcément se fragmenter au fur à mesure qu'on l'utilise.

Et en plus tu prétends que j'aurais seulement des notions... J'abandonne : si tu veux avoir le dernier mot, tu n'as qu'à laisser un dernier message et tu auras gagné.

a écrit : C'est pas toi qui m'avait dit d'ailleurs que QDOS voulait dire Quick and Dirty operating system. Je croyais à une blague vu que j'avais en tête Disk Operating System mais en vérifiant tu avais bien raison ^^.

J'avais également lu qu'UNIX restait le système d'exploitati
on le plus répandu toute machines confondues (ordi perso, serveurs, machine en usine, etc.). Est-ce que c'est toujours vrai ?

N'oublions pas qu'Unix existe depuis 1973... ^^
Afficher tout
Effectivement, j'avais évoqué Q-DOS dans une anecdote il y a peu :).
Pour Unix, il n'existe pas un mais des Unix (y compris les différentes distributions de Linux). Même Android, qui est un dérivé de Linux. Les puristes affirment (avec raison) que "Linux Is Not Unix", mais c'est quand même vachement proche (l'un est GNU, c'est à dire libre de droit, pas l'autre ni Android).
Alors, difficile de dire quel système est le plus répandu...
J'ai toujours eu tendance a aimé les commandes en ligne (pas d'achats sur Internet, hein, des commandes dites système, pour lui dire ce qu'il doit faire), beaucoup plus précises et "optionnées" (pardon pour le barbarisme) que celles, plus pauvres, auxquelles on peut accéder via un clic de souris à travers une IHM graphique telle que Windows. Et, avec Linux, tu peux faire ce que tu veux de ton système sans avoir de comptes à rendre à qui que ce soit... La liberté, quoi... Mais ça implique des compétences que tout le monde n'a pas. Donc, pour un PC maison, bin... Windows est le moins pire. Fût un temps, j'aurai recommandé Apple (ils faisaient vraiment d'excellents produits robustes sous processeurs Motorola) mais depuis qu'ils sont passés sous processeurs Intel et dérivés, bin c'est devenu un Windows hors de prix !!! Merci Microsoft !!!

a écrit : Tu espères vraiment convaincre quelqu'un en donnant la traduction de "personnal computer" ? Non, PC ne se traduit pas par "ordinateur personnel", c'est une marque déposée d'IBM. Et le fait qu'on l'emploie couramment aujourd'hui à propos d'une architecture sans préciser "compatible" n'a rien à voir avec mon explication qui était, je te le rappelle, située dans le passé, à la grande époque où les utilisateurs se faisaient un devoir de faire fièrement tourner la défragmentation et admiraient le travail de l'ordinateur en observant les petites cases clignotantes et ont eu leur esprit marqué par ça. Je l'avais pourtant bien précisé et ça ne me parait pas trop difficile à comprendre, alors je me demande pourquoi tu reviens avec des explications sur ce qui se dit aujourd'hui ?

C'est pas le peine d'essayer de tout mélanger, le passé et le présent, les PC et les Mac, la fragmentation et l'espace libre, etc. pour essayer d'avoir raison, car si : c'est le sujet. Le sujet c'est que j'ai dit que les gens croient que les disques se fragmentent irrémédiablement et qu'il faut les défragmenter de temps en temps car ils ont été conditionnés par le PC et son système d'exploitation MS-DOS, et c'est un fait.

Tu es tellement pressé de me contredire que tu n'as pas remarqué que je te disais que c'est faux d'affirmer, comme tu le fais, que "quand t'utilises que 50% de ton disque t'as pas besoin de défragmenter, c'est valable pour tous les OS et systèmes de fichiers" ? Alors je le répète et j'insiste : c'est faux. Avec le système FAT, que le disque soit utilisé à 10%, ou 50% ou 95%, le disque sera tout autant fragmenté au bout d'un moment et il aura tout autant besoin d'être défragmenté. Tu peux essayer de comprendre comment fonctionne le système FAT si tu t'intéresses à l'histoire de l'informatique, ou tu peux laisser les lecteurs juger par eux-mêmes. Et c'est de ce système de fichier merdique que vient cette légende qu'un disque va forcément se fragmenter au fur à mesure qu'on l'utilise.

Et en plus tu prétends que j'aurais seulement des notions... J'abandonne : si tu veux avoir le dernier mot, tu n'as qu'à laisser un dernier message et tu auras gagné.
Afficher tout
C’est vrai que le système FAT est naze et qu’il se fragmente, même remplit à peine à 1%.

Mais c’est vrai aussi qu’un disque quasi-plein aura des problèmes de fragmentation, et ce quelque soit l’OS, c’est inhérent au disque et sa structure en blocs. Après, à vous de voir si c’est une "mauvaise gestion"ou une "bonne gestion" d’avoir un stockage quasi plein puisque cette stratégie vient de l’utilisateur, mais ce n’est pas le point ici.

Les systèmes de fichier style Unix l’ont toujours mieux géré et en arrière-plan, donc au final lancer une défragmentation ne vaut pas le coup pour l’utilisateur lambda, et pas de bling-bling comme avec l’utilitaire le Microsoft.
Mais si on remplit régulièrement un disque complètement, qu’on efface des fichiers, et qu’on le remplit à nouveau complètement, au bout d’un moment la fragmentation est inévitable, même sous Unix.
C’est bien décrit dans la littérature.
Une source parmi d’autres : events.static.linuxfound.org/slides/2010/linuxcon_japan/linuxcon_jp2010_fujita.pdf

En passant il existe plusieurs types de fragmentation (voir page 30) donc votre discussion vient sûrement de là, je pense qu’un parle de la fragmentation de fichier et l’autre de la fragmentation d’espace libre.

a écrit : Effectivement, j'avais évoqué Q-DOS dans une anecdote il y a peu :).
Pour Unix, il n'existe pas un mais des Unix (y compris les différentes distributions de Linux). Même Android, qui est un dérivé de Linux. Les puristes affirment (avec raison) que "Linux Is Not Unix", mais c'est quand mêm
e vachement proche (l'un est GNU, c'est à dire libre de droit, pas l'autre ni Android).
Alors, difficile de dire quel système est le plus répandu...
J'ai toujours eu tendance a aimé les commandes en ligne (pas d'achats sur Internet, hein, des commandes dites système, pour lui dire ce qu'il doit faire), beaucoup plus précises et "optionnées" (pardon pour le barbarisme) que celles, plus pauvres, auxquelles on peut accéder via un clic de souris à travers une IHM graphique telle que Windows. Et, avec Linux, tu peux faire ce que tu veux de ton système sans avoir de comptes à rendre à qui que ce soit... La liberté, quoi... Mais ça implique des compétences que tout le monde n'a pas. Donc, pour un PC maison, bin... Windows est le moins pire. Fût un temps, j'aurai recommandé Apple (ils faisaient vraiment d'excellents produits robustes sous processeurs Motorola) mais depuis qu'ils sont passés sous processeurs Intel et dérivés, bin c'est devenu un Windows hors de prix !!! Merci Microsoft !!!
Afficher tout
Essaie de l’Apple sour architecture ARM, (M1) tu retrouveras les plaisirs connus avec ton cpu Motorola...

a écrit : Essaie de l’Apple sour architecture ARM, (M1) tu retrouveras les plaisirs connus avec ton cpu Motorola... Ok. J'essaie dès que j'en ai l'occasion. J'avoue bouder Apple depuis qu'il s'est commis avec Intel... Tu as peut être réactivé un intérêt moribond !!! :)

a écrit : C’est vrai que le système FAT est naze et qu’il se fragmente, même remplit à peine à 1%.

Mais c’est vrai aussi qu’un disque quasi-plein aura des problèmes de fragmentation, et ce quelque soit l’OS, c’est inhérent au disque et sa structure en blocs. Après, à vous de voir si c’est une "mauvaise gestion&
quot;ou une "bonne gestion" d’avoir un stockage quasi plein puisque cette stratégie vient de l’utilisateur, mais ce n’est pas le point ici.

Les systèmes de fichier style Unix l’ont toujours mieux géré et en arrière-plan, donc au final lancer une défragmentation ne vaut pas le coup pour l’utilisateur lambda, et pas de bling-bling comme avec l’utilitaire le Microsoft.
Mais si on remplit régulièrement un disque complètement, qu’on efface des fichiers, et qu’on le remplit à nouveau complètement, au bout d’un moment la fragmentation est inévitable, même sous Unix.
C’est bien décrit dans la littérature.
Une source parmi d’autres : events.static.linuxfound.org/slides/2010/linuxcon_japan/linuxcon_jp2010_fujita.pdf

En passant il existe plusieurs types de fragmentation (voir page 30) donc votre discussion vient sûrement de là, je pense qu’un parle de la fragmentation de fichier et l’autre de la fragmentation d’espace libre.
Afficher tout
Je suis entièrement d'accord. À part peut-être sur le diagnostic de l'origine de la discussion : je pense plutôt que la personne qui m'a répondu ne connaissait pas assez l'informatique et son histoire pour avoir conscience que la "défragmentation" a été rendue nécessaire et popularisée à cette occasion par le système développé par Bill Gates, ce qui n'aurait jamais été le cas si ce système avait été mieux conçu, et que quand il l'a compris c'était trop tard pour admettre que mon commentaire à ce sujet était pertinent et que c'était sa réponse qui ne l'était pas.

a écrit : Je suis entièrement d'accord. À part peut-être sur le diagnostic de l'origine de la discussion : je pense plutôt que la personne qui m'a répondu ne connaissait pas assez l'informatique et son histoire pour avoir conscience que la "défragmentation" a été rendue nécessaire et popularisée à cette occasion par le système développé par Bill Gates, ce qui n'aurait jamais été le cas si ce système avait été mieux conçu, et que quand il l'a compris c'était trop tard pour admettre que mon commentaire à ce sujet était pertinent et que c'était sa réponse qui ne l'était pas. Afficher tout Je m'y connais très bien en informatique et je rebondissais uniquement sur l'aspect fragmentation/défragmentation, un besoin inhérent à la structure d'un disque dur. C'est toi qui fait un blocage sur "la mauvaise gestion de Windows".

a écrit : Je m'y connais très bien en informatique et je rebondissais uniquement sur l'aspect fragmentation/défragmentation, un besoin inhérent à la structure d'un disque dur. C'est toi qui fait un blocage sur "la mauvaise gestion de Windows". Décidément tu as du mal à comprendre... Mon premier commentaire sur lequel tu t'es déchaîné ne parlait même pas de Windows. Essaie de le relire et demande-toi s'il y avait vraiment lieu de le démentir, si tu t'y connais tellement en informatique, ou si tu as eu le temps de réviser depuis.