Avell Diroll a écrit : > Les filesystems utilisés par linux (ext, reiser, ...) ne nécessitent > pas de défragmentation (ext4 fait de la défragmentation en direct, les > autres se fragmentent si peu qu'on observe pas de dégradation des > performances du disque sur sa durée de vie).
Est-ce toujours vrais avec une utilisation "moderne" d'un ordinateur? (je parle du Ext2-3) J'entends par la que de plus en plus fréquemment on bourre nos disques durs de très gros fichier de plusieurs Go (films HD) parmis des plus petits (photos), jusqu'à saturation, puis effacement, puis remplissage et ainsi de suite. Avec une telle utilisation, j'ai du mal à imaginer comment, à terme, une fragmentation puisse être nulle voir non perceptible niveau performances (je ne suis cependant pas un ingénieur en FS) Néanmoins je serait intéressé par des résultats de tests concrets qui en diront plus long qu'un "le Ext ça se fragmente pas". Ayant eu vent des atouts similaires du HFS+ du mac, je peux vous assurer que j'ai eu de sacrés grains de performances après avoir recopié toutes mes données (défragmentation méthode brute) sur le disque après 2 ans d'utilisation TRES intensive du disque (voir ci-dessus). Je n'ai pas encore eu l'occasion de tester celà sérieusement sous linux. PS: je veux pas lancer de troll, mais je préfère croire ce que je vois plutôt que ce qu'on me dit. :) > - La solution la plus "propre", mais pas forcément applicable, est de > sauvegarder les données sur un autre filesystem, de formater la > partition, puis de remettre les données dessus. (j'avais prévenu que ce > n'était pas forcément applicable). Et bien parfois plus rapide ! -- ubuntu-fr mailing list [email protected] https://lists.ubuntu.com/mailman/listinfo/ubuntu-fr
