> на той же NTFS от M$ (не к ночи будет помянуто)
> реализован более гибкий подход к формированию метаданных
Это на ntfs-то более гибкий?
Почему ж тогда файлы фрагментируются неимоверно и есть _куча_ софта для дефрагментации ntfs/fat/fat32 ?
Как раз наоборот, юниксовые ФС очень грамотно используют распределение файлов и даже при 90% заполнении раздела кучей файлов (например, спул news сервера) фрагментация не вырастала более 15%
А средняя фрагментация на обычном разделе не превышает 5-7%
Да в винде после переустановки винды - и то фрагментация больше.
Вот тебе живой пример (специально размонтировал раздел):
$ e2fsck /dev/hdc2
e2fsck 1.27 (8-Mar-2002)
/dev/hdc2 has gone 624 days without being checked, check forced.
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
/dev/hdc2: 2723/2354688 files (3.4% non-contiguous), 3606349/4707045 blocks
"No! Try not! Do. Or do not. There is no try." -- Yoda