È male se milioni di file sono memorizzati in una cartella NTFS?

Ho un grande volume NTFS con capacità di oltre 20 TB e che contiene milioni di file. Se metto tutti i file nella stessa cartella, so che le performance sono male quando apro la cartella in Esplora risorse.

Le performance sono ancora cattive se apro uno dei file direttamente nel mio programma?

Se stai aprendo direttamente il file, non import quanti file ci siano. ma se utilizzi il TAB automatico per accedere al file più velocemente, influirà sicuramente sulle performance.

Qui ho trovato qualche indizio -> https://stackoverflow.com/questions/197162/ntfs-performance-and-large-volumes-of-files-and-directories

Per rispondere più direttamente alla tua domanda: se stai guardando le entrate di 100K, non preoccupatevi. Vai a bussare fuori. Se stai guardando decine di milioni di voci, allora:

a) Crea piani per suddividerli in sotto-cartelle (ad esempio, diciamo di avere file 100M. È meglio memorizzarli in 1000 cartelle in modo da avere solo 100.000 file per cartella che memorizzarli in una grande cartella. creerà 1000 indici di cartella anziché un singolo grande che abbia più probabilità di colpire il limite massimo dei frammenti

b) Effettui i piani per eseguire contig.exe regolarmente per mantenere l'indice della grande cartella deframmentata.

Leggere qui sotto solo se sei annoiato.

Il limite effettivo non è sul # di frammento, ma sul numero di record del segmento di dati che memorizza i puntatori sul frammento.

Quindi quello che hai è un segmento di dati che memorizza i puntatori ai frammenti dei dati della directory. I dati delle directory memorizzano informazioni sulle sotto-directory e sotto-file che la directory è presumibilmente memorizzata. In realtà, una directory non "memorizza" nulla. È solo una funzionalità di tracciamento e presentazione che presenta l'illusione della gerarchia all'utente poiché il mezzo di archiviazione è lineare.