Perché l'hardware viene più lento nel tempo?

Perché l'hardware viene più lento nel tempo? Sono stato proprietario di un PC dal 1990 e each computer che ho avuto in vita è diventato veramente lento, dopo 3-4 anni (anche con un completo reinstallazione). È il caso dei PC Windows. È anche il caso di Apple Hardware. Perché questo accade? Può essere evitato?

A volte è l'hardware, soprattutto con i computer porttili. I processri moderni dispongono di circuiti per proteggerli dal surriscaldamento e riducono deliberatamente la velocità della CPU se la temperatura interna si riscalda troppo (o anche per risparmiare energia quando la domanda è bassa e stai correndo sulle batterie – Intel chiama la function "SpeedStep" loro processri). Se notate che il ventilatore è in function per tutto il tempo o se la macchina si è esaurita in modo eccessivo intorno alla ventola di raffreddamento, le "vie aeree" del computer potrebbero essere intasate con la polvere.

Ho avuto una Dell Latitude che è andata come nuova dopo averlo aperto e rimosso circa una spugna di spessore di circa un quarto di pollice tra la ventola e il dissipatore di calore. Dell ha effettivamente istruzioni di servizio scaricabili sul loro sito web che spiegano tutti i passaggi per aprire la macchina e entrare per questo tipo di servizio. Se non sei a tuo agio con questo, probabilmente hai un amico techie che ti aiuterà. Vale sicuramente il rischio se stai pensando di sbarazzarsi della macchina altrimenti!

Se pensi che questo potrebbe essere quello che sta succedendo, prova a scaricare un'utilità come "SpeedFan" che ti permette di controllare la temperatura della CPU e degli altri componenti. Con questa applicazione è ansible visualizzare le temperature quando si avvia la macchina. Se iniziano a salire rapidamente e non sembrano diminuire, puoi scommettere che il raffreddamento sia un problema. Nel mio caso, ho anche usato una app gratuita chiamata "CS Fire Monitor" per mostrare la velocità reale del mio processre e ho scoperto che una volta che si è riscaldata, stava cadendo a less della metà di velocità. Ci sono un sacco di buoni freeware che ti mostreranno questo tipo di informazioni; solo Google "CPU Temp Freeware" o "CPU Speed ​​Freeware" o qualcosa lungo queste righe e troverai tutti i tipi di opzioni.

Speriamo che questo farà risparmiare alcune persone a sostituire oa buttare via hardware decente che necessita solo di una terapia respiratoria!

Ci sono alcuni effetti qui:

  1. La tua percezione di quanto velocemente dovrebbe essere il computer sta cambiando. Quando si ottiene nuovi hardware si ha qualcosa di concreto per confrontarlo contro il vecchio hardware. Questo ti dà una misura empirica del miglioramento della velocità. Con il passare del tempo la tua memory di quanto lento il vecchio hardware è scomparso, hai solo quanto velocemente l'hardware corrente è stato di recente confrontato.
  2. Usciranno nuove versioni del software che aggiungono nuove funzionalità per estendere funzionalità o utilizzare il nuovo hardware. Questo sarà, per definizione, un programma più grande di prima che richiederà più risorse in modo che il tuo hardware possa funzionare un po 'più lento.
  3. Accumulazione di driver, programmi / attività in esecuzione in background ecc. Ogni attività aggiuntiva del driver / background richiede un po 'più risorse – spazio su disco rigido, memory, loops di CPU ecc. Mentre ognuno non è grande, l'effetto è cumulativo. Le persone si aspettano che i programmi moderni si aggiornino in modo che ci siano ulteriori compiti che non si conoscono. Più a lungo hai il computer più di questi programmi probabilmente avrai installato.

Quando prendono insieme, danno l'impressione che l'hardware sta rallentando.

Ci possono essere altri effetti dovuti all'usura dell'hardware (frammentazione del disco, latenza di memory).

Quando ho eseguito benchmark (entrambi banali come i falsi e più gravi come Dhrystone e Whetstone ) su hardware da cinque a otto anni, ho sempre trovato che si è trasformato negli stessi risultati come quando era nuovo. (Sempre su Linux e Mac OS boxen, BTW.)

Ho less esperienza con i dischi rigidi, ma ho provato una unità SCSI2 veloce e larga di circa cinque anni (con hdparm ) e ho risposte paragonabili a quelle originali.

Quindi, penso che sia per lo più, come altri hanno detto, una combinazione di nuove aspettative e un software più pesante.

Detto questo, ho attualmente un powerbook G4 che potrebbe utilizzare il test, in quanto sicuramente si sente più lento di quello che abituava. Il suggerimento di cui sopra che la caduta di clock può entrare in gioco se il sistema di raffreddamento viene fallo è un bene.

La Legge della pagina 😉

Alcuni rallentamenti sono causati dalla frammentazione del disco rigido, la cui cura è la deframmentazione .
questo è definito come:

la frammentazione del file system, talvolta chiamata l'invecchiamento del file system, è l'incapacità di un file system di disporre sequenzialmente (contiguamente) i relativi dati, un fenoless intrinseco nei sisthemes di file con archiviazione che permettono di modificare in loco il loro contenuto. Si tratta di un caso speciale di frammentazione dei dati. La frammentazione del file system aumenta il movimento della testa del disco o cerca, che sono noti per ostacolare il throughput. La correzione alla frammentazione esistente è quella di riorganizzare i file e lo spazio libero in aree contigue, un process chiamato deframmentazione.

Su Windows c'è un altro motivo, quello del Registro di sistema di Windows

Il Registro di sistema di Windows è un database che memorizza le impostazioni e le opzioni per i sisthemes operativi Microsoft Windows. Contiene informazioni e impostazioni per hardware, software di sistema operativo, maggior parte dei software di sistema non operativi e impostazioni per utente. Il Registro di sistema fornisce anche una window nel funzionamento del kernel, esponendo informazioni di runtime come contatori di performance e attualmente hardware attivo.

Nel tempo, il tempo del registro si accumula spazzatura e ha anche bisogno di essere pulito e ottimizzato.

Un'altra spiegazione è che le versioni più recenti del sistema operativo sono di solito più gonfie e così più lente. Ciò significa che solo installando l'ultima versione o patch di O / S, dopo qualche anno si noterà improvvisamente che il computer è ora più lento e che è ora di investire in nuovi hardware in grado di supportre efficacemente i requisiti della versione più recente del sistema operativo.

Si abitua alla velocità e ora si sente più veloce.

Ad esempio, avevo un cliente che aveva una routine (che consideravano il tempo di inattività) che ha passato un'ora su un vecchio computer e quando hanno aggiornato il computer, il process ha impiegato cinque minuti che li ha resi molto felici per un po '.

Avanzano velocemente alcuni anni e ora si lamentano di questa routine prendendo cinque minuti. E each volta che si lamentano, sembrano veramente dimenticati del tempo che ci occorre un'ora.

C'è una certa quantità di percezione, ma se stai effettivamente misurando una riduzione delle performance, mi aspetto di spostare parti nel sistema.

"Spostando le parti", si chiede, "quali parti in movimento?"

Due categorie facili da controllare: fan e dischi. I ventilatori sono evidenti, ma oltre al ventilatore stesso, assicurarsi che il stream d'aria e il raffreddamento non siano liberi per garantire che le temperature dei componenti interne siano anche where erano quando la scatola era nuova. I dischi sono un po 'più sottili, ma un disco deteriorante può ridurre drammaticamente le performance mentre appariva al lavoro. Verifica se i benchmark del disco corrispondono a nuove performance o se il numero di errori è drammaticamente aumentato.

Mentre non si muovono veramente, sono l'equivalente morale: connettori per cavi. Qualsiasi estremità staccabile di each cavo. Scolbind, assicurare la pulizia, ricolbind e garantire stretti.

Forse è puramente alla tua percezione.

3-4 anni fa, era un nuovo hardware sparkling che era più veloce della precedente generazione di hardware, quindi si sentiva molto veloce.

In 3-4 anni da allora, senza dubbio hai utilizzato computer con hardware migliore, quindi anche se fai un'installazione pulita sulla vecchia macchina, le tue esperienze su hardware più recenti partiranno con un'image pazzesca della vecchia macchina.

O hai prove empiriche che la macchina effettivamente esegue più lentamente?

Credo che alcuni aggiornamenti driver aggiornino in questi giorni anche il firmware sul dispositivo correlato. Ci sono anche potenziali aggiornamenti del microcode del CPU, anche se rari.

Ho visto alcuni strumenti di diagnostica / benchmark popolari che pnetworkingndono che le cose funzionavano a velocità normale, ma c'era una sorta di problema di basso livello driver / hardware che ha causato il puntatore del mouse a strisciare e saltare. All'epoca non sapevo di misurare la latenza DPC – che probabilmente avrebbe indicato che lo strumento avrebbe avuto un problema.

Il punto è – è ansible che le cose possano rallentare in modo che le cose si sentano più lente ma non si presentano nel tipo di strumenti utilizzati dagli utenti casuali del PC.

Se qualcuno vuole scavare in questo, penso che dovrebbero avere due computer identici, l'altro mai connettersi in networking, mai get aggiornamenti o nuovi driver installati. E tempo che entrambi i computer usano il timer esterno / controllare il tempo da NTP solo per essere sicuri. – e dopo 4 anni, il tempo di nuovo e se c'è una differenza, clonare il disco dal computer non collegato al connesso e riprovare. E controllare eventuali modifiche di versione del firmware ecc. Edit: E quando dico "tempo" intendo la temporizzazione di un'attività personalizzata, non utilizzando il benchmark esistente. Sia i produttori di GPU che di CPU sono stati presi in gioco i parametri di riferimento noti secondo Anandtech e pochi altri siti negli ultimi anni che ho letto.

In realtà questo non è un problema tecnico, ma piuttosto un problema del cervello umano. Questo può sorprenderti, ma lasciathemes spiegare. Ho una buona base per quello che dico.

Una parte del problema è il modo in cui vengono applicati i software e le patch, ma questo non è il nucleo del problema che non credo.

Le macchine hardware hanno registrato notevoli progressi negli anni, ma la capacità del software di caricarla è aumentata a un ritmo ancora più rapido, dando la percezione e l'attualità che alcune cose sono più lente, come lo sono.

Per esempio la mia prima scatola Z-80 aveva una velocità di clock di 1 mega hertz. Ora la mia piattaforma di sviluppo è di 2,66 ghz, o più di 2000 volte più veloce. Non mi ricordo esattamente, ma tutto il CPM misura in circa 16kb. Ora Windows è chi sa quanto grande, ma molto, molto più grande. Utilizza molti strati di astrazione che ottengono cose incredibili in modo più generale, ma questi strati si prendono il pedaggio sulle performance.

Permettethemes di tornare al cervello umano. Quello che è ben capito è che gli ingegneri del software per molti anni hanno detto e creduto con qualche buona ragione, che l'hardware sarebbe solo più veloce e più veloce e quindi il software non ha bisogno di stare attenti con i problemi di ottimizzazione. Così i programmatori facevano cose per far funzionare le cose e rapidamente a costo della velocità, pensando che le persone hardware avrebbero cura di questo problema. Così gli aggiornamenti e le patch vengono fatti con il pensiero che sono temporanei, cioè a breve termine.

È: breve termine, micro pensiero, a lungo termine, problema macro.

Ho letto un libro interessante molti anni fa, where un paio di scienziati hanno presentato questo breve termine rispetto a un problema di pensiero umano a lungo termine e hanno fatto alcuni esperimenti su una vasta gamma di esseri umani per vedere come fanno questi compromessi. Il loro libro è New World New Mind, e gli autori sono Paul Ehrlich e Robert Ornstein. Vorrei metterlo giù come il libro più importnte che ho letto negli ultimi 20 anni perché forniva un quadro solido per come risolviamo il problema.

Quello che hanno notato è che il cervello umano si è evoluto in un momento in cui le decisioni a breve termine hanno avuto senso. Vivete per il momento e per il giorno, ma non pensate molto al futuro. Non è valsa la pena. Così il nostro senso intestinale di cose che spesso usiamo per prendere decisioni è una parte molto vecchia del cervello e non adatta a molti problemi moderni. E il cervello non ha avuto tempo realistico per evolvere in quanto il mondo si è rapidamente cambiato con la crescita della popolazione e l'impatto della tecnologia sulle cose.

Quale professore Ehrlich e Ornstein scoprirono era che i dottorandi molto intelligenti e ben istruiti ma anche i padroni di casa hanno fatto gli stessi errori quando presentati con problemi a breve termine rispetto a quelli a lungo termine. Non è qualcosa che generalmente pensiamo sia il caso.

Un esempio molto buono e convincente di come questo stesso problema sta giocando nel mondo di oggi, non deve NON con l'ambiente hardware, ma è il fratello maggiore l'integer ambiente in cui viviamo. Noi umani, generalmente, commettiamo l'errore di vivere per oggi, per il momento, ma la realtà è che il riscaldamento globale è su di noi esattamente perché non l'abbiamo permesso o abbiamo preso misure per farlo. È il rallentamento dell'hardware, dal problema software, di nuovo, ma in un context diverso.

Ornstein e Ehrlich hanno suggerito che potremmo essere in grado di prendere decisioni più corrette basando la nostra decisione non sul nostro istinto di cervello, ma piuttosto sui dati e sulle statistiche. Quindi, ad esempio, se un ingegnere software avesse statistiche su come velocemente il loro software era gonfiato rispetto a quanto velocemente l'hardware venisse più veloce, potrebbero prendere decisioni migliori su cosa includere, cosa lasciare fuori e quanto per ottimizzare gli algoritmi. In altre parole, se avessero utilizzato i dati effettivi per prendere decisioni, piuttosto che l'istinto dello stomaco.

Grazie per la buona domanda. A volte le domande semplici sono le migliori che penso. mi ha dato l'opportunità di considerare questo da un nuovo angolo. Non avevo mai visto prima il parallelo tra il problema del software hardware nel context umano.

La maggior parte dei parametri di riferimento (se del caso) non sono affidabili nel misurare l'ingombro del sistema operativo. A less che il benchmark non sia un sistema USB-USB che controlla l'UI di un altro computer, emulando essere un mouse / tastiera, i routes di esecuzione saranno completamente diversi. La lentezza dei PC che conosco è dovuta agli aggiornamenti di driver / sicurezza che possono anche aggiornare il firmware (e non sappiate se l'aggiornamento fw nel driver persiste o no), quindi le uniche vere mele a confronto di mele sono acquistare 2 computer e non colbind mai l'altro ad internet o aggiornare i driver dopo la prima installazione ma conservarlo per un confronto successivo utilizzando tale strumento di benchmarking esterno.

Ho iniziato a sospettare tutti i parametri di riferimento quando ho trovato un caso in cui il benchmark era restituendo numbers "tutti buoni" mentre alcuni problemi hardware stava causando il mouse a bloccarsi e il sistema era in realtà solo a malapena controllabile – chiaramente i parametri di riferimento non sono influenzati da alcuni bassi livello di cose che possono interessare ad esempio. graffi e controllabilità del PC.

(Caso leggermente diverso ma simile: anche se Q6600 benchmarkato circa lo stesso Ghz doppio core, ho notato che la risposta era chiaramente inferiore. In quel momento è stato spiegato che dovuto a Win-Vista scheduler non è buono con 4 core-point essere poichè la maggior parte dei parametri di riferimento che mostrano che l'FPS non avrebbe rilevato alcuni piccoli spuntini che l'utente avrebbe sentito, i parametri del PC che usano la tecnologia printing non misurano le cose come "interrompere la latenza di process" e mostrare le statistiche di questo invece di solo una media)

edit: E se stai facendo questa configuration con PC di riferimento incontaminato, se ha una batteria e o è sempre alimentato, il produttore di hw potrebbe ingannare eseguendo un LFO per obsoleto segreto l'hardware ad esempio. rallentando alcune operazioni che i parametri di riferimento non benchmarkano. Un migliore benchmark di printing del gioco dovrebbe essere eseguito ad esempio. dosbox, emulatori, misure di latenza all'interno di vmware / hyperv in quanto ciò imporrà la CPU in modi più complessi di quanto non lo sia.

edit2: e se volevano veramente poter mettere in qualcosa di vecchio o qualche contatore e condensatore ultra-basso di potenza o una batteria minima caricata in fabbrica. Quindi, non import se non potresti mai alimentare il dispositivo, potrebbe rendere più lento il tempo, ma questo tipo di cose potrebbe essere una responsabilità se qualcuno lo trova, ma non import se non è stato fatto illegale e le multe sono state sufficienti per metterle fuori di affari.