Por que o hardware fica mais lento com o tempo?

37

Por que o hardware fica mais lento com o tempo? Eu tenho um dono de PC desde 1990 e todos os computadores que tive na minha vida tornaram-se realmente, realmente lentos após 3-4 anos (mesmo com uma reinstalação completa do sistema). É o caso dos PCs com Windows. É também o caso da Apple Hardware. Por que isso está acontecendo? Isso pode ser evitado?

    
por Alexey Kulikov 14.10.2009 / 13:12

11 respostas

32

Às vezes, é o hardware, especialmente com laptops. Os processadores modernos têm circuitos para protegê-los do superaquecimento e reduzem deliberadamente a velocidade da CPU se a temperatura do núcleo ficar muito alta (ou também para economizar energia quando a demanda estiver baixa e você estiver usando baterias - Intel chama o recurso "SpeedStep" em seus processadores). Se você observar a ventoinha funcionando o tempo todo ou a máquina ficar excessivamente quente ao redor da saída do ventilador, as "vias aéreas" do seu computador podem estar entupidas com poeira.

Eu tinha um Dell Latitude que funcionava como novo depois de abri-lo e removi cerca de um quarto de espessura de "esponja" de poeira entre o ventilador e o dissipador de calor. A Dell na verdade tem instruções de serviço para download em seu site, que explicam todos os passos para abrir a máquina e entrar para esse tipo de serviço. Se você não está confortável com isso, você provavelmente tem um amigo técnico que vai te ajudar. Definitivamente vale a pena o risco se você planeja se livrar da máquina de outra forma!

Se você acha que isso pode ser o que está acontecendo em sua máquina, tente baixar um utilitário como "SpeedFan" que permite verificar a temperatura da sua CPU, bem como outros componentes. Com este aplicativo, você pode representar graficamente as temperaturas ao iniciar a máquina pela primeira vez. Se eles começarem a subir rapidamente e nunca parecerem diminuir, você pode apostar que o resfriamento é um problema. No meu caso, eu também usei um aplicativo gratuito chamado "CS Fire Monitor" para me mostrar a velocidade real do meu processador e descobri que, uma vez que ficou quente, ele estava caindo para menos da metade da velocidade. Há muitos bons freewares por aí que mostram esse tipo de informação; apenas o Google "CPU Temp Freeware" ou "CPU Speed Freeware" ou algo assim e você encontrará todos os tipos de opções.

Espero que isso evite que algumas pessoas substituam ou descartem equipamentos decentes que só precisam de alguma terapia respiratória!

    
por 20.10.2009 / 05:26
38

Existem alguns efeitos aqui:

  1. Sua percepção de quão rápido o computador deve ser está mudando. Quando você obtém um novo hardware, você tem algo concreto para comparar - o hardware antigo. Isso fornece uma medida empírica da melhoria da velocidade. À medida que o tempo passa, sua memória de quão lento o hardware antigo foi se desvanece você só tem quão rápido o hardware atual foi recentemente para comparar.
  2. Novas versões de software são lançadas, adicionando novos recursos para estender a funcionalidade ou fazer uso do novo hardware. Este será, por definição, um programa maior do que o anterior, o que demandará mais recursos, fazendo com que o seu hardware seja executado um pouco mais devagar.
  3. Acumulação de drivers, programas / tarefas executados em segundo plano, etc. Cada tarefa adicional de driver / plano de fundo ocupa um pouco mais de recursos - espaço em disco, memória, ciclos de CPU etc. Embora cada um não seja grande, o efeito é cumulativo. As pessoas esperam que os programas modernos se atualizem para que haja tarefas extras em execução que você não conhece. Quanto mais tempo você tiver no computador, mais desses programas você provavelmente instalará.

Quando tomadas em conjunto, dão a impressão de que o hardware está a abrandar.

Pode haver outros efeitos devido ao desgaste do hardware (fragmentação de disco, latência de memória) também.

    
por 14.10.2009 / 13:31
14

Quando eu fiz benchmarks (tanto triviais como bogomips , e mais sério como Dhrystone e Whetstone ) em hardware de cinco a oito anos, sempre achei que ele tinha os mesmos resultados de quando era novo. (Sempre no Linux e Mac OS boxen, BTW.)

Tenho menos experiência com discos rígidos, mas testei uma unidade SCSI2 rápida e ampla cerca de cinco anos depois (com hdparm ) e obteve respostas comparáveis às especificações originais.

Então, acho que é principalmente, como outros já disseram, uma combinação de novas expectativas e software mais pesado.

Dito isso, atualmente tenho um powerbook G4 que poderia usar testes, já que certeza parece mais lento agora do que costumava ser. A sugestão acima de que o afogamento do relógio pode entrar em jogo se o sistema de resfriamento ficar sujo é bom.

    
por 14.10.2009 / 17:01
12

Lei da página ;)

Wirth's law, also known as Page's law, Gates' law and May's law, is a computing adage which states that software is getting slower more rapidly than hardware becomes faster.

    
por 14.10.2009 / 13:17
6

Algumas lentidões são causadas por fragmentação do disco rígido, cuja cura é Defragmentation .
isso é definido como:

file system fragmentation, sometimes called file system aging, is the inability of a file system to lay out related data sequentially (contiguously), an inherent phenomenon in storage-backed file systems that allow in-place modification of their contents. It is a special case of data fragmentation. File system fragmentation increases disk head movement or seeks, which are known to hinder throughput. The correction to existing fragmentation is to reorganize files and free space back into contiguous areas, a process called defragmentation.

No Windows, há outro motivo: o Registro do Windows

The Windows Registry is a database that stores settings and options for Microsoft Windows operating systems. It contains information and settings for hardware, operating system software, most non-operating system software, and per-user settings. The registry also provides a window into the operation of the kernel, exposing runtime information such as performance counters and currently active hardware.

Com o tempo, o tempo do registro acumula lixo e também precisa ser limpo e otimizado.

Outra explicação é que as versões mais recentes do sistema operacional geralmente são mais inchadas e mais lentas. Isso significa que apenas instalando a versão ou correção O / S mais recente, você poderá perceber que o seu computador agora está mais lento e que é hora de investir em um novo hardware que possa suportar eficientemente os requisitos da versão mais recente do seu computador. sistema operacional.

    
por 14.10.2009 / 13:44
4

Você se acostuma com a velocidade e agora se sente mais rápido.

Por exemplo, eu tinha um cliente que tinha uma rotina (que eles consideravam como tempo de inatividade) que levava uma hora em um computador antigo e quando eles atualizavam o computador o processo levou cinco minutos, o que os deixou muito felizes. enquanto.

Avance alguns anos e eles agora se queixam dessa rotina levando cinco minutos. E toda vez que eles reclamam, eles genuinamente parecem ter se esquecido do tempo que levou uma hora.

    
por 14.10.2009 / 13:36
2

Há uma certa quantidade de problemas de percepção, mas se você está realmente medindo uma redução no desempenho, eu vejo partes móveis no sistema.

"Partes móveis", você pergunta, "quais partes móveis?"

Duas categorias fáceis de verificar: ventiladores e unidades de disco. Os ventiladores são óbvios, mas além do próprio ventilador, certifique-se de que o fluxo de ar e o resfriamento estejam desobstruídos para garantir que as temperaturas dos componentes internos também estejam onde estavam quando a caixa era nova. Os discos são um pouco mais sutis, mas um disco em deterioração pode reduzir drasticamente o desempenho enquanto parece funcionar. Veja se os benchmarks de disco correspondem ao novo desempenho ou se a contagem de erros aumenta drasticamente.

Enquanto eles não se movem realmente, eles são o equivalente moral: conectores de cabo. Qualquer extremidade destacável de cada cabo. Desconecte, assegure a limpeza, reconecte e assegure a firmeza.

    
por 17.03.2010 / 13:29
1

Talvez seja apenas a sua percepção.

3-4 anos atrás, era um hardware novo e espumante que era mais rápido que a geração anterior de hardware, por isso parecia muito rápido.

Em 3 a 4 anos desde então, sem dúvida você usou computadores com melhor hardware, por isso, mesmo que você faça uma instalação limpa na máquina antiga, suas experiências em hardware mais novo sairão com uma impressão sem brilho da máquina antiga.

Ou você tem evidências empíricas de que a máquina realmente funciona mais devagar?

    
por 14.10.2009 / 13:41
1

Acredito que algumas atualizações de drivers possam atualizar o firmware no dispositivo relacionado. Há também potenciais atualizações de microcódigo da CPU, embora raras.

Eu vi algumas ferramentas populares de diagnóstico / benchmark afirmarem que as coisas funcionavam na velocidade normal, ainda que houvesse algum tipo de problema de driver / hardware de baixo nível que fazia o ponteiro do mouse rastejar e pular. Na época, eu não sabia sobre a medição da latência do DPC - essa ferramenta provavelmente indicaria que havia um problema.

O ponto é - é possível que as coisas fiquem lentas de uma forma que faz as coisas parecerem mais lentas, mas não aparecem no tipo de ferramentas que os usuários casuais usam.

Se alguém quiser se aprofundar nisso, acho que eles devem ter dois computadores idênticos, o outro nunca se conectando à rede, nunca recebendo atualizações ou novos drivers instalados. E tempo ambos os computadores usando temporizador externo / verificar o tempo de NTP só para ter certeza. - e depois de 4 anos, tempo de novo e se houver uma diferença, clone o disco do computador não conectado para o conectado e tente novamente. E verificar qualquer versão de firmware muda etc. editar: E quando eu digo "tempo" quero dizer tempo de alguma tarefa personalizada, não usando benchmark existente. Ambos os fornecedores de GPU e CPU foram pegos benchmarks conhecidos de acordo com Anandtech e alguns outros sites nos últimos anos que eu li.

    
por 19.02.2014 / 03:01
0

Na verdade, isso não é um problema técnico, mas sim um problema do cérebro humano. Isso pode surpreendê-lo, mas deixe-me explicar. Eu tenho uma boa base para o que digo.

Parte do problema é como as atualizações de software e os patches são aplicados, mas isso não é o cerne do problema, não acho.

As máquinas de hardware ficaram significantemente mais rápidas com o passar dos anos, mas a capacidade do software de carregá-lo aumentou a um ritmo ainda mais rápido, dando a percepção e a realidade de que algumas coisas são mais lentas do que estão.

Por exemplo, minha primeira caixa Z-80 tinha uma velocidade de clock de 1 mega hertz. Agora, minha plataforma de desenvolvimento é executada a 2,66 ghz ou mais de 2000 vezes mais rápido. Não me lembro exatamente, mas todo o CPM cabe em cerca de 16kb. Agora o Windows é quem sabe o quão grande, mas muito, muito maior. Ele usa muitas camadas de abstração que fazem coisas incríveis de uma maneira mais geral, mas essas camadas afetam o desempenho.

Deixe-me voltar para o cérebro humano. O que é bem compreendido é que os engenheiros de software, por muitos anos, disseram e acreditaram, com alguma boa razão, que o hardware seria cada vez mais rápido e, portanto, o software não precisava ter cuidado com os problemas de otimização. Então, os programadores faziam coisas para fazer as coisas funcionarem e rapidamente à custa da velocidade ... pensando que as pessoas de hardware cuidariam desse problema. Assim, as atualizações e correções são feitas com o pensamento de que eles são temporários, ou seja, a curto prazo.

É: a curto prazo, micro pensamento, a longo prazo, problema macro.

Eu li um livro interessante muitos anos atrás, onde alguns cientistas expuseram esse problema de curto prazo versus o pensamento humano a longo prazo, e fizeram alguns experimentos em uma ampla gama de humanos para ver como eles fazem essas compensações. Seu livro é New World New Mind, e os autores são Paul Ehrlich e Robert Ornstein. Eu colocaria isso como o livro mais importante que li nos últimos 20 anos, porque ele forneceu uma estrutura sólida para a maneira como resolvemos o problema.

O que eles notaram foi que o cérebro humano evoluiu em um momento em que tomar decisões de curto prazo fazia sentido. Viva o momento e o dia, mas não pense muito sobre o futuro. Apenas não valeu a pena. Assim, nosso senso de coisas que costumamos usar para tomar decisões é uma parte muito antiga do cérebro e não é adequada para muitos problemas modernos. E o cérebro não teve tempo real para evoluir, pois o mundo mudou rapidamente com o crescimento populacional e o impacto da tecnologia nas coisas.

O que Ehrlich e Ornstein descobriram foi que os Ph.Ds são muito inteligentes e bem educados, mas também os zeladores cometeram os mesmos erros quando apresentados com problemas de curto prazo versus problemas de longo prazo. Não é algo que geralmente pensamos ser o caso.

Um exemplo muito bom e convincente de como este mesmo problema está acontecendo no mundo hoje, NÃO tem a ver com o ambiente de hardware, mas é o grande irmão de todo o ambiente danado em que vivemos. Nós, humanos, geralmente estamos cometendo o erro de viver por hoje, no momento, mas a realidade é que o aquecimento global está sobre nós exatamente porque não permitimos ou tomamos medidas para lidar com isso. É a lentidão do hardware, pelo problema do software, tudo de novo, mas em um contexto diferente.

Ornstein e Ehrlich sugeriram que talvez pudéssemos tomar decisões mais corretas baseando nossa decisão não em nosso instinto, mas em dados e estatísticas. Assim, por exemplo, se um engenheiro de software tivesse estatísticas de quão rápido seu software estava inchando em relação a quão rápido o hardware estava ficando mais rápido, ele poderia tomar decisões melhores sobre o que incluir, o que deixar de fora e o quanto otimizar algoritmos. Em outras palavras, se eles usassem dados reais para tomar decisões, em vez de seu instinto.

Obrigado pela boa pergunta. Às vezes as perguntas simples são as melhores que eu penso. isso me deu a oportunidade de considerar isso de um novo ângulo. Eu nunca tinha visto antes o paralelo entre o problema do software de hardware no contexto humano.

    
por 19.02.2014 / 03:51
0

A maioria dos benchmarks (se houver) não são confiáveis para medir a rapidez do sistema operacional. A menos que o benchmark seja algum sistema USB-para-USB que esteja controlando a interface do usuário de outro computador, emulando ser um mouse / teclado, os caminhos de execução serão totalmente diferentes. A lentidão no PC que eu conheço surge devido a atualizações de driver / segurança que também podem atualizar o firmware (e você não sabe se a atualização fw no driver persiste ou não), então a única comparação entre maçã e maçã é comprar 2 computadores e nunca conecte o outro à Internet ou atualize os drivers após a primeira instalação, mas preserve-os para comparação posterior usando essa ferramenta de benchmarking externa.

Eu comecei a suspeitar de todos os benchmarks quando encontrei um caso em que o benchmark estava retornando "todos bons" números enquanto algum problema de hardware fazia o mouse congelar e o sistema era mal controlável - claramente os benchmarks não são afetados por algumas coisas de baixo nível que podem afetar por exemplo. Snappiness e controlabilidade do PC.

(Caso um pouco diferente, mas semelhante: apesar de o Q6600 ter comparado o mesmo que o equivalente a Ghz dual core, percebi que a responsividade era claramente menor. Naquela época, isso era explicado como o agendador Win-Vista não era bom com 4 núcleos Sendo - assim como a maioria dos benchmarks que mostram FPS não detectaria alguns tremores que o usuário sentiria, os benchmarks de PC que a imprensa usa não medem coisas como "Interromper o processo de latência" e mostrar as estatísticas disso em vez de apenas uma média )

edite: E se você estiver fazendo essa configuração com um PC de referência intocado, se tiver uma bateria e estiver sempre ligado, o fabricante do hw pode trapacear executando um LFO para secretamente obsoleto o hardware, por exemplo. diminuindo alguma operação que os benchmarks não fazem benchmark. Um benchmark de imprensa de jogo melhor que o normal seria rodar, por exemplo. dosbox, emuladores, medições de latência dentro do vmware / hyperv, pois isso sobrecarregará a cpu de maneiras mais complexas do que o contrário.

edit2: e se eles realmente quisessem, eles poderiam colocar algo que envelhece ou algum contador de energia ultrabaixo e capacitor ou minúscula bateria carregada na fábrica. Então, não importa se você nunca alimenta o dispositivo, ele pode ficar mais lento com o tempo, mas esse tipo de coisa pode ser uma desvantagem se alguém o encontrar, mas isso não importaria se isso fosse ilegal e as multas fossem suficientes para eliminá-lo. de negócios.

    
por 01.11.2016 / 07:09