O crescimento exponencial do poder de computação ainda é válido para computadores desktop?

2

O crescimento exponencial do poder de computação de desktop não é mais válido? Hoje, parece mais um crescimento logarítmico.

Por exemplo, no início de 1990, uma típica CPU de desktop era de 20,50 MIPS (386,486), em 2000 era de 1000,3000 MIPS (Pentium III, Athlon), mas agora eles são 10000..40000 Apenas MÌPS (Quad / Dual Cores). Isso significa que entre 1990 e 2000 vimos um crescimento de 100 vezes, mas entre 2000 e 2010 foi de apenas 10 vezes o crescimento por 10 anos.

O mesmo vale se compararmos GFLOPS por Chip. Na Intel 486DX de 1992 foi de 0,03 GFLOPS, em 2000, PentiumIII foi de 2 GFLOPS, e agora, em 2010, a maioria das CPUs de desktop são de 20,30 GFLOPS.

Agora, vamos analisar o armazenamento não volátil: < 40Mbyte em 1990 > vs. < 10 Gb a 2000 > vs. < 1000Gb em 2010 & gt ;. Então, 1000 vezes vs. 100 vezes o crescimento por década.

Além disso, um armazenamento volátil: < 2Mb a 1990 > vs < 256Mb a 2000 > contra cerca de 2Gb (ou mais, mas não 20!) em 2010. Por isso, dá 100 vs. 10 vezes o crescimento por década.

Esta evidência empírica significa que o crescimento da capacidade de computação do desktop se torna mais lento?

    
por psihodelia 12.02.2010 / 14:51

5 respostas

1

Bem, finalmente, sim.

Hmm soa como Lei dos retornos decrescentes vs Lei de Moore

Se eu colocar meu chapéu de economista, eu diria que a Lei do Retorno Diminutivo acabará vencendo. Isso acontece em praticamente todos os outros esforços humanos. Embora eu tenha respeito pelas realizações de Gordon Moore, sua lei é mais uma visão estratégica de negócios que só pode ser aplicada à densidade de circuitos por um tempo finito e não descreve o mundo como um todo. A lei dos retornos decrescentes tem um histórico melhor.

Se eu colocar meu chapéu de TI, ele não serve. Porque fica maior a cada ano: -)

Perigo: Esta questão pode ser muito especulativa ou controversa para os moderadores.

    
por 12.02.2010 / 15:27
1

Eu acho que você está confuso sobre "logarítmico" versus "exponencial". O crescimento exponencial é mostrado como uma linha reta em uma escala logarítmica. Eu também acho que você tem que fatorar o custo em comparações de "poder". Quando você fizer isso, verá que o crescimento continua exponencial.

O número de transistores em processadores dobrando a cada dois anos é o que a lei de Moore originalmente se referiu e permaneceu verdadeira até agora e continuará no futuro previsível. É provável, no entanto, que alguma outra tecnologia tome o lugar dos transistores em algum momento.

    
por 12.02.2010 / 15:52
1

Eu estive esperando por isso um pouco, mas vou dar alguns pontos.

A quantidade média de RAM que você especifica para 2000 é de pouco, 32 \ 64Meg teria sido mais precisa e com esses valores as razões para 1990-2000 & 2000-2010 são mais ou menos os mesmos.

MIPS & Os GFlops, medidos a partir de processadores de propósito geral, são medidas bastante inúteis de poder computacional. Os sistemas não são projetados para maximizar esses números, certamente sistemas de tipo de área de trabalho de uso geral não são.

A capacidade do disco rígido aumentou em um fator de 200k (5Meg a 2TB) nos 35 anos aproximadamente desde que obtive um sistema com um disco rígido, mas a latência de acesso aleatório melhorou apenas por um fator de cerca de 10-15 por causa dos limites mecânicos e a largura de banda da interface só aumentou em torno de um fator de 200 (24 Megabits / seg para o início dos anos 90 ESDI para 6Gbps para SATA II). Tudo isso vai ser virado de cabeça, embora com SSDs. Ignorando os problemas iniciais, as pessoas disseram que as HDDs nunca substituirão a fita muito antes, mas a melhoria na latência que as SSDs fornecerão mudará fundamentalmente a forma como o armazenamento é incorporado nos sistemas nos próximos três anos. Os discos rígidos não vão desaparecer, mas os discos giratórios só serão usados para gravação raramente, leia-se ocasionalmente a longo prazo até meados desta década. A diferença que fará com as experiências computacionais do dia a dia, uma vez que os projetistas de sistemas operacionais deixem de ter que lidar com o muro de HDD que não se moveu notavelmente em 20 anos, será imenso. E lembre-se de que tudo isso se deve ao aumento exponencial constante da densidade de transístores que finalmente começou a levar o armazenamento de estado sólido a uma distância impressionante dos discos giratórios.

Tudo isso erra o ponto substancialmente embora. Você não pode condensar a eficácia de um computador moderno em um punhado de métricas que podem ser comparadas diretamente às dos sistemas de 20 anos atrás e fazer comparações realmente significativas.

Uma métrica que compartilharei com você é que, em minha área, eu faço muito trabalho de consolidação de servidores, onde substituo um grande número de servidores de 3 a 5 anos por um número muito menor de novas caixas que não são muito "maiores". Normalmente, nós consolidamos em uma proporção de 10-15 dependendo da carga, mas eu não teria nenhum problema em dizer que eu posso pegar 10 servidores de dois soquetes com 5 anos de idade que estão moderadamente ocupados (~ 50% de utilização) que custariam ~ $ 6k novos com 1 servidor de soquete duplo (mas agora 8 núcleos) que custa ~ $ 6k e espera que ele hospede todos eles sem ultrapassar os 50% em si. Também fazemos trabalhos de virtualização de workstations, onde teremos o prazer de dobrar essa relação sem nos preocuparmos demais. Estou absolutamente confiante em dizer que um sistema típico hoje é entre 10 e 15 vezes melhor em termos de qualquer métrica que conta do que um sistema de 4 a 5 anos de um segmento comparável. Além disso, estamos fazendo tudo isso com um menor consumo de energia térmica por dispositivo, de modo que o desempenho de "linha vermelha" não só aumenta para tarefas de computação de uso geral, mas está melhorando constantemente em termos de eficiência de energia ao mesmo tempo.

    
por 12.02.2010 / 18:54
0

A Lei de Moore se refere ao número de transistores disponíveis. Assim, obter alguns pontos de dados da Wikipedia, típicos chips iAPX em intervalos de uma década

  • 1980: 8088 transistores de 0,029 M
  • 1990: 80486DX transistores de 1.2M
  • 2000: Transistores Pentium III Coppermine 28.1M
  • 2010: transistores Core i7 Bloomfield 781M

então, 1980-1990, fator de 40 1990-2000, fator de 25 2000-2010, fator de 27

Se nós forçarmos um pouco, e notamos que o processador da década de 1980 realmente tinha um segundo chip para ponto flutuante, nós temos um aumento de capacidade por década (contagem de transistores) de cerca de 25x bastante consistentemente. Então, eu não vejo (ainda) o crescimento de transistores no típico computador desktop desacelerando.

    
por 12.02.2010 / 15:58
0

Depende do que você entende por "crescimento do poder de desktop". Claro, as CPUs ainda estão ficando cada vez mais poderosas, mas o desempenho geral delas não está aparecendo.

Um exemplo disso são os caches - enquanto o seu processador pode processar um bilhão de instruções por segundo, basta uma pequena exceção de programação para desativar todo o cache e fazer com que a CPU busque as instruções e dados da RAM principal - o que é incrivelmente lento (pelos padrões dos seus processadores). Então, a menos que você possa manter suas CPUs 'alimentadas' com dados, seus dedos metafóricos serão revirados, mordendo as unhas e lendo o jornal. E seus usuários estarão jogando suas mãos para cima, exclamando "Eu comprei um PC super novo e ainda leva muito tempo para fazer coisas, o que é que está fazendo" (como o disco trava e as linhas de cache da CPU se espalham entre os segmentos) superaquece a transferência de RAM da memória principal para o cache da CPU L3).

E depois colocamos nossos dados no outro lado da rede ...

Então ... sim - eles estão ficando mais poderosos. Não - eles ainda são tão lentos quanto costumavam ser.

    
por 12.02.2010 / 19:37