Eu estive esperando por isso um pouco, mas vou dar alguns pontos.
A quantidade média de RAM que você especifica para 2000 é de pouco, 32 \ 64Meg teria sido mais precisa e com esses valores as razões para 1990-2000 & 2000-2010 são mais ou menos os mesmos.
MIPS & Os GFlops, medidos a partir de processadores de propósito geral, são medidas bastante inúteis de poder computacional. Os sistemas não são projetados para maximizar esses números, certamente sistemas de tipo de área de trabalho de uso geral não são.
A capacidade do disco rígido aumentou em um fator de 200k (5Meg a 2TB) nos 35 anos aproximadamente desde que obtive um sistema com um disco rígido, mas a latência de acesso aleatório melhorou apenas por um fator de cerca de 10-15 por causa dos limites mecânicos e a largura de banda da interface só aumentou em torno de um fator de 200 (24 Megabits / seg para o início dos anos 90 ESDI para 6Gbps para SATA II). Tudo isso vai ser virado de cabeça, embora com SSDs. Ignorando os problemas iniciais, as pessoas disseram que as HDDs nunca substituirão a fita muito antes, mas a melhoria na latência que as SSDs fornecerão mudará fundamentalmente a forma como o armazenamento é incorporado nos sistemas nos próximos três anos. Os discos rígidos não vão desaparecer, mas os discos giratórios só serão usados para gravação raramente, leia-se ocasionalmente a longo prazo até meados desta década. A diferença que fará com as experiências computacionais do dia a dia, uma vez que os projetistas de sistemas operacionais deixem de ter que lidar com o muro de HDD que não se moveu notavelmente em 20 anos, será imenso. E lembre-se de que tudo isso se deve ao aumento exponencial constante da densidade de transístores que finalmente começou a levar o armazenamento de estado sólido a uma distância impressionante dos discos giratórios.
Tudo isso erra o ponto substancialmente embora. Você não pode condensar a eficácia de um computador moderno em um punhado de métricas que podem ser comparadas diretamente às dos sistemas de 20 anos atrás e fazer comparações realmente significativas.
Uma métrica que compartilharei com você é que, em minha área, eu faço muito trabalho de consolidação de servidores, onde substituo um grande número de servidores de 3 a 5 anos por um número muito menor de novas caixas que não são muito "maiores". Normalmente, nós consolidamos em uma proporção de 10-15 dependendo da carga, mas eu não teria nenhum problema em dizer que eu posso pegar 10 servidores de dois soquetes com 5 anos de idade que estão moderadamente ocupados (~ 50% de utilização) que custariam ~ $ 6k novos com 1 servidor de soquete duplo (mas agora 8 núcleos) que custa ~ $ 6k e espera que ele hospede todos eles sem ultrapassar os 50% em si. Também fazemos trabalhos de virtualização de workstations, onde teremos o prazer de dobrar essa relação sem nos preocuparmos demais. Estou absolutamente confiante em dizer que um sistema típico hoje é entre 10 e 15 vezes melhor em termos de qualquer métrica que conta do que um sistema de 4 a 5 anos de um segmento comparável. Além disso, estamos fazendo tudo isso com um menor consumo de energia térmica por dispositivo, de modo que o desempenho de "linha vermelha" não só aumenta para tarefas de computação de uso geral, mas está melhorando constantemente em termos de eficiência de energia ao mesmo tempo.