Estou tentando desenvolver uma intuição de como os algoritmos de aprendizado de máquina são viáveis / escalonáveis. O custo dominante é sempre as multiplicações de matrizes, mas parece não haver nenhum recurso do Google para explicar como fazer cálculos de fundo para multiplicação de matrizes.
As especificações da máquina que estou usando: ele tem um processador quad core Ivy Bridge de 2,8 GHz com cache L3 compartilhado de 8 Mb, velocidade de barramento de 5 GT / s e 16 GB de RAM. Uma entrada de estouro de pilha diz que o Ivy Bridge tem 8 DPs / segundo throughput. Como posso combinar todos esses números para chegar a uma estimativa aproximada em segundos de quanto tempo levaria para multiplicar duas matrizes de precisão dupla de tamanhos determinados, supondo que as matrizes e seus produtos possam ser armazenados na RAM simultaneamente?