Estou executando um benchmark de um script Python que usa pyCUDA. Cada ponto de dados é uma instância do Python, e uma instância do Python pode chamar um kernel CUDA menos de cinco vezes, nesses casos.
Os gráficos vermelhos mostram o ponto de referência quando o lightdm é interrompido e os pontos azuis quando estão em execução. O eixo vertical é segundos. Eu esperava que o desempenho fosse menor com o lightdm em execução. O sistema é o Ubuntu 12.04 com uma GeForce 460. Alguma idéia? Obrigado
Tags cuda