Digamos que eu tenha um conjunto de programas determinísticos que tomam alguns dados como entrada. Estou interessado em calcular o "tempo" até que um programa termine por diferentes dados de entrada. Eu não me importo com o tempo real necessário, mas preciso de uma métrica que seja
Minha configuração é uma máquina virtual hospedada em um servidor que possui cargas substancialmente diferentes em diferentes momentos do dia. Meu entendimento limitado sugeriria que, no caso do servidor host ser strongmente usado, a máquina virtual convidada obtém menos tempo de computação e é mais lenta, portanto, usar algo como tempo de parede certamente não funcionará. Eu tenho controle total sobre a máquina virtual. Eu não tenho controle sobre o servidor host.
Alguém de vocês sabe como eu posso alcançar meu objetivo de forma confiável?
Tags time virtual-machine