A discrepância que você vê está apenas na velocidade informada da NIC. Alguns antecedentes primeiro:
O Windows está mentindo um pouco quando está dizendo a você que os NICs agrupados estão rodando a 2Gbps, já que não é realmente como o trabalho em equipe ou a ligação funciona. Usando o agrupamento, é possível balancear as conexões discretas entre as duas NICs. Uma única conexão só pode saturar uma única NIC. O agrupamento só se torna eficaz quando se lida com vários pontos de extremidade da rede, portanto, geralmente é uma boa opção para estabelecer o host da VM. Estabelecer vínculos ou equipes dentro de VMs e não no host pode ter conseqüências estranhas em várias plataformas, e você deve evitar fazer isso se puder. Em geral, é melhor colocar o vínculo no local que obterá a maior quantidade de conexões, e isso geralmente é o mais próximo possível de um tronco de rede.
Voltar ao problema de geração de relatórios de velocidade em sua VM - não está mentindo. Você tem NICs de 1 Gbps conectadas ao seu host e conectadas ao vswitch que fornece rede para suas instâncias. Isso reduz a velocidade desse vswitch inteiro para 1Gbps, e essa é uma limitação conhecida do controle de fluxo do HyperV. O vswitch ignora a capacidade relatada do vínculo, pois isso é irrelevante para o controle de fluxo. Você ainda pode enviar um total de 2 Gbps do host, não apenas para qualquer VM.
Se você ainda quiser a rede de velocidade do barramento do sistema host entre as VMs, poderá criar um vswitch "vazio" que não se conecte a nenhum tipo de NIC física, mas apenas a cada VM e host. Isso pode ser útil se você tiver muito tráfego leste-oeste entre VMs.
Com base no exemplo acima, você pode contornar este problema quase que inteiramente ao terminar a camada 2 no hipervisor. Você pode juntar todas as suas VMs a esse vswitch vazio, ativando a comunicação de velocidade de barramento. Depois que isso for estabelecido, você poderá usar o host hiperv como um gateway, roteando o tráfego da camada 3 do vswitch totalmente virtual para uma equipe endereçada da camada 3 no host. Isso introduziria algumas complexidades de netowrk, como a necessidade de redirecionar e usar um NAT. No entanto, o hyperv tem controles muito amigáveis para isso.