Não é possível SSH no segundo ENI da AWS VPC com o mesmo VPC

3

Anexei uma segunda ENI à minha máquina Ubuntu OS no AWS VPC, o IP interno desta nova ENI é 192.168.12.24. Quando eu tento SSH para esta máquina de outra máquina no mesmo VPC eu recebo um tempo de conexão. Eu sou capaz de SSH para o primeiro ENI da mesma máquina, tanto de dentro como de fora do VPC.

O comando Route mostra o seguinte

Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
192.168.0.0     *               255.255.240.0   U     0      0        0 eth0
192.168.0.0     *               255.255.240.0   U     0      0        0 eth1
default         192.168.0.1     0.0.0.0         UG    100    0        0 eth0

Eu sou novo no iptables e iprules, qualquer ajuda seria muito apreciada.

    
por APZ 30.07.2012 / 22:09

1 resposta

1

Eu tive o mesmo problema e descobri que o problema raiz é que o Ubuntu não registra automaticamente a nova interface de rede como plug and play. Você pode confirmar isso usando $ ifconfig. Mesmo após a reinicialização, ele ainda não vê o novo ENI, você precisa criá-lo manualmente para que ele funcione.

Etapa 1, crie um novo arquivo .cfg para eth1:

/etc/network/interfaces.d/eth1.cfg

conteúdo do arquivo:

# secondary eth1 interface auto eth1 iface eth1 inet static address 10.0.0.X (your IP) netmask 255.255.255.X (your netmask)

Após reinicializar sua instância, você deve conseguir executar o ping do novo IP privado com êxito (onde você não podia antes).

Em seguida, basta adicionar uma rota ao gateway para que o SSH possa ouvir o novo IP privado:

sudo route add -net 10.0.0.0 netmask 255.255.255.0 dev eth1 gw 10.0.0.1 (change where needed)

Agora o SSH deve estar atento e pronto para aceitar uma nova conexão SSH.

    
por 25.04.2015 / 01:15