No momento, estou pensando em como configurar melhor minha arquitetura de servidor para um site de alto tráfego que reduz os dados da Internet e fornece uma API REST.
Uma ideia é alugar servidores raiz em diferentes centros de dados, outra ideia é criar meu próprio datacenter. Eu tenho algumas coisas técnicas que são incertas e talvez vocês possam me esclarecer.
Backbone
Temos conexões de fibra que permitem conexões de 622 Mbit / s. Então eu tenho isso vindo para o meu centro de dados, até aí tudo bem!
Alternando
Como há switches Gigabit, também acho que não temos um grande problema até agora, a infra-estrutura da rede ainda é mais rápida que o backbone de 622 Mbit / s.
Administração do servidor
Estou pensando em comprar um pacote de 10 Dell PowerEdge usado com o XEON QuadCore L5335 2.0GHz e 4GB Ram (para lidar com toda a raspagem), eu os coloco em um rack e os conecto aos switches, resfriamento e energia redundante fornecem. Eu terei uma máquina mais poderosa como meu datacenter do MySQL. Agora vem a primeira pergunta, como administrar de forma mais eficiente os 10 servidores da web? Eu basicamente só preciso deles para executar o Tomcat em uma caixa básica do Linux que para falar com o meu servidor sql. Existe algum tipo de ferramenta de administração central que eu possa usar para implantar os sistemas operacionais pré-configurados no servidor?
Balanceamento de carga
Agora, se alguém ligar para o meu site, o registro aponta para o meu endereço IP, como agora eu equilibro a carga para que os 10 servidores da Web fiquem igualmente estressados? Além disso, como posso garantir que esses 10 servidores da Web tenham a mesma parcela da minha largura de banda, isso é feito com switches gerenciados?
Tags linux load-balancer