Compartilhar dados usando HTTP / FTP?

1

Eu tenho uma rede de 20 machines , executando o Ubuntu 10.04.

Cada máquina tem cerca de 200 [GB] de dados que gostaria de compartilhar com todos os outros 19 machines para READ ONLY PURPOSES . A leitura deve ser feita da maneira mais rápida possível.

Um amigo me disse para pesquisar a configuração de HTTP / FTP. É realmente a maneira ideal de compartilhar dados entre as máquinas (melhor que o NFS)? se sim, como faço para isso?

Existe um módulo python que ajudaria no acesso / leitura dos dados?

UPDATE : Só para esclarecer, tudo que eu quero é poder (a partir da máquina X ) acessar um dos arquivos Y s da máquina e LOAD IT INTO MEMORY. todos os arquivos são de tamanho uniforme (500 [KB]). Qual método é mais rápido (SAMBA / NFS / HTTP / FTP)?

    
por user76976 04.04.2011 / 02:05

2 respostas

1

Existem centenas de maneiras de resolver esse problema. Você pode montar um sistema de arquivos FTP ou HTTP sobre um fusível ou até mesmo usar o NFS (por que não?). Procure por httpfs2 ou curlftpfs (ou mesmo sshfs, que não devem ser usados se você estiver procurando por desempenho)

Mas o problema que vejo é que você tem um único ponto de falha da primeira e única máquina mestre. Por que não distribuir o armazenamento?

Eu geralmente uso o glusterfs [1], que é rápido e pode ser usado em diferentes modos.

[1] link

    
por 04.04.2011 / 11:11
2

Com python , você pode inicializar um servidor da web por meio de um simples liner no diretório em que os dados estão armazenados.

python -m SimpleHTTPServer

Editar:

Ele cria um servidor da Web simples na porta 8000, em termos de desempenho, não posso lhe dizer muito e, para esse tipo de pergunta, seria melhor perguntar no SuperUser e não no SO.

Ele não é iniciado automaticamente, mas não seria difícil.

    
por 04.04.2011 / 02:08