Histórico:
Eu tenho um bucket do Amazon S3 com upload de dados usando a interface da web da AWS. Agora preciso conceder acesso baseado em permissões a caminhos dentro de meus buckets para usuários de FTP. Para fazer isso, estou executando o vsftpd e o s3fs em uma instância recente do Amazon EC2. O problema é que o conteúdo do bucket tem o nome do caminho em vez de um dotfile e o tamanho de arquivo enorme cria uma exceção no vsftpd. ls -la
é assim:
$ pwd
/mnt/my-bucket-name/pathname
$ ls -la
total 1
drwxrwxr-x 1 root root 0 Jun 16 19:54 dir1
drwxrwxr-x 1 root root 0 Jun 16 19:54 dir2
---------- 1 root root 18446744073709551615 Dec 31 1969 pathname
Considerando que deve ser mais parecido com:
$ ls -la
total 500
drwxrwxr-x 1 root root 500 Jun 16 19:54 .
drwxrwxr-x 1 root root 500 Jun 16 19:54 ..
drwxrwxr-x 1 root root 500 Jun 16 19:54 dir1
drwxrwxr-x 1 root root 500 Jun 16 19:54 dir2
Quando os usuários de FTP tentam se conectar, recebem um erro:
ftp> ls
229 Entering Extended Passive Mode (|||14017|).
150 Here comes the directory listing.
500 OOPS: invalid inode size in vsf_sysutil_statbuf_get_size
O bucket é montado com este comando: sudo s3fs my-bucket-name /mnt/my-bucket-name -o allow_other -o default_acl=public-read
Eu criei um ticket na página de código google s3fs há um mês, hackeado por horas e estou perplexo. Alguma idéia do que estou fazendo errado?