Casos de uso: Ingestão de dados vindos de ferramentas de automação de integração/extração/ETL.
Características:
Processo automático que é executado periodicamente
Não necessita archiving, pois o arquivos são separados por pasta, para evitar sobrescrita. Em caso de reprocessamento, basta acessar a pasta do dia desejado.
Para efeito de exemplificação vamos considerar o cenário da empresa parceira chamada “marketdata” que nos envia diariamente um arquivo atualizado com cadastro de usuários da sua plataforma:
Nome do bucket padrão: /dexco-data-in
Pasta inicial: /marketdata
(***importante***)
Os arquivos devem ser separados por pasta no formato YYYY/MM/DD
, por exemplo:
/marketdata/2022/03/10/<nome do arquivo>_HHMMSS.csv
Exemplo de caminho completo do arquivo incluindo o nome do bucket:
/dexco-data-in/marketdata/2022/03/10/<nome do arquivo>_HHMMSS.csv
Sendo HH
= hora, MM
= minuto, SS
= segundos, todos com zeros a esquerda.
Os formatos permitidos para o arquivo são CSV
ou PARQUET
.
Importante: Para acesso via aplicativo de transferência de arquivo, como cyberduck e WinSCP por exemplo, é necessário configurar a pasta inicial, tendo em vista que a raiz do bucket não está acessível.
Observações: Permissões somente leitura/escrita, ou seja, sem permissão de exclusão de arquivo para manter o histórico.
Add Comment