Para a automatização do algorítmo Golden Batch utilizamos as bases de dados salvos em parquet no Amazon S3 Storage. As bases utilizadas foram as tabelas de produção e de laboratório.
Dados de Produção:
Dados mensurados nas linhas de produção sobre os parametros utilizados em diferentes etapas, maquinas e processos para a produção de MDF.
Path: Caminho_para_dados_de_produção
Dados de Laboratório:
Medição feita em laboratório sobre características que descrevem a qualidade do MDF como densidade, tração média e tração perpendicular média.
Path: Caminho_para_dados_de_laboratório
Camadas de Carregamento
O carregamento e tratamento dos dados é feito em camadas estruturadas, onde as tabelas são registradas em cada camada e o código de tratamento acessa apenas as tabelas desta mesma camada, criando blocos fechados de forma que os códigos podem ser desenvolvidos de forma indepedente.
Camada Bronze:
Onde ocorre o carregamento de dados de outras origens e salvo dentro do hive_metastorage
sem a realização de tratamentos mais complexos.
Camada Silver:
Ocorre o tratamento das bases, ajustando os nomes de colunas e verificando a presença de nulos, os tipos registrados nas tabelas (string, inteiro, decimal e etc) e os valores presentes em cada uma das variáveis, além das mudanças de formato e junção de tabelas entre outros possiveis tratamentos.
Camada Gold:
O Algoritimo processa os dados da Camada Silver como Input e os resultados são registrado nesta camada. Essa camada é onde está o Output final gerado pelo modelo, sendo a camada de maior valor.
Camada Bronze
Dados de Produção
O notebook utilizado para este processamento se encontra no seguinte caminho dentro do repositório:
Path: jobs/dev/03__layers/01__bronze/2023-02-03__bronze__variaveis_de_producao
É necessário a instalação do pacote unidecode para remoção de caracteres especiais para os nomes das colunas.
Verificamos a existencia da pasta para carregamento de dados de origem no Amazon S3 Storage por meio da função path_exists
Função que executa a carga de dados, remove caracteres especiais e salva a tabela na Camada Bronze no hive_metastorage
dentro do DataBricks. A tabela é salva no banco de dados golden_batch__bronze
com o nome golden_batch__bronze.database__production_line
.
Executa funções em conjunto as funções citadas:
Camada Silver
Dados de Produção
O notebook utilizado para este processamento se encontra no seguinte caminho dentro do repositório:
Path: jobs/dev/03__layers/02__silver/2023_03_09__silver__production_line
É necessário a instalação do pacote slugify para a padronização dos caracteres em letras minúsculas para os nomes das colunas e utilização de underline como separador.
Foram importadas as bibliotecas necessárias
A tabela foi salva como Pandas Dataframe e os nomes das colunas foram padronizados
As colunas com valores nulos foram indetificadas e aquelas com apenas valores nulos foram removidas
Foram ideintificados os valores unicos das colunas do tipo string e removido as colunas que não continham informações relevantes
O formato da tabela foi mudado do formato wide para o formato long
E os dados foram transformado no objeto Spark Dataframe e registrados na Camada Silver . A tabela é salva no banco de dados golden_batch__silver
com o nome golden_batch__silver.database__production_line
.
0 Comments