Descrição da Vaga
Criar a infraestrutura necessária para um ETL de dados ideal.
Coletar dados brutos de várias fontes de dados. Configurar processos automatizados para a melhor arquitetura de entrega de dados. Colocar os dados em um estado utilizável que esteja pronto para ser usado pela equipe. Trabalhar em conjunto com analistas de dados para ajudar a criar análises incríveis e escalonáveis.
Fluente na pilha de tecnologia de ciência de dados: DBT, Airflow, Python, Bigquery, Dataflow, Postgres, Neo4J e contêineres para executar tudo.
Stack: DBT, Airflow, Python, Postgres, Bigquery
Conhecimentos
Superior completo
Experiência na função
Diferenciais lickhouse, Neo4j
Horário de Trabalho
Comercial
Informações Adicionais
Disponibilidade para Híbrido
Regime de Contratação
- Prestador de serviços (PJ)