Modelo de contratação: PJ
Modelo de atuação:Híbrido (3x presenciais por semana em São Paulo, SP)
Responsabilidades:
- Projetar, implementar e manter pipelines de ETL/ELT escaláveis utilizando Airflow;
- Desenvolver modelos de dados nas camadas da Arquitetura Medallion para dar suporte a análises e relatórios;
- Otimizar consultas SQL para grandes volumes de dados em AWS Athena e outros sistemas relacionais;
- Construir e manter dashboards e fluxos de trabalho de BI utilizando Metabase;
- Colaborar com as equipes de Produto, Operações e Análises para definir métricas e KPIs da startup;
- Garantir a qualidade, governança e reprodutibilidade dos dados em todo o data warehouse/lake;
- Estabelecer boas práticas para engenharia e análise de dados:
Requisitos Técnicos:
- Graduação ou pós-graduação em Ciência da Computação, Ciência de Dados ou áreas relacionadas;
- Mais de 5 anos de experiência em engenharia de dados ou funções correlatas;
- Domínio em SQL, com experiência em otimização de consultas e design de esquemas eficientes;
- Experiência prática com Airflow para orquestração de workflows;
- Familiaridade com serviços AWS, especialmente Athena, S3, Glue e Redshift;
- Experiência na criação de dashboards analíticos com Metabase ou ferramentas de BI semelhantes;
- Conhecimento sobre Arquitetura Medallion e pipelines de dados em camadas;
- Boa compreensão de métricas de produto/startup e capacidade de traduzi-las em fluxos analíticos;
- Proficiência em Python para tarefas de engenharia de dados e ETL;
- Perfil colaborativo e capacidade de atuar de forma integrada com as equipes de produto e negócios;
- Nível de comunicação em inglês a nível avançado – fluente:
