
Coordenador(a) de Engenharia de Dados
- Fortaleza - CE
- Permanente
- Período integral
- Coordenar o time de Engenharia de Dados, garantindo entregas com qualidade e dentro dos prazos, com foco na construção de pipelines de dados (bronze, silver, gold).
- Liderar a arquitetura e a implementação de fluxos de ingestão de dados de diversas fontes, utilizando ferramentas como AWS DMS e outras tecnologias de replicação e streaming.
- Garantir a governança de dados e a qualidade da informação, implementando processos de validação, monitoramento e controle de dados.
- Desenvolver e otimizar processos de ETL/ELT utilizando Databricks, garantindo a eficiência e a escalabilidade das transformações.
- Atuar na otimização de custos e performance da infraestrutura de dados em AWS, explorando serviços como S3, EMR e Redshift.
- Implementar práticas de CI/CD para automação de deploy e versionamento de pipelines de dados, promovendo um ambiente de desenvolvimento ágil e seguro.
- Garantir o desenvolvimento técnico e estratégico do time, promovendo um ambiente de aprendizagem contínua e inovação.
- Ser ponte entre engenharia, analytics e negócio, garantindo que a plataforma de dados atenda às necessidades de toda a empresa.
- Experiência anterior em posições de liderança técnica ou coordenação de times de engenharia de dados.
- Sólido conhecimento em AWS, com foco em serviços de dados (S3, Redshift, DMS).
- Proficiência em SQL e experiência com otimização de consultas em grandes volumes de dados.
- Experiência comprovada com a arquitetura medallion (Bronze, Silver, Gold).
- Domínio em ferramentas de orquestração de fluxos de dados e implementação de CI/CD.
- Experiência com Databricks, incluindo o desenvolvimento de notebooks, Delta Lake e DLT.
- Conhecimento em ferramentas de visualização de dados como Superset, Tableau ou Metabase.
- Boa comunicação para storytelling, priorização e alinhamento com stakeholders técnicos e de negócio.
- Familiaridade no uso de LLM e GenAI, seja como suporte no dia a dia ou para implementação de soluções.
- Experiência com outras plataformas de nuvem (Azure, GCP).
- Familiaridade com Python para desenvolvimento de pipelines de dados e automações.
- Experiência com ferramentas de versionamento de código (Git) e práticas de GitOps.
- Conhecimento em arquiteturas de streaming de dados (Kafka, Kinesis).
- Certificações em AWS ou Databricks.