Engenheiro de dados
- São Paulo - SP
- Permanente
- Período integral
- Responsabilidades: Criar, manter e otimizar pipelines de dados com Azure Data Factory Processar e transformar dados com Databricks, Spark, Python/PySpark e SQL Versionar código utilizando GitHub e aplicar práticas de CI/CD com Azure DevOps Colaborar com o time de dados para garantir a qualidade, performance e documentação das soluções Apoiar a criação de estruturas eficientes para armazenamento, processamento e consumo de dados Requisitos obrigatórios: Experiência com Azure Data Factory e Databricks Conhecimento sólido em soluções de dados na Azure Vivência com Spark, Python/PySpark e SQL para transformação de dados Experiência com versionamento (GitHub) e CI/CD (Azure DevOps) Capacidade de construção de pipelines robustos e reutilizáveis Diferenciais: Experiência com ferramentas de observabilidade e monitoramento de pipelines (ex: Datadog) Conhecimento em testes de dados (data quality, validation frameworks) Facilidade para documentar e comunicar arquitetura e decisões técnicas Se você gosta de desafios, essa pode ser a sua oportunidade!
Caderno Nacional