Com 25 anos de experiência no mercado de Tecnologia da Informação, a MTP é uma empresa multinacional com mais de 1.000 colaboradores espalhados em mais de 11 unidades em nível global, o que nos permite promover o crescimento e intercâmbio profissional. A MTP é líder no fornecimento de serviços e soluções de TI com foco em Quality Assurance. Possuímos mais de 10 certificações, incluindo o TMMI - level 5, o mais alto nível da categoria. Oferecendo um dos mais amplos portfólios, entregamos soluções inovadoras e flexíveis para ajudar empresas a resolver seus desafios mais complexos. Atuando em projetos em mais de 14 países, tais como: Alemanha, Reino Unido, Japão, Suécia, Coréia do Sul, Moçambique, Guatemala, Argentina, Chile, Peru, entre outros.Estamos em busca de Engenheiros de Dados para integrar um novo time que atuará em projetos de dados na PwC Brasil. O time será composto inicialmente por três engenheiros e outros três profissionais (Scrum Master, Arquitetos de Dados).· Projetar, desenvolver e manter pipelines de dados ETL/ELT escaláveis usando Databricks com PySpark, SQL e Delta Lake.· Otimizar o desempenho dos pipelines de dados, gerenciar fluxos de trabalho e monitorar execuções utilizando workflows e notebooks.· Integrar, transformar e processar dados estruturados e não estruturados de várias fontes, como armazenamento em nuvem, APIs, JSON e arquivos diversos.· Implementar verificações de qualidade dos dados e validações, assegurando governança, rastreabilidade e conformidade de segurança (ex.: Unity Catalog).· Colaborar com arquitetos de dados, analistas e áreas de negócio para traduzir requisitos em modelos e soluções de dados.· Participar ativamente em ritos de governança de dados e contribuir para a melhoria contínua dos processos de dados através de automação e documentação.· Ter visão de produtos de dados e criar padrões reutilizáveis.· Propor e implementar soluções inovadoras para desafios técnicos em um ambiente ágil e colaborativo.Requisitos e Qualificações· Profundo conhecimento em Databricks e Unity Catalog, com sólida compreensão da arquitetura Lakehouse, Delta Lake e MLFlow.· Proficiência em PySpark, SQL e processamento distribuído de dados.· Experiência com plataformas em nuvem, especialmente Azure, e serviços como Azure Data Factory e AirFlow.· Familiaridade com ambientes DataOps, incluindo práticas de CI/CD e controle de versão (Git, Azure DevOps).· Experiência em performance tuning, segurança e integração de dados em ambientes cloud.· Habilidades avançadas para resolução de problemas e depuração em ambientes distribuídos.Diferenciais· Certificação Databricks (ex.: Databricks Certified Data Engineer Associate/Professional).· Experiência com modelagem dimensional e arquitetura de dados.· Experiência em projetos de dados financeiros (ERP, Compras).· Certificações em cloud computing ou engenharia de dados.· Habilidades em comunicação e capacidade de trabalhar efetivamente com equipes multifuncionaisActing: