Profissional com sólida base técnica em engenharia de dados, capaz de atuar de forma autônoma na construção e manutenção de pipelines e arquiteturas escaláveis. Desejável skill de comunicação para colaborar com times técnicos e de negócio, além de adaptabilidade para trabalhar em ambientes dinâmicos e visão sistêmica para entender o impacto das soluções no ecossistema de dados.·Desenvolvimento e manutenção de pipelines de dados robustos para ingestão, processamento e transformação (ETL/ELT) com Python, SQL e Apache Airflow;·Contribuição para a evolução da arquitetura de dados em ambientes Databricks e AWS, com foco em escalabilidade e performance;·Aplicação de boas práticas de engenharia de dados, incluindo padrões de nomenclatura, estruturação de catálogos de dados e definição de camadas semânticas;·Apoio na integração de dados entre sistemas, além da manutenção de data lakes e data warehouses produtivos;·Participação na implementação de processos de CI/CD e práticas de monitoramento para pipelines de dados;·Colaboração com áreas de negócio para compreender necessidades e traduzi-las em soluções técnicas escaláveis e governadas;·Criação e manutenção de documentação técnica clara e estruturada para apoiar a operação e evolução das soluções de dados.Requisitos:Superior completo em áreas de TI.Programação (Python e SQL), Arquitetura de Dados (data lakehouse ou data warehouse), Big Data (Databricks, Spark), Cloud Computing (AWS ou Azure), Ferramentas de Orquestração (Apache Airflow), Integração de Dados (ETL/ELT), Governança e Monitoramento de pipelines, Documentação Técnica.