Pessoa Coordenadora de Engenharia de Dados
AlmapBBDO Ver todas as vagas
- São Paulo - SP
- Permanente
- Período integral
- Revisar código, arquitetura de pipelines e implementações de dados da equipe
- Apoiar o Gerente na aprovação de tarefas, validando qualidade técnica e alinhamento com requisitos
- Conduzir code reviews estruturados, fornecendo feedback construtivo
- Mentorizar e desenvolver técnicamente membros da equipe
- Identificar e documentar lições aprendidas e melhores práticas
- Manter comunicação clara com stakeholders sobre o status técnico
- Arquitetar e otimizar pipelines de dados em múltiplas plataformas (GCP, Databricks, Microsoft Fabric)
- Apoiar na criação e manutenção de fluxos de trabalho complexos e escaláveis
- Implementar orquestração com Google Cloud Composer, Airflow, Databricks Workflows e Data Factory
- Garantir idempotência, resiliência e tratamento de erros em pipelines
- Otimizar performance e reduzir latência de processamento
- Implementar processamento em tempo real e batch conforme necessidade
- BigQuery: design de tabelas, otimização de queries, particionamento e clustering
- Dataflow: pipelines Apache Beam em escala
- Cloud Composer: orquestração de workflows
- Cloud Storage, Pub/Sub, Bigtable
- VPCs, Firewalls e segurança em GCP
- IAM e gerenciamento de identidades
- Arquitetura com Delta Lake e Unity Catalog
- Otimização de Spark SQL e jobs Databricks
- Integração com repositórios Git (MLflow, DLT)
- Segurança, RBAC e governança no Databricks
- Managed infrastructure e clusters
- Synapse Analytics e Data Factory
- Power BI integrado com ambientes de dados
- Integração com Azure ecosystem
- Data Warehouse e Lakehouse patterns
- Projetar, configurar e manter ambientes cloud (Dev, Staging, Produção)
- Gerenciar VPCs, subnets, firewalls e security groups
- Implementar IAM, autenticação e autorização (RBAC, ACLs)
- Gerenciar secrets, chaves de acesso e compliance de segurança
- Containerização com Docker e orquestração com Kubernetes
- Implementar CI/CD pipelines para automação de deployments
- Monitoramento, logging e alertas (Cloud Logging, Datadog, Prometheus)
- FinOps: otimização de custos em ambientes cloud
- Backup, disaster recovery e business continuity
- Implementar e manter SLAs de qualidade de dados
- Validação de dados, schema evolution e data profiling
- Documentar data lineage e relacionamentos
- Implementar governança de dados (catálogo, metadados)
- Conformidade com LGPD, GDPR, SOC2 e outras regulamentações
- Auditoria e rastreabilidade de acesso aos dados
- Projetar data lakes e data warehouses escaláveis
- Definir estratégias de particionamento e indexação
- Implementar padrões de arquitetura (medallion, star schema, etc.)
- Avaliar trade-offs entre diferentes arquiteturas
- Documentar decisões arquiteturais e manter arquitetura atualizada
- Identificar gargalos em pipelines e infraestrutura
- Implementar cache, índices e estratégias de compressão
- Otimizar queries em BigQuery, Spark e Synapse
- Monitorar e alertar sobre degradação de performance
- Análise de custos e otimização de recurso de computação
- Superior Completo em Engenharia, Ciência da Computação, Sistemas de Informação ou afins
- Especialização, certificações ou cursos avançados em arquitetura de dados, cloud computing ou big data (desejável)
- Python avançado para processamento, transformação e orquestração de dados
- SQL avançado: stored procedures, window functions, otimização de queries
- Conhecimento em pelo menos uma linguagem adicional (Java, Scala, Go)
- Google Cloud Platform (GCP): BigQuery, Dataflow, Cloud Composer, Cloud Storage, Pub/Sub, IAM
- Databricks: Delta Lake, Spark SQL, Unity Catalog, Databricks Workflows
- Microsoft Fabric: Synapse Analytics, Data Factory, Power BI integrado
- Redes cloud: VPCs, subnets, firewalls, load balancers
- IAM e segurança: gerenciamento de identidades, RBAC, secrets management
- Containerização: Docker e orquestração com Kubernetes
- CI/CD e automação de deployments
- Monitoramento, logging e observabilidade
- ETL/ELT: design e implementação de pipelines robustos
- Data warehousing e data lakes
- Processamento em tempo real e batch
- Versionamento de código: Git, GitHub/GitLab
- Orquestração: Airflow, Dataflow, Cloud Composer, Databricks Workflows
- Apache Spark e distributed computing
- Data quality frameworks e validação
- Governança de dados e data cataloging
- Compliance: LGPD, GDPR, SOC2
- Data lineage e metadata management
- Experiência com múltiplas plataformas cloud (GCP + Databricks + Microsoft Fabric)
- Certificações cloud (GCP Professional Data Engineer, Databricks Certified, Azure Data Engineer)
- Experiência com streaming de dados (Kafka, Pub/Sub, Kinesis)
- Machine Learning Ops (MLflow, feature stores)
- Experiência em FinOps e otimização de custos cloud
- Conhecimento de GraphQL e APIs REST avançadas
- Experiência em ambientes híbridos (on-premise + cloud)
- Contribuições em projetos open-source de dados (Apache Spark, Airflow, dbt)
- Experiência com Infrastructure as Code (Terraform, CloudFormation, Bicep)
- Liderança técnica comprovada e mentoria de equipes
- Mínimo de 3-4 anos em engenharia de dados ou posição similar
- Mínimo de 2+ anos com plataformas cloud (GCP, Databricks, Microsoft Azure/Fabric)
- Comprovada experiência em liderança técnica, code review e mentoria
- Experiência em arquitetura e design de soluções de dados
- Background em múltiplos segmentos/indústrias (marketing = diferencial)
- Liderança técnica e capacidade de mentorizar
- Forte comunicação técnica e não-técnica
- Pensamento estratégico e visão de longo prazo
- Proatividade e capacidade de resolução de problemas
- Flexibilidade e adaptabilidade a novas tecnologias
- Trabalho em equipe e colaboração
- Excelente atenção a detalhes e qualidade
- Comprometimento com boas práticas e padronização
- Capacidade de tomar decisões em ambientes de incerteza
- Redução de bugs/issues em produção relacionados a dados
- Desenvolvimento técnico comprovável da equipe
- Manutenção de SLAs de qualidade e performance de dados
- Contribuição ativa na evolução arquitetural da plataforma
- Participação em roadmap técnico com o Gerente
- Documentação clara e atualizada dos processos