Pessoa Coordenadora de Engenharia de Dados

AlmapBBDO Ver todas as vagas

  • São Paulo - SP
  • Permanente
  • Período integral
  • Há 23 dias
Sobre a AlmapBBDOQUEM SOMOS!#1 Agência Global da Década - Cannes Lions.Somos uma potência de criatividade e negócios que se reinventa todos os dias.Acreditamos que a criatividade é protagonista na geração de valor para as marcas, no crescimento dos negócios dos clientes e, não menos importante, na transformação das pessoas. Porque as pessoas são o centro da cultura da agência.Aqui na AlmapBBDO estimulamos um ambiente cada vez mais plural que permita trocas e aprendizados. Convidamos pessoas negras, LGBTQIAPN+, com deficiência, mulheres e vindas de diferentes níveis socioeconômicos, regiões e universidades do país a fazer parte do nosso time.Este é o nosso horizonte definitivo, visto por todas as equipes de nossa agência. E é assim que construímos, dia após dia, um ambiente diverso e uma grande ideia chamada AlmapBBDO.Venha fazer parte do nosso time!DESCRIÇÃO DAS PRINCIPAIS RESPONSABILIDADES:Gestão e Supervisão:
  • Revisar código, arquitetura de pipelines e implementações de dados da equipe
  • Apoiar o Gerente na aprovação de tarefas, validando qualidade técnica e alinhamento com requisitos
  • Conduzir code reviews estruturados, fornecendo feedback construtivo
  • Mentorizar e desenvolver técnicamente membros da equipe
  • Identificar e documentar lições aprendidas e melhores práticas
  • Manter comunicação clara com stakeholders sobre o status técnico
Pipelines e Orquestração de Dados:
  • Arquitetar e otimizar pipelines de dados em múltiplas plataformas (GCP, Databricks, Microsoft Fabric)
  • Apoiar na criação e manutenção de fluxos de trabalho complexos e escaláveis
  • Implementar orquestração com Google Cloud Composer, Airflow, Databricks Workflows e Data Factory
  • Garantir idempotência, resiliência e tratamento de erros em pipelines
  • Otimizar performance e reduzir latência de processamento
  • Implementar processamento em tempo real e batch conforme necessidade
Plataformas Cloud e Infraestrutura:Google Cloud Platform (GCP):
  • BigQuery: design de tabelas, otimização de queries, particionamento e clustering
  • Dataflow: pipelines Apache Beam em escala
  • Cloud Composer: orquestração de workflows
  • Cloud Storage, Pub/Sub, Bigtable
  • VPCs, Firewalls e segurança em GCP
  • IAM e gerenciamento de identidades
Databricks:
  • Arquitetura com Delta Lake e Unity Catalog
  • Otimização de Spark SQL e jobs Databricks
  • Integração com repositórios Git (MLflow, DLT)
  • Segurança, RBAC e governança no Databricks
  • Managed infrastructure e clusters
Microsoft Fabric:
  • Synapse Analytics e Data Factory
  • Power BI integrado com ambientes de dados
  • Integração com Azure ecosystem
  • Data Warehouse e Lakehouse patterns
Infraestrutura e Operações Cloud:
  • Projetar, configurar e manter ambientes cloud (Dev, Staging, Produção)
  • Gerenciar VPCs, subnets, firewalls e security groups
  • Implementar IAM, autenticação e autorização (RBAC, ACLs)
  • Gerenciar secrets, chaves de acesso e compliance de segurança
  • Containerização com Docker e orquestração com Kubernetes
  • Implementar CI/CD pipelines para automação de deployments
  • Monitoramento, logging e alertas (Cloud Logging, Datadog, Prometheus)
  • FinOps: otimização de custos em ambientes cloud
  • Backup, disaster recovery e business continuity
Qualidade e Governança de Dados:
  • Implementar e manter SLAs de qualidade de dados
  • Validação de dados, schema evolution e data profiling
  • Documentar data lineage e relacionamentos
  • Implementar governança de dados (catálogo, metadados)
  • Conformidade com LGPD, GDPR, SOC2 e outras regulamentações
  • Auditoria e rastreabilidade de acesso aos dados
Arquitetura de Dados:
  • Projetar data lakes e data warehouses escaláveis
  • Definir estratégias de particionamento e indexação
  • Implementar padrões de arquitetura (medallion, star schema, etc.)
  • Avaliar trade-offs entre diferentes arquiteturas
  • Documentar decisões arquiteturais e manter arquitetura atualizada
Performance e Otimização:
  • Identificar gargalos em pipelines e infraestrutura
  • Implementar cache, índices e estratégias de compressão
  • Otimizar queries em BigQuery, Spark e Synapse
  • Monitorar e alertar sobre degradação de performance
  • Análise de custos e otimização de recurso de computação
QUALIFICAÇÕES DESEJÁVEIS:FORMAÇÃO:
  • Superior Completo em Engenharia, Ciência da Computação, Sistemas de Informação ou afins
  • Especialização, certificações ou cursos avançados em arquitetura de dados, cloud computing ou big data (desejável)
CONHECIMENTOS TÉCNICOS OBRIGATÓRIOS:Programação e Linguagens:
  • Python avançado para processamento, transformação e orquestração de dados
  • SQL avançado: stored procedures, window functions, otimização de queries
  • Conhecimento em pelo menos uma linguagem adicional (Java, Scala, Go)
Plataformas Cloud (essencial ter experiência em ao menos uma):
  • Google Cloud Platform (GCP): BigQuery, Dataflow, Cloud Composer, Cloud Storage, Pub/Sub, IAM
  • Databricks: Delta Lake, Spark SQL, Unity Catalog, Databricks Workflows
  • Microsoft Fabric: Synapse Analytics, Data Factory, Power BI integrado
Infraestrutura Cloud:
  • Redes cloud: VPCs, subnets, firewalls, load balancers
  • IAM e segurança: gerenciamento de identidades, RBAC, secrets management
  • Containerização: Docker e orquestração com Kubernetes
  • CI/CD e automação de deployments
  • Monitoramento, logging e observabilidade
Engenharia de Dados:
  • ETL/ELT: design e implementação de pipelines robustos
  • Data warehousing e data lakes
  • Processamento em tempo real e batch
  • Versionamento de código: Git, GitHub/GitLab
  • Orquestração: Airflow, Dataflow, Cloud Composer, Databricks Workflows
  • Apache Spark e distributed computing
Qualidade e Governança:
  • Data quality frameworks e validação
  • Governança de dados e data cataloging
  • Compliance: LGPD, GDPR, SOC2
  • Data lineage e metadata management
DIFERENCIAIS:
  • Experiência com múltiplas plataformas cloud (GCP + Databricks + Microsoft Fabric)
  • Certificações cloud (GCP Professional Data Engineer, Databricks Certified, Azure Data Engineer)
  • Experiência com streaming de dados (Kafka, Pub/Sub, Kinesis)
  • Machine Learning Ops (MLflow, feature stores)
  • Experiência em FinOps e otimização de custos cloud
  • Conhecimento de GraphQL e APIs REST avançadas
  • Experiência em ambientes híbridos (on-premise + cloud)
  • Contribuições em projetos open-source de dados (Apache Spark, Airflow, dbt)
  • Experiência com Infrastructure as Code (Terraform, CloudFormation, Bicep)
  • Liderança técnica comprovada e mentoria de equipes
EXPERIÊNCIA PROFISSIONAL:
  • Mínimo de 3-4 anos em engenharia de dados ou posição similar
  • Mínimo de 2+ anos com plataformas cloud (GCP, Databricks, Microsoft Azure/Fabric)
  • Comprovada experiência em liderança técnica, code review e mentoria
  • Experiência em arquitetura e design de soluções de dados
  • Background em múltiplos segmentos/indústrias (marketing = diferencial)
COMPETÊNCIAS COMPORTAMENTAIS:
  • Liderança técnica e capacidade de mentorizar
  • Forte comunicação técnica e não-técnica
  • Pensamento estratégico e visão de longo prazo
  • Proatividade e capacidade de resolução de problemas
  • Flexibilidade e adaptabilidade a novas tecnologias
  • Trabalho em equipe e colaboração
  • Excelente atenção a detalhes e qualidade
  • Comprometimento com boas práticas e padronização
  • Capacidade de tomar decisões em ambientes de incerteza
EXPECTATIVAS DE DESEMPENHO:
  • Redução de bugs/issues em produção relacionados a dados
  • Desenvolvimento técnico comprovável da equipe
  • Manutenção de SLAs de qualidade e performance de dados
  • Contribuição ativa na evolução arquitetural da plataforma
  • Participação em roadmap técnico com o Gerente
  • Documentação clara e atualizada dos processos
Como é a área de dados da Almap:Atualmente somos cerca de 70 pessoas, em times segmentados por diversas especialidades: Data Solutions, Data Analytics, Engenharia de Dados, Data Science, Media Research e AccountabilityTemos níveis hierárquicos bem definidos com Head da área, Diretoria, Gerências, Coordenação, Analistas (SR, PL e JR) e Estagiários.Acreditamos no diálogo e no compartilhamento de experiências e conhecimento, fazendo com que nossa gestão seja muito horizontal.Nossa área tem um clima ótimo, trabalhamos de forma híbrida, remotamente a maior parte do tempo e eventualmente fazemos encontros presenciais para quem pode estar em São Paulo. Temos pessoas residentes em diversos Estados trabalhando conosco. Também fazemos encontros online quinzenalmente com toda a área para troca de experiências e conhecimento.

AlmapBBDO

Vagas similares

  • Coordenador(a) de Engenharia de Software

    Recovery

    • São Paulo - SP
    • R$ 1.260 por mês
    Aqui na Recovery o(a) Coordenador(a) de Engenharia de Software tem a missão de garantir que os times de engenharia entreguem soluções robustas, escaláveis e alinhadas às necessidad…
    • Há 30 dias
  • Coordenador de Engenharia Civil

    #SejaShopper

    • São Paulo - SP
    Aqui ninguém usa terno, gravata ou camisa. Não seguimos padrões sem sentido! O ambiente é informal e leve, cheio de "gente de verdade". Mas não se engane, não tem moleza; o traba…
    • Há 1 mês