
Engenheiro de Dados - Sênior
- Curitiba - PR
- Permanente
- Período integral
- Somos apaixonados pelo sorriso: Buscamos as melhores experiências para os nossos clientes, valorizamos as pessoas e somos apaixonados pela empresa.
- Somos inovadores e buscamos simplicidade: Testamos, aprendemos e pensamos sempre em melhorias contínuas.
- Somos flexíveis e promovemos mudanças: Cultivamos a adaptabilidade como virtude, incentivando e promovendo constantes transformações para alcançar o melhor de cada jornada.
- Somos guiados por dados: Os nossos objetivos são claros, se não podemos medir, não podemos fazer. Somos direcionados pela eficiência e aproveitamos ao máximo os recursos disponíveis.
- Desenvolver consultas SQL e programas Python para captura e tratamento de dados.
- Desenvolver funções e notebooks utilizando SQL e Python, aplicando lógica de programação e conceitos de orientação a objetos.
- Implementar pipelines de dados, garantindo soluções com melhor custo-benefício para diversos cenários.
- Monitorar e definir métricas para mensurar as soluções, identificando e promovendo melhorias no processo.
- Realizar modelagem e manipulação de dados, aplicando técnicas de ETL, automação e integração de processos.
- Criar soluções modulares que possam ser reaproveitadas, mantendo a coesão e desacoplamento de código.
- Executar testes unitários e integrados nos produtos de dados antes do deploy em produção.
- Criar apresentações que demonstrem os resultados obtidos através dos projetos em que atua. Documentar projetos de dados em que atua de forma clara e concisa. • Orientar outros membros do time menos experientes e fornecer suporte técnico.
- SQL Avançado (comandos DQL, DML, DDL, DTL, DCL e tunning de queries).
- Conhecimento de ETL.
- Modelagem de dados (Star Schema e Snowflake).
- Git (push, pull, branches, merge, pull request, resolução de conflitos de código, code review).
- Lógica de programação.
- Python Intermediário: Orientação a objetos, funções, classes.
- Metodologias e técnicas de testes.
- Spark.
- Metodologias e técnicas de testes.
- Azure Data Factory.
- Databricks.
- Pentaho.
- Airflow.
- Azure Data Lake Storage Gen 2.
- Excel (Funções matemáticas, criação de gráfico e manipulação de tabelas dinâmicas).
- Banco de dados relacionais (ex: SQL Server).
- Banco de dados NOSQL (ex: MongoDB).
- Estilos arquiteturais (DW, DM, Data Lake e Lakehouse).
- Cloud Computing: Azure
- Certificações em Azure e/ou Databricks.
- Inglês intermediário.
- Experiência no mercado financeiro.
- Experiência com metodologia ágil.
- Fique por dentro de todas as nossas atividades e cultura pelo Instagram: