Olá,??Você está se candidatando para o processo seletivo que preencherá a vaga deEngenheiro de Dadosaqui naLLZ Garantidora.????Conheça mais sobre nós:Nosso negócio: https://www.youtube.com/watch?v=BtFlRxEa0ugSociedade LLZ Garantidora + BTG PactUal: https://www.youtube.com/watch?v=_KT1hSIFAEsOferecemos:Contratação:CLT; HíbridoSalário compatível com o mercado;Cartão Flash benefíciospara alimentação/refeição no valor de R$ 30,00 por dia trabalhado;Vale TransportePlano de Saúde:Unimed - Unipart coparticipativo;Plano odontológico:Metlife;Parcerias com Universidades;Parceria com o Sesc;Gympass;Day offParticipação nos lucros com possibilidade de até 1 salário anual; Principais responsabilidades: Projetar, desenvolver e manter pipelines de dados eficientes e escaláveis.Estruturar e gerenciar ambientes de Big Data, Data Lake e Data Warehouse.Garantir a qualidade, integridade e governança dos dados armazenados.Monitorar e otimizar a performance de consultas e estruturas em bancos de dados relacionais.Desenvolver e manter processos de ETL/ELT para ingestão e transformação de dados.Implementar estratégias de particionamento, indexação e tuning de queries.Trabalhar em conjunto com times de ciência de dados, engenharia de software e BI para fornecer soluções eficientes e seguras.Garantir a conformidade com normas de segurança e regulamentações de proteção de dados. Requisitos técnicos: Proatividade para buscar experiências e inovações cotidianamente.Mindset de produto.Experiência comprovada na construção e manutenção de arquiteturas de Big Data, Data Lakes e Data Warehouses.Domínio de bancos de dados relacionais (MySQL, PostgreSQL, SQL Server, Oracle, etc.) e técnicas de otimização de performance.Experiência com ferramentas de ETL/ELT (Apache NiFi, Talend, Airflow, DBT, etc.).Conhecimento em plataformas de cloud computing (AWS, Azure, GCP) e seus serviços de dados (Redshift, BigQuery, Snowflake, etc.).Habilidade com linguagens de programação como Python, SQL e Scala.Experiência com modelagem de dados e melhores práticas de governança.Familiaridade com ferramentas de processamento de dados distribuídos (Spark, Hadoop, Kafka, etc.).Conhecimento em segurança e conformidade de dados.Experiência em automação de infraestrutura de dados com Terraform, Kubernetes ou Docker.Certificações em cloud computing e bancos de dados. Perfil comportamental: ? Sejam proativas para solucionar problemas;? Entregue o combinado de forma clara e honesta;? Sejam cordiais, atenciosas e respeitosas com todos;? Pensam antes de agir;? Melhora e simplifica o trabalho o tempo todo.