Engenheiro de Dados Pleno
Join | Creative Tech

Brasil
•1 hora atrás
•Nenhuma candidatura
Sobre
#JoinUs 💙A Join está em busca de uma Pessoa Engenheira de Dados Pleno para fazer parte de um time focado em fazer o melhor!Na Join nós acreditamos que softwares desenvolvidos para pessoas transformam negócios, por essa razão, o nosso time de Recruiters está sempre atento para encontrar aqueles que vão nos ajudar a cumprir esse objetivo.Como Pessoa Engenheira de Dados Pleno você fará parte de uma squad focada em qualidade, processos criativos e desenvolvimento ágil.Vaga 100% remota! Aceitamos candidatos de todas as regiões do Brasil =DResponsabilidades e atribuiçõesNo seu dia a dia esperamos que você toque os seguintes processos: Construir, testar e manter pipelines (ETL/ELT) de ingestão e transformação;Utilizar Databricks com foco em PySpark e SQL;Garantir escalabilidade e robustez para o time de BI;Otimizar execução de pipelines;Realizar tuning de queries;Ajustar clusters e tabelas Delta para maximizar performance e reduzir custos;Aplicar políticas de segurança e qualidade nas pipelines;Implementar governança desde Bronze → Silver → Gold;Garantir qualidade e rastreabilidade das transformações;Criar conexões e ingestões de dados provenientes de sistemas diversos;Assegurar que as integrações sejam confiáveis e performáticas;Implementar regras automáticas de qualidade;Desenvolver gates no Databricks / Delta Live Tables (DLT);Garantir que só dados qualificados cheguem à camada de consumo;Modelar estruturas no Lakehouse;Documentar e atualizar repositórios de metadados e modelos;Apoiar na administração do workspace Databricks;Gerenciar acessos e aplicar boas práticas de segurança da informação.Requisitos e qualificaçõesO que será necessário para o nosso match perfeito:Ensino superior completo na área de TI ou em qualquer área com pós-graduação em TI;Experiência mínima de 4 anos em Desenvolvimento de Software, Engenharia de Dados e/ou Administração de Dados;Experiência prática em Databricks (clusters, notebooks, Delta Lake, DLT);Conhecimento em Big Data e processamento distribuído;Conhecimento sólido em PySpark;Proficiência em SQL;Experiência com ferramentas de versionamento (Git);Modelagem lógica e física em ambiente Lakehouse;Documentação e manutenção de metadados;Experiência na ingestão de dados a partir de SGBDs, APIs e Cloud Storage;Aplicação de regras de segurança e políticas de governança;Implementação de Data Quality Gates;Gestão de acessos no Databricks Workspace.Informações adicionais🏡 Full Remoto – Trabalhe na segurança e conforto do seu lar 💙🖥️ Auxílio Infraestrutura;⌚️ Flexibilidade de horário;🥳 Day Off no dia do aniversário – com direito a surpresa! 🎓 Incentivo a formação e certificações;🎯 Acesso ao Alura;🧑🎓 Parceria com FIAP; 🏆 Indicação Premiada;🩺 Plano de Saúde;🦷 Plano Odontológico;🧘♀️Vittude - plataforma de saúde mental;🏋️♂️Wellhub - para sua saúde física;🪙 New Value - cupons de desconto;🏦 SESC;🍛Vale alimentação e/ou refeição.




