Engenheiro de Dados Sênior

Engenheiro de Dados Sênior

Engenheiro de Dados Sênior

Framework Digital

Jooble Badge

Brasil

1 dia atrás

Nenhuma candidatura

Sobre a vaga

Somos a Framework! Evoluímos grandes marcas em todo o mundo com transformação digital e crescemos continuamente através de agilidade, design e tecnologia.

Fazer parte do nosso time é saber que a sua jornada será de desafios reais, de crescimento contínuo e de contato diário com referências em tecnologia. Vem com a gente!

*Todas as nossas vagas são abertas para PCDs!

Benefícios? É claro que temos!

🍝 Vale alimentação e refeição no cartão Swile com mais de R$ 1.200,00 mensais

💻 Auxílio home office no valor de R$ 150,00 mensais

🚗 Você decide entre vale-transporte ou vale-combustível, no caso de vagas híbridas e presenciais

🏥 Plano de saúde e auxílio odontológico de alta qualidade

❤️ Seguro de vida que cobre doenças ocupacionais

💸 Participação nos lucros

💪 Gympass e TotalPass para se manter saudável

👶 Licença maternidade estendida: 180 dias

👶 Licença paternidade estendida: 30 dias

🥦 Desconto em consultas nutricionais

🧠 Desconto em terapia online

🛍️ Clube de benefícios para quem gosta de comprar com descontos

💡 Knowledge transfer através do Frame KT

📚 Plataforma de cursos e atividades educativas para as crianças e adolescentes da sua família

💵 Bonificação por indicação de novos colaboradores

E não paramos por aí!

🕗 Horário flexível

👕 No dress code

🍎 Nas pausas presenciais, fique à vontade para comer pães, bolos e frutas

💜 Ambiente leve, flexível e cultura colaborativa.

E qual será a sua missão na Framework?

  • Desenhar e Desenvolver Pipelines de Dados: Arquitetar, implementar e manter pipelines ETL/ELT escaláveis e de alto desempenho para processar grandes volumes de dados estruturados e não estruturados.
  • Integração e Processamento de Dados: Construir arquiteturas orientadas a eventos para viabilizar o processamento de dados em tempo real e a integração fluida entre sistemas.
  • Gestão de Infraestrutura em Nuvem: Utilizar serviços da AWS (como S3, Redshift, Glue, Lambda, Kinesis, Pentaho) para projetar e implantar uma infraestrutura de dados robusta.
  • Desenvolvimento e Otimização de Código: Escrever código limpo, eficiente e de fácil manutenção em Python para ingestão, transformação e orquestração de dados.
  • Colaboração em Ambientes Ágeis: Trabalhar em estreita colaboração com times multifuncionais, incluindo cientistas de dados, analistas e engenheiros de software, seguindo metodologias ágeis para entregar soluções iterativas.
  • Qualidade e Governança de Dados: Implementar boas práticas de qualidade de dados, monitoramento e conformidade para garantir integridade, consistência e segurança dos dados.
  • Otimização de Performance: Otimizar pipelines de dados e consultas em ambientes em nuvem visando desempenho, escalabilidade e eficiência de custos.
  • Mentoria e Liderança: Oferecer orientação técnica a membros juniores do time, promovendo uma cultura de aprendizado contínuo e melhoria constante.
  • Documentação e Compartilhamento de Conhecimento: Documentar projetos técnicos, processos e fluxos de trabalho para garantir a manutenção e o repasse de conhecimento.

O que é preciso para fazer parte do time?

  • Formação superior em Engenharia da Computação, Ciência da Computação, Tecnologia da Informação, Ciência de Dados ou áreas correlatas.
  • Pelo menos 5 anos de experiência como Engenheiro de Dados ou em funções similares, com foco em desenvolvimento de pipelines e soluções de dados em nuvem.
  • Domínio avançado de Python para processamento de dados, automações e scripts.
  • Experiência prática com Databricks , incluindo uso de Spark, Delta Lake e workflows da plataforma.
  • Sólido conhecimento em serviços AWS , como S3, Redshift, Glue, Lambda, Kinesis e Athena, para construção e gestão de infraestrutura de dados.
  • Especialista em processos ETL/ELT , utilizando ferramentas como Apache Airflow, AWS Glue ou similares.
  • Experiência com arquitetura orientada a eventos , como AWS Kinesis e Kafka, para pipelines em tempo real.
  • Vivência em ambientes ágeis (Scrum ou Kanban), com boa capacidade de adaptação a times multidisciplinares.
  • Proficiência em bancos de dados relacionais e não relacionais , como PostgreSQL, MySQL, DynamoDB e MongoDB, incluindo otimização de queries SQL.
  • Forte entendimento de modelagem de dados (ex: star schema, snowflake) voltada para análise e relatórios.
  • Familiaridade com práticas DevOps, incluindo CI/CD, versionamento (Git) e infraestrutura como código (Terraform, AWS CloudFormation).
  • Excelentes habilidades analíticas e de resolução de problemas, com foco em entregar soluções escaláveis e eficientes.
  • Boa comunicação escrita e verbal, com capacidade de colaborar com stakeholders técnicos e não técnicos.

Será um diferencial se você:

  • Inglês: nível intermediário a avançado.
  • Experiência com tecnologias de conteinerização (ex: Docker, Kubernetes) para implantação de aplicações de dados.
  • Conhecimento em frameworks de governança de dados e normas de conformidade (ex: GDPR, CCPA).
  • Familiaridade com ferramentas adicionais de big data , como Apache Spark, Hadoop ou Snowflake.
  • Certificações em AWS (ex: AWS Certified Data Analytics, AWS Certified Solutions Architect) ou Databricks .

A NOSSA EVOLUÇÃO É CRESCENTE!

E, para acompanhar esse crescimento, precisamos de pessoas que agreguem propondo ideias, soluções e desafios!

Gostou da oportunidade? Vamos juntos e​ faça parte da nossa história! 💜 #vempraframe