Engenheiro de Dados Sênior

Engenheiro de Dados Sênior

Engenheiro de Dados Sênior

Ifood

4 dias atrás

Nenhuma candidatura

Sobre

  • Nosso modo de fazer no time
  • Nós, FoodLovers, temos fome de inovação e resultado. Buscamos sempre fazer o nosso melhor, pensando "fora da caixa" e atuando com agilidade e responsabilidade! Temos fome de diversidade, conhecimento e compartilhamento. Enfrentamos desafios complexos com flexibilidade e criatividade.
  • Acreditamos na força do #AllTogether, onde trabalhamos com um forte senso com colaboração interna e externa, promovendo conexões entre pessoas, áreas e disciplinas. Para nós, atuar em comunidade significa construir juntos, compartilhando desafios e soluções, tanto dentro quanto fora do time.
  • E sabe o que promove essa nossa receita especial? As pessoas! Então, que tal vir alimentar o futuro do mundo com a gente?
  • Seu Cardápio diário

Você terá seu dia a dia focado na construção e evolução de um ambiente de dados de ponta, habilitando o iFood a transformar desafios complexos em estratégias de sucesso. Entre as responsabilidades estão

  • Desenvolver e manter pipelines de ETL robustos, eficientes e escaláveis, garantindo a confiabilidade e integridade dos dados ao longo do tempo.
  • Realizar manipulação de dados, automação de tarefas rotineiras e desenvolvimento de ferramentas internas para suporte à análise e operação de dados.
  • Entender profundamente as necessidades do negócio, proporcionando produtos que ajudem a identificar alavancas estratégicas para gerar impacto.
  • Colaborar com times multidisciplinares (negócios, tecnologia, produto, entre outros) para alinhar necessidades e desenvolver soluções de dados que agreguem valor real ao produto/negócio.
  • Ser referência técnica no time, inspirando e compartilhando conhecimentos técnicos com o time, promovendo uma cultura de aprendizado contínuo e crescimento técnico.
  • Propor melhorias técnicas e estratégicas em soluções de dados existentes ou em fase de construção, garantindo que estas suportem o crescimento futuro do negócio.
  • Ser criticar as modelagens dos dados, questionando os motivadores e propondo melhores práticas, inclusive nas modelagens propostas pelos serviços (Eng. de Software).
  • Atuar estrategicamente para alinhar decisões técnicas com os impactos no negócio de curto e longo prazo.
  • Promover e participar de projetos entre diferentes áreas fora do escopo do time em que atua, promovendo o senso de comunidade para desenvolvimento de ferramentas e processos em comum com outros times de dados.
  • Ingredientes que buscamos
  • Experiência no desenvolvimento e manutenção de pipelines de dados utilizando PySpark, incluindo criação de funções e classes, uso de bibliotecas nativas e foco em boas práticas de performance (ex.: particionamento, clusterização).
  • Experiência com ferramentas de orquestração de workflows (Airflow, Databricks Asset Bundle e Delta Live Tables), com entendimento de conceitos como DAGs, execução de tarefas, dependências e monitoramento de falhas.
  • Capacidade de compreender demandas de negócio e traduzi-las em datasets que forneçam respostas claras e eficientes ao produto.
  • Capacidade de modelar dados complexos e traduzi-los em dados facilmente manipuláveis. planejando as soluções com um enfoque em princípios de engenharia de software (design patterns, modularização, reutilização).
  • Familiaridade com versionamento de código via terminal utilizando Git, incluindo operações básicas (commit, push, pull, criação de branches e merge).
  • Garantir boas práticas no ciclo de vida dos dados (documentação, monitoramento, auditoria e versionamento), assegurando a confiabilidade, qualidade, descoberta e consistência ao longo do tempo.
  • Visão sistêmica e experiência em liderança técnica ou mentoria de equipes, para alinhar soluções técnicas ao impacto estratégico no negócio e entregar soluções estratégica.
  • Para realçar o sabor
  • Familiaridade com soluções de dados em ambientes de cloud computing (AWS, GCP ou Azure), incluindo uso de serviços gerenciados para armazenamento, processamento e orquestração de dados.
  • Experiência com práticas de CI/CD aplicadas a pipelines de dados, assegurando entregas mais rápidas, seguras e previsíveis para os fluxos de dados.
  • Experiência com criação de infraestrutura a partir de código (Infrastructure as Code - IaC), utilizando ferramentas como Terraform e Terragrunt.
  • Experiência com Modelos de Linguagem (LLMs) no desenvolvimento de soluções baseadas em IA Generativa (ex.: automações, assistentes ou classificadores).
  • Vivência em projetos de ingestão e tratamento de dados críticos em streaming de baixa latência, utilizando Spark Streaming e Kafka, com foco na otimização de pipelines (ex.: SparkUI e Tuning de ETLs).
  • Conhecimento em ferramentas de visualização de dados e criação de dashboards orientados à tomada de decisão, com atenção às boas práticas (ex.: ThoughtSpot, Databricks Dashboards ou Google Data Studio).