
Data Engineer
Stefanini Latam
áLvaro Obregón México
•1 dia atrás
•Nenhuma candidatura
Sobre
¡Sé parte de Stefanini!En Stefanini somos más de 30.000 genios, conectados desde 40 países, haciendo lo que les apasiona y co-creando un futuro mejor.¡Seguro no te quieres quedar fuera!El Data Engineer es responsable de diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL), asegurando la calidad, disponibilidad e integridad de la información dentro de la organización. Trabaja en la implementación y optimización de pipelines de datos en plataformas modernas, permitiendo el análisis avanzado, la minería de datos y el desarrollo de reportes y dashboards para los usuarios de negocio y analítica. Colabora estrechamente con otros equipos para garantizar que los datos sean accesibles y confiables a lo largo de todo su ciclo de vida.Responsabilidades y atribucionesDiseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL) utilizando Python.Implementar y optimizar pipelines de datos en plataformas como Cloudera y Snowflake para asegurar el flujo eficiente de información.Administrar y transformar grandes volúmenes de datos alojados en Data Lakes, habilitando su uso en reportes, dashboards y análisis avanzados.Desarrollar y optimizar consultas SQL de alto rendimiento para extracción, manipulación y modelado de datos.Colaborar con equipos de negocio y analítica para habilitar proyectos de minería de datos y soluciones de analítica avanzada.Velar por la calidad, disponibilidad e integridad de los datos a lo largo de su ciclo de vida.Proponer y ejecutar mejoras continuas en los procesos y arquitecturas de datos existentes.Requisitos y calificacionesDe 3 a 5 años de experiencia comprobable en ingeniería de datos o posiciones similares.Capacidad analítica y orientación a la resolución de problemas.Comunicación efectiva tanto con equipos técnicos como con áreas de negocio.Autonomía y proactividad para proponer mejoras en procesos y flujos de datos.Capacidad de trabajo en equipo multidisciplinario y bajo modalidad remota/híbrida.Dominio en el desarrollo de procesos ETL utilizando Python.Experiencia en la gestión y optimización de pipelines de datos en plataformas como Cloudera y Snowflake.Fuertes conocimientos en manejo de grandes volúmenes de datos en Data Lakes.Sólida experiencia en el uso de SQL para diseño de consultas complejas, tuning, y modelado relacional.Experiencia en desarrollo de stored procedures, optimización de queries y modelado de datos en Snowflake ( será muy valorada).Deseable: conocimientos básicos de Hadoop, Hive y Spark.Deseable: conocimientos en analítica avanzada.Informaciones adicionales