Data Engineer

Data Engineer

Data Engineer

Stefanini Latam

Gupy

áLvaro Obregón México

1 dia atrás

Nenhuma candidatura

Sobre

¡Sé parte de Stefanini!En Stefanini somos más de 30.000 genios, conectados desde 40 países, haciendo lo que les apasiona y co-creando un futuro mejor.¡Seguro no te quieres quedar fuera!El Data Engineer es responsable de diseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL), asegurando la calidad, disponibilidad e integridad de la información dentro de la organización. Trabaja en la implementación y optimización de pipelines de datos en plataformas modernas, permitiendo el análisis avanzado, la minería de datos y el desarrollo de reportes y dashboards para los usuarios de negocio y analítica. Colabora estrechamente con otros equipos para garantizar que los datos sean accesibles y confiables a lo largo de todo su ciclo de vida.Responsabilidades y atribucionesDiseñar, desarrollar y mantener procesos de integración y transformación de datos (ETL) utilizando Python.Implementar y optimizar pipelines de datos en plataformas como Cloudera y Snowflake para asegurar el flujo eficiente de información.Administrar y transformar grandes volúmenes de datos alojados en Data Lakes, habilitando su uso en reportes, dashboards y análisis avanzados.Desarrollar y optimizar consultas SQL de alto rendimiento para extracción, manipulación y modelado de datos.Colaborar con equipos de negocio y analítica para habilitar proyectos de minería de datos y soluciones de analítica avanzada.Velar por la calidad, disponibilidad e integridad de los datos a lo largo de su ciclo de vida.Proponer y ejecutar mejoras continuas en los procesos y arquitecturas de datos existentes.Requisitos y calificacionesDe 3 a 5 años de experiencia comprobable en ingeniería de datos o posiciones similares.Capacidad analítica y orientación a la resolución de problemas.Comunicación efectiva tanto con equipos técnicos como con áreas de negocio.Autonomía y proactividad para proponer mejoras en procesos y flujos de datos.Capacidad de trabajo en equipo multidisciplinario y bajo modalidad remota/híbrida.Dominio en el desarrollo de procesos ETL utilizando Python.Experiencia en la gestión y optimización de pipelines de datos en plataformas como Cloudera y Snowflake.Fuertes conocimientos en manejo de grandes volúmenes de datos en Data Lakes.Sólida experiencia en el uso de SQL para diseño de consultas complejas, tuning, y modelado relacional.Experiencia en desarrollo de stored procedures, optimización de queries y modelado de datos en Snowflake ( será muy valorada).Deseable: conocimientos básicos de Hadoop, Hive y Spark.Deseable: conocimientos en analítica avanzada.Informaciones adicionales