Ubicación: La posición es hibrida 3 días en Oficina, en Av. Mariano Otero 1249, Rinconada del Bosque, Torre Atlántico, Piso 2 WTC. Guadalajara Jalisco.
Experiencia requerida: 6 – 8 años
Tipo de puesto: Tiempo completo
Buscamos un Data Engineer con sólida experiencia en el diseño, construcción y mantenimiento de sistemas de datos escalables. La persona seleccionada será responsable de implementar procesos ETL, optimizar pipelines de datos y colaborar con equipos multidisciplinarios para garantizar la accesibilidad, calidad y seguridad de la información.
Diseñar e implementar soluciones de datos adaptadas a las necesidades del negocio (streaming, data lakes, analytics, etc.).
Liderar proyectos de integración de datos con foco en rendimiento, seguridad, escalabilidad y calidad.
Construir y mantener pipelines de datos escalables.
Colaborar con data scientists, analistas y equipos técnicos.
Desarrollar presentaciones y documentación técnica (diagramas de secuencia, vistas lógicas del sistema, etc.).
Garantizar la gobernanza, calidad y consistencia de datos provenientes de múltiples fuentes.
Implementar bases de datos y data stores para soportar requerimientos organizacionales.
6 – 8 años de experiencia en proyectos de Software/Data Engineering o Data Analytics.
2+ años liderando equipos en proyectos de datos end-to-end.
Dominio de SQL y experiencia con bases de datos relacionales (PostgreSQL, MySQL, SQL Server).
Experiencia con herramientas de data pipelines (Apache Airflow, Luigi, Prefect).
Conocimientos en Python, Java o Scala.
Experiencia en plataformas cloud (AWS, Azure, GCP) y servicios de datos (Redshift, BigQuery, Snowflake, Databricks).
Conocimientos en modelado de datos, data warehousing y diseño de esquemas.
Entendimiento de buenas prácticas en gobernanza, privacidad y seguridad de datos.
Experiencia en plataformas de datos en producción.
Conocimiento de tecnologías de integración de datos.
Habilidades de comunicación técnica (oral y escrita).
Experiencia con infraestructura como código.
Familiaridad con tecnologías de streaming (Kafka, Kinesis, etc.).
Exposición a pipelines de datos para Machine Learning.
Si cubres con el perfil postulate solo con tu CV actualizado.