DescriptionEn Workana estamos buscando un/a Data Engineer con perfil Semi-Senior para sumarse a equipo de uno de nuestros clientes:"Empresa mexicana dedicada a mejorar la salud y calidad de vida mediante productos farmacéuticos y de cuidado personal."
Acerca del cliente y el rol:
Nos enfocamos en diseñar, construir y mantener la infraestructura de datos para que la organización acceda, procese y analice información de manera eficiente. Esto incluye crear pipelines robustos, automatizar integraciones y garantizar datos en tiempo real, colaborando con áreas clave como Ciencia de Datos y Negocio. El rol busca optimizar la infraestructura en la nube (Snowflake, AWS), implementar procesos automatizados de ingesta y asegurar datos consistentes para modelos y tableros analíticos.
Responsabilidades principales:
- Diseño y arquitectura de datos: Diseñar y documentar arquitecturas escalables que respondan a las necesidades actuales y futuras del negocio.
- Desarrollo e implementación de pipelines: Construir, desplegar y mantener pipelines automatizados con Airflow y AppFlow. Implementar procesos ETL/ELT hacia Snowflake desde diversas fuentes.
- Integración y calidad de dato: Desarrollar conectores y APIs para ingesta de datos internos y externos. Definir y aplicar controles de validación, calidad y monitoreo continuo.
- Automatización y DevOps: Programar scripts de automatización con Python. Implementar CI/CD con GitHub para versionado y despliegue.
- Colaboración y soporte: Trabajar con equipos de Ciencia de Datos, IT y negocio para entender necesidades de datos. Brindar soporte técnico y asesoría en mejores prácticas de ingeniería de datos.
Requisitos Obligatorios:
- Mínimo 3 años de experiencia prática en ingeniería de datos o afines.
- Dominio de Python y SQL avanzado para desarrollo de scripts y consultas complejas
- Experiencia en Snowflake para modelado de datos, consultas optimizadas y desarrollo de procedimientos.
- Uso avanzado de Apache Airflow
- Manejo de Amazon AppFlow para la integración de datos automatizada.
- Conocimiento práctico de AWS, incluyendo servicios como: EC2, S3, Lambda, RDS, IAM.
- Dominio de Git/GitHub para versionado, colaboración y despliegue con CI/CD.
- Formación en en Ingeniería de Sistemas, Computación, Ingeniería de Software, Matemáticas, Física o afines.
- Experiencia en proyectos de infraestructura de datos con enfoque en calidad, escalabilidad y eficiencia.
- Alta capacidad de resolución de problemas y mentalidad de mejora continua.
- Orientación a resultados, con foco en optimización y automatización.
- Autonomía, proactividad y capacidad para integrarse a equipos multidisciplinarios.
Requisitos Deseables (no excluyentes pero valorizados):
- Experiencia con Docker para contenedores.
- Conocimientos en Apache Spark para procesamiento distribuido de datos.
- Familiaridad con APIs (REST/GraphQL) para integración de servicios.
Condiciones contractuales:
- Modalidad: 100% remoto.
- Jornada: Full-time.
- Tipo de contrato: Contractor vía Workana.
- Duración: 12 meses, con posibilidad de renovación basado en buen desempeño.
- Compensación: hasta USD 2.100 mensuales.
Proceso de selección:
- Breve Video Entrevista asincrónica en Hireflix.
- Breve Call con Matcher de Workana.
- Entrevista Técnica Cultural con líder del equipo de Datos del cliente.
- Entrevista técnica con el equipo del cliente.
Si te interesa esta posición y crees que eres el indicado/a aguardamos tu aplicación. En caso de quedar seleccionado/a para continuar, alguien del equipo de Talent de Workana se pondrá en contacto contigo!