Data Engineer (Senior / Architect)
Buscamos ampliar el equipo con compañeros que tengan ganas de desarrollar su profesión en torno a las tecnologías y paradigmas más punteros e innovativos alrededor de la ingeniería de datos en una compañía global líder en servicios profesionales de Business Analytics y Data-Driven Solutions, que trabaja con más de 500 clientes en el mundo en una amplia gama de servicios y soluciones. Esta propuesta se enfoca en la práctica de Data Technologies y en el ámbito de lo que tradicionalmente se conoce como Data Management donde la principal actividad es coleccionar y procesar datos para disponerlos para su consumo con las estrategias y tecnologías más avanzadas. Se convivirá además con otras áreas de trabajo, teniendo la oportunidad de co-trabajar con ingenieros del ámbito de Big Data, de sistemas de IA y Machine Learning además de Arquitectura Cloud y otras tecnologías emergentes.
Quiénes somos:
SDG Group es una firma de consultoría global focalizada exclusivamente en proyectos de Data & Analytics, en cualquier punto de su cadena de valor. Somos una compañía líder en el mercado español, con la mayor plantilla de profesionales dedicados al mundo del dato, y una presencia relevante en países como Estados Unidos, Reino Unido o Italia, entre otros. SDG ha mantenido una trayectoria ascendente a lo largo de sus más de 25 años de historia, con un ritmo de crecimiento notable y sostenido durante los últimos años, y un plan estratégico ambicioso fundado nuestra capacidad de crecimiento sostenible.
La posición abierta es para la incorporación a la Práctica de Data Technologies: departamento de SDG integrado por equipos de especialistas, que promueve la excelencia técnica en la compañía. Se trata de una práctica transversal que da servicio al resto de prácticas y equipos que conforman SDG, y participa en iniciativas y proyectos de relevancia estratégica. Data Technologies se segmenta en diferentes áreas de conocimiento: Innovation, Advisory & Solutioning, Data Management, Big Data, AI Engineering y Cloud & Emerging Tools. En concreto, el área de la posición a cubrir es Data Management.
La actividad del área de Data Management gira en torno a las soluciones de Data Warehousing: desde actividades más habituales como arquitectura de datos, diseño de estructura de capas de persistencia y ciclo de vida del dato, modelado de datos lógico y físico, diseño y desarrollo de procesos ETL/ELT o gestión de la calidad del dato; hasta prácticas más modernas como diseño y desarrollo de procesos dirigidos por metadatos, gestión de metadatos, Data Observability o DataOps.
Qué nos hace diferentes:
- Modelo de trabajo Smart Work o 100% remoto.
- Desarrollo de una carrera como Modern Data Architect en una compañía de corte internacional tanto desde la perspectiva más tecnológica como de la más metodológica.
- Ser parte de una cultura colaborativa dinámica donde de forma apasionada convergen el conocimiento en diferentes industrias, el buen management y la tecnología.
- Trabajo rodeado de un equipo de práctica con grandes especialistas y referentes profesionales que impulsan y motivan el desarrollo y la realización profesional.
- Contacto y apoyo constante por parte de la dirección y de los diferentes leads
- Pensando siempre en el next-step de la innovación en Data & Analytics
- Horario laboral flexible y facilidad para la conciliación laboral familiar
- Oferta económica acorde a la experiencia y conocimientos que nos demuestres. Retribución flexible y beneficios sociales como Ticket Restaurant, seguro médico privado para ti y tu familia e interesantes descuentos tecnológicos.
- Posición con amplias posibilidades de crecimiento mediante un plan de carrera fuertemente tecnológico y especializado además de cuidadosamente diseñado y en constante evolución para ayudarte a conseguir tus metas profesionales:
- Retrospectivas y revisiones cada 6 meses
- Valoraciones estrictamente meritocráticas y en base a las 6 dimensiones de crecimiento profesional que establece SDG para cada categoría profesional (Práctica, Operaciones, Equipo, Cliente, Negocio e Influencia).
- Make your own SDG: consensua tus objetivos con tus managers y adapta tu plan de carrera a tus aspiraciones de crecimiento de acuerdo con tu contexto personal en cada momento.
- Grandes clientes de todos los sectores:
- Ecosistemas tecnológicos variados y de gran envergadura.
- Importantes iniciativas de transformación en la mayoría de proyectos.
- Trabajo en colaboración con otras áreas de Data Technologies y otras prácticas y equipos de SDG: Innovation, Advisory & Solutioning, AI Engineering, Big Data, Cloud & Emerging Tools, Advanced Analytics, Software Factory…
- Proyectos liderados y gestionados por SDG en su mayoría: el outsourcing no es la base del negocio de SDG.
Tu día a día con nosotros:
- Definir y diseñar plataformas de data moderno en nube pública o en nube privada cubriendo todo el ciclo de vida de datos bajo una estrategia dirigida por metadatos y fundametanda en DataOps
- Desplegar, integrar y configurar todos aquellos componentes para la disponibilización de dichas plataformas de datos, entendiendo en profundidad su uso y aplicación en el contexto real de analítica descriptiva y predictiva, y garantizando las características requeridas por en función de todo ello, aplicándose para ello técnicas de DataOps junto con equipos de cloud engineers.
- Definir a nivel metodológico y de gobierno cómo ha de plantearse el ejercicio de la arquitectura de datos sobre dichas plataformas.
- Desarrollar soluciones de data management end-to-end como parte de equipos multidisciplinares, colaborando en la definición de la solución y llevando a cabo la implementación de todos los procesos involucrados en la construcción y aplicación
- Diseñar y Desarrollar modelos de datos a nivel lógico y a nivel físico en diferentes industrias y en diferentes blueprints tecnológicos con las mejores metodologías de trabajo para cada caso además de las estrategias de datos más adecuadas como Kimball, Data Vault, Data Mesh o Big Tables
- Conocer, gestionar y utilizar las diferentes herramientas y plataformas disponibles en las distintas nubes para el desarrollo de soluciones de data management: Azure Data Factory y Azure Synapse, AWS Redshift, GCP Data Fusion, GCP Dataform y Google Bigquery, y otros servicios del ecosistema de data de las diferentes nubes
- Conocer, gestionar y utilizar las diferentes herramientas y plataformas disponibles en ambientes más legacy para el desarrollo de soluciones de data management principalmente: Talend Cloud, Oracle Exadata, Informatica Cloud, etc.
- Aplicar nuevas prácticas y tecnológicas emergentes del desarrollo del software más tradicional o del mundo SaaS o K8s native, a la dimensión de data mangement: Python, Docker, Airflow, Great Expectations, DBT Cloud, FiveTran, Argo, etc.
- Participar en la elección de nuevas plataformas de datos, nuevas estrategias de desarrollos, nuevas metodologías, nuevos partnership con los Lead de la compañía y el departamento de innovación.
- Participar junto en el departamento de impulso y los diferentes equipos de cliente y expertos en industria en el desarrollo de propuestas comerciales desde el papel de desarrollo de negocio definiendo la solución, la arquitectura funcional lógica y física y la estimación de esfuerzos y costes de operación.
- Co-trabajar con el departamento de innovación en la labor de perfeccionar y aumentar el portfolio mediante el desarrollo de artefactos de ingeniería aplicables al ecosistema de data y analytics.
¿Qué formación y conocimientos te llevarán a conseguir esta posición?
- Ingeniería Informática, Ingeniería de Telecomunicación u otra salida academia que te haya dotado de capacidad de desarrollo y pensamiento crítico en este ambiente.
- Se valora de forma muy positiva tener formación a través de un Master u otras alternativas que aumenten tus skills, por ejemplo, un Máster en Big Data y Analytics
- Conocimiento de arquitectura y ciclo de vida de los datos en ambientes de Data Lake, Data Warehouse u otras plataformas de Datos.
- Conocimiento de diferentes estrategias de modelado de datos: modelados relacionales, modelado Kimball, modelado Data Vault, modelado de tablones, modelado de datos híbrido, etc.
- Conocimiento de las diferentes estrategias de mover datos hacia o desde un repositorio de datos central, esto es Data Collection y Data Delivery y las diferentes técnicas asociadas a cada una de ellas: Change Data Capture, Ingesta de ficheros (Parquet, Avro, Text-File, etc.) en modo batch o microbatch, tratamiento de eventos y sus esquemas, Ingesta desde APIs, Data Sharing, etc.
¿Qué experiencia y conocimientos técnicos te llevará a ser un Senior?
- A partir de 4 años trabajando en equipo para disponer soluciones productivas de ingeniería de datos en contextos empresariales e industriales.
- A partir de 4 años desarrollando la actividad de Data Engineer en el ámbito técnico que se propone posteriormente o en ambientes técnicos semejantes que te hayan proporcionado de las mismas habilidades de ingeniería y pensamiento crítico y constructivo.
- A partir de 4 años trabajando en el modelo de datos de ambientes operacionales o informacionales, con diferentes aproximaciones en términos de estrategias de datos: modelados relacionales, modelado Kimball, modelado Data Vault, modelado de tablones, modelado de datos híbrido, etc.
- A partir de 2 años cuidando la calidad de datos aplicando las mejores técnicas, productos, frameworks y estrategias para ello.
- A partir de 1 año trabajando en data-products que se conforman mediante soluciones dirigidas por metadatos y en ambientes ligados a dataops o semejante.
- Lenguajes:
- Dominio alto de SQL, además se valorará otras variantes y experiencias como puede ser PL/SQL
- Dominio básico de Python
- Dominio medio de Bash u otro paradigma de scripting en Unix
- Conocimiento de un porcentaje medio de herramientas específicas ligadas a la Data Enginering Moderno, algunas que consideramos interesantes: dbt Cloud / CLI, Azure Data Factory, Apache Airflow, Matillion, Fivetran, Stitch, Talend Cloud Data Integration / Data Integration, Informatica Cloud Data Integration / PowerCenter, ODI, PDI / Kettle / Apache Hop,Apache Nifi, Apache Beam, Otras herramientas de integración de datos y orquestación
- Conocimiento de al menos una plataforma de datos con profundidad: Snowflake, BigQuery, Synapse, Redshift, Firebolt, Yellowbrick, Oracle Exadata, etc.
- Conocimiento y experiencia en el uso de sistemas de control de versiones (SCM), esencialmente Git.
- Conocimiento de herramientas de automatización bajo un paradigma DataOps: Azure DevOps, Jenkins, AWS CodePipeline, Bitbucket Pipelines, GitHub Actions…
- Conocimiento básico con respecto a tecnologías y herramientas de contenerización, esencialmente Docker y Kubernetes.
- Experiencia en la utilización de al menos una de las tres grandes nubes (AWS, Microsoft Azure o Google Cloud Platform), especialmente en lo relativo a los servicios orientados a procesamiento y disposición de datos
¿Qué experiencia y conocimientos técnicos te llevará a ser un Architect?
- A partir de 10 años trabajando en equipo para disponer soluciones productivas de ingeniería de datos en contextos empresariales e industriales.
- A partir de 6 años desarrollando la actividad de Data Engineer en el ámbito técnico que se propone posteriormente o en ambientes técnicos semejantes que te hayan proporcionado de las mismas habilidades de ingeniería y pensamiento crítico y constructivo.
- A partir de 4 años trabajando en el modelo de datos de ambientes operacionales o informacionales, con diferentes aproximaciones en términos de estrategias de datos: modelados relacionales, modelado Kimball, modelado Data Vault, modelado de tablones, modelado de datos híbrido, etc.
- A partir de 4 años cuidando la calidad de datos aplicando las mejores técnicas, productos, frameworks y estrategias para ello.
- A partir de 3 año trabajando en data-products que se conforman mediante soluciones dirigidas por metadatos y en ambientes ligados a dataops o semejante.
- A partir de 2 años realizando la labor de desarrollo de negocio desde la perspectiva de diseño de soluciones de analítica y estimación de esfuerzos.
- Se valoran certificaciones profesionales en Cloud y/o productos del ecosistema de data & analytics.
- Conocimiento de diferentes formas de confeccionar Data Platforms, ya sea Cloud Native o no.
- Lenguajes:
- Dominio alto de SQL, además se valorará otras variantes y experiencias como puede ser PL/SQL
- Dominio medio de Python
- Dominio medio de Bash u otro paradigma de scripting en Unix
- Conocimiento de un porcentaje medio de herramientas específicas ligadas a la Data Enginering Moderno, algunas que consideramos interesantes: dbt Cloud / CLI, Azure Data Factory, Apache Airflow, Matillion, Fivetran, Stitch, Talend Cloud Data Integration / Data Integration, Informatica Cloud Data Integration / PowerCenter, ODI, PDI / Kettle / Apache Hop,Apache Nifi, Apache Beam, Otras herramientas de integración de datos y orquestación
- Conocimiento de al menos una plataforma de datos con profundidad: Snowflake, BigQuery, Synapse, Redshift, Firebolt, Yellowbrick, Oracle Exadata, etc.
- Conocimiento y experiencia en el uso de sistemas de control de versiones (SCM), esencialmente Git.
- Conocimiento de herramientas de automatización bajo un paradigma DataOps: Azure DevOps, Jenkins, AWS CodePipeline, Bitbucket Pipelines, GitHub Actions…
- Conocimiento básico con respecto a tecnologías y herramientas de contenerización, esencialmente Docker y Kubernetes.
- Experiencia en la utilización de al menos dos de las tres grandes nubes (AWS, Microsoft Azure o Google Cloud Platform), especialmente en lo relativo a los servicios orientados a procesamiento y disposición de datos.
¿Qué Soft Skills nos gusta encontrar?
- Fuertes habilidades de comunicación y organización con la capacidad de lidiar con la ambigüedad mientras se hacen malabares con múltiples prioridades.
- Ganas de innovar y perseguir la excelencia profesional desde la perspectiva de la técnica.
- Inquietud por la evolución y el desarrollo profesional constante.
- Capacidad de desenvolverse inglés en el entorno profesional