S

Data Engineer Senior Architect

SDG Group
Full-time
On-site
Madrid, Madrid, Spain

Data Engineer (Senior / Architect)

 

Buscamos ampliar el equipo con compañeros que tengan ganas de desarrollar su profesión en torno a las tecnologías y paradigmas más punteros e innovativos alrededor de la ingeniería de datos en una compañía global líder en servicios profesionales de Business Analytics y Data-Driven Solutions, que trabaja con más de 500 clientes en el mundo en una amplia gama de servicios y soluciones. Esta propuesta se enfoca en la práctica de Data Technologies y en el ámbito de lo que tradicionalmente se conoce como Data Management donde la principal actividad es coleccionar y procesar datos para disponerlos para su consumo con las estrategias y tecnologías más avanzadas. Se convivirá además con otras áreas de trabajo, teniendo la oportunidad de co-trabajar con ingenieros del ámbito de Big Data, de sistemas de IA y Machine Learning además de Arquitectura Cloud y otras tecnologías emergentes. 

 

Quiénes somos:

 

SDG Group es una firma de consultoría global focalizada exclusivamente en proyectos de Data & Analytics, en cualquier punto de su cadena de valor. Somos una compañía líder en el mercado español, con la mayor plantilla de profesionales dedicados al mundo del dato, y una presencia relevante en países como Estados Unidos, Reino Unido o Italia, entre otros. SDG ha mantenido una trayectoria ascendente a lo largo de sus más de 25 años de historia, con un ritmo de crecimiento notable y sostenido durante los últimos años, y un plan estratégico ambicioso fundado nuestra capacidad de crecimiento sostenible.

La posición abierta es para la incorporación a la Práctica de Data Technologies: departamento de SDG integrado por equipos de especialistas, que promueve la excelencia técnica en la compañía. Se trata de una práctica transversal que da servicio al resto de prácticas y equipos que conforman SDG, y participa en iniciativas y proyectos de relevancia estratégica. Data Technologies se segmenta en diferentes áreas de conocimiento: Innovation, Advisory & Solutioning, Data Management, Big Data, AI Engineering y Cloud & Emerging Tools. En concreto, el área de la posición a cubrir es Data Management.

 

La actividad del área de Data Management gira en torno a las soluciones de Data Warehousing: desde actividades más habituales como arquitectura de datos, diseño de estructura de capas de persistencia y ciclo de vida del dato, modelado de datos lógico y físico, diseño y desarrollo de procesos ETL/ELT o gestión de la calidad del dato; hasta prácticas más modernas como diseño y desarrollo de procesos dirigidos por metadatos, gestión de metadatos, Data Observability o DataOps.

 

Qué nos hace diferentes:

 

  • Modelo de trabajo Smart Work o 100% remoto.
  • Desarrollo de una carrera como Modern Data Architect en una compañía de corte internacional tanto desde la perspectiva más tecnológica como de la más metodológica.
  • Ser parte de una cultura colaborativa dinámica donde de forma apasionada convergen el conocimiento en diferentes industrias, el buen management y la tecnología.
  • Trabajo rodeado de un equipo de práctica con grandes especialistas y referentes profesionales que impulsan y motivan el desarrollo y la realización profesional.
  • Contacto y apoyo constante por parte de la dirección y de los diferentes leads
  • Pensando siempre en el next-step de la innovación en Data & Analytics
  • Horario laboral flexible y facilidad para la conciliación laboral familiar
  • Oferta económica acorde a la experiencia y conocimientos que nos demuestres. Retribución flexible y beneficios sociales como Ticket Restaurant, seguro médico privado para ti y tu familia e interesantes descuentos tecnológicos.
  • Posición con amplias posibilidades de crecimiento mediante un plan de carrera fuertemente tecnológico y especializado además de cuidadosamente diseñado y en constante evolución para ayudarte a conseguir tus metas profesionales:
    • Retrospectivas y revisiones cada 6 meses
    • Valoraciones estrictamente meritocráticas y en base a las 6 dimensiones de crecimiento profesional que establece SDG para cada categoría profesional (Práctica, Operaciones, Equipo, Cliente, Negocio e Influencia).
    • Make your own SDG: consensua tus objetivos con tus managers y adapta tu plan de carrera a tus aspiraciones de crecimiento de acuerdo con tu contexto personal en cada momento.
  • Grandes clientes de todos los sectores:
    • Ecosistemas tecnológicos variados y de gran envergadura.
    • Importantes iniciativas de transformación en la mayoría de proyectos.
  • Trabajo en colaboración con otras áreas de Data Technologies y otras prácticas y equipos de SDG: Innovation, Advisory & Solutioning, AI Engineering, Big Data, Cloud & Emerging Tools, Advanced Analytics, Software Factory…
  • Proyectos liderados y gestionados por SDG en su mayoría: el outsourcing no es la base del negocio de SDG.

Tu día a día con nosotros:

  • Definir y diseñar plataformas de data moderno en nube pública o en nube privada cubriendo todo el ciclo de vida de datos bajo una estrategia dirigida por metadatos y fundametanda en DataOps
  • Desplegar, integrar y configurar todos aquellos componentes para la disponibilización de dichas plataformas de datos, entendiendo en profundidad su uso y aplicación en el contexto real de analítica descriptiva y predictiva, y garantizando las características requeridas por en función de todo ello, aplicándose para ello técnicas de DataOps junto con equipos de cloud engineers.
  • Definir a nivel metodológico y de gobierno cómo ha de plantearse el ejercicio de la arquitectura de datos sobre dichas plataformas.
  • Desarrollar soluciones de data management end-to-end como parte de equipos multidisciplinares, colaborando en la definición de la solución y llevando a cabo la implementación de todos los procesos involucrados en la construcción y aplicación
  • Diseñar y Desarrollar modelos de datos a nivel lógico y a nivel físico en diferentes industrias y en diferentes blueprints tecnológicos con las mejores metodologías de trabajo para cada caso además de las estrategias de datos más adecuadas como Kimball, Data Vault, Data Mesh o Big Tables
  • Conocer, gestionar y utilizar las diferentes herramientas y plataformas disponibles en las distintas nubes para el desarrollo de soluciones de data management: Azure Data Factory y Azure Synapse, AWS Redshift, GCP Data Fusion, GCP Dataform y Google Bigquery, y otros servicios del ecosistema de data de las diferentes nubes
  • Conocer, gestionar y utilizar las diferentes herramientas y plataformas disponibles en ambientes más legacy para el desarrollo de soluciones de data management principalmente: Talend Cloud, Oracle Exadata, Informatica Cloud, etc.
  • Aplicar nuevas prácticas y tecnológicas emergentes del desarrollo del software más tradicional o del mundo SaaS o K8s native, a la dimensión de data mangement: Python, Docker, Airflow, Great Expectations, DBT Cloud, FiveTran, Argo, etc.
  • Participar en la elección de nuevas plataformas de datos, nuevas estrategias de desarrollos, nuevas metodologías, nuevos partnership con los Lead de la compañía y el departamento de innovación.
  • Participar junto en el departamento de impulso y los diferentes equipos de cliente y expertos en industria en el desarrollo de propuestas comerciales desde el papel de desarrollo de negocio definiendo la solución, la arquitectura funcional lógica y física y la estimación de esfuerzos y costes de operación.
  • Co-trabajar con el departamento de innovación en la labor de perfeccionar y aumentar el portfolio mediante el desarrollo de artefactos de ingeniería aplicables al ecosistema de data y analytics.

 

¿Qué formación y conocimientos te llevarán a conseguir esta posición?

 

  • Ingeniería Informática, Ingeniería de Telecomunicación u otra salida academia que te haya dotado de capacidad de desarrollo y pensamiento crítico en este ambiente.
  • Se valora de forma muy positiva tener formación a través de un Master u otras alternativas que aumenten tus skills, por ejemplo, un Máster en Big Data y Analytics
  • Conocimiento de arquitectura y ciclo de vida de los datos en ambientes de Data Lake, Data Warehouse u otras plataformas de Datos.
  • Conocimiento de diferentes estrategias de modelado de datos: modelados relacionales, modelado Kimball, modelado Data Vault, modelado de tablones, modelado de datos híbrido, etc.
  • Conocimiento de las diferentes estrategias de mover datos hacia o desde un repositorio de datos central, esto es Data Collection y Data Delivery y las diferentes técnicas asociadas a cada una de ellas: Change Data Capture, Ingesta de ficheros (Parquet, Avro, Text-File, etc.) en modo batch o microbatch, tratamiento de eventos y sus esquemas, Ingesta desde APIs, Data Sharing, etc.

 

¿Qué experiencia y conocimientos técnicos te llevará a ser un Senior?

 

  • A partir de 4 años trabajando en equipo para disponer soluciones productivas de ingeniería de datos en contextos empresariales e industriales.
  • A partir de 4 años desarrollando la actividad de Data Engineer en el ámbito técnico que se propone posteriormente o en ambientes técnicos semejantes que te hayan proporcionado de las mismas habilidades de ingeniería y pensamiento crítico y constructivo.
  • A partir de 4 años trabajando en el modelo de datos de ambientes operacionales o informacionales, con diferentes aproximaciones en términos de estrategias de datos: modelados relacionales, modelado Kimball, modelado Data Vault, modelado de tablones, modelado de datos híbrido, etc.
  • A partir de 2 años cuidando la calidad de datos aplicando las mejores técnicas, productos, frameworks y estrategias para ello.
  • A partir de 1 año trabajando en data-products que se conforman mediante soluciones dirigidas por metadatos y en ambientes ligados a dataops o semejante.
  • Lenguajes:
    • Dominio alto de SQL, además se valorará otras variantes y experiencias como puede ser PL/SQL
    • Dominio básico de Python
    • Dominio medio de Bash u otro paradigma de scripting en Unix
  • Conocimiento de un porcentaje medio de herramientas específicas ligadas a la Data Enginering Moderno, algunas que consideramos interesantes: dbt Cloud / CLI, Azure Data Factory, Apache Airflow, Matillion, Fivetran, Stitch, Talend Cloud Data Integration / Data Integration, Informatica Cloud Data Integration / PowerCenter, ODI, PDI / Kettle / Apache Hop,Apache Nifi, Apache Beam, Otras herramientas de integración de datos y orquestación
  • Conocimiento de al menos una plataforma de datos con profundidad: Snowflake, BigQuery, Synapse, Redshift, Firebolt, Yellowbrick, Oracle Exadata, etc.
  • Conocimiento y experiencia en el uso de sistemas de control de versiones (SCM), esencialmente Git.
  • Conocimiento de herramientas de automatización bajo un paradigma DataOps: Azure DevOps, Jenkins, AWS CodePipeline, Bitbucket Pipelines, GitHub Actions…
  • Conocimiento básico con respecto a tecnologías y herramientas de contenerización, esencialmente Docker y Kubernetes.
  • Experiencia en la utilización de al menos una de las tres grandes nubes (AWS, Microsoft Azure o Google Cloud Platform), especialmente en lo relativo a los servicios orientados a procesamiento y disposición de datos

 

¿Qué experiencia y conocimientos técnicos te llevará a ser un Architect?

 

  • A partir de 10 años trabajando en equipo para disponer soluciones productivas de ingeniería de datos en contextos empresariales e industriales.
  • A partir de 6 años desarrollando la actividad de Data Engineer en el ámbito técnico que se propone posteriormente o en ambientes técnicos semejantes que te hayan proporcionado de las mismas habilidades de ingeniería y pensamiento crítico y constructivo.
  • A partir de 4 años trabajando en el modelo de datos de ambientes operacionales o informacionales, con diferentes aproximaciones en términos de estrategias de datos: modelados relacionales, modelado Kimball, modelado Data Vault, modelado de tablones, modelado de datos híbrido, etc.
  • A partir de 4 años cuidando la calidad de datos aplicando las mejores técnicas, productos, frameworks y estrategias para ello.
  • A partir de 3 año trabajando en data-products que se conforman mediante soluciones dirigidas por metadatos y en ambientes ligados a dataops o semejante.
  • A partir de 2 años realizando la labor de desarrollo de negocio desde la perspectiva de diseño de soluciones de analítica y estimación de esfuerzos.
  • Se valoran certificaciones profesionales en Cloud y/o productos del ecosistema de data & analytics.
  • Conocimiento de diferentes formas de confeccionar Data Platforms, ya sea Cloud Native o no.
  • Lenguajes:
    • Dominio alto de SQL, además se valorará otras variantes y experiencias como puede ser PL/SQL
    • Dominio medio de Python
    • Dominio medio de Bash u otro paradigma de scripting en Unix
  • Conocimiento de un porcentaje medio de herramientas específicas ligadas a la Data Enginering Moderno, algunas que consideramos interesantes: dbt Cloud / CLI, Azure Data Factory, Apache Airflow, Matillion, Fivetran, Stitch, Talend Cloud Data Integration / Data Integration, Informatica Cloud Data Integration / PowerCenter, ODI, PDI / Kettle / Apache Hop,Apache Nifi, Apache Beam, Otras herramientas de integración de datos y orquestación
  • Conocimiento de al menos una plataforma de datos con profundidad: Snowflake, BigQuery, Synapse, Redshift, Firebolt, Yellowbrick, Oracle Exadata, etc.
  • Conocimiento y experiencia en el uso de sistemas de control de versiones (SCM), esencialmente Git.
  • Conocimiento de herramientas de automatización bajo un paradigma DataOps: Azure DevOps, Jenkins, AWS CodePipeline, Bitbucket Pipelines, GitHub Actions…
  • Conocimiento básico con respecto a tecnologías y herramientas de contenerización, esencialmente Docker y Kubernetes.
  • Experiencia en la utilización de al menos dos de las tres grandes nubes (AWS, Microsoft Azure o Google Cloud Platform), especialmente en lo relativo a los servicios orientados a procesamiento y disposición de datos.

 

¿Qué Soft Skills nos gusta encontrar?

 

  • Fuertes habilidades de comunicación y organización con la capacidad de lidiar con la ambigüedad mientras se hacen malabares con múltiples prioridades.
  • Ganas de innovar y perseguir la excelencia profesional desde la perspectiva de la técnica.
  • Inquietud por la evolución y el desarrollo profesional constante.
  • Capacidad de desenvolverse inglés en el entorno profesional