Data Engineer

Acerca del empleo

📍 Ubicación: Madrid (modelo híbrido; se requiere residencia en Madrid)

💼 Tipo de contrato: Jornada completa

🎯 Experiencia: 1 – 3 años

📅 Fecha de inicio: Incorporación inmediata

Quiénes somos

En Quantia Ingeniería y Consultoría, nos especializamos en transformar procesos complejos a través de tecnologías de vanguardia como los agentes de IA, Machine Learning, la digitalización, la analítica avanzada y los gemelos digitales. Nuestros socios son destacadas instituciones financieras a nivel mundial, así como empresas líderes en los sectores energético, telco e industrial.

El rol

Estamos ampliando nuestro equipo y buscamos un Especialista en Ingeniería de Datos y Despliegue con motivación y mentalidad de producto, para diseñar, construir y operar plataformas y pipelines de datos de extremo a extremo, y habilitar despliegues robustos y escalables de servicios y modelos basados en datos. Todo ello enmarcado dentro de proyectos de Machine Learning y Agentic AI.

Responsabilidades clave

  • Diseñar y desarrollar pipelines de datos (ETL/ELT) batch y streaming, desde la ingesta hasta la activación en productos y analítica.
  • Construir y mantener data lakes/lakehouses y data warehouses (modelado de datos, particionado, formatos columnares, tablas ACID).
  • Orquestar flujos de trabajo y dependencias de datos, aplicando buenas prácticas de modularidad, versionado y testing.
  • Implementar despliegues reproducibles con contenedores y Kubernetes; automatizar con CI/CD para datos y servicios (Data/ML).
  • Industrializar y exponer datos mediante APIs/servicios (por ejemplo, FastAPI) y/o capas semánticas (dbt, views materiales).
  • Establecer observabilidad y fiabilidad: calidad de datos, validaciones, lineage, monitorización de SLAs/SLOs, costes y rendimiento.
  • Garantizar seguridad y gobernanza: catálogos, IAM, cifrado, secretos, cumplimiento y políticas de acceso.
  • Colaborar con Científicos de Datos, Analistas e Ingeniería de Software para llevar prototipos a producción y mantenerlos operativos.
  • Optimizar rendimiento y coste en la nube; identificar cuellos de botella y oportunidades de automatización.
  • Documentar arquitectura, estándares y mejores prácticas; contribuir a guías internas y plantillas reutilizables.

Requisitos – Formación

  • Grado o Máster en Informática, Ingeniería, Telecomunicaciones o disciplina cuantitativa similar.
  • Se valorará formación adicional en Big Data, Data Engineering o Data Science.

Requisitos – Habilidades técnicas

  • Programación y SQL:
  • Dominio de Python y SQL para ingeniería de datos.
  • Se valorará experiencia con Scala o Java en ecosistemas Big Data.
  • Procesamiento de datos:
  • Batch: Spark, dbt, Databricks o equivalentes.
  • Streaming: Spark Structured Streaming, Apache Flink, Kafka Streams o Apache Beam.
  • Ingesta y mensajería:
  • Kafka/PubSub/Kinesis, Kafka Connect/Debezium, CDC, conectores nativos de nube.
  • Almacenamiento y modelos de datos:
  • S3/GCS/ADLS, formatos Parquet/Avro/ORC.
  • Lakehouse/Tablas ACID: Delta Lake, Apache Iceberg o Apache Hudi.
  • Data warehouse: BigQuery, Redshift o Snowflake.
  • Orquestación y transformación:
  • Airflow, Cloud Composer, MWAA o similares.
  • dbt (core/cloud) para modelado y tests.
  • Contenedorización y despliegue:
  • Docker y Kubernetes (EKS/GKE/AKS). Buenas prácticas de images, Helm/Kustomize deseable.
  • CI/CD y automatización:
  • Pipelines de CI/CD (GitHub Actions, GitLab CI, Jenkins, Azure DevOps).
  • Tests de datos (unit/integration), validación de esquemas, contract testing.
  • Observabilidad y calidad:
  • Monitorización y alertas (Prometheus/Grafana, Cloud Monitoring).
  • Calidad del dato y linaje: Great Expectations, OpenLineage/Marquez, Data Catalog/Glue/Purview.
  • Infraestructura en la nube (alguno entre AWS, GCP o Azure):
  • AWS: S3, Glue, EMR, Lambda, Step Functions, ECS/EKS, DynamoDB, SageMaker endpoints (deseable).
  • GCP: GCS, Dataflow, Dataproc, Pub/Sub, BigQuery, Composer, Cloud Run/GKE.
  • Azure: ADLS, Synapse, ADF, Event Hubs, Databricks, AKS.
  • IaC deseable: Terraform.
  • APIs y servicios:
  • Exposición de datos y features vía APIs (FastAPI) y endpoints de inferencia; control de versiones y blue/green/rollouts.

Se valorará

  • Experiencia acercando modelos de ML/GenAI a producción junto a MLOps.
  • Conocimientos de seguridad en cloud, redes (VPC/VNet), y gestión de secretos (KMS/Secret Manager).
  • Experiencia con catálogos y gobernanza de datos a escala.

Habilidades interpersonales

  • Comunicación técnica sólida y enfoque orientado al cliente.
  • Capacidad para trabajar en equipos multidisciplinares.
  • Nivel de inglés alto.

Qué ofrecemos

  • Salario competitivo basado en el rendimiento.
  • Opciones de retribución flexible.
  • Oportunidad de trabajar con una empresa líder centrada en la innovación.
  • Entorno de trabajo colaborativo y dinámico.
  • Oportunidades de desarrollo profesional y crecimiento de carrera dentro de una empresa en expansión.

 

¿Te interesa el reto?

Si tienes experiencia con agentes inteligentes, te apasionan las aplicaciones de IA en el mundo real, nos encantaría saber de ti.

¡Envíanos tu CV y únete a nuestro equipo!

 

¡Gracias por tu interes!

En breves recibirás un correo con el link de descarga. Esperamos que sea de tu agrado.

Si tienes alguna duda respecto a nuestros servicios, ¡no dudes en ponerte en contacto con nosotros!