Responsabilidad Principal: Diseñar, construir y administrar pipelines de datos ETL/ELT asegurando calidad, disponibilidad y escalabilidad en AWS y GCP.
Responsabilidades: • Implementar pipelines de ingesta y transformación de datos con Glue (AWS), Dataflow (GCP) y Databricks. • Optimizar almacenamiento en Redshift (AWS) y BigQuery (GCP). • Aplicar políticas de calidad de datos y catalogación en AWS Glue Data Catalog y GCP Data Catalog. • Automatizar procesos manuales de datos (extracciones, cargas, limpieza y reportes). • Diseñar y optimizar arquitecturas Lakehouse con Delta Lake en Databricks.
Stack Tecnológico: • AWS: Glue, Redshift, Lake Formation, Athena, Databricks. • GCP: Dataflow (Apache Beam), BigQuery, Dataplex, Databricks, Data Catalog. • Big Data: Spark, Apache Airflow.
Perfil Ideal: • Más de 4 años de experiencia en ingeniería de datos en la nube. • Experiencia en AWS Glue/Dataflow y modelado en Redshift/BigQuery. • Experiencia en arquitecturas Lakehouse con Delta Lake y optimización de pipelines en Databricks. • Experiencia en automatización de procesos de negocio
Sueldo negociable
Presencial en Tlalpan perisur a 5 minutos de soxflags
Prestaciones de ley y superiores