Diseñar, desarrollar y mantener pipelines e infraestructura de datos en GCP para soportar productos de datos escalables, garantizando calidad, disponibilidad y rendimiento, y contribuyendo a que las decisiones de negocio estén respaldadas por información confiable.
Responsabilidades clave
Diseñar, construir y mantener pipelines de datos y procesos ETL/ELT en GCP (BigQuery, Dataflow, Pub/Sub, Cloud Composer).
Colaborar con equipos multidisciplinarios (Data Scientists, Product Managers) para entender requerimientos y entregar soluciones eficientes.
Implementar modelos de datos, esquemas y transformaciones que soporten análisis y reportes estratégicos.
Monitorear y optimizar el rendimiento de pipelines garantizando calidad e integridad de datos.
Cumplir con estándares de gobernanza, seguridad y cumplimiento normativo en entornos GCP.
Resolver incidencias y asegurar la continuidad operativa de los procesos de datos.
Documentar y aplicar buenas prácticas en ingeniería de datos.
Mantenerse actualizado en tendencias y nuevas herramientas de Data Engineering y GCP.
Requisitos
Escolaridad: Licenciatura en Ciencias de la Computación, Ingeniería en Sistemas, Tecnologías de la Información o afín.
Experiencia:
Mínimo 3 años en ingeniería de datos.
Experiencia comprobable construyendo pipelines en Google Cloud Platform (GCP).
Modelado de datos, diseño de esquemas y conceptos de data warehousing.
Recuerda que ningún reclutador puede pedirte dinero a cambio de una entrevista o un puesto. Asimismo, evita realizar pagos o compartir información financiera con las empresas.