Sobre el empleo
Detalles
Beneficios
Descripción
Responsabilidades del puesto:
? Diseñar, crear y mantener canalizaciones de datos por lotes o en tiempo real en producción.
? Mantener y optimizar la infraestructura de datos necesaria para una extracción, transformación y carga precisas de datos de una amplia variedad de fuentes de datos.
? Construir y mantener pipelines.
? Desarrollar procesos ETL (extracción, transformación, carga) para ayudar a extraer y manipular datos de múltiples fuentes.
? Ayuda a diseñar y mantener una capa semántica.
? Automatizar los flujos de trabajo de datos, como la ingesta, agregación y procesamiento ETL de datos.
? Preparar datos sin procesar en almacenes de datos en un conjunto de datos consumibles para partes interesadas tanto técnicas como no técnicas.
? Asociarse con científicos y analistas de datos para implementar modelos de datos y aprendizaje automático en producción.
? Garantizar la precisión, integridad, privacidad, seguridad y cumplimiento de los datos a través de procedimientos de control de calidad.
? Monitorear el desempeño de los sistemas de datos e implementar estrategias de optimización.
? Aprovechar los controles de datos para mantener la privacidad, la seguridad, el cumplimiento y la calidad de los datos para las áreas de propiedad asignadas.
Requisitos:
? Licenciatura/Maestría en Ciencias de la Computación, Sistemas de Información o un campo relacionado.
? Conocimiento en conceptos de DW/DL, data marts, modelado de datos, ETL/ELT, calidad/administración de datos, sistemas distribuidos y gestión de metadatos.
? Mínimo 7 años de experiencia en ingeniería de datos, idealmente en entornos de nube y buen conocimiento de microservicios y API.
? Amplia experiencia en el diseño y construcción de modelos ETL y flujos de trabajo de datos.
? Conocimiento práctico en el diseño e implementación de una capa semántica de BI.
? Base sólida en estructuras de datos, algoritmos y diseño de software.
? Habilidades avanzadas de SQL y experiencia con bases de datos relacionales y diseño de bases de datos.
? Experiencia trabajando con BigQuery Cloud Data Warehouse y herramientas de big data como Databricks,Hadoop, Spark, Kafla etc.
? Conocimiento práctico en lenguajes orientados a objetos (por ejemplo, Python, Java).
? Gran dominio de las herramientas de gestión de flujo de trabajo y canalización de datos (p. ej., Airflow).
? Fuertes habilidades organizativas y de gestión de proyectos.
? Excelentes habilidades de resolución de problemas, comunicación y organización.
? Capacidad demostrada para trabajar de forma independiente y en equipo.
? Excelentes relaciones interpersonales
? Pensamiento crítico
Beneficios
? Prestaciones de ley.
? Prestaciones Superiores a las de ley.
? Seguro de Vida.
? Seguro de gastos médicos mayores.
? Seguro de gastos médicos menores.
? Aguinaldo de 20 días.
? Trabajo 100% remoto
ID: 18464526