Buscamos un profesional altamente motivado y con experiencia en ingeniería de datos para unirse a nuestro equipo de AI&Data. El candidato ideal tendrá un sólido conocimiento en Python y estará encargado de automatizar procesos ETL, así como de desarrollar soluciones innovadoras para la migración de datos.
Responsabilidades:
Automatizar procesos ETL (Extracción, Transformación y Carga) para mejorar la eficiencia y la calidad de los datos.
Definir y aplicar reglas de extracción de datos para garantizar la integridad y precisión de la información.
Realizar conversiones de datos y carga en sistemas de destino, asegurando que se cumplan los estándares de calidad.
Desarrollar programas y scripts en Python para la manipulación y transformación de datos.
Colaborar con equipos multidisciplinarios para entender las necesidades de datos y proporcionar soluciones efectivas.
Documentar procesos y procedimientos para asegurar la transferencia de conocimiento dentro del equipo.
Participar en la mejora continua de los procesos de manejo de datos y en la implementación de nuevas tecnologías.
Requisitos:
Título universitario en Ingeniería, Ciencias de la Computación, o campo relacionado.
Experiencia en ingeniería de datos, especialmente en la automatización de procesos ETL.
Dominio de Python y sus bibliotecas relacionadas con la manipulación de datos (pandas, NumPy, etc.), incluyendo la capacidad de leer, escribir y transformar datos en diferentes formatos (CSV, Excel, JSON, etc.).
Habilidad para escribir scripts en Python que automaticen tareas repetitivas dentro del proceso de extracción, limpieza, transformación y carga de datos.
Experiencia en la creación y optimización de consultas SQL complejas, incluyendo la capacidad para realizar transformaciones de datos, gestionar vistas, y desarrollar stored procedures para automatizar procesos de extracción y carga en implementaciones de ETL.
Habilidades de comunicación efectiva y trabajo en equipo.
Deseable:
Conocimiento en GitHub, familiaridad con el control de versiones y la colaboración en proyectos, incluyendo la gestión de repositorios, commits, ramas y pull requests
Habilidad para trabajar con herramientas de integración de datos y plataformas de nube (por ejemplo, AWS, Azure, Google Cloud).
Certificaciones relacionadas con la ingeniería de datos o tecnologías de la nube.
Uso de programación orientada a objetos (POO) para estructurar el código de manera eficiente.
Conocimiento en bases de datos NoSQL.
Experiencia en el uso de bibliotecas como requests para interactuar con APIs y obtener datos de fuentes externas.
Experiencia en el uso de herramientas de visualización de datos (Tableau, Power BI, etc.).
Recuerda que ningún reclutador puede pedirte dinero a cambio de una entrevista o un puesto. Asimismo, evita realizar pagos o compartir información financiera con las empresas.