Hace 3 sem
Ingeniero de datos
$40,000 - $45,000 Mensual
Sobre el empleo
Detalles
Contratación:
PermanenteHorario:
Tiempo completoEspacio de trabajo:
HíbridoDescripción
En Daltum Systems nos encontramos en la búsqueda para uno de nuestros clientes del sector de logística un Ingeniero de Datos para trabajar híbrido desde Monterrey.
Prestaciones: De ley + SGMM a partir del 3er. mes
Modalidad: Hibrido. (Ubicación Oficina: Dirección: Calle Vicente Guerrero, Esquina con Av. Don Luis G. Sada)
Horario: De 8:30 am – 6:30 pm
Principales Actividades / Responsabilidades:
- Ingesta de datos
o Extraer datos de diversas fuentes operativas (SQL Server, APIs, archivos,
otros sistemas).
o Automatizar procesos de carga e integración (batch o incremental).
- Transformación
o Aplicar reglas de negocio (Python, notebooks, SQL)
o Estandarizar, QA de data.
o Modelado. Construir y mantener modelos de datos
o Configurar flujos ETL/ELT
o Automatización y orquestación de las transformaciones
o Optimización y monitoreo de los procesos
- Documentación
o Colaborar con las diferentes áreas del negocio para documentar linaje, definiciones y flujos de la data.
o Implementar validaciones de calidad en la información con base en las reglas del negocio
Habilidades Requeridas:
- Al menos 2 a 3 años de experiencia trabajando en las siguientes herramientas en un entorno de negocios real.
- Lenguajes / consultas: SQL avanzado, creación de procedimientos almacenados, vistas, funciones escalables y consultas optimizadas. Acceso a los datos y análisis con Python (pandas, pyodbc, SQLAlchemy, manejo de archivos, automatización de
tareas)
- Manejo de información no estructurada, Almacenamiento estructurado de archivos: integración con Azure Blob Storage, datalakes o MongoDB, diferentes formatos JSON´s, CSV´s. Consulta de metadata.
- Modelado de datos: diseño de diferentes formas de modelos (estrella, copo de nieve, etc) . Normalización de data por dominio de negocio
- Conocimientos en Data Lake y Lakehouse: principios de particionamiento, formatos Parquet/Delta, ingestión en capas (Medal, raw, etc). Conocimiento en arquitecturas tipo DataMart, Warehouse o DataFabric
- ETL / ELT: Azure Data Factory, Transformaciones notebooks (Pyspark, Python, SQL Avanzado), dbt. Conocimiento y experiencia en lógica de transformación.
- Cloud / Plataforma: Entorno Azure (Microsoft Data Fabric, SQL Server, Synapse, Data Factory, Blob Storage)
- Conocimiento de PowerBI, uso de DAX, PowerQuery, modelado de datos, Datasets compartidos y modelos semánticos
- Documentación técnica: generación de diccionarios de datos, linaje, scripts comentados y entregables versionados
- Habilidades con el negocio.
o Habilidad para traducir requerimientos funcionales en estructuras de datos.
o Documentación de procesos flujo de data. Pensamiento analítico
o Entendimiento e involucramiento de los conceptos del negocio
ID: 20297832
También puedes buscar
Refina la ubicación de tu búsqueda
Refina la ubicación de tu búsqueda