Somos una empresa mexicana especialista en logística y mensajería, tenemos presencia a nivel nacional, latam y EEUU; hemos tenido un crecimiento exponencial y sabemos que la tecnología es parte esencia para ser líderes, por ello, buscamos para nuestras oficinas en CDMX Arquitecto o Especialista de Datos para diseño de arquitectura, almacenamiento y consumo de datos
Con nosotros tendrás la oportunidad de:
Proponer, desarrollar y administrar proyectos de análisis y explotación de datos a nivel global.
Libertad operativa para el diseño de arquitectura de datos, apego a mejores prácticas y tecnologías.
Oportunidad de desarrollo real y estabilidad personal y profesional-
Integración con equipos multiculturales en EEUU y Latam. Relacionamiento con proveedores globales
¿Por qué nosotros?
Nos centramos en las personas, la calidad y balance de vida es importante para nosotros; contamos con programas de desarrollo, formación, dinámicas de integración, muy buen ambiente de trabajo y retos para llevar tu potencial al máximo, nuestra propuesta incluye:
Ingreso: de 45,000 a 50,000 pesos libres (nominal directo con nosotros) paquete de beneficios ley, vales, caja y fondo de ahorro, seguro de vida, bonos, 30 días de aguinaldo.
Horario: de lunes a viernes de 8:30 a 6:00 p.m. Esquema Híbrido y sábado medio día (remoto)
Zona de trabajo: Hipódromo Condesa, Cuauhtémoc (5 minutos del Metro Juan Acatlán Línea 1 Rosa)
¿Qué buscamos?
2 a 3 años de experiencia como: especialista de datos, arquitecto de datos, data Specialist, data architech, ingeniero de datos sr, senior data engineer.
Adecuado conocimiento en análisis de requerimientos, amplio análisis de fuentes de Información, métricas y reglas de negocio. Estimación de esfuerzo y planificación de tareas.
2 a 3 años en diseño, modelado y arquitectura de datos con Erwin, SQL Power Architech, IBM Infosphere Data Architech, SAP Power Designer con framework DAMA. Apego a referencias de DMBOK.
2 años de experiencia en diseño de almacenamiento y consumo de datos (DWH Star o Snowflake) en plataformas cloud como GCP (Big Query, Dataproc, Storage) Azure (Databricks, Datalake Storage), AWS.
Conocimiento de Herramientas ETL: Pentaho, Microsoft SSIS (Integration Services), AWS Matillion
Uso de plataformas Big Data: Hadoop (y ecosistema Hadoop, como HBase, Hive, Spark), Apache Kafka, Apache Spark
2 a 3 años de experiencia en programación con Python, Scala, Java SQL Developer
Experiencia en gestión de Bases de Datos SQL (MySQL, SQL Server, Oracle) y NoSQL (Mongo, Cassandra, Dynamo) Stored Procedures, Joins, CTEs)
Muy deseable experiencia en sector logístico.
Recuerda que ningún reclutador puede pedirte dinero a cambio de una entrevista o un puesto. Asimismo, evita realizar pagos o compartir información financiera con las empresas.