NEORIS es un acelerador Digital que ayuda a las compañías a entrar en el futuro, teniendo 20 años de experiencia como Socios Digitales de algunas de las mayores compañías del mundo. Somos más de 4,000 profesionales en 11 países, con nuestra cultura multicultural de startup en donde cultivamos innovación, aprendizaje continuo para crear soluciones de alto valor para nuestros clientes.
Estamos en búsqueda de Data Engineer-Databricks
Principales responsabilidades:
- Este rol está orientado a profesionales con experiencia inicial en procesamiento y manejo de datos que deseen seguir desarrollándose en entornos de nube y plataformas modernas de datos. La posición brinda la oportunidad de trabajar con Databricks y servicios en la nube, colaborando con equipos multidisciplinarios y participando en proyectos de analítica avanzada y transformación digital.
- Desarrollo de Pipelines de Datos: Participar en la construcción y mantenimiento de pipelines para ingesta, transformación y procesamiento de datos.
- Integración de Datos: Colaborar en la incorporación de datos desde fuentes diversas (estructuradas y no estructuradas) hacia sistemas centralizados.
- Uso de Databricks: Apoyar en la implementación de procesos de datos y análisis utilizando notebooks y clústeres en Databricks.
- Modelado de Datos: Contribuir en el diseño y mantenimiento de modelos de datos que soporten análisis y reporting.
- Implementación de ETL/ELT: Desarrollar y dar soporte a procesos ETL/ELT para habilitar insights de negocio.
- Colaboración con Otros Equipos: Trabajar de la mano con analistas y científicos de datos, asegurando que los datasets sean confiables y accesibles.
- Buenas Prácticas de Datos: Apoyar en el cumplimiento de lineamientos de calidad, seguridad y gobernanza de datos.
Requerimientos:
- +3 años de experiencia como Data Engineer-Databricks
- Inglés avanzado (conversacional)
- Modalidad Hibrida (San Pedro Garza Garcia, NL)
- Databricks: Experiencia práctica con notebooks y configuración básica de clústeres.
- SQL y Bases de Datos: Buen manejo de SQL para consultas y transformaciones en entornos relacionales y no relacionales.
- Python: Experiencia en el desarrollo de scripts para manipulación de datos y automatización de procesos.
- Data Lakes y Data Warehouses: Familiaridad con el uso de Delta Lake y algún warehouse en la nube (ej. Azure Synapse, BigQuery, Redshift).
- ETL/ELT: Conocimientos básicos en procesos de extracción, transformación y carga de datos.
- Cloud (Azure, AWS o GCP): Experiencia básica con servicios de almacenamiento y procesamiento de datos en nube.
- Conocimiento en herramientas de orquestación (Airflow, Data Factory, u otras).
- Familiaridad con Apache Spark y su uso en entornos distribuidos.
- Experiencia inicial en proyectos con metodologías ágiles.
Ofrecemos:
- Esquema 100% nominal
- Prestaciones de Ley
- Vales de despensa
- Beneficios adicionales
- Plan de Desarrollo Profesional
- Colaboración multicultural