Acerca de la empresa
Somos una empresa líder en el sector de tecnologías de la información con 27 años de experiencia en el mercado mexicano. Nos destacamos por nuestra innovación continua, compromiso permanente y la incorporación de tecnología de última generación en todas nuestras soluciones.
Descripción de Funciones:
- Diseña y desarrolla arquitecturas de datos escalables, optimiza pipelines de datos y despliega soluciones de IA.
- Administra Data Lakes y almacenes de datos, asegura la seguridad y el cumplimiento normativo, y lidera iniciativas técnicas y colaborativas.
- Evaluación de nuevas tecnologías, implementación de proyectos piloto, y optimización de procesos.
- Proporciona liderazgo técnico y mentoría, documenta sistemas y procesos.
- Reporta el rendimiento de las soluciones de BigData e IA
- Garantiza una integración efectiva de tecnologías avanzadas, seguridad de datos y mejora continua en la estrategia de datos de la empresa.
Conocimientos:
Lenguajes de Programación
- Python: dominio avanzado para scripting, análisis de datos y desarrollo de modelos de machine learning.
- Java: Conocimientos profundos para el desarrollo de aplicaciones distribuidas y procesamiento de datos a gran escala
- Scala: Uso en entornos de BigData, especialmente con Apache Spark.
- SQL y NOSQL: Habilidades en consulta y manejo de bases de datos relacionales y no relacionales.
Plataformas y Herramientas de BigData:
- Hadoop Ecosystem:
- HDFS, MAPREDUCE, Yarn, Apache Spark, Apache kafka, Apache flink, Apache hbase, Apache Hive, Presto, Apache Nifi
Tecnologías y Servicios en la nube:
- ?AWS: (Amazon S3, Amazon Redshift, AWS Glue).
- Azure (Azure data lake storage, Azure synapse analytics, Azure data factory).
- Google: (GCP, Google bigquery, google cloud storage).
- Dataflow
?
- Frameworks y herramientas de IA: Tensorflow, Pytorch, Keras, Scikit-Learn, Mlflow, Tensorboard
- Data warehousing y ETL: Diseño y gestión de data warehouses: Capacidad para diseñar arquitecturas de almacenes de datos eficientes y escalables.
- ETL: Talend, Informatica, Apache Nifi, Pentaho, Apache airflow.
Seguridad y Gobernanza de Datos: Políticas y Herramientas de Seguridad
- Apache Ranger
- Apache Atlas
Cumplimiento normativo:
- GDPR (GENERAL DATA PROTECTION REGULATION), CCPA (CALIFORNIA CONSUMER PRIVACY ACT)
- CIFRADO Y ANONIMIZACION DE DATOS
-
Experiencia:
- 7 a 10 años de experiencia en Roles relacionados con BigData
- Al menos 3-5 años en un rol de Arquitecto de Datos
- Experiencia en diseño e implementación de arquitecturas de datos a gran escala
- Proyectos y Logros: Participación en proyectos de transformación digital y adopción de tecnologías de IA.
- Experiencia en liderar equipos técnicos y colaboraciones interdepartamentales.
- Objetivos de negocio:
- Experiencia en la creación de hojas de ruta tecnológicas y planes de adopción de nuevas tecnologías.
Prestaciones y beneficios adicionales
- Contratación por tiempo indefinido.
- Horario de tiempo completo en modalidad híbrida.
- 100% Nómina.
- Prestaciones de Ley.