Data Engineer - Nuevo Leon, México - Layer7 SAPI de CV

    Layer7 SAPI de CV
    Default job background
    Descripción

    This is a remote position.



    • Diseñar, crear y mantener canalizaciones de datos por lotes o en tiempo real en producción.


    • Mantener y optimizar la infraestructura de datos necesaria para una extracción, transformación y carga precisas de datos de una amplia variedad de fuentes de datos.


    • Construir y mantener pipelines.


    • Desarrollar procesos ETL (extracción, transformación, carga) para ayudar a extraer y manipular datos de múltiples fuentes.


    • Ayuda a diseñar y mantener una capa semántica.


    • Automatizar los flujos de trabajo de datos, como la ingesta, agregación y procesamiento ETL de datos.


    • Preparar datos sin procesar en almacenes de datos en un conjunto de datos consumibles para partes interesadas tanto técnicas como no técnicas.


    • Asociarse con científicos y analistas de datos para implementar modelos de datos y aprendizaje automático en producción.


    • Garantizar la precisión, integridad, privacidad, seguridad y cumplimiento de los datos a través de procedimientos de control de calidad.


    • Monitorear el desempeño de los sistemas de datos e implementar estrategias de optimización.


    • Aprovechar los controles de datos para mantener la privacidad, la seguridad, el cumplimiento y la calidad de los datos para las áreas de propiedad asignadas.



    Requirements


    • Licenciatura/Maestría en Ciencias de la Computación, Sistemas de Información o un campo relacionado.


    • Conocimiento en conceptos de DW/DL, data marts, modelado de datos, ETL/ELT, calidad/administración de datos, sistemas distribuidos y gestión de metadatos.


    • Mínimo 7 años de experiencia en ingeniería de datos, idealmente en entornos de nube y buen conocimiento de microservicios y API.


    • Amplia experiencia en el diseño y construcción de modelos ETL y flujos de trabajo de datos.


    • Conocimiento práctico en el diseño e implementación de una capa semántica de BI.


    • Base sólida en estructuras de datos, algoritmos y diseño de software.


    • Habilidades avanzadas de SQL y experiencia con bases de datos relacionales y diseño de bases de datos.


    • Experiencia trabajando con BigQuery Cloud Data Warehouse y herramientas de big data como Databricks,Hadoop, Spark, Kafla etc.


    • Conocimiento práctico en lenguajes orientados a objetos (por ejemplo, Python, Java).


    • Gran dominio de las herramientas de gestión de flujo de trabajo y canalización de datos (p. ej., Airflow).


    • Fuertes habilidades organizativas y de gestión de proyectos.


    • Excelentes habilidades de resolución de problemas, comunicación y organización.


    • Capacidad demostrada para trabajar de forma independiente y en equipo.

    • Excelentes relaciones interpersonales

    • Pensamiento crítico

    Benefits

    Trabajo 100% remoto
    Sueldo competitivo
    Prestaciones de ley
    Prestaciones Superiores
    Laptop