Data Engineer - Nuevo Leon, México - Layer7 SAPI de CV
Descripción
This is a remote position.
• Diseñar, crear y mantener canalizaciones de datos por lotes o en tiempo real en producción.
• Mantener y optimizar la infraestructura de datos necesaria para una extracción, transformación y carga precisas de datos de una amplia variedad de fuentes de datos.
• Construir y mantener pipelines.
• Desarrollar procesos ETL (extracción, transformación, carga) para ayudar a extraer y manipular datos de múltiples fuentes.
• Ayuda a diseñar y mantener una capa semántica.
• Automatizar los flujos de trabajo de datos, como la ingesta, agregación y procesamiento ETL de datos.
• Preparar datos sin procesar en almacenes de datos en un conjunto de datos consumibles para partes interesadas tanto técnicas como no técnicas.
• Asociarse con científicos y analistas de datos para implementar modelos de datos y aprendizaje automático en producción.
• Garantizar la precisión, integridad, privacidad, seguridad y cumplimiento de los datos a través de procedimientos de control de calidad.
• Monitorear el desempeño de los sistemas de datos e implementar estrategias de optimización.
• Aprovechar los controles de datos para mantener la privacidad, la seguridad, el cumplimiento y la calidad de los datos para las áreas de propiedad asignadas.
Requirements
• Licenciatura/Maestría en Ciencias de la Computación, Sistemas de Información o un campo relacionado.
• Conocimiento en conceptos de DW/DL, data marts, modelado de datos, ETL/ELT, calidad/administración de datos, sistemas distribuidos y gestión de metadatos.
• Mínimo 7 años de experiencia en ingeniería de datos, idealmente en entornos de nube y buen conocimiento de microservicios y API.
• Amplia experiencia en el diseño y construcción de modelos ETL y flujos de trabajo de datos.
• Conocimiento práctico en el diseño e implementación de una capa semántica de BI.
• Base sólida en estructuras de datos, algoritmos y diseño de software.
• Habilidades avanzadas de SQL y experiencia con bases de datos relacionales y diseño de bases de datos.
• Experiencia trabajando con BigQuery Cloud Data Warehouse y herramientas de big data como Databricks,Hadoop, Spark, Kafla etc.
• Conocimiento práctico en lenguajes orientados a objetos (por ejemplo, Python, Java).
• Gran dominio de las herramientas de gestión de flujo de trabajo y canalización de datos (p. ej., Airflow).
• Fuertes habilidades organizativas y de gestión de proyectos.
• Excelentes habilidades de resolución de problemas, comunicación y organización.
• Capacidad demostrada para trabajar de forma independiente y en equipo.
• Excelentes relaciones interpersonales
• Pensamiento crítico
Benefits
Trabajo 100% remotoSueldo competitivo
Prestaciones de ley
Prestaciones Superiores
Laptop