Become an EXpert as Data Engineer:

Buscamos un Data Engineer con experiencia comprobada en entornos cloud, especializado en Azure Synapse Analytics, Snowflake y orquestación de flujos de datos con Apache Airflow. Será responsable del diseño, implementación y mantenimiento de pipelines de ingesta y transformación de datos, garantizando la eficiencia, seguridad y calidad de los procesos. Este rol requiere un dominio técnico integral, incluyendo modelado de datos, automatización de flujos ETL/ELT y programación en SQL y Python.

Responsabilidades Clave:

  • Diseñar e implementar pipelines de ingesta y transformación de datos desde sistemas ERP, asegurando consistencia y calidad.

  • Automatizar flujos de procesamiento de datos mediante Apache Airflow, con calendarización eficiente y monitoreo de tareas.

  • Aplicar reglas de transformación y limpieza de datos en coordinación con el equipo de BI.

  • Gestionar Dedicated SQL Pools e Integration Pipelines en Azure Synapse Analytics.

  • Diseñar modelos de datos eficientes en Snowflake, aplicando prácticas de performance tuning y manejo de esquemas.

  • Implementar soluciones seguras de acceso a datos para reportería y autoservicio, incluyendo control de roles, RLS y SSO con Azure AD.

  • Utilizar Snowpark con Python y SQL para desarrollar procesos de transformación avanzados.

  • Documentar los desarrollos realizados y capacitar al equipo interno en su uso, mantenimiento y buenas prácticas.

  • Monitorear, depurar y optimizar los procesos implementados para garantizar alta disponibilidad y rendimiento.

Habilidades Técnicas Requeridas:

  • Experiencia sólida de al menos 3 años, en Azure Synapse Analytics: diseño de pipelines, uso de Dedicated SQL Pools, Integration Pipelines.

  • Dominio de Snowflake: modelado de datos, performance tuning, gestión de roles, permisos, RLS/SSO y Snowpark (Python/SQL).

  • Experiencia con Apache Airflow: orquestación de flujos ETL/ELT y automatización.

  • Conocimientos avanzados de SQL y Python para manipulación de grandes volúmenes de datos y desarrollo de scripts.

  • Experiencia en Cloud Computing (preferencia Azure): arquitectura moderna de datos, seguridad, gobierno y control de calidad.

Será un PLUS:

  • Experiencia en prácticas de DataOps y CI/CD aplicadas a pipelines de datos.

  • Conocimiento de herramientas adicionales como Databricks, Azure Data Factory o BigQuery.

  • Conocimiento de técnicas de modelado de datos: star schema, snowflake schema, data vault.

  • Familiaridad con procesamiento de datos en tiempo real e integración con APIs.

Condiciones de la contratación:

  • Modalidad: Híbrida, Ciudad de Guatemala.
  • Contratación: Inicial por 6 meses.
  • Pago: en USD.
  • Acceso a plataformas de aprendizaje, y más beneficios!