Buscamos un Data Engineer con experiencia comprobada en entornos cloud, especializado en Azure Synapse Analytics, Snowflake y orquestación de flujos de datos con Apache Airflow. Será responsable del diseño, implementación y mantenimiento de pipelines de ingesta y transformación de datos, garantizando la eficiencia, seguridad y calidad de los procesos. Este rol requiere un dominio técnico integral, incluyendo modelado de datos, automatización de flujos ETL/ELT y programación en SQL y Python.
Diseñar e implementar pipelines de ingesta y transformación de datos desde sistemas ERP, asegurando consistencia y calidad.
Automatizar flujos de procesamiento de datos mediante Apache Airflow, con calendarización eficiente y monitoreo de tareas.
Aplicar reglas de transformación y limpieza de datos en coordinación con el equipo de BI.
Gestionar Dedicated SQL Pools e Integration Pipelines en Azure Synapse Analytics.
Diseñar modelos de datos eficientes en Snowflake, aplicando prácticas de performance tuning y manejo de esquemas.
Implementar soluciones seguras de acceso a datos para reportería y autoservicio, incluyendo control de roles, RLS y SSO con Azure AD.
Utilizar Snowpark con Python y SQL para desarrollar procesos de transformación avanzados.
Documentar los desarrollos realizados y capacitar al equipo interno en su uso, mantenimiento y buenas prácticas.
Monitorear, depurar y optimizar los procesos implementados para garantizar alta disponibilidad y rendimiento.
Experiencia sólida de al menos 3 años, en Azure Synapse Analytics: diseño de pipelines, uso de Dedicated SQL Pools, Integration Pipelines.
Dominio de Snowflake: modelado de datos, performance tuning, gestión de roles, permisos, RLS/SSO y Snowpark (Python/SQL).
Experiencia con Apache Airflow: orquestación de flujos ETL/ELT y automatización.
Conocimientos avanzados de SQL y Python para manipulación de grandes volúmenes de datos y desarrollo de scripts.
Experiencia en Cloud Computing (preferencia Azure): arquitectura moderna de datos, seguridad, gobierno y control de calidad.
Experiencia en prácticas de DataOps y CI/CD aplicadas a pipelines de datos.
Conocimiento de herramientas adicionales como Databricks, Azure Data Factory o BigQuery.
Conocimiento de técnicas de modelado de datos: star schema, snowflake schema, data vault.
Familiaridad con procesamiento de datos en tiempo real e integración con APIs.