Cloud Data Engineer | AI & Real-Time at hey! marco
Buenos Aires, Cauca, Colombia -
Full Time


Start Date

Immediate

Expiry Date

14 Jun, 26

Salary

0.0

Posted On

16 Mar, 26

Experience

2 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

SQL, Python, PySpark, ETL, ELT, Data Modeling, Star Schema, Git, Data Lake, Lakehouse, Streaming, MLOps, Databricks, Snowflake, BigQuery, Synapse

Industry

Marketing Services

Description
Únete al equipo de Marco y juntos co-creemos estrategias y soluciones que marquen la vida de las personas en la industria del Trade Marketing. 🤩🌟 ¿Cuáles serán tus funciones?💯 Diseñar e implementar pipelines de ingesta de datos desde distintas fuentes (APIs, bases operacionales, sistemas ERP, entre otros). Integrar nuevas fuentes de datos a la plataforma corporativa. Optimizar pipelines y procesos existentes para mejorar performance, eficiencia y escalabilidad. Diseñar e implementar modelos de datos analíticos optimizados para consumo de negocio. Desarrollar transformaciones de datos utilizando SQL, Python y PySpark. Colaborar en la evolución de la arquitectura Lakehouse y el modelo Medallion (Bronze, Silver, Gold). Implementar controles y frameworks de calidad de datos. Participar en iniciativas de automatización, gobernanza de datos y MLOps. Colaborar con equipos de BI, plataformas y producto para asegurar la disponibilidad y calidad de los datasets. ¿Cuál es el perfil que buscamos? 🧐 Formación Estudiante avanzado o graduado de carreras como Sistemas, Informática, Ciencias de la Computación o afines. Experiencia Entre 2 y 4 años de experiencia en roles de Data Engineering, BI o desarrollo de ETL. Experiencia trabajando con plataformas cloud de datos (Azure, AWS o GCP). Experiencia construyendo y optimizando pipelines de datos en entornos productivos. Conocimientos técnicos (excluyentes) SQL avanzado (CTEs, window functions, optimización de queries). Python para procesamiento y transformación de datos. Experiencia en diseño de procesos ETL/ELT. Modelado de datos dimensional (star schema). Uso de Git para versionado de código. Conocimientos deseables Arquitecturas Data Lake / Lakehouse. Procesamiento streaming o real-time. Herramientas de orquestación de pipelines. Experiencia con plataformas como Databricks, Snowflake, BigQuery o Synapse. Experiencia integrando sistemas como ERP, CRM o APIs. Conocimientos de MLOps o arquitecturas de Machine Learning en producción. ¿Qué te ofrecemos?🫶 Participar en la construcción y evolución de la plataforma de datos de la organización. Exposición a decisiones de arquitectura y tecnologías modernas. Trabajo colaborativo con equipos de BI, plataformas y producto. Modalidad híbrida. Camino para unirte a nuestro equipo:🚀 Preselección Inicial: Al aplicar, responderás una serie de preguntas iniciales para determinar si cumples con los parámetros mínimos requeridos. Entrevista con AVI y Llamada Breve: Si superas la preselección, realizarás una entrevista con AVI, nuestro bot de reclutamiento, seguida de una llamada corta (menos de 20 minutos) con nuestro reclutador. Entrevista con el área: Si avanzas en el proceso, tendrás una entrevista con el área a la cual estás postulando. Estamos comprometidos en hacer de este proceso una experiencia ágil, transparente y enriquecedora. ¡Esperamos contar contigo en nuestro equipo! 📌 Conoce más del impacto de nuestros XPERS en las Américas aquí 👉 https://www.instagram.com/talentmarcomkt/
Responsibilities
The role involves designing and implementing data ingestion pipelines from various sources, optimizing existing processes for performance and scalability, and developing analytical data models using SQL, Python, and PySpark. Responsibilities also include collaborating on Lakehouse architecture evolution, implementing data quality controls, and participating in automation and MLOps initiatives.
Loading...