Ingénieur Databricks at SQLI France
Casablanca, Casablanca-Settat, Morocco -
Full Time


Start Date

Immediate

Expiry Date

17 Jun, 26

Salary

0.0

Posted On

19 Mar, 26

Experience

5 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

Databricks, SQL, Scala, PySpark, Python, Azure Data Factory, Azure Databricks, ADLS Gen 2, Azure DevOps, Git, Datadog, Snyk, dbt, Agile, CI/CD, Spark UI

Industry

IT Services and IT Consulting

Description
Description de l'entreprise We Elevate. Digitally. SQLI, leader européen de l’expérience client et de la transformation digitale, aide les grandes marques internationales à créer de la valeur grâce à la technologie et à l’innovation digitale. De la stratégie au déploiement des actifs technologiques de nos clients, nous imaginons et construisons des architectures robustes et performantes ainsi que des expériences engageantes en combinant technologies de pointe, méthodologies éprouvées et expertise technologique approfondie. Afin de renforcer nos équipes (2200 personnes, réparties dans 12 pays), nous recrutons des collaborateurs passionnés et qui partagent nos valeurs : " Creative spirit, Commitment, Forward thinking." Description du poste Au sein de la Direction des Technologies, le pôle BI/Data est en charge du pilotage et de la réalisation des projets de Business Intelligence. Votre rôle au sein de l’équipe: Rattaché(e) au Tech Lead Data Engineer, vous jouerez un rôle clé dans le développement, l'optimisation et la gestion de nos flux de données pour nos clients internes. Missions principales: En tant qu'ingénieur Databricks, vous serez impliqué(e) dans les activités suivantes : Développer et maintenir des pipelines d'ingestion de données avec Azure Data Factory. Concevoir des pipelines de transformation de données sur Azure Databricks. Implémenter des tests unitaires pour garantir la robustesse du code et des solutions développées. Définir et appliquer des règles de qualité des données. Participer à la conception des pipelines CI/CD via Azure DevOps pour automatiser les déploiements. Appliquer des bonnes pratiques de software engineering dans toutes les étapes du développement. Collaborer étroitement avec les Product Owners Data pour comprendre les besoins métiers et proposer des solutions adaptées. Assurer la supervision des traitements de données avec Datadog. Contribuer à la définition et à l'optimisation des architectures de données. Environnement technique principal: Langages : SQL, Scala, PySpark, Python Outils : SSIS, SSAS, Business Object, Power BI, Datadog, Snyk Cloud : Azure DataFactory, Azure Databricks, ADLS Gen 2 CI/CD : Git, Azure DevOps. Qualifications Vos atouts pour faire la différence : Diplôme en informatique (Bac+5), en ingénierie ou dans un domaine connexe. Ayant minimum 5 ans d'expérience dans un poste similaire. Maîtrise d’un ou plusieurs langages : Python, PySpark, Scala, SQL Expérience confirmée dans le développement de pipelines de données sur Databricks Bonne connaissance du Spark UI avec capacité à diagnostiquer et optimiser les traitements Bonne connaissance de l’environnement Azure et de ses services cloud orientés data Familiarité avec les bonnes pratiques de développement : clean code, versioning, tests et principes de modélisation BI Expérience d’utilisation du framework dbt pour la transformation de données en SQL Pratique du travail en méthodologie Agile, en lien étroit avec les Product Owners Data et l’équipe projet Force de proposition, capable de s’adapter rapidement dans un environnement technique en constante évolution Informations complémentaires Pourquoi rejoindre notre équipe ? Un environnement dynamique et innovant, au sein d’une équipe passionnée par les technologies de données. La possibilité de travailler sur des projets d’envergure, à la pointe des technologies cloud et Big Data. Des opportunités d’évolution et de formation continue pour développer vos compétences. Un cadre de travail flexible et des avantages attractifs. Job Category.: Consulting Type of contract: CDI Name on Job Ad: SQLI
Responsibilities
The role involves developing, optimizing, and managing data pipelines for internal clients, including developing ingestion pipelines with Azure Data Factory and transformation pipelines on Azure Databricks. Key tasks include implementing unit tests, defining data quality rules, and participating in CI/CD pipeline design via Azure DevOps.
Loading...