Data Engineer Sénior – Data Platform at Alten
Rabat, Rabat-Salé-Kénitra, Morocco -
Full Time


Start Date

Immediate

Expiry Date

01 Feb, 26

Salary

0.0

Posted On

03 Nov, 25

Experience

10 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

Scala, Java, BigQuery, BigTable, GCP, Spark, Kafka, Kubernetes, Dataproc, Docker, GitLab CI/CD, SQL, Microservices, Linux, Agile, Scrum

Industry

Engineering Services

Description
Description de l'entreprise ALTEN DELIVERY CENTER MAROC, Filiale du leader mondial de l’ingénierie et du conseil en technologie créé en 2008 et présent à Fès, Rabat, Tétouan et Casablanca, compte aujourd’hui plus de 2300 consultants et vise un centre d’excellence de 3100 consultants ALTENiens en fin 2027. Avec plus de 90 recrutements par mois, ALTEN Maroc est désormais un acteur majeur de l’insertion professionnelle des ingénieurs. Nous accompagnons nos clients, leaders de l’Industrie dans leurs stratégies de développement dans les domaines de l’automobile, du ferroviaire, de l’IT, de la R&D et des Télécoms & Médias. Description du poste Le/la consultant(e) interviendra au sein des équipes Data et sera en charge de concevoir, développer et maintenir des solutions de traitement de données à grande échelle au sein de la Plateforme Data de notre client, dans un environnement Cloud GCP, afin de garantir la performance, la qualité des données et l’industrialisation des flux data. L’objectif est d’industrialiser la collecte, la transformation et l’exposition des données via API afin d’accélérer les traitements analytiques et la convergence entre l’opérationnel et le décisionnel. Le consultant intégrera l’équipe Plateforme Data pour : Concevoir et implémenter des pipelines de données performants sur GCP (BigQuery, BigTable, Dataproc). Développer des traitements distribués sous Spark et Kafka. Participer à la mise en œuvre de pratiques CI/CD (GitLab, Docker) et à l’automatisation des workflows data. Garantir la qualité du code via tests unitaires et d’intégration. Collaborer avec les équipes développement et production en environnement agile (Scrum). Qualifications De formation bac+5 en informatique Expérience : > 7 ans, maîtrisant les environnements Cloud (GCP ou AWS) et les technologies de traitement distribué (Kafka, Spark, BigQuery). Compétences requises : Scala / Java (niveau expert) BigQuery, BigTable, GCP, Spark, Kafka Kubernetes, Dataproc, Docker, GitLab CI/CD SQL avancé Architecture microservices Linux & ligne de commande Méthodologie Agile Scrum Capacité rédactionnelle et communication en français Informations complémentaires Au plaisir de vous lire !
Responsibilities
The consultant will design, develop, and maintain large-scale data processing solutions within the client's Data Platform in a GCP cloud environment. The goal is to industrialize data collection, transformation, and exposure via APIs to accelerate analytical processing.
Loading...