DevOps Senior – Data Platform / Kafka / GCP at ALTEN Consulting Services GmbH
Boulogne-Billancourt, Ile-de-France, France -
Full Time


Start Date

Immediate

Expiry Date

04 Jun, 26

Salary

50000.0

Posted On

06 Mar, 26

Experience

5 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

DevOps, Data Platform, Kafka, GCP, Streaming, Kubernetes, CI/CD, Monitoring, Prometheus, Grafana, Python, Bash, Agile, Scrum, Data Pipelines, Scalability

Industry

Engineering Services

Description
Description de l'entreprise Alten, la maison des ingénieurs, qui sommes-nous ? Fort de plus de 35 ans d’expériences, le groupe Alten exerce dans plus de 30 pays. Cette couverture mondiale, nos 54 000 collaborateurs, composés à 88 % d’ingénieurs, nous permettent d’être un groupe international et leader de son marché. Soucieux du bien-être de nos collaborateurs, cela nous a permis, cette année et pour la 12ème fois consécutive, d’être labélisé Top Employer. L’obtention de ce label s’appuie sur un audit du Top Employer Institute qui passe en revue un référentiel de 600 bonnes pratiques RH, garantissant le bien-être de chacun. Pourquoi nous ? Une démarche RSE forte : nos ingénieurs travaillent sur des projets qui contribuent à un avenir meilleur. ALTEN Group est signataire et membre de plusieurs programmes en faveur de l’environnement (Planet Tech’Care, La Charte de l’ingénierie, Climate Ambition Accelerator). Les compétences de nos ingénieurs au cœur des préoccupations : la montée en compétences de chacun est optimisée tout au long de votre parcours carrière. Culture d’entreprise élevée : Événements fédérateurs, actions solidaires, webinaires innovation, challenges variés… Faites l’expérience d’un environnement stimulant où vous pourrez partager vos talents et vos passions. Description du poste Nous recherchons un DevOps Senior spécialisé Data Platform pour rejoindre une équipe en charge d’une plateforme Data centralisée visant à casser les silos d’information et à permettre l’exploitation des données en temps réel via API dans l’ensemble du système d’information. Cette plateforme permet de simplifier et accélérer les traitements analytiques, tout en faisant converger les usages opérationnels et décisionnels autour d’une architecture Data Centric moderne et scalable. Vos missions Plateforme Data & Streaming Participer à la mise en place et l’évolution des pipelines de données Garantir la fiabilité, la performance et la scalabilité de la plateforme Assurer l’industrialisation des traitements data en environnement cloud Kafka & Streaming Administrer et optimiser Apache Kafka en production Configurer : partitionnement réplication compaction gestion des topics et offsets Assurer le tuning des performances Mettre en œuvre la sécurisation Kafka (TLS, SASL, ACL) Cloud & Containerisation Déployer et exploiter les solutions sur Google Cloud Platform Administrer et optimiser des clusters Kubernetes Gérer le déploiement et la scalabilité des applications data DevOps & Industrialisation Automatiser les déploiements et pipelines CI/CD Mettre en place les bonnes pratiques DevOps Améliorer la résilience et la supervision des services Monitoring & Observabilité Mettre en place la supervision des pipelines data Utiliser Prometheus et Grafana Analyser les performances et résoudre les incidents Collaboration technique Travailler étroitement avec : équipes Data équipes Infrastructure équipes Développement Participer aux pratiques Agile / Scrum Environnement technique Cloud GCP Google Kubernetes Engine (GKE) Cloud Storage Cloud SQL Cloud Monitoring Streaming / Data Apache Kafka Containerisation / Orchestration Kubernetes Monitoring Prometheus Grafana DevOps CI/CD Git Scripting Bash Python Méthodologie Agile / Scrum Qualifications Profil recherché Bac +5 en informatique ou équivalent Plus de 7 ans d’expérience en environnement DevOps Expertise solide sur Apache Kafka en production Expérience confirmée sur Kubernetes Bonne maîtrise de Google Cloud Platform Serait un plus : Expérience dans un environnement Data Platform / Big Data Expérience dans le retail ou la grande distribution Contract Type: Permanent Region: Île-de-France Rémunération: EUR 40000 - EUR 50000 - tous les ans
Responsibilities
The role involves participating in the setup and evolution of data pipelines, ensuring the reliability, performance, and scalability of a centralized Data Platform, and industrializing data processing in a cloud environment. Key tasks include administering and optimizing Apache Kafka in production, implementing Kafka security, and deploying/operating solutions on Google Cloud Platform using Kubernetes.
Loading...