Platform Engineer – DevOps / OCP / AI at ALTEN Consulting Services GmbH
Vitrolles, Provence-Alpes-Côte d'Azur, France -
Full Time


Start Date

Immediate

Expiry Date

19 May, 26

Salary

0.0

Posted On

18 Feb, 26

Experience

10 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

DevOps, OpenShift, OCP, Kubernetes, AI, MLOps, Docker, CI/CD, Tekton, Kubeflow, GitOps, Python, TensorFlow, PyTorch, Infrastructure As Code, Security

Industry

Engineering Services

Description
Description de l'entreprise « Notre développement international et notre position de leader sur le marché de l’Ingénierie et du conseil en Technologies nous confèrent une responsabilité sociale, sociétale et environnementale envers l’ensemble de nos interlocuteurs et parties prenantes », Simon Azoulay – Président Directeur Général d’ALTEN. ALTEN accompagne la stratégie de développement de ses clients dans les domaines de l’innovation, de la R&D et des systèmes d’information technologiques. Plus qu’un poste, découvrez l’aventure ALTEN ! Description du poste Contexte de la Mission Dans le cadre d’un projet innovant en Platform Engineering, ALTEN recherche un·e Platform Engineer spécialisé·e en DevOps, OpenShift (OCP) et AI pour rejoindre une équipe dynamique. Objectif : Établir, exploiter et optimiser un environnement scalable et sécurisé pour le déploiement, la supervision et la gestion de modèles ML en production, en garantissant l’efficacité et la fiabilité du cycle de vie des modèles. Missions Clés Maintenance et Opérations : Assurer le support quotidien d’une plateforme AI basée sur Kubernetes/OpenShift. Appliquer les mises à jour et évolutions des composants de la plateforme. Déploiement et Supervision : Déployer et superviser des modèles AI dans un environnement Kube/OCP. Automatiser les processus de déploiement, scaling et gestion des modèles ML. Gestion des Pipelines CI/CD : Concevoir et maintenir des pipelines automatisés avec Tekton ou Kubeflow. Implémenter des solutions pour l’intégration continue, la livraison continue et le monitoring. Support Technique : Diagnostiquer et résoudre les incidents (crash de pods, allocation de ressources, etc.). Personnalisation et Sécurité : Personnaliser et reconstruire les composants de la plateforme (images, outils, bibliothèques). Garantir la conformité et la sécurité des environnements de production. Qualifications Compétences et Qualifications Expertise Technique : Maîtrise de Docker, Kubernetes et OpenShift. Expérience en CI/CD, Infrastructure as Code et GitOps. Connaissance des outils MLOps (Kubeflow, Elyra, LLM). Compétences avancées en Python et familiarité avec les frameworks ML (TensorFlow, PyTorch, etc.). Soft Skills : Autonomie, réactivité et capacité à travailler en équipe. Sensibilité aux enjeux de sécurité et de performance. Informations complémentaires Modalités de la Mission Eligibilité habilitation secret défense obligatoire Type de contrat : Freelance / Consultant. Durée : 6 mois renouvelable Localisation : 2-3 jours sur site en début de mission pour la montée en compétence. Télétravail partiel possible par la suite. Environnement : Intégration au sein de la PSL Cloud et collaboration avec les équipes techniques. Type de contrat : CDI/ freelance Présentiel/ hybride à raison de plusieurs jours/semaine. PAS DE FULL REMOTE. Localisation : Vitrolles Démarrage : ASAP Séniorité: 8 ans+ post diplôme Pourquoi Postuler ? Impact : Contribuer à des projets innovants en IA et DevOps. Flexibilité : Équilibre entre télétravail et présence sur site. Expertise : Accès à un écosystème technique de pointe et à des formations continues. Processus de Recrutement Pré-qualification : Analyse des CV et entretien téléphonique. Entretien technique : Évaluation des compétences Entretien Business Manager et évaluation des soft skills Intégration : Démarrage rapide (ASAP). Contract Type: Permanent Region: Provence-Alpes-Côte d'Azur
Responsibilities
The role involves establishing, operating, and optimizing a scalable and secure environment for deploying, supervising, and managing ML models in production, ensuring the efficiency and reliability of the model lifecycle. Key tasks include daily support of the AI platform, deploying and supervising AI models on Kube/OCP, automating deployment pipelines, and resolving technical incidents.
Loading...