DATA ENGINEER JAVA SPARK at Inetum
Nantes, Pays de la Loire, France -
Full Time


Start Date

Immediate

Expiry Date

04 Jun, 26

Salary

0.0

Posted On

06 Mar, 26

Experience

5 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

Java, Spark 3, Kubernetes, Starburst (Trino), SQL, Apache Airflow, Astronomer, Python, Scala, Gitlab, Jenkins, ArgoCD, ELK, Ansible, Yaml, DevOps

Industry

IT Services and IT Consulting

Description
Description du poste Dans le cadre du développement du DatahubV2, nous recherchons un Data Engineer confirmé maîtrisant les environnements Java, Spark et les architectures Data modernes. Vous interviendrez au sein de l'équipe Socle Data et serez responsable de la construction, l’optimisation et la fiabilisation des pipelines data, tout en garantissant les bonnes pratiques de développement et de performance. Vos missions principales : Concevoir, développer et optimiser des pipelines de données performants (batch, calcul distribué). Développer des traitements Spark 3 instanciés sur Kubernetes (Spark as a Service). Manipuler les données du DatahubV2 via Starburst (Trino) en SQL. Construire et orchestrer des workflows Data sur Astronomer / Apache Airflow en Python. Réaliser les intégrations applicatives en Java (et potentiellement Scala selon les applications). Assurer la qualité, la performance et la fiabilité des jobs Data. Contribuer à la mise en place et à la maintenance des pipelines DevOps (Gitlab, Jenkins, ArgoCD…). Suivre et analyser les logs applicatifs via ELK (Log as a Service). Coopérer avec l’équipe Socle Data, utiliser et faire évoluer les librairies Python internes. Participer à la documentation et à l'amélioration continue des pratiques Data du DatahubV2. 🧰 Technologies & Compétences requises Compétences Data / Big Data Spark 3 – Java ou Scala → Avancé Traitements distribués, performance, optimisation, exécution sur Kubernetes. Starburst (Trino) – SQL → Moyen Requêtage SQL interactif, combinaison multi-sources, compréhension du SEP. Apache Airflow / Astronomer – Python → Moyen Création, planification et supervision de DAGs, orchestration de workflows. Compétences Cloud / Infrastructure Kubernetes, COS (S3), Vault → Bas Compréhension des environnements cloud de la DMZR. Log as a Service (ELK) → Moyen Dashboarding, gestion et analyse des logs. Compétences DevOps Gitlab, Jenkins, ArgoCD, Ansible – Go / Yaml → Bas Gestion et évolution de pipelines CI/CD basés sur des templates existants. Langages Java → Moyen SQL → Moyen Python → Moyen Scala → Moyen Qualifications Profil recherché Expérience confirmée en tant que Data Engineer sur des environnements distribués et Big Data. Très bonne maîtrise de Java et Spark. Capacité à travailler dans un environnement cloud, containerisé et orienté DevOps. Bon niveau en SQL pour manipuler des données multi-sources. Autonomie, rigueur, esprit d’analyse, sens de la performance. Une expérience en contexte bancaire ou datahub est un plus. Informations complémentaires ✔︎ 10 RTT en plus des 27 jours de congés payés ✔︎ Des avantages groupes : 9€/jour sur votre carte Swile, une bonne mutuelle, prise en charge de 70% de votre abonnement de transports, des indemnités kilométriques vélo… ✔︎ Un CSE : subvention sport et loisir, chèques vacances, chèques cadeaux… ✔︎ De la flexibilité avec 2 jours de télétravail/semaine en moyenne
Responsibilities
The role involves designing, developing, and optimizing high-performance data pipelines (batch, distributed computing) for the DatahubV2, including developing Spark 3 treatments instantiated on Kubernetes. Responsibilities also cover data manipulation via Starburst (Trino) in SQL and orchestrating workflows using Astronomer/Apache Airflow in Python.
Loading...