Data Engineer GCP (H/F) at ALTEN Consulting Services GmbH
Paris, Ile-de-France, France -
Full Time


Start Date

Immediate

Expiry Date

17 Jun, 26

Salary

0.0

Posted On

19 Mar, 26

Experience

5 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

GCP, Snowflake, DBT, SQL, Python, Data Pipelines, Data Modeling, Data Warehouse, Data Lake, Data Lakehouse, Orchestration, Airflow, Cloud Composer, CI/CD, DevOps, Agile

Industry

Engineering Services

Description
Description de l'entreprise Leader mondial de l’Ingénierie et du Conseil en Technologies, ALTEN réalise des projets de conception et d’études pour les grands comptes industriels, télécoms et tertiaires (les Directions Techniques et les Directions des Systèmes d’Information). Désormais présent à travers 30 pays, le Groupe ALTEN a réalisé un chiffre d’affaires de 4,07 milliards d’euros en 2023 et compte actuellement 57 000 collaborateurs, dont 90% sont des ingénieurs. Labélisé "Top employeur" 2023, ALTEN est un acteur majeur du recrutement d’ingénieurs en France et dans le monde. Description du poste Contexte : Nous recherchons pour l’un de nos clients grands comptes un Data Engineer GCP (H/F) qui travaillera en relation avec une équipe à l’internationale. Responsabilités : Conception et développement des pipelines data Concevoir et développer des pipelines de traitement de données robustes et scalables. Mettre en place des flux d’ingestion, transformation et stockage des données. Développer et optimiser les modèles de transformation avec dbt. Participer à l’industrialisation des processus de traitement des données. Architecture et plateforme data Concevoir et maintenir des architectures data modernes sur le Cloud. Mettre en place et optimiser les entrepôts de données Snowflake. Participer à la modélisation des données (data warehouse / data lake / data lakehouse). Garantir la performance, la qualité et la disponibilité des données. Intégration et orchestration Développer et maintenir les pipelines d’intégration de données. Mettre en place des outils d’orchestration et de planification des workflows. Participer à l’intégration de différentes sources de données internes et externes. Qualité, gouvernance et optimisation Mettre en place des processus de qualité et de validation des données. Optimiser les performances des requêtes et pipelines data. Contribuer à la gouvernance des données et aux bonnes pratiques data engineering. Collaboration et amélioration continue Collaborer avec les équipes data science, BI et métiers. Participer aux revues techniques et à la documentation des pipelines. Contribuer à l’amélioration continue de la plateforme data. Environnement technique associé : Google Cloud Platform (GCP) Snowflake DBT SQL / Python Data Warehouse / Data Lake Outils d’orchestration (Airflow, Cloud Composer ou équivalent) CI/CD et bonnes pratiques DevOps appliquées à la data Profil : Solides compétences en SQL et modélisation de données Expérience sur des architectures data cloud Capacité à travailler en environnement agile et collaboratif Qualifications Qualifications requises : Contrat : CDI uniquement Diplôme de niveau bac +5 en informatique, réseau ou domaine connexe Maitrise approfondie de l’anglais oral & écrit (professionnel / courant) Expérience professionnelle attendue sur un rôle similaire : 5 ans minimum Certifications appréciées Informations complémentaires Vous vous reconnaissez dans ce descriptif ? Alors n’attendez plus ! Nous serons ravis de vous accueillir dans nos équipes. Postulez dès maintenant en envoyant votre CV. Contract Type: Permanent Region: Île-de-France
Responsibilities
The role involves designing and developing robust and scalable data pipelines, implementing data ingestion, transformation, and storage flows, and developing/optimizing transformation models using dbt. Responsibilities also include designing and maintaining modern cloud data architectures, setting up and optimizing Snowflake data warehouses, and participating in data modeling for data warehouse/lake/lakehouse environments.
Loading...