Data engineer H/F at Scalian Inc
Vitrolles, Provence-Alpes-Cote d'Azur, France -
Full Time


Start Date

Immediate

Expiry Date

26 Apr, 26

Salary

50000.0

Posted On

26 Jan, 26

Experience

2 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

Python, SQL, Hadoop, Spark, HBase, MapRDB, Spotfire, PowerBI, Docker, Kubernetes, Jenkins

Industry

Business Consulting and Services

Description
Company Description Dans le TOP10 des Sociétés de Conseil en Ingénierie en France, le Groupe intervient sur des activités de services en management de projets industriels, supply chain, architecture et développement de systèmes numériques embarqués, applicatifs de systèmes d'information et d'Intelligence Artificielle dans des secteurs d’activité aussi variés que l’aéronautique, le spatial, l’automobile, le ferroviaire, les services, le luxe ou le retail… Créée en 1989, SCALIAN compte aujourd’hui plus de 5500 collaborateurs répartis dans 11 pays et 15 implantations en France pour un chiffre d’affaires de 550 millions d’euros. SCALIAN travaille pour des grands Groupes du CAC40 sur des projets en AT ou au forfait. Labellisée Grate Place to Work, SCALIAN connait une croissance de 20% chaque année. Job Description Type : CDI Lieu : Vitrolles / Télétravail jusqu'à 2 jours et demi Date de prise de poste : immédiatement Rémunération en fonction du profil : 36-50k Avantages Scalian : Accord d'entreprise télétravail, Tickets restaurants, Mutuelle groupe, accord aménagement temps de travail, compte épargne temps, accord de participation et intéressement groupe, programme cooptation et apports d'affaires, accompagnement parentalité, avantages CSE Politique Handicap : accord agréé, processus de recrutement inclusif, formation des managers, formation des recruteurs, mission handicap avec temps dédié : [email protected] Dans le cadre de nos activités Data aéronautique, nous recherchons actuellement un Ingénieur big data pour rejoindre notre équipe data basée à Vitrolles Description de la mission: Dans le cadre du développement d'une petite plateforme local Big Data afin de permettre l'analyse des données sensibles, voici les missions qui vous attendent : - Développement et organisation de l'espace de stockage Big Data - Développement de la pipeline automatique de transfert de données entre la plateforme existante et la nouvelle - Création d'outil d'accès aux données pour les utilisateurs - Développement de processus automatiques de calcul sur cette nouvelle plateforme* - Intégration d'outils DevOps sur l'ancienne et la nouvelle chaîne pour faciliter l'intégration et la mise à jour des modules Qualifications Diplomé d'une école d'ingénieur, vous avez une première expérience réussie dans un environnement big data. Compétences souhaitées dans l'idéal : - Développement Python - Manipulation de bases SQL (SQLServer dans l'idéal) - Manipulation de technos Big Data Hadoop/Spark ou HBase ou MapRDB - Connaissance d'outils de Dashboards comme Spotfire ou PowerBI - Manipulation d'outils de DevOps (Docker, Kubernetes, Jenkins, ...) Contract type: Permanent contract

How To Apply:

Incase you would like to apply to this job directly from the source, please click here

Responsibilities
The role involves developing and organizing a Big Data storage space and creating automated data transfer pipelines. Additionally, the engineer will create user access tools and integrate DevOps tools into the data processing chain.
Loading...