Data Engineer (all Genders) mit Schwerpunkt Microsoft Fabric at rheindata GmbH
Cologne, North Rhine-Westphalia, Germany -
Full Time


Start Date

Immediate

Expiry Date

08 Jun, 26

Salary

0.0

Posted On

10 Mar, 26

Experience

2 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

Microsoft Fabric, Data Pipelines, Lakehouse Architectures, Data Modeling, PySpark, SQL, ETL/ELT, Medallion Architecture, OneLake, Delta Lake, Git, CI/CD, Star Schema, 3NF, Data Vault, Orchestration

Industry

IT Services and IT Consulting

Description
Unternehmensbeschreibung Bei rheindata glauben wir daran, dass Daten mehr sind als Zahlen – sie sind Entscheidungsgrundlagen, Wachstumstreiber und Innovationsmotoren. Unsere Mission: Aus Daten echten, messbaren Mehrwert zu schaffen. Wir entwickeln moderne Data Pipelines, Datenplattformen, BI‑Lösungen und KI‑Modelle, die skalierbar und langfristig wartbar sind. Wir arbeiten agil, transparent und wertschätzend, sowohl intern als auch in Kundenteams. Unsere Kultur lebt von Teamgeist: Sommerfeste, Quartals- und Teamtreffen und Weihnachtsfeiern gehören bei uns selbstverständlich dazu. Wir möchten, dass jede Person sich einbringt, wohlfühlt und wachsen kann. Stellenbeschreibung Als Data Engineer (m/w/d) mit Schwerpunkt Microsoft Fabric entwickelst du moderne Lakehouse‑Architekturen, Data Pipelines und Datenmodelle in der Microsoft‑Datenplattform. Du arbeitest eng mit Kundenteams und gestaltest aktiv Lösungen mit, die wirklich Wirkung entfalten. Deine Aufgaben Aufbau & Weiterentwicklung von Data Pipelines in Microsoft Fabric (Data Factory, Data Engineering, Lakehouse) Modellierung & Strukturierung von Daten für Analytics‑, BI‑ und KI‑Use‑Cases Arbeit mit OneLake, Delta Lake und Fabric Lakehouse‑Strukturen Entwicklung von ETL/ELT‑Prozessen in der Medallion‑Architektur Zusammenarbeit mit BI‑Entwicklern, Data Scientists & Kundenteams Performance‑Optimierung & Monitoring innerhalb der Fabric‑Umgebung Mitarbeit beim Design moderner Lakehouse‑Architekturen Qualifikationen Was du mitbringst (Must‑Have Skills) Wir fokussieren uns bewusst auf das Wesentliche: Core Engineering Erfahrung mit Microsoft Fabric oder Komponenten der Microsoft‑Datenplattform (z. B. Azure Data Factory, Synapse, Lakehouse, Delta Lake) Gute Kenntnisse in PySpark, SQL und data‑engineering‑naher Entwicklung Erfahrung im Aufbau von ETL/ELT‑Pipelines (idealerweise Medallion‑Architektur) Sicherer Umgang mit Git und CI/CD‑Prozessen Grundlagen der Datenmodellierung (Star Schema, 3NF oder Data Vault) Platform & Workflow Erfahrung mit Fabric‑Data‑Pipelines, Orchestrierung & Deployment‑Workflows Arbeitsweise Qualitätsbewusstsein, Teamorientierung & klare Kommunikation Wille, sich in moderne Microsoft‑Technologien einzufuchsen und zu wachsen Nice to have (aber kein Muss) Fabric‑Governance (z. B. Domains, Security, Rollenmodelle) Power BI (insb. im Zusammenspiel mit Fabric) Monitoring & Observability Streaming (Event Hubs, Kafka, Fabric Real‑Time) Erfahrung mit mehreren Cloud‑ oder Datenplattform‑Ökosystemen MLflow oder MLOps‑Ansätze Wenn du nicht alles davon kannst – kein Problem. Wir unterstützen dich beim Lernen. Zusätzliche Informationen Warum du bei uns gerne arbeiten wirst 💛Ein Team, das dich wirklich willkommen heißt Wir leben echte Zusammenarbeit und stärken unser Miteinander durch eine Vielzahl von Teamaktivitäten. 🎯Projekte, die Wirkung zeigen Wir entwickeln analytische Lösungen, die unseren Kund*innen echte Fortschritte ermöglichen – von Data Engineering über BI bis Data Science. 📈Deine Weiterentwicklung ist uns wichtig Du arbeitest mit erfahrenen Kolleg*innen, bekommst Raum für Wachstum und wirst auf Wunsch aktiv gefördert. 🔍Qualität und Nachhaltigkeit im Fokus Wir legen Wert auf Sorgfalt, Wartbarkeit und enge Abstimmung – Lösungen sollen langfristig funktionieren. 🌱Moderne Arbeitsweise Agil, transparent, offen – mit viel Raum für Eigenverantwortung und Einfluss auf technische Entscheidungen. Zudem bieten wir dir: unbefristete Festanstellung mit 6 Wochen Urlaub eine deinen Bedürfnissen entsprechende Einarbeitungsphase mit Begleitung durch ein Mentoring Programm, die Teilnahme an unserem Mitarbeiter-Beteiligungsprogramm, eine kostenlose M-Mitgliedschaft bei Urban Sports Club und vergünstigte Konditionen bei L- und XL-Tarifen, neben einem attraktiven Vergütungspaket erhältst du natürlich ein Notebook und ein Smartphone sowie weitere Zusatzleistungen wie z.B. Deutschlandticket, JobRad und/oder betriebliche Altersvorsorge, je nach Kunden die Möglichkeit im Homeoffice zu arbeiten – wobei du in unserem Büro im Herzen von Köln immer willkommen bist, die Möglichkeit zu individuell gestaltbaren Sabbaticals.
Responsibilities
The Data Engineer will develop modern Lakehouse architectures, data pipelines, and data models within the Microsoft data platform, working closely with customer teams to actively shape impactful solutions. Key tasks include building and developing data pipelines in Microsoft Fabric (Data Factory, Data Engineering, Lakehouse) and modeling data for analytics, BI, and AI use cases.
Loading...