Data Engineer (ETL / Data Pipelines) at Dotsoft
Pylaia Municipal Unit, Macedonia and Thrace, Greece -
Full Time


Start Date

Immediate

Expiry Date

15 Jun, 26

Salary

0.0

Posted On

17 Mar, 26

Experience

2 year(s) or above

Remote Job

Yes

Telecommute

Yes

Sponsor Visa

No

Skills

ETL, ELT, Data Pipelines, SQL, Python, Apache Airflow, NiFi, Spark, Hadoop, Data Lake, Data Space, REST APIs, Data Ingestion, AWS, Azure, GCP

Industry

Information Technology & Services

Description
Περιγραφή εταιρείας Η DOTSOFT αναζητά έναν/μία Data Engineer για να ενισχύσει την ομάδα της, με κύρια ενασχόληση τον σχεδιασμό και την υλοποίηση διαδικασιών ETL, τη διαχείριση και ενοποίηση δεδομένων από πολλαπλές πηγές, καθώς και τη βελτιστοποίηση data pipelines για αναλυτικές και AI εφαρμογές. Ο/Η υποψήφιος/α θα συμμετέχει ενεργά στην ανάπτυξη data-driven λύσεων, συνεργαζόμενος/η με διεπιστημονικές ομάδες σε ένα σύγχρονο τεχνολογικό περιβάλλον. Περιγραφή θέσης εργασίας Σχεδιασμός, ανάπτυξη και συντήρηση ETL/ELT pipelines Συλλογή, μετασχηματισμός και φόρτωση δεδομένων από APIs, βάσεις δεδομένων και IoT συστήματα Βελτιστοποίηση ροών δεδομένων για απόδοση και επεκτασιμότητα Ανάπτυξη και διαχείριση data space/ data lakes Διασφάλιση ποιότητας, συνέπειας και ακεραιότητας δεδομένων Συνεργασία με ομάδες AI/ML, backend και analytics Παρακολούθηση (monitoring) και troubleshooting data pipelines Τεκμηρίωση διαδικασιών και data flows Προσόντα Πτυχίο σε Πληροφορική και σχετικό Μεταπτυχιακό Τίτλο Εμπειρία σε ανάπτυξη ETL pipelines Πολύ καλή γνώση SQL Εμπειρία με γλώσσες όπως Python Εξοικείωση με εργαλεία όπως: Apache Airflow, NiFi ή παρόμοια Spark / Hadoop (προαιρετικά αλλά επιθυμητά) Κατανόηση αρχιτεκτονικών data lake / data space Εμπειρία με REST APIs και data ingestion Πρόσθετες πληροφορίες Εμπειρία με cloud πλατφόρμες (AWS, Azure, GCP) Γνώση containerization (Docker, Kubernetes) Εμπειρία με real-time δεδομένα (Kafka, streaming pipelines) Εμπειρία σε έργα AI/ML ή big data
Responsibilities
The Data Engineer will be responsible for designing, developing, and maintaining ETL/ELT pipelines, managing data collection, transformation, and loading from various sources like APIs, databases, and IoT systems. They will also optimize data flows for performance and scalability while ensuring data quality and integrity.
Loading...