-
Design und Entwicklung effizienter Datenpipelines
-
Datenbankmodellierung und Optimierung von Datenstrukturen
-
Entwicklung und Management von ETL-Prozessen
-
Nutzung von Snowflake und Azure Data Factory für Cloud-Datenlösungen
-
Integration von IoT-Daten mit Azure IoT Hub
-
Bachelor-Abschluss in Informatik, IT, Ingenieurwesen oder einem verwandten Bereich
-
Tiefgreifende Erfahrung als Data Engineer oder in einer ähnlichen Rolle
-
Erfahrung mit Datenpipeline-Tools und -Techniken
-
Kenntnisse in Snowflake und Azure Data Factory
-
Erfahrung mit IoT-Datenintegration und Apache Airflow
-
Spannendes, innovatives Umfeld
-
37,5 Arbeitsstunden pro Woche
-
Möglichkeit zum Home Office gegeben
-
Bis zu 85.000€ möglich, je nach Berufserfahrung
© Copyright Hays plc, . Das Wort HAYS, die H-Symbole, „Hays Working for your tomorrow" und „Powering the world of work" sowie damit verbundene Logos und Illustrationen sind eingetragene Markenzeichen der Hays PLC. Die H-Symbole sind Originaldesigns, die in vielen Ländern geschützt sind. Alle Rechte vorbehalten.