5 Data Engineering Jobs in Tirol
Deine Aufgaben
- Design and build data workflows using Fabric Data Pipelines
- Ensure timely and accurate data loading into our Fabric environment
- Continuously improve existing data loading processes to enhance reliability and reduce costs
- Write efficient, scalable SQL for data transformation
- Implement CI/CD best practices
- Monitor pipeline performance and proactively troubleshoot issues
- Contribute to data architecture and data modeling discussions
|
Meine Vorteile
- Perspektivenreiches, innovatives und zukunftssicheres Arbeitsumfeld
- Home Office und flexibles Arbeiten durch Gleitzeit
- Ausgezeichnete Lage in unmittelbarer Nähe zum Hauptbahnhof
|
Aufgabengebiet
- Sie übernehmen Lehre und Forschung in den genannten Studiengängen und vertreten das Fachgebiet Programmierung, Maschinelles Lernen & Künstliche Intelligenz, Generative AI sowie dessen Anwendungsgebiete in deutscher und englischer Sprache. Durch Ihre Vernetzung mit Berufsverbänden stärken Sie den Praxisbezug des Studiengangs.
- Sie konzipieren und leiten innovative, kompetenzorientierte Lehrveranstaltungen in deutscher und englischer Sprache und vermitteln praxisnah Inhalte im Bereich Data Science und angrenzenden Disziplinen.
- Sie initiieren und leiten Forschungsprojekte mit Unternehmen und Praxispartner:innen, entwickeln eigene wissenschaftliche Schwerpunkte und fördern aktiv den Wissenstransfer zwischen Hochschule und Wirtschaft.
- Sie engagieren sich in der Hochschulorganisation und Selbstverwaltung und arbeiten im interdisziplinären Team des Studiengangs, um die Weiterentwicklung der Curricula mitzugestalten und eine zukunftsorientierte Ausbildung sicherzustellen.
|
WIR SUCHEN DICH
- Steuerung und Priorisierung des Backlogs für Analyse-, Wartungs- und Weiterentwicklungstasks.
- Sicherstellung eines stabilen Betriebs, der technischen Qualität und Einhaltung von Architektur- und Sicherheitsstandards
- Effiziente Verarbeitung, Transformation und Integration großer Datenmengen in einer modernen Cloud-Umgebung.
- Optimierung bestehender Datenpipelines für Stabilität und Performance.
- Aktive Mitarbeit in Wartung, Betrieb und Weiterentwicklung
- Nutzung moderner Cloud Services (insbesondere Databricks) zur Entwicklung skalierbarer ETL-Lösungen.
- Präsentation von Ergebnissen verständlich und wirkungsvoll für verschiedene Zielgruppen.
- Mitarbeit in einem dynamischen, agilen Team, das Innovationen fördert und sich kontinuierlich verbessert.
|
Das zählt zu Ihren Aufgaben
- Forschung
- Lehre
- Verwaltung
|