Dateningenieur
Zürich aber
Auf einen Blick
- Veröffentlicht:11 Juli 2025
- Pensum:100%
- Vertragsart:Festanstellung
- Arbeitsort:Zürich aber
Job-Zusammenfassung
Als Data Engineer bei PRODYNA arbeitest du an innovativen Softwarelösungen. Nutze die Vorteile eines dynamischen und unterstützenden Arbeitsumfelds.
Aufgaben
- Du gestaltest moderne Datenplattformen für große Datenmengen.
- Planung und Implementierung von Backend-Services für Datenbereitstellung.
- Optimierung von Pipelines und Integration in Cloud-Plattformen.
Fähigkeiten
- Mehrjährige Erfahrung in Softwareentwicklung und Datenprojekten.
- Kenntnisse in Pipeline-Entwicklung und Datenintegration.
- Erfahrung mit SQL und mindestens einer Programmiersprache.
Ist das hilfreich?
Dateningenieur
Bei PRODYNA entwerfen, implementieren und betreiben wir maßgeschneiderte Softwareanwendungen für mittelständische bis große Unternehmen. Wir sind bestrebt, unseren Kunden innovative und zukunftssichere Lösungen durch Digitalisierung und Cloud-Computing-Strategien anzubieten. Als Mitglied der Cloud Native Computing Foundation (CNCF) fördern wir Geschwindigkeit, Agilität und Skalierbarkeit in der Softwareentwicklung.
Ihre Aufgaben
- Als Dateningenieur sind Sie verantwortlich für das Design und die Konzeption moderner Datenplattformen, die in der Lage sind, große Datenmengen aus Systemen im großen Maßstab zu integrieren und zu verarbeiten. Zu Ihren Aufgaben gehören:
- Entwurf und Konzeption moderner Datenplattformen für die Integration und Verarbeitung großer Datenmengen.
- Planung und Implementierung von Backend-Services unter Verwendung moderner Frameworks für die Datenbereitstellung und -nutzung.
- Eigenständige Optimierung von Pipelines und deren Integration in Cloud-Plattformen.
- Implementierung von Tools und Lösungen zur Sicherstellung der Datenqualität, Datenbereinigung und Bereitstellung aggregierter Daten für Analysen.
- Erhebung und Spezifizierung von Anforderungen unserer Kunden.
Ihr Profil
- Mehrjährige Erfahrung in der Softwareentwicklung, insbesondere in datengestützten Projekten, Data Warehousing oder dem Bau von Datenplattformen.
- Kenntnisse in der Pipeline-Entwicklung und Datenintegration (ELT/ETL, Azure Data Factory, DBT, Stored Procedures oder ähnlichen Tools).
- Vertrautheit mit Datenmodellierung und Erfahrung mit Data Vault, Data Mesh, Kimball oder Inmon-Methoden.
- Kenntnisse in SQL und mindestens einer Programmiersprache (z. B. Python, Scala).
- Erfahrung mit Cloud-Plattformen (z. B. Azure, AWS oder GCP).
- Starke analytische und problemlösende Fähigkeiten.
Schön zu haben:
- Erfahrung mit Microsoft Fabric oder Verständnis des Fabric-Ökosystems.
- Kenntnisse über Delta Lake, Lakehouse-Architektur und Prinzipien des Daten-Mesh.
- Vertrautheit mit CI/CD für Datenpipelines.
- Erfahrung mit Datenkatalogisierungstools (z. B. Purview, Alation).
- Verständnis von Datenschutzbestimmungen (z. B. GDPR, CCPA).
Ihre Vorteile
- Mitarbeiterschulung
- 25 Urlaubstage
- Freie Hardwareauswahl
- Private Krankenversicherung
- Gesundheitsunterstützung und Wohlbefinden
- Teamevents
- Internationales Netzwerk
- Obst im Büro
- Mitarbeiterempfehlungsprogramm