<li>Fließend in Englisch; weitere europäische Sprachen von Vorteil.</li>
Axpo Gruppe
Madrid
Auf einen Blick
- Veröffentlicht:27 Juni 2025
- Pensum:100%
- Vertragsart:Festanstellung
- Arbeitsort:Madrid
Standort: Baden, Madrid | Arbeitsumfang: 80–100%
Wer wir sind
Axpo verfolgt ein einziges Ziel: eine nachhaltige Zukunft durch innovative Energielösungen zu ermöglichen. Als größter Produzent erneuerbarer Energien in der Schweiz und führender internationaler Energiehändler nutzen wir modernste Technologien, um Kunden in über 30 Ländern zu bedienen. Wir leben von Zusammenarbeit, Innovation und einer Leidenschaft, wirkungsvolle Veränderungen voranzutreiben.
Über das Team
Sie berichten an den Leiter der Entwicklung und arbeiten eng mit dem Chief Data & Analytics Office (CDAO) zusammen, als Teil einer bereichsübergreifenden Initiative zum Aufbau einer sicheren, skalierbaren und geschäftsorientierten Datenplattform. Unsere Mission ist es, die dezentralen Geschäftseinheiten von Axpo mit Self-Service-Analytics und KI-Fähigkeiten zu befähigen, indem wir die Stärken von Engineering, Governance und Geschäftsverantwortung kombinieren.
Was Sie tun werden
Als Databricks Solution Architect spielen Sie eine zentrale Rolle in der unternehmensweiten Daten-Transformation von Axpo, indem Sie skalierbare und sichere Lösungen auf der Databricks Lakehouse-Plattform entwerfen und steuern.
Sie werden:
- Leistungsfähige, sichere und kosteneffiziente Lakehouse-Architekturen entwerfen, die den von CDAO definierten Standards für Unternehmensdaten-Governance und Domänenmodellierung entsprechen.
- Die Gestaltung leistungsfähiger, sicherer und kosteneffizienter Lakehouse-Architekturen leiten, die auf die Bedürfnisse des Unternehmens abgestimmt sind.
- Mit Geschäftsinteressenten, Ingenieuren und Datenwissenschaftlern zusammenarbeiten, um End-to-End-Lösungen zu entwerfen, die Innovation und datengetriebene Entscheidungsfindung ermöglichen.
- Engineering-Teams bei der Umsetzung technischer Best Practices anleiten und sicherstellen, dass diese mit den vom CDAO definierten Datenmodellen und Stewardship-Prinzipien übereinstimmen.
- Mit dem CDAO-Büro zusammenarbeiten, um Unity Catalog-Richtlinien für Zugriffskontrolle, Datenherkunft und Metadatenmanagement umzusetzen.
- Die Plattform-Überwachung, Datenqualitätskontrolle und operative Exzellenz in Zusammenarbeit mit den Stakeholdern der Daten-Governance unterstützen.
- Neue Databricks-Funktionen (z. B. Delta Sharing, Governance-Verbesserungen) bewerten und deren Integration in die Plattform-Fähigkeiten vorantreiben.
- Lösungsüberprüfungsprozesse etablieren und Ingenieure sowie Analysten im architektonischen Denken und in Databricks-Fähigkeiten coachen.
- Sicherheits-, Compliance- und Kostenoptimierungsmaßnahmen in enger Zusammenarbeit mit Plattform- und Cloud-Teams unterstützen.
Was Sie mitbringen & wer Sie sind
Sie sind ein strategischer Denker mit praktischer technischer Expertise und starkem Fokus auf Geschäftswert. Sie bringen mit:
- Ein Studium der Informatik, Datenengineering, Informationssysteme oder eines verwandten Fachgebiets.
- Mehr als 5 Jahre Erfahrung im Datenengineering und über 3 Jahre in Architekturrollen mit tiefgehender Erfahrung im Entwurf von Lösungen auf Databricks und Apache Spark.
- Fundierte Kenntnisse in Delta Lake, Lakehouse-Architektur und der Umsetzung von Unity Catalog-Richtlinien in Abstimmung mit Daten-Governance-Funktionen.
- Expertise in Python, SQL und optional Scala; starke Vertrautheit mit dbt und modernen ELT-Praktiken.
- Nachgewiesene Erfahrung in der Integration von Databricks mit Azure-Diensten (z. B. Data Lake, Synapse, Event Hubs).
- Praktische Kenntnisse in CI/CD, GitOps, Terraform und Orchestrierungstools (z. B. Dragster, Airflow).
- Gutes Verständnis von Unternehmensdatenarchitektur, Daten-Governance und Sicherheitsprinzipien (z. B. DSGVO).
- Starke Kommunikations- und Stakeholder-Management-Fähigkeiten, um technische und geschäftliche Bereiche zu verbinden.
- Fließend in Englisch; weitere europäische Sprachen sind von Vorteil.
Technologien, mit denen Sie arbeiten werden
- Kern: Databricks, Spark, Delta Lake, Unity Catalog, dbt, SQL, Python
- Cloud: Microsoft Azure (Data Lake, Synapse, Storage, Event Hubs)
- DevOps: Bitbucket/GitHub, Azure DevOps, Terraform
- Orchestrierung & Überwachung: Dragster, Airflow, Datadog, Grafana
- Visualisierung: Power BI
- Sonstiges: Confluence, Docker, Linux
Wünschenswert
- Kenntnisse in Microsoft Fabric oder Snowflake
- Vertrautheit mit Dataiku oder ähnlichen Low-Code-Analytics-Plattformen
- Erfahrung mit unternehmensweiten Metadaten- und Datenherkunftslösungen
- Hintergrund im Energiehandel oder verwandten Branchen