<li>Maîtrise de l'anglais ; autres langues européennes un plus.</li>
Axpo Gruppe
Madrid
Infos sur l'emploi
- Date de publication :27 juin 2025
- Taux d'activité :100%
- Type de contrat :Durée indéterminée
- Lieu de travail :Madrid
Lieu : Baden, Madrid | Charge de travail : 80–100%
Qui nous sommes
Axpo est animé par un seul objectif : permettre un avenir durable grâce à des solutions énergétiques innovantes. En tant que plus grand producteur d'énergie renouvelable en Suisse et acteur international majeur du commerce de l'énergie, nous utilisons des technologies de pointe pour servir des clients dans plus de 30 pays. Nous prospérons grâce à la collaboration, l'innovation et une passion pour impulser un changement impactant.
À propos de l'équipe
Vous serez rattaché au responsable du développement et travaillerez en étroite collaboration avec le Chief Data & Analytics Office (CDAO) dans le cadre d'un effort transversal visant à construire une plateforme de données sécurisée, évolutive et alignée sur les besoins métier. Notre mission est de donner aux pôles d'affaires décentralisés d'Axpo des capacités d'analyse en libre-service et d'IA, combinant les forces de l'ingénierie, de la gouvernance et de la propriété métier.
Ce que vous ferez
En tant qu'architecte de solutions Databricks, vous jouerez un rôle clé dans la transformation des données d'entreprise d'Axpo en concevant et en gouvernant des solutions évolutives et sécurisées sur la plateforme Databricks Lakehouse.
Vous allez :
- Concevoir des architectures Lakehouse performantes, sécurisées et rentables, conformes aux normes de gouvernance des données d'entreprise et de modélisation de domaine définies par le CDAO.
- Diriger la conception d'architectures Lakehouse performantes, sécurisées et rentables alignées sur les besoins de l'entreprise.
- Collaborer avec les parties prenantes métier, les ingénieurs et les data scientists pour concevoir des solutions de bout en bout favorisant l'innovation et la prise de décision basée sur les données.
- Guider les équipes d'ingénierie dans la mise en œuvre des meilleures pratiques techniques, en assurant l'alignement avec les modèles de données et les principes de gouvernance définis par le CDAO.
- Collaborer avec le bureau du CDAO pour mettre en œuvre les politiques Unity Catalog pour le contrôle d'accès, la traçabilité et la gestion des métadonnées.
- Soutenir l'observabilité de la plateforme, la surveillance de la qualité des données et l'excellence opérationnelle en partenariat avec les parties prenantes de la gouvernance des données.
- Évaluer les nouvelles fonctionnalités de Databricks (par exemple, Delta Sharing, améliorations de la gouvernance) et diriger leur intégration dans les capacités de la plateforme.
- Établir des processus de revue des solutions et encadrer les ingénieurs et analystes sur la pensée architecturale et les capacités Databricks.
- Soutenir les efforts de sécurité, conformité et optimisation des coûts en étroite collaboration avec les équipes plateforme et cloud.
Ce que vous apportez & qui vous êtes
Vous êtes un penseur stratégique avec une expertise technique pratique et un fort accent sur la valeur métier. Vous apportez :
- Un diplôme en informatique, ingénierie des données, systèmes d'information ou domaine connexe.
- Plus de 5 ans en ingénierie des données et plus de 3 ans en architecture, avec une expérience approfondie dans la conception de solutions sur Databricks et Apache Spark.
- Une bonne maîtrise de Delta Lake, de l'architecture Lakehouse et de la mise en œuvre des politiques Unity Catalog en coordination avec les fonctions de gouvernance des données.
- Expertise en Python, SQL et éventuellement Scala ; bonne connaissance de dbt et des pratiques ELT modernes.
- Expérience avérée d'intégration de Databricks avec les services Azure (par exemple, Data Lake, Synapse, Event Hubs).
- Connaissance pratique de CI/CD, GitOps, Terraform et des outils d'orchestration (par exemple, Dragster, Airflow).
- Bonne compréhension de l'architecture des données d'entreprise, de la gouvernance des données et des principes de sécurité (par exemple, RGPD).
- Excellentes compétences en communication et gestion des parties prenantes, capable de faire le lien entre les domaines techniques et métier.
- Maîtrise de l'anglais ; autres langues européennes un plus.
Technologies avec lesquelles vous travaillerez
- Base : Databricks, Spark, Delta Lake, Unity Catalog, dbt, SQL, Python
- Cloud : Microsoft Azure (Data Lake, Synapse, Stockage, Event Hubs)
- DevOps : Bitbucket/GitHub, Azure DevOps, Terraform
- Orchestration & Surveillance : Dragster, Airflow, Datadog, Grafana
- Visualisation : Power BI
- Autres : Confluence, Docker, Linux
Atouts
- Connaissance de Microsoft Fabric ou Snowflake
- Familiarité avec Dataiku ou plateformes analytiques low-code similaires
- Expérience avec les solutions d'entreprise de métadonnées et de traçabilité
- Expérience dans le trading d'énergie ou industries connexes