Expert Plateforme de Données Cloud - Azure/Databricks
Infos sur l'emploi
- Date de publication :20 septembre 2025
- Taux d'activité :100%
- Lieu de travail :Bern
Résumé de l'emploi
Nous recherchons un Cloud Data Platform Expert/Architect motivé. Rejoignez une équipe dynamique pour des projets variés.
Tâches
- Construire et gérer des plateformes d'analytique de données avancées.
- Interagir avec les équipes d'ingénierie pour assurer la qualité des solutions.
- Coacher les membres de l'équipe sur les technologies innovantes.
Compétences
- Diplôme universitaire avec plus de 8 ans d'expérience en solutions cloud.
- Expertise en Azure, AWS, et Databricks.
- Compétences en SQL, Spark, et Python.
Est-ce utile ?
Notre Business Line « Data, Analytics & AI » est responsable de la fourniture et de l'utilisation de plateformes technologiques qui favorisent la création de valeur pour nos clients. Les nombreux projets exclusifs varient en termes de nature, secteurs et entreprises.
Nous recherchons un(e) Expert/Architecte Plateforme de Données Cloud motivé(e), avec une expérience dans la mise en œuvre de plateformes de données distribuées complexes et d'applications pour traiter des volumes de données hétérogènes et importants. Idéalement une personne ayant de l'expérience avec des technologies analytiques telles que Spark, des bases de données MPP et NoSQL, et également familière avec l'infrastructure cloud (Azure, Fabric et/ou Databricks).
Vos tâches
En tant qu'Expert/Architecte Plateforme de Données Cloud, vous travaillez dans plusieurs équipes avec notamment des Data Engineers, Business Analysts et Data Scientists pour construire et exploiter des plateformes d'analyse de données de pointe. Le rôle requiert des compétences techniques dans les écosystèmes analytiques avec un focus sur l'infrastructure cloud et les logiciels open-source.
- Vous participez à plusieurs projets de plateforme de données cloud ainsi qu'en tant que point de contact central pour nos clients
- Vous soutenez l'acquisition de nouveaux projets clients en préparant des offres et en les discutant avec le client
- Vous êtes co-responsable de la conception, du code et de la configuration des composants qui gèrent l'ingestion de données, le streaming en temps réel, le traitement par lots, l'extraction et la transformation des données à travers plusieurs sources de données et applications
- Vous interagissez avec les équipes d'ingénierie à travers les projets et vous assurez que vos solutions répondent aux exigences des clients en termes de fonctionnalité, performance, disponibilité, évolutivité, sécurité et fiabilité
- Vous évaluez les architectures et environnements analytiques et proposez des améliorations
- Vous formez aux technologies innovantes et agissez en tant que mentor pour les membres de notre équipe
Notre offre
- Opportunité d'élargir votre expertise grâce à des projets variés et des produits uniques, les technologies les plus récentes et des clients issus de secteurs très divers
- Perspectives attractives grâce à une formation continue, du coaching et un parcours de carrière interne
- Notre culture fait la différence ! Nous pratiquons activement des hiérarchies plates et une collaboration ouverte et solidaire entre toutes les disciplines et départements
- Nous organisons régulièrement des événements tels que des Brown Bag Lunches et des Coding Events ainsi que des rencontres conviviales et sportives hors entreprise
- Bonne conciliation vie professionnelle/vie privée (horaires flexibles, télétravail), un lieu de travail moderne et flexible dans un environnement multiculturel
- Avantages de premier ordre tels que : achat de congés jusqu'à 13 jours, contribution au téléphone mobile privé ou professionnel, demi-tarif, déplacements professionnels en 1ère classe, modèles flexibles de caisses de pension, prise en charge de l'assurance indemnités journalières et accidents non professionnels (privé, mondial), et bien plus encore
Votre profil
- Diplôme universitaire ETH/UNI/FH
- Plus de 8 ans d'expérience dans la fourniture et l'automatisation de solutions cloud à l'aide d'une ou plusieurs technologies telles que : Azure, AWS, Databricks, Kubernetes ou Terraform
- Plus de 5 ans de compétences en implémentation avec des technologies analytiques telles que SQL, Spark, Kafka, Hadoop ou Delta Lake, et expérience en programmation Python ou Java/Scala
- Expérience avec divers outils ETL comme Talend ou SSIS, en modélisation de données et gouvernance des données ainsi que des connaissances en Data Warehouse & Data Mesh complètent le profil
- Certifications de qualité avec Databricks et/ou Azure Analytics
- Connaissances des meilleures pratiques en ingénierie logicielle tout au long du cycle de développement, y compris les normes de codage, revues de code, gestion du code source, processus de build, tests et exploitation
- Expérience de conseil de plusieurs années est un avantage
- Maîtrise courante de l'allemand et de l'anglais