Expert Plateforme de Données Cloud - Azure/Databricks
Infos sur l'emploi
- Date de publication :20 septembre 2025
- Taux d'activité :100%
- Lieu de travail :Bern
Résumé de l'emploi
Rejoignez notre équipe en tant qu'Expert/Architecte Cloud Data. Vous aurez l'opportunité de travailler sur des projets innovants et variés.
Tâches
- Collaborer avec des équipes pour développer des plateformes d'analyse de données.
- Participer à des projets Cloud Data et interagir avec les clients.
- Évaluer les architectures et proposer des améliorations pour optimiser les performances.
Compétences
- Diplôme universitaire et plus de 8 ans d'expérience en solutions Cloud.
- Expertise en technologies Analytics comme SQL et Spark.
- Compétences en programmation avec Python, Java ou Scala.
Est-ce utile ?
Notre Business Line « Data, Analytics & AI » est responsable de la fourniture et de l’utilisation de plateformes technologiques qui favorisent la création de valeur pour nos clients. Les nombreux projets exclusifs diffèrent par leur nature, secteurs et entreprises.
Nous recherchons un(e) Expert/Architecte Plateforme de Données Cloud motivé(e), avec une expérience dans la mise en œuvre de plateformes de données distribuées complexes et d’applications pour traiter des volumes de données hétérogènes et importants. Idéalement une personne ayant de l’expérience avec des technologies analytiques telles que Spark, des bases de données MPP et NoSQL, et également familière avec l’infrastructure cloud (Azure, Fabric et/ou Databricks).
Vos tâches
En tant qu’Expert/Architecte Plateforme de Données Cloud, vous travaillez dans plusieurs équipes avec notamment des Data Engineers, Business Analysts et Data Scientists pour construire et exploiter des plateformes d’analyse de données de pointe. Le rôle requiert des compétences techniques dans les écosystèmes analytiques avec un focus sur l’infrastructure cloud et les logiciels open-source.
- Vous participez à plusieurs projets de plateforme de données cloud ainsi qu’en tant que point de contact central pour nos clients
- Vous soutenez l’acquisition de nouveaux projets clients en préparant des offres et en les discutant avec le client
- Vous êtes co-responsable de la conception, du code et de la configuration des composants qui gèrent l’ingestion de données, le streaming en temps réel, le traitement par lots, l’extraction et la transformation des données à travers plusieurs sources de données et applications
- Vous interagissez avec les équipes d’ingénierie à travers les projets et vous assurez que vos solutions répondent aux exigences clients en termes de fonctionnalité, performance, disponibilité, scalabilité, sécurité et fiabilité
- Vous évaluez les architectures et environnements analytiques et proposez des améliorations
- Vous formez aux technologies innovantes et agissez en tant que mentor pour les membres de notre équipe
Notre offre
- Opportunité d’élargir votre expertise grâce à des projets variés et des produits uniques, les technologies les plus récentes et des clients issus de secteurs très divers
- Perspectives attractives grâce à une formation continue, du coaching et un parcours de carrière interne
- Notre culture fait la différence ! Nous vivons activement des hiérarchies plates et une collaboration ouverte et solidaire entre toutes les disciplines et départements
- Nous organisons régulièrement des événements tels que Brown Bag Lunches et Coding Events ainsi que des rencontres conviviales et sportives hors entreprise
- Bonne conciliation vie professionnelle/vie privée (horaires flexibles, télétravail), un lieu de travail moderne et flexible dans un environnement multiculturel
- Avantages attractifs tels que : achat de congés jusqu’à 13 jours, contribution au téléphone mobile privé ou professionnel, demi-tarif, déplacements professionnels en 1ère classe, modèles flexibles de caisses de pension, prise en charge de l’assurance indemnités journalières et accidents non professionnels (privé, mondial), et bien plus encore
Votre profil
- Diplôme universitaire ETH/UNI/FH
- Plus de 8 ans d’expérience dans la fourniture et l’automatisation de solutions cloud avec une ou plusieurs technologies telles que : Azure, AWS, Databricks, Kubernetes ou Terraform
- Plus de 5 ans de compétences en implémentation avec des technologies analytiques telles que SQL, Spark, Kafka, Hadoop ou Delta Lake, et expérience en programmation Python ou Java/Scala
- Expérience avec divers outils ETL comme Talend ou SSIS, en modélisation de données et gouvernance des données ainsi que des connaissances en Data Warehouse & Data Mesh complètent le profil
- Certifications de qualité avec Databricks et/ou Azure Analytics
- Connaissances des meilleures pratiques en ingénierie logicielle pour l’ensemble du cycle de développement, y compris les standards de codage, revues de code, gestion du code source, processus de build, tests et exploitation
- Expérience de conseil de plusieurs années est un avantage
- Maîtrise courante de l’allemand et de l’anglais