DataOps Ingenieur
Geneva
Auf einen Blick
- Veröffentlicht:18 Oktober 2025
- Pensum:100%
- Vertragsart:Festanstellung
- Arbeitsort:Geneva
Job-Zusammenfassung
Werde DataOps Engineer bei EFG International in Genf! Eine dynamische Arbeitsumgebung erwartet dich.
Aufgaben
- Entwickle, betreibe und optimiere Datenpipelines in unserem Lakehouse.
- Sichere Zuverlässigkeit und Skalierbarkeit der Datenoperationen.
- Kollaboriere mit Teams für datenbasierte Einblicke und Analysen.
Fähigkeiten
- Erfahrung in SQL, Python und Containerisierung erforderlich.
- Proaktive Problemlösung und Innovationsgeist.
- Teamarbeit und Zusammenarbeit im Fokus.
Ist das hilfreich?
DataOps Ingenieur
Stellenbeschreibung
- Abteilung: Data Ops
- Arbeitszeitanteil: 100%
- Standort: Genf
EFG International ist eine globale Privatbankengruppe, die Privatbank- und Vermögensverwaltungsdienstleistungen anbietet. Wir betreuen Kunden an über 40 Standorten weltweit. EFG International bietet ein anregendes und dynamisches Arbeitsumfeld und strebt danach, ein bevorzugter Arbeitgeber zu sein.
EFG verpflichtet sich, ein gerechtes und inklusives Arbeitsumfeld zu schaffen, das auf dem Prinzip des gegenseitigen Respekts basiert. Der Beitritt zu unserem Team bedeutet, ein unterstützendes Umfeld zu erleben, in dem Ihre Beiträge geschätzt und anerkannt werden. Wir sind fest davon überzeugt, dass die Vielfalt unserer Teams uns einen Wettbewerbsvorteil verschafft, indem sie bessere Entscheidungen und größere Innovationen fördert.
Unser Zweck und unsere Mission
Unternehmerische Köpfe befähigen, Wert zu schaffen – heute und für die Zukunft.
Wir sind eine Privatbank, die personalisierte Lösungen auf globaler Ebene für private und institutionelle Kunden anbietet. Unser nachhaltiger Erfolg basiert auf unseren Talenten und darauf, wie wir mit unseren Kunden und Gemeinschaften zusammenarbeiten, um dauerhaften Wert zu schaffen.Stellenbeschreibung
Wir suchen einen motivierten und proaktiven DataOps Ingenieur zur Verstärkung unseres Teams. In dieser Rolle tragen Sie zur Entwicklung und zum Betrieb unserer zwei wichtigsten Datenplattformen bei und stellen zuverlässige, skalierbare und effiziente Datenpipeline-Operationen sowie Produktlieferungen sicher. Sie arbeiten eng mit Dateningenieuren, Analysten und Geschäftsinteressenten zusammen, um unsere Datenintegrations- und Data Lakehouse-Plattformen zu betreiben und zu unterstützen, indem Sie vertrauenswürdige Datenprodukte zeitgerecht an die Organisation liefern.
Hauptaufgaben:
- Aufbau, Betrieb und Optimierung von Datenpipelines und Workflows in unserem Lakehouse-Ökosystem.
- Sicherstellung der Zuverlässigkeit, Skalierbarkeit und Leistung der Datenoperationen in Produktionsumgebungen.
- Zusammenarbeit mit funktionsübergreifenden Teams zur Bereitstellung von Datenprodukten, die Geschäftseinblicke und erweiterte Analysen ermöglichen.
- Implementierung und Wartung von CI/CD-Pipelines für Datensysteme und Workflows.
- Proaktives Problemlösen und Vorschlagen neuer Ideen zur Verbesserung der Datenarchitektur und -operationen.
- Beitrag zur Automatisierung, Dokumentation und Umsetzung bewährter Praktiken in DataOps (DevOps).
- Überwachung, Fehlerbehebung und kontinuierliche Verbesserung von Datensystemen und -prozessen.
- Teilnahme an Bereitschaftsdiensten
- Mindset & Soft Skills:
- Starke Motivation, Neugier und Lernbereitschaft.
- Proaktiv, eigenständig und lösungsorientiert.
- Fähigkeit, Initiative zu ergreifen und neue Ideen einzubringen.
- Technische Fähigkeiten:
- Fundierte Kenntnisse in SQL (idealerweise Microsoft SQL Server).
- Gute Erfahrung mit Daten-Streaming-Patterns
- Gute Erfahrung mit Python und Skriptsprachen; PySpark ist ein großer Vorteil.
- Gute Erfahrung mit Containerisierung (Docker, Kubernetes) und Cloud-Plattformen.
- Nachgewiesene Erfahrung mit CI/CD-Pipelines.
- Vertrautheit mit Lakehouse-Architekturen (Delta Lake, Iceberg, …).
- Verständnis von Data Product-Konzepten und modernen Datenmanagementpraktiken.
- Fähigkeit, Java, Camel, Talend ESB, Powershell zu lesen und zu verstehen
- Wünschenswert
- Erfahrung mit MS Fabric oder Databricks
- Erfahrung mit Observability
- Kenntnisse in Data Governance und Sicherheitsbest Practices.
- Vertrautheit mit BI- oder Analysetools.
- Eine Gelegenheit, mit modernen Datentechnologien in einem kollaborativen und zukunftsorientierten Umfeld zu arbeiten.
- Die Möglichkeit, unsere DataOps-Praktiken und Architektur mitzugestalten und zu beeinflussen.
- Verantwortung: Übernahme von Aufgaben und Herausforderungen sowie Streben nach kontinuierlicher Verbesserung
- Hands-on: Proaktives Handeln zur schnellen Lieferung hochwertiger Ergebnisse
- Leidenschaftlich: Engagement und Streben nach Exzellenz
- Lösungsorientiert: Fokus auf Kundenergebnisse und faire Behandlung der Kunden mit risikobewusstem Denken
- Partnerschaftlich: Förderung von Zusammenarbeit und Teamarbeit. Gemeinsames Arbeiten mit unternehmerischem Geist.
- Bitte fügen Sie Ihrem Lebenslauf bei der Bewerbung ein Anschreiben bei.
- Wenn Sie sich für diese Position bewerben möchten, verwenden Sie diesen Link zur Bewerbung.