Data Engineer (AWS/Databricks/Pyspark)
Meyrin
Auf einen Blick
- Veröffentlicht:26 Juli 2025
- Pensum:100%
- Vertragsart:Festanstellung
- Arbeitsort:Meyrin
Job-Zusammenfassung
Talan ist ein internationaler Beratungskonzern, der Innovation fördert. Wir bieten eine dynamische Arbeitsumgebung und attraktive Vorteile.
Aufgaben
- Entwicklung von Datenpipelines mit Python/PySpark auf AWS.
- Implementierung robuster Pipelines auf Databricks für Datenanalyse.
- Optimierung der Leistungsfähigkeit und Skalierbarkeit von Datenflüssen.
Fähigkeiten
- Mindestens 5 Jahre Erfahrung als Data Engineer erforderlich.
- Exzellente Kenntnisse in Python und PySpark sind notwendig.
- Gute Kenntnisse in AWS-Umgebungen (Glue, S3, IAM).
Ist das hilfreich?
Unternehmensbeschreibung
Talan ist eine internationale Beratungs- und Technologiefirmengruppe, die die Transformation ihrer Kunden durch Innovation, Technologie und Daten vorantreibt. Seit über 20 Jahren berät und unterstützt Talan Unternehmen und öffentliche Institutionen bei der Umsetzung ihrer Transformations- und Innovationsprojekte in Frankreich und international.
Mit Präsenz auf fünf Kontinenten in 18 Ländern ist die Gruppe, zertifiziert als Great Place To Work, die Ende 2024 mehr als 7200 Mitarbeiter zählen wird, bestrebt, im selben Jahr einen Umsatz von 850 Millionen Euro zu erzielen und bis 2025 die Milliardengrenze zu überschreiten.
Mit einem Forschungs- und Innovationszentrum ausgestattet, stellt Talan Innovation in den Mittelpunkt seiner Entwicklung und ist in Bereichen technologischer Veränderungen wie Künstliche Intelligenz, Datenintelligenz und Blockchain tätig, um das Wachstum großer Unternehmen und mittelständischer Unternehmen in einem engagierten und verantwortungsvollen Ansatz zu fördern. www.talan.com
Indem die Gruppe Talan "Positive Innovation" in den Mittelpunkt ihrer Strategie stellt, ist sie überzeugt, dass Technologie ihr Potenzial für die Gesellschaft vervielfacht, wenn sie dem Menschen dient.
Stellenbeschreibung
Wir suchen einen erfahrenen Data Engineer, der einem internationalen Unternehmen mit Sitz in Genf im Rahmen eines strategischen Projekts zur Modernisierung der Datenplattform beitritt.
Diese Rolle ist in einer fortgeschrittenen Cloud-Umgebung angesiedelt, mit einer starken Kultur der Leistung, Echtzeitdaten und Automatisierung.
🔍 Ihre Aufgaben
Sie werden Teil eines multidisziplinären Datenteams sein und zur Konzeption, Industrialisierung und Optimierung komplexer Datenpipelines auf AWS und Databricks beitragen.
In diesem Zusammenhang werden Sie tätig sein bei:
- Der Entwicklung von Python / PySpark-Verarbeitungen für die Datenaufnahme, -transformation und -bereitstellung
- Dem Aufbau robuster Pipelines auf Databricks (Delta Lake, Notebooks, Orchestrierungen)
- Der Optimierung der Leistung und Skalierbarkeit von Datenströmen
- Der Zusammenarbeit mit technischen und fachlichen Teams in einer internationalen, anspruchsvollen und datenorientierten Umgebung
Qualifikationen
- Mindestens 5 Jahre Erfahrung als Data Engineer
- Ausgezeichnete Kenntnisse in Python und PySpark
- Erhebliche Erfahrung mit Databricks
- Gute Kenntnisse der AWS-Umgebung (Glue, S3, IAM, etc.)
- Analytisches Denken, Genauigkeit, Selbstständigkeit
- Sprachen: fließend Französisch und professionelles Englisch