Basel
Vor 3 Wochen
KI-Dateningenieur
- Veröffentlicht:10 Oktober 2025
- Pensum:100%
- Vertragsart:Festanstellung
- Arbeitsort:Basel
Job-Zusammenfassung
Schließe dich dem Corporate Data & Analytics Team an, das mit Finance, HR, und mehr zusammenarbeitet, um datengestützte Lösungen zu liefern. Hier hast du die Chance, in einem globalen Team zu arbeiten, das innovative Einblicke aus Daten gewinnt.
Aufgaben
- Entwickle und pflege Datenpipelines mit Databricks.
- Implementiere ETL/ELT-Prozesse nach Best Practices.
- Kollaboriere mit Stakeholdern, um Datenlösungen zu liefern.
Fähigkeiten
- 4+ Jahre Erfahrung in der Datenengineering.
- Starke Kenntnisse in SQL und Python (inkl. PySpark).
- Erfahrung mit Databricks und Cloud-Plattformen (AWS bevorzugt).
Ist das hilfreich?
Über den Job
Sie werden dem Corporate Data & Analytics Team beitreten, das mit den Bereichen Finanzen, Personal, Indirekter Einkauf und Recht zusammenarbeitet, um Daten- und Analyse-Lösungen zu liefern, die eng an den Geschäftsergebnissen ausgerichtet sind. Wir sind bestrebt, mit unseren Partnerfunktionen zusammenzuarbeiten, um wertvolle Erkenntnisse aus unseren Daten zu gewinnen und diese Erkenntnisse zu nutzen, um fundierte Entscheidungen zu ermöglichen, die die Geschäftsergebnisse vorantreiben, die wir als Organisation anstreben. Unser Team ist global verteilt, mit Mitgliedern in Pune (IN), Manchester (UK) und Basel (CH).
Der Zweck dieser Rolle ist es, produktionsreife Datenprodukte und Pipelines auf Databricks (Spark/Delta Lake/Unity Catalog) zu entwerfen, zu bauen und zu betreiben, die ein domänenorientiertes Data Mesh ermöglichen und gleichzeitig eine robuste Datenqualität, Governance, Zuverlässigkeit und Kosteneffizienz sicherstellen.
Hauptverantwortlichkeiten
- Entwurf, Entwicklung und Wartung von Datenpipelines mit Databricks
- Implementierung von ETL/ELT-Prozessen nach Best Practices
- Erstellung und Optimierung von Datenprodukten und Datenmodellen für analytische und operative Anwendungsfälle
- Zusammenarbeit mit Geschäftsinteressenten zur Anforderungsanalyse und Bereitstellung von Datenlösungen
- Aufrechterhaltung der Datenqualität und Sicherstellung der Einhaltung von Daten-Governance-Standards
- Teilnahme an Code-Reviews und technischer Dokumentation
- Unterstützung bei der Implementierung der Data Mesh-Architektur und von Datenprodukten
Erforderliche technische Fähigkeiten
- Starke Kenntnisse in SQL und Python (inkl. PySpark); solide Software-Engineering-Praktiken (modularer Code, Tests, Code-Reviews).
- Praktische Erfahrung mit Databricks in der Cloud (vorzugsweise AWS): Spark, Delta Lake, Unity Catalog, Delta Live Tables, Workflows, Repos/CLI; Vertrautheit mit MLflow für grundlegenden Modell-Lifecycle ist von Vorteil.
- Datenlager- und Lakehouse-Patterns; dimensionale und domänenorientierte Datenmodellierung; ETL/ELT-Design und Orchestrierung.
- Vertrautheit mit der Extraktion und Transformation von Daten aus SAP S/4HANA, SAP BW/4HANA, ECC und verwandten Systemen, einschließlich Verständnis von IDocs, BAPIs und OData-Services.
- Erfahrung mit Datenstrukturen und Berichtsanforderungen für Finanzen, Personal, Indirekter Einkauf, Recht und Facility Management, unter Einhaltung von Compliance und Ausrichtung an Geschäftsprozessen.
- Versionskontrolle mit Git, vorzugsweise mit GitLab-Erfahrung
- Erfahrung mit CI/CD-Pipelines und Deployment-Automatisierung
- Kenntnisse in Unit-Testing und Testautomatisierung
- Verständnis von Datenqualitätsprinzipien und Daten-Governance
Bevorzugte Qualifikationen
- Erfahrung mit Data Mesh-Architektur
- Kenntnisse in der Entwicklung von Datenprodukten
- Erfahrung mit Branching-Strategien und Merge-Request-Workflows
- Hintergrund in agilen Entwicklungsmethoden
- Erfahrung mit Cloud-Plattformen (vorzugsweise AWS)
Soft Skills
- Ausgezeichnete Kommunikationsfähigkeiten mit der Fähigkeit, technische Konzepte für Geschäftsinteressenten verständlich zu machen
- Starke Problemlösungs- und analytische Denkweise
- Teamplayer mit kollaborativer Einstellung
- Selbstmotiviert mit der Fähigkeit, eigenständig zu arbeiten
Erfahrung (empfohlen)
4+ Jahre Erfahrung im Datenengineering
Werden Sie Teil der Syngenta Group, einem führenden Unternehmen für landwirtschaftliche Innovation, wo Technologie auf Zweck trifft. Als digitale Pioniere im AgTech integrieren wir KI entlang unserer Wertschöpfungskette von smartem Zuchtverfahren bis zur Präzisionslandwirtschaft. Unser globales Team von 56.000 Fachkräften transformiert nachhaltige Landwirtschaft weltweit. Bei Syngenta IT & Digital wird Ihre Expertise direkt die Ernährungssicherheit beeinflussen und die Zukunft der Landwirtschaft durch modernste Technologie gestalten.
Webseite - https://www.syngentagroup.com/
Bachelor-Abschluss in Informatik, Informationssystemen oder einem verwandten Bereich
Hinweis: Syngenta ist ein Arbeitgeber, der Chancengleichheit bietet, und diskriminiert nicht bei der Rekrutierung, Einstellung, Ausbildung, Beförderung oder anderen Beschäftigungspraktiken aufgrund von Rasse, Hautfarbe, Religion, Geschlecht, nationaler Herkunft, Alter, sexueller Orientierung, Geschlechtsidentität, Familien- oder Veteranenstatus, Behinderung oder einem anderen gesetzlich geschützten Status.
Folgen Sie uns auf: LinkedIn
LI-Seite - https://www.linkedin.com/company/syngentagroup/posts/?feedView=all
Über das Unternehmen
Basel
Bewertungen
- Führungsstil3.0
- Gehalt und Benefits5.0
- Karrieremöglichkeiten5.0
- Arbeitsklima4.0