Zurich
Vor 2 Wochen
Praktikum/ Masterarbeit Bewertung einer On-Premise Code-Intelligence-Plattform
- Veröffentlicht:20 September 2025
- Pensum:100%
- Arbeitsort:Zurich
Über den Job
Die heutigen fortschrittlichen LLM-Modelle zeichnen sich darin aus, beliebte Open-Source-Bibliotheken zu nutzen, um einfache Apps von Grund auf neu zu erstellen. Allerdings stößt die Codegenerierung für private Codebasen auf Herausforderungen wie halluzinierte APIs, subtil fehlerhaften Code und falsche oder irreführende Antworten auf technische Fragen. Eine neue Generation von On-Premise Code-Intelligence-Plattformen entsteht, um Unternehmensentwickler bei der Pflege großer privater, On-Premise-Codebasen zu unterstützen. Die Hauptaufgabe für die Entwickler besteht darin, das System über einen langen Zeitraum zu warten und zu erweitern, oft mit dem Quellcode als einziger verlässlicher Quelle. Der Fokus einer Code-Intelligence-Plattform liegt darauf, Code-Suche, Analyse und das Verständnis großer Codebasen durch Modellierung des Quellcodes als abstrakten Syntaxbaum (AST) bereitzustellen. Darüber hinaus hängen Anfragen an eine Code-Intelligence-Plattform immer von einem spezifischen Kontext ab, z. B. den geöffneten Quellcode-Tabs in der integrierten Entwicklungsumgebung (IDE).
Sourcegraph/Cody ist eine vielversprechende aufstrebende Code-Intelligence-Plattform. Sourcegraph ermöglicht die Codesuche und liefert Einblicke über Repositories hinweg. Cody ist ein Coding-Assistent basierend auf einer Retrieval Augmented Generation (RAG)-Architektur. Er läuft als IDE-Plugin und verbindet sich mit populären LLMs.
Deine Aufgaben
- Mache dich mit den Funktionen von Sourcegraph/Cody und RAG-Architekturen vertraut
- Richte eine On-Premise GPU-basierte Infrastruktur mit einem Model-Serving-Framework ein, um LLMs für die Verbindung mit Cody zu betreiben
- Konzentriere dich darauf, optimalen Kontext bereitzustellen, indem du zusätzliche Quellen nutzt, z. B.
- Git-Historie und Commit-Informationen
- Inhalte in verknüpften Issues auf JIRA, YouTrack
- Aktuelle Spezifikationen im Dateisystem und auf Confluence
- Finde Wege, bestehende LLMs an projektspezifische Bedürfnisse anzupassen
- Nutze die Möglichkeiten des aufkommenden MCP ( Model Context Protocol )
- Richte Model Context Protocol Servers ein und verbinde Cody über OpenCtx
- Versuche, zukünftige Trends wie lange Kontextfenster vorherzusehen
- Präsentiere die Ergebnisse in einer ELCA Brownbag-Session
Unser Angebot
- Ein dynamisches Arbeits- und kollaboratives Umfeld mit einem hochmotivierten multikulturellen und internationalen Standortteam
- Die Chance, das Leben der Menschen durch innovative Lösungen zu verbessern
- Verschiedene interne Coding-Events (Hackathon, Brownbags), siehe unseren technischen Blog
- Monatliche After-Works, organisiert nach Standorten
- Gute Work-Life-Balance (2 Tage pro Woche Homeoffice)
Dein Profil
- Gutes Verständnis von ML und LLMs
- Grundkenntnisse in TypeScript, Java, Python
- Interesse am Vergleich und der Anwendung verschiedener Entwicklungsansätze
- Interesse an Anwendungsarchitektur
- Fließend in Deutsch und Englisch, Französisch ist von Vorteil
- Bachelor-Abschluss