Pully
Il y a 7 heures
Stage : Sécurité dans le développement logiciel piloté par l'IA
- 02 avril 2026
- 100%
- Pully
À propos de cette offre
Description
Alors que l'industrie évolue vers des pratiques de développement d'IA plus sophistiquées pour accélérer le cycle de vie du développement logiciel, un nouvel ensemble de défis de sécurité se dessine. Lorsque des agents spécialisés gèrent de manière autonome les décisions de conception, d'architecture et de mise en œuvre, ils peuvent introduire des vulnérabilités, telles que des défauts subtils dans la logique, des surfaces de menace négligées ou des anti-modèles de sécurité propagés à grande échelle dans la base de code. En même temps, la question de savoir comment intégrer efficacement les pratiques de sécurité dans un cycle de vie piloté par des agents reste ouverte.
Objectifs
Ce stage explore ces deux dimensions : cartographier les menaces qui émergent lorsque les agents contribuent à la construction de logiciels et identifier comment la sécurité peut être abordée de manière significative dans ce nouveau paradigme. Il sera appliqué à la méthode ELCAi, une approche ELCA du développement logiciel agentique.
Les activités suivantes sont prévues :
• Revue de littérature & analyse du contexte : Étudier les recherches existantes sur les cycles de vie de développement logiciel sécurisé et le développement assisté par IA pour établir ce qui est connu et où se situent les lacunes.
• Modélisation des menaces : Identifier et classer les menaces spécifiques au développement piloté par des agents : génération de code vulnérable, décisions architecturales erronées, manipulation des prompts, et défauts en cascade lors des transferts entre agents.
• Cartographie de l'intégration de la sécurité : Analyser comment les pratiques de sécurité traditionnelles peuvent être adaptées pour rester efficaces lorsque des agents sont impliqués, et identifier où la supervision humaine reste critique.
• Expérimentation & validation : Tester les menaces identifiées et valider les atténuations proposées à travers des scénarios concrets, produisant des implémentations de preuve de concept dans un environnement contrôlé.
• Présentation finale & transfert de connaissances : Livrer un rapport et une présentation interne consolidant les résultats, la taxonomie des menaces et les recommandations exploitables.
Notre offre
• Un environnement de travail dynamique et collaboratif avec une équipe multiculturelle et internationale très motivée
• La chance de travailler sur l’un des sujets les plus stratégiques et en évolution rapide de l’industrie aujourd’hui.
• Des After-Works mensuels organisés par site
• Un bon équilibre vie professionnelle/vie privée (2 jours par semaine en télétravail)
Compétences requises
• Solides connaissances en cybersécurité (authentification, contrôle d’accès et autorisation, modélisation des menaces, sécurité dès la conception, etc.)
• Compréhension générale du fonctionnement des systèmes d’IA, idéalement avec une certaine exposition aux grands modèles de langage et aux architectures basées sur des agents
• Une certaine maîtrise de la lecture et de l’écriture de code, notamment en ce qui concerne les pratiques de sécurité
À propos de l'entreprise
Pully