CDD 1 an
Démarrage à compter du 01/03/2026
Catégorie : A Corps : Ingénieur d'études
Emploi ouvert aux agents contractuels uniquement
Rémunération selon grille de la Fonction Publique
Mission
L’Université de Strasbourg lance son plan «Intelligence Artificielle ». Dans ce cadre, elle s’appuie sur des infrastructures souveraines déployées au Datacenter de l’Université. Au sein du Pôle Plateformes Cloud et Intégration, vous participerez à la conception, à l’évolution et à l’exploitation des plateformes permettant aux équipes de développement, de recherche et d’administration de déployer leurs services d’intelligence artificielle de manière performante, fiable et sécurisée.
Vous contribuerez à l’exploitation et à l’industrialisation des plateformes d’orchestration de conteneurs (Kubernetes/OpenShift), d’automatisation, de CI/CD, d’observabilité et de sécurité. Vous participerez à la conception d’infrastructures robustes, modernes et automatisées pour répondre aux besoins de l’Université et des projets nationaux.
Vous serez également amené à travailler sur l’intégration, la mise en production et l’exploitation de projets liés à l’intelligence artificielle. Cela inclut l’intégration de frameworks, opérateurs et stacks permettant l’exécution efficace de modèles IA (par exemple : serveurs de modèles LLM, API gateway IA, outils d’orchestration GPU), en garantissant la scalabilité, la sécurité et la performance de ces environnements.
Dans un environnement exigeant et en constante évolution, vous devrez faire preuve d’autonomie, de curiosité technologique et d’esprit d’équipe pour contribuer activement aux évolutions des plateformes.
Activités
Plateformes d’orchestration, d’automatisation et de CI/CD
- Concevoir, déployer et maintenir les plateformes Kubernetes/OpenShift et leurs composants associés.
- Mettre en œuvre des solutions d’automatisation pour le provisioning, les déploiements, la configuration et la supervision.
- Garantir la haute disponibilité, la résilience et la scalabilité des services fournis.
- Optimiser les performances et assurer la fiabilité des plateformes.
Observabilité, sécurité et exploitation
- Intégrer et maintenir les outils de supervision, métrologie, journalisation et observabilité.
- Mettre en place des politiques de sécurité robustes (IAM, secrets management, isolation réseau, conformité).
- Assurer un support technique aux équipes utilisant les plateformes et piloter la résolution des incidents.
Intégration de solutions d’intelligence artificielle
- Intégrer des environnements permettant l’exécution et l’exposition de modèles IA au sein de Kubernetes/OpenShift.
- Déployer et maintenir des opérateurs ou stacks IA permettant le serving de modèles, le routage d’API ou la gestion de workloads GPU (exemples : serveurs de modèles LLM, orchestrateurs d’API IA, interfaces d’administration IA).
- Participer à la conception d’architectures performantes : gestion GPU, autoscaling, optimisation mémoire, monitoring spécifique IA.
- Accompagner les équipes internes dans l’adoption de solutions IA en fournissant de la documentation, du support et des environnements reproductibles.
Documentation et veille
- Référencer et documenter les architectures, les outils et les processus.
- Assurer une veille sur les technologies cloud-native, DevOps, sécurité et intelligence artificielle, et proposer des améliorations pertinentes.
Compétences
a) Savoir sur l’environnement professionnel :
- Sécurité des systèmes d’information et de communication
- Méthodologie de projet et bonnes pratiques DevOps
- Méthodes, outils, normes et démarche qualité
b) Savoir-faire opérationnel :
Savoir-faire minimal :
- Excellente maîtrise de Linux
- Expérience en conteneurisation (Docker/Podman)
- Compétences en scripting (Shell, Python)
Savoir-faire souhaitable :
- Plateforme IaaS (OpenStack, VMware)
- Orchestrateur de conteneurs (Kubernetes, OpenShift)
- Intégration continue : Gitlab-CI
- Déploiement continue : ArgoCD
- Observabilité (Prometheus, Grafana, Elastic)
- Supervision : Centreon
- Aautomatisation : Ansible, Terraform
- Sécurité : IAM (LDAP, OIDC), gestion des secrets (Vault)
- Déploiement et exploitation de workloads liés à l’intelligence artificielle dans des environnements Kubernetes (opérateurs IA, serving LLM, routage API, orchestration GPU).
c) Savoir-faire comportemental :
- Force de proposition, créativité, curiosité technologique
- Sens de l'organisation, rigueur et méthode
- Capacité d’adaptation et de communication
- Esprit d’équipe, autonomie, pédagogie.
Contraintes particulières
Possibilité d’horaires décalés adaptés aux nécessités de service
Candidater
Pour postuler, veuillez adresser votre CV et LM au plus tard le 09/02/2026 à l'adresse suivante : dnum-candidatures-infra@unistra.fr
Contacts pour renseignements sur le poste :
- Guillaume Oberlé, responsable du pôle Plateformes Cloud et Intégration,
goberle@unistra.fr, 03.68.85.63.91 - Pascal Gris, responsable du département Infrastructures,
gris@unistra.fr, 03.68.85.03.19