SL-DRT-20-1206
DOMAINE DE RECHERCHE
Cyber sécurité: matériel et logiciels
ABSTRAIT
L’utilisation de systèmes basés sur l’intelligence artificielle (IA) se développe rapidement et trouve des utilisations dans de nombreuses industries. Cela est particulièrement vrai pour les systèmes autonomes, où les déploiements ciblent de plus en plus des exigences importantes, voire critiques, dont les défaillances entraîneraient des conséquences indésirables ou intolérables. L’état actuel de la technique consiste à exécuter un processus de certification fastidieux pour démontrer que le système est sécurisé. Fournir un argument convaincant en matière de sécurité logicielle comme brique pour créer des cas d’assurance pour la sécurité du système est une partie fondamentale mais difficile de cette démonstration. Une partie du problème consiste à fournir des preuves pour des allégations d’arguments de bas niveau où des techniques de vérification formelles telles que la vérification des modèles peuvent être utilisées avec succès pour leur évaluation efficace. Il est également difficile de structurer l’argument de manière lisible et réutilisable.De plus, étant donné que les systèmes basés sur l’IA peuvent encore acquérir au moment de l’opération de nouvelles capacités non prises en compte lors de leur développement pour pouvoir réagir correctement aux environnements changeants incertains et inconnus, un ne peut pas construire un dossier d’assurance uniquement sur des artefacts produits au cours d’un processus de développement adéquat.Dans nos travaux précédents, nous avons étudié l’ingénierie, la validation et l’évaluation de la cybersécurité dans le contexte des infrastructures critiques, des systèmes cyberphysiques et distribués. L’objectif principal de cette thèse est de poursuivre cette tendance de travail en considérant le cas où certains composants logiciels des domaines d’application précédents utilisent l’intelligence artificielle (IA), en particulier les algorithmes et techniques d’apprentissage automatique. La thèse contribuera à ce sujet en décrivant un outil méthodologique de support pour construire et réutiliser des cas d’assurance de sécurité sous la forme de modèles réutilisables dans le contexte de l’architecture système des systèmes basés sur l’IA et de l’interaction de sécurité. Cela impliquera de développer (1) un cadre de conception pour spécifier et vérifier formellement la sécurité dans le contexte des systèmes basés sur l’IA, (2) une structure d’argumentation pour raisonner sur la sécurité de ces systèmes et (3) des approches pour générer des preuves suffisantes pour soutenir les revendications dans l’argument. Par la suite, cette thèse propose des lignes directrices pour générer des explications et des preuves à communiquer, comprendre et accepter par les autorités réglementaires, les organismes de certification et les utilisateurs éventuels des systèmes.
EMPLACEMENT
Département Ingénierie Logiciels et Systèmes (LIST)
Labo.conception des systèmes embarqués et autonomes
Saclay
CONTACT
ADEDJOUMA Morayo
CEA
DILS / LSEA
Département Ingénierie Logiciels et Systèmes (DILS) Centre d’intégration Nano-INNOVAvenue de la Vauve 91120 PALAISEAUCEA LISTE DRT / DILS / LSEA
Numéro de téléphone: +33 1 69 08 40 09
Courriel: morayo.adedjouma@cea.fr
UNIVERSITY / GRADUATE SCHOOL
Toulouse III
Mathématiques – Informatique – Télécommunications de Toulouse (MITT) – Toulouse III –
DATE DE DÉBUT
Date de début le 01-10-2020
SUPERVISEUR DE THÈSE
HAMID Brahim
CNRS
IRIT, Institut de Recherche en Informatique de Toulouse
118 Route de Narbonne, 31062 Toulouse Cedex 9, France
Tél: +33 (0) 561502386
Courriel: brahim.hamid@irit.fr