PhD position – Dossier d’assurance de la sécurité pour les systèmes basés sur l’intelligence artificielle

DESCRIPTION DE L’EMPLOI

SL-DRT-20-1206

DOMAINE DE RECHERCHE

Cyber ​​sécurité: matériel et logiciels

ABSTRAIT

L’utilisation de systèmes basés sur l’intelligence artificielle (IA) se développe rapidement et trouve des utilisations dans de nombreuses industries. Cela est particulièrement vrai pour les systèmes autonomes, où les déploiements ciblent de plus en plus des exigences importantes, voire critiques, dont les défaillances entraîneraient des conséquences indésirables ou intolérables. L’état actuel de la technique consiste à exécuter un processus de certification fastidieux pour démontrer que le système est sécurisé. Fournir un argument convaincant en matière de sécurité logicielle comme brique pour créer des cas d’assurance pour la sécurité du système est une partie fondamentale mais difficile de cette démonstration. Une partie du problème consiste à fournir des preuves pour des allégations d’arguments de bas niveau où des techniques de vérification formelles telles que la vérification des modèles peuvent être utilisées avec succès pour leur évaluation efficace. Il est également difficile de structurer l’argument de manière lisible et réutilisable.De plus, étant donné que les systèmes basés sur l’IA peuvent encore acquérir au moment de l’opération de nouvelles capacités non prises en compte lors de leur développement pour pouvoir réagir correctement aux environnements changeants incertains et inconnus, un ne peut pas construire un dossier d’assurance uniquement sur des artefacts produits au cours d’un processus de développement adéquat.Dans nos travaux précédents, nous avons étudié l’ingénierie, la validation et l’évaluation de la cybersécurité dans le contexte des infrastructures critiques, des systèmes cyberphysiques et distribués. L’objectif principal de cette thèse est de poursuivre cette tendance de travail en considérant le cas où certains composants logiciels des domaines d’application précédents utilisent l’intelligence artificielle (IA), en particulier les algorithmes et techniques d’apprentissage automatique. La thèse contribuera à ce sujet en décrivant un outil méthodologique de support pour construire et réutiliser des cas d’assurance de sécurité sous la forme de modèles réutilisables dans le contexte de l’architecture système des systèmes basés sur l’IA et de l’interaction de sécurité. Cela impliquera de développer (1) un cadre de conception pour spécifier et vérifier formellement la sécurité dans le contexte des systèmes basés sur l’IA, (2) une structure d’argumentation pour raisonner sur la sécurité de ces systèmes et (3) des approches pour générer des preuves suffisantes pour soutenir les revendications dans l’argument. Par la suite, cette thèse propose des lignes directrices pour générer des explications et des preuves à communiquer, comprendre et accepter par les autorités réglementaires, les organismes de certification et les utilisateurs éventuels des systèmes.

EMPLACEMENT

Département Ingénierie Logiciels et Systèmes (LIST)

Labo.conception des systèmes embarqués et autonomes

Saclay

CONTACT

ADEDJOUMA Morayo

CEA

DILS / LSEA

Département Ingénierie Logiciels et Systèmes (DILS) Centre d’intégration Nano-INNOVAvenue de la Vauve 91120 PALAISEAUCEA LISTE DRT / DILS / LSEA

Numéro de téléphone: +33 1 69 08 40 09

Courriel: morayo.adedjouma@cea.fr

UNIVERSITY / GRADUATE SCHOOL

Toulouse III

Mathématiques – Informatique – Télécommunications de Toulouse (MITT) – Toulouse III –

DATE DE DÉBUT

Date de début le 01-10-2020

SUPERVISEUR DE THÈSE

HAMID Brahim

CNRS

IRIT, Institut de Recherche en Informatique de Toulouse

118 Route de Narbonne, 31062 Toulouse Cedex 9, France

Tél: +33 (0) 561502386

Courriel: brahim.hamid@irit.fr

Check Also

A Revolutionary Cancer Treatment Sets New Medical Milestones

A promising cancer treatment is set to change the face of traditional therapies. Imagine a …