Qu’est-ce qu’une Intelligence Artificielle responsable ?

Alors que l’Intelligence Artificielle fait la une des journaux et l’objet d’un rapport réalisé par Cédric Villani remis au gouvernement en mars 2018, Marc Carrel-Billiard Directeur Général R&D, Accenture Monde, aborde l’IA sous la problématique de la responsabilité.

Pour lui, une Intelligence Artificielle responsable doit remplir ces 3 critères fondamentaux :

  • être éduquée
  • être capable d’expliquer son raisonnement
  • être adaptée aux normes et aux lois des sociétés

Une intelligence artificielle doit être éduquée

A l’instar d’un enfant, il faut donc lui apprendre le vrai du faux et lui fournir les bonnes données pour résoudre les problèmes. Ces données ne doivent pas être biaisées sinon le machine learning produira de faux résultats. A titre d’exemple, certains systèmes de reconnaissance d’images ont été construits à partir de visages de personnes d’origines caucasiennes donc blanches. Pour ces visages la reconnaissance est de l’ordre de 95%, alors qu’elle tombe à 65% pour les visages de couleur. Cela illustre l’importance de l’apprentissage.

Une intelligence artificielle doit être expliquée

Une IA efficiente est une IA à qui on peut faire confiance. Pour que nous acceptions les robots et l’IA, nous devons comprendre la façon dont ils fonctionnent.  Pour cela il faut utiliser des techniques basées sur les cognisciences c’est-à-dire les réseaux sémantiques, les graphes de connaissance et les associer à des modèles de probabilités. Le Lab d’Accenture de Dublin travaille sur ces technologies.

Une intelligence artificielle doit être adaptée aux réglementations et normes

Marc Carrel-Billiard explique cette notion par un exemple, celui d’Audi qui a intégré à son modèle A8 un système intelligent pour la rendre autonome. Or la voiture autonome soulève des problèmes de responsabilité en cas d’accidents. Aussi, pour accélérer le développement commercial de l’A8, le constructeur a décidé de prendre en charge tous les torts en cas d’accident. Cet exemple illustre bien le rôle que doivent jouer les sociétés qui produisent l’IA et qui veulent en encourager l’adoption.