INTELLIGENCE ARTIFICIELLE ET CONFIANCE Règlementation, enjeux, risques, audit et certification

Cahier N° 
38
-
septembre 2021

Présentation

Depuis quelques années, nous constatons que certains types de développements informatiques ont soulevé des inquiétudes et notamment celles du contenu des algorithmes. Des choses importantes seraient cachées aux utilisateurs ou des biais amèneraient des décisions non-conformes.

Ce type de préoccupation est très clairement apparu lorsque les dysfonctionnements d’Admission Post Bac (APB) et de sa nouvelle version Parcoursup ont été constatés. Le développement de l’Intelligence Artificielle et notamment le Deep Learning ne peut que renforcer la suspicion à l’encontre des algorithmes car on ne sait plus très bien ce qu’ils font ? Peut-on améliorer la traçabilité des opérations ? Que se passera-t-il si les ordinateurs devenaient plus intelligents que les hommes ? Est-ce qu’ils prendraient le pouvoir et asserviraient l’humanité ? Sommes-nous voués à l’esclavage ? Et que se passerait-il si les robots se reprogrammaient d’eux-mêmes ?... Ainsi, on assiste à une libération de tous les fantasmes possibles et imaginables.

L’Intelligence Artificielle suscite beaucoup d’espoirs et de nombreuses craintes. Mais elle représente encore un marché limité. Il est évalué en 2019 à 11,3 milliards de dollars par Tractica mais on estime qu’il va croître rapidement dans les prochaines années pour atteindre 89,8 milliards de dollars en 2025.

Les organisations internationales comme l’OCDE, l’Union Européenne... développent et alimentent d’ailleurs une réflexion continue pour s’appuyer demain sur une Intelligence Artificielle éthique, responsable et digne de confiance.

IA : quels bénéfices, risques, incertitudes, droit, éthique, confiance… ?

Le Cahier de l’Académie vous propose de faire le point.