Service abonnements 01 83 97 46 50

Revenir en haut de la page
Home| Social / RH| Fonction publique| Dépêche n°583028

Comment encadrer l’utilisation des algorithmes dans le secteur public ? Les préconisations de la Dinsic et de la Cnil

"L’usage des algorithmes est très clairement une opportunité pour l’action publique, sous réserve que des principes de responsabilité soient appliqués", affirme Simon Chignard, conseiller en stratégie pour la mission Etalab à la Dinsic. Il s’exprimait mi-février lors d’une audition menée par l’Office parlementaire d’évaluation des choix scientifiques et  technologiques dans le cadre du rapport sur les algorithmes au service de l’action publique, publié fin février 2018. Les trois critères à respecter pour "rendre les algorithmes responsables" sont la transparence, le caractère explicable du système et l’évaluation de ses effets par les citoyens. Pour le sénateur LR Gérard Longuet, président de l’Opecst, et le député LaREM Cédric Villani, les pouvoirs publics doivent veiller à "conserver l’entière responsabilité des choix décisionnels" sans se "cacher derrière l’algorithme".

Les algorithmes sont des "outils puissants et précieux" qui sont utilisés par de nombreuses administrations publiques pour prendre des décisions qui concernent tant les citoyens que les agents, souligne Simon Chignard, conseiller au sein de la mission Etalab, à l’occasion de son audition par les membres de l’Opecst (1) dans le cadre d’un rapport sur les algorithmes et l’action publique, avec un focus sur le portail APB (admission post-bac).

Les algorithmes peuvent aussi bien concerner le calcul des impôts et des aides personnalisées au logement ou l’éligibilité à certaines aides, que le classement des demandes de logement social ou encore la gestion de l’avancement et de la mobilité.

GAIN DE TEMPS ET FINESSE

Les algorithmes apportent "un gain de temps" et sont un "gage de performance et de finesse dans la décision". "Il faut sortir de l’idée que l’humain est la garantie absolue contre de nombreux biais que l’on n’aurait pu évaluer" car il peut "commettre des erreurs de jugement et n’est pas toujours en mesure d’expliciter les raisons de ses décisions", estime Simon Chignard.

Pour Etalab, trois principes devraient être appliqués dès la conception et tout au long de la vie de l’algorithme pour les rendre "responsables" :

  • la transparence "dans toutes ses dimensions" : cela concerne notamment l’ouverture des codes sources, des données et la publication des objectifs ;
  • le caractère explicable du système : "il faut pouvoir expliquer aux individus concernés et, plus globalement, à la société, de manière complète, fidèle et compréhensible, ce que fait vraiment le système". Concernant le logiciel d’affectation des bacheliers APB, "les fantasmes induits ont été à la hauteur de l’opacité du dispositif ;
  • le caractère redevable du système : il faut pouvoir établir un dialogue avec les concepteurs et exploitants des algorithmes.

"Tout citoyen devrait avoir la possibilité d’exercer un droit de recours, et de faire évaluer les impacts de l’utilisation des algorithmes de manière régulière, pas uniquement au moment où une nouvelle solution est lancée", explique Simon Chignard.

FORMER LES ACTEURS PUBLICS

Cette analyse est en grande partie partagée par Victor Demiaux, également auditionné par les parlementaires en tant que conseiller d’Isabelle Falque-Pierrotin, présidente de la Cnil (2). "Les algorithmes au service de l’administration sont des outils extrêmement puissants. Ils impliquent des effets sociaux et politiques très forts, qui ne peuvent être laissés aux experts et aux techniciens", prévient-il.

Selon lui, il est nécessaire d’organiser "à tous les stades de leur déploiement" une réflexion "impliquant tous les acteurs, depuis le développeur jusqu’au fournisseur de solutions, en passant par les utilisateurs, les administrés, les chercheurs en sciences sociales". Cela doit permettre de prendre en compte "tous les problèmes susceptibles de se poser".

En outre, il est indispensable de former les acteurs publics à ces enjeux et aux possibles effets de bord et de faire un "effort considérable de clarté" à l’égard des administrés, estime l’ancien salarié de la Cnil.

Masquer des choix politiques derrière des abords techniques

Victor Demiaux met également en garde les responsables politiques contre la tentation de "se cacher derrière l’algorithme" pour éviter "d’avoir à faire des choix" et "de les assumer". Il est "nécessaire d’assurer une vraie traçabilité entre la loi, l’administration, et l’articulation de ses décisions dans le code."

S’agissant du portail APB, remplacé par Parcoursup cette année (lire sur AEF info), "le débat s’est focalisé sur un aspect technique, alors même que les difficultés rencontrées renvoyaient davantage à des grands choix de société, comme la sélection des étudiants ou l’augmentation éventuelle de la capacité d’accueil des universités".

Dans leur rapport, le sénateur Gérard Longuet et le député Cédric Villani reprennent à leur compte cet avertissement en appelant les pouvoirs publics à "conserver l’entière responsabilité des choix décisionnels" sans se défausser. La programmation et la détermination des règles appliquées par les algorithmes doivent correspondre "aux normes publiques connues et acceptées" et toutes ces règles programmées doivent être publiées.

Une réflexion en cours en Grande-Bretagne

En Grande-Bretagne, la prise de décision algorithmique dans le secteur public fait aussi débat. Face au développement des outils d’intelligence artificielle, la "fondation pour l’innovation britannique" (Nesta) a publié une liste de recommandations sur le sujet. En voici une synthèse (traduction effectuée par le site InternetActu) :

  • Tout algorithme utilisé par une organisation du secteur public devrait être accompagné d’une description de ses fonctions, objectifs et impacts attendus, mis à disposition de ceux qui l’utilisent.
  • Les organisations devraient publier les détails décrivant les données avec lesquels l’algorithme a été entraîné et les hypothèses utilisées à sa création ainsi qu’une évaluation des risques pour atténuer ses biais potentiels.
  • Les algorithmes devraient être catégorisés sur une échelle de risque pour distinguer leur impact sur les personnes.
  • La liste de toutes les données d’entrées utilisées par l’algorithme pour prendre une décision devrait être publiée.
  • Les citoyens doivent être informés lorsque leur traitement a été en partie ou entièrement décidé par un algorithme.
  • Tout algorithme doit être disponible en version de test.
  • Lorsque les services publics ont recours à des tiers pour créer ou exécuter des algorithmes en leur nom, ils devraient s’assurer que ces tiers respectent ces principes.
  • Les organisations du secteur public qui souhaitent adopter des procédures de prise de décision algorithmique à haut risque devraient souscrire une assurance capable d’offrir des compensations aux personnes négativement touchées par une décision algorithmique erronée.
Fermer

Bonjour

Vous souhaitez contacter

Florianne Finet, journaliste