La pratique de la surveillance étatique des systèmes algorithmiques à l'exemple du Canada et de l'UE

image

La transparence et la responsabilité des décisions algorithmiques, l'accès à des composants importants de l'algorithme et ses corrections sont des outils pour prendre des décisions équitables sur les problèmes sociaux, techniques et réglementaires qui se posent en relation avec l'utilisation de systèmes algorithmiques. La question de la surveillance et de la supervision de tels systèmes est activement étudiée au Canada et dans l'Union européenne.

Le Canada a le plus progressé dans la résolution de ce problème. Mais elle s'est concentrée uniquement sur les systèmes gouvernementaux. Ainsi, en avril 2019, le gouvernement du pays a approuvé la directive sur la prise de décision automatisée pour assurer la gestion, la supervision et l'audit des systèmes algorithmiques de l'État. La conformité à la directive est obligatoire à partir du 1er avril 2020 et suppose une fréquence d'inspection tous les 6 mois. Les conséquences du non-respect de la directive vont des mesures préventives aux exigences de «gel» du système et des restrictions importantes au travail de l’organisation.

Comment fonctionnera la régulation des systèmes algorithmiques?


Selon la directive, les sites Web et les services gouvernementaux qui utilisent des systèmes algorithmiques pour prendre des décisions sont tenus d'en informer les utilisateurs «dans un endroit visible et dans un langage compréhensible» et de publier régulièrement des informations sur l'efficacité et l'efficience des systèmes de prise de décision automatisés. De plus, le propriétaire de l'algorithme est tenu, sur demande, de fournir des explications sur l'adoption de cette décision particulière par l'algorithme et les options de recours disponibles (en cas de contestation de la décision).

Pour déterminer le niveau d'impact des systèmes algorithmiques, le gouvernement du Canada a élaboré et publiéoutil d'évaluation open source (prétendument utilisé par d'autres pays). En particulier, pour évaluer l’impact des systèmes algorithmiques des États du Canada, les propriétaires d’algorithmes sont invités à répondre à 60 questions. Sur la base des résultats de l'analyse des réponses, le système algorithmique se voit attribuer un niveau de 1 à 4. Les facteurs clés pour déterminer le niveau sont l'impact socio-économique, l'évaluation de l'impact sur les processus gouvernementaux (services), la gestion des données, la transparence (méthodologique) et la complexité du système (une évaluation de l'impact des indicateurs est jointe).

L'Union européenne n'a pas encore élaboré d'étapes pratiques ou de mesures obligatoires, mais dans son ensemble, elle va dans la même direction que le Canada. Cependant, contrairement aux Nord-Américains, l'UE prévoit d'exercer un contrôle sur tous les algorithmes, pas seulement sur ceux appartenant à l'État.
Le problème de l'évaluation de l'impact des systèmes algorithmiques est actuellement étudié par le Centre de recherche du Parlement européen.

En particulier, deux documents analytiques ont été préparés: «Comprendre la prise de décision algorithmique: opportunités et défis» (mars 2019) et «Un système de gestion pour assurer la responsabilité et la transparence algorithmiques» (avril 2019).
Documents préparés comme matériel de référence pour les membres du Parlement européen.

Selon les chercheurs, les mesures suivantes peuvent être efficaces:

  • Création d'un organisme de réglementation pour contrôler et superviser l'activité des systèmes algorithmiques, dont les tâches comprendront: évaluer les risques liés à l'utilisation d'algorithmes en fonction du degré d'impact sur une personne, classer les types d'algorithmes, rechercher des algorithmes en cas de violation des droits de l'homme, conseiller les autorités réglementaires concernant les systèmes algorithmiques, fixer des normes et meilleures pratiques, audit des systèmes algorithmiques, assistance aux utilisateurs dans la protection de leurs droits avec une utilisation inappropriée des algorithmes;
  • , . , IEEE P7000 « » IEEE P7001 « ». , , ;
  • , . , , , , , ;
  • ( - ) ;
  • ( ) , ;
  • Fournir une «alphabétisation algorithmique» pour sensibiliser le public aux principes des systèmes algorithmiques, à l'impact et à la formation d'une évaluation critique;
  • Fournir aux utilisateurs une notification obligatoire standardisée du traitement algorithmique en cours (informations de nature explicative qui pourraient potentiellement affecter le processus décisionnel d'un utilisateur individuel ou une compréhension plus large du public du comportement du système global).

All Articles