Échapper à l'algorithmisation de nos vies

Échapper à l'algorithmisation de nos vies

Dans son dernier rapport consacré aux enjeux éthiques des algorithmes et de l’intelligence artificielle, la Cnil alerte sur de nombreux points de vigilance éthiques sur le recours aux algorithmes de manière généralisée.

Un algorithme doit-il décider du parcours d’une vie ? À partir de quand devenons-nous des numéros inféodés au numérique ? Pour la première fois, la Cnil s’est penchée sur les questions éthiques posées par les algorithmes et les nouvelles technologies dans un rapport au sous-titre évocateur : « Comment permettre à l'homme de garder la main ? »

Parmi les questionnements pointés dans le document, dont la synthèse a été présentée le 15 décembre 2017 à Paris en présence de Mounir Mahjoubi, secrétaire d'État chargé du numérique, et Cédric Villani, député chargé d'une mission sur l'intelligence artificielle par le gouvernement, celui de l'enfermement des individus dans un destin « prédit » par la technologie inquiète les citoyens. Selon une enquête citée dans le rapport du gendarme des libertés individuelles, 72 % des répondants envisagent d'ailleurs comme une menace la possibilité d’être recruté par des algorithmes. En effet, depuis quelques années, des outils de plus en plus sophistiqués fleurissent dans les entreprises pour optimiser la gestion des carrières. Plus globalement, la perception de l'opinion publique des algorithmes est surtout empreinte de méfiance, dont l'une des principales craintes est le cloisonnement à travers l’uniformisation des recrutements (56 %).

Quelques mois plus tôt, la Cnil épinglait le système d'affectation des bacheliers Admission post-bac dans une mise en demeure datée du 30 août. La Commission reprochait au système d’entrée en études secondaires son fonctionnement « sans intervention humaine ».

Outre le parcours professionnel des individus, il est question dans le dernier rapport de la Cnil de l'intrusion des algorithmes dans les stratégies politiques. Lors des dernières élections présidentielles, aux États-Unis comme en France, l’utilisation croissante des logiciels de stratégie électorale a vivement été décriée. Le rapport rappelle ainsi qu'en 2016, grâce à l’analyse des données issues des réseaux sociaux et des courtiers en données, la société de communication Cambridge Analytica aurait envoyé en faveur du candidat Trump des milliers de messages ciblés au cours d’une même soirée. En France, les principes de protection des données à caractère personnel limitent toutefois dans les faits le développement de tels logiciels de ciblage individuel, le consentement constituant un prérequis essentiel à une telle collecte.

Tous les secteurs de la société sont touchés par ces nouveaux enjeux éthiques. La question de la police prédictive, popularisée par le film Minority Report, fait également l’objet de développements actifs de logiciels algorithmiques. Aux États-Unis, la start-up PredPol s’appuie sur des modèles empruntés à la sismologie pour évaluer l’intensité du risque à tel endroit et à tel moment. Ainsi, la synthèse s'interroge : « Quid du risque que les préconisations de la machine soient appréhendées comme une vérité absolue, non soumise à la discussion quant à ses conséquences pratiques ? ».

Six recommandations

Qu'il s'agisse de l'éducation, de la politique, de la justice ou même de la santé, l’intelligence artificielle et les algorithmes sont partout dans notre société et inquiètent autant qu’ils fascinent. Surtout, le caractère extrêmement évolutif des nouvelles technologies met à jour les limites de notre système juridique. C’est pourquoi, écrit la Commission, « l’éthique apparaît comme une éclaireuse du droit, la norme éthique une préfiguration de la norme juridique ».

Pour appréhender ces nouveaux enjeux, le rapport propose des recommandations en forme de « garde-fous » à destination tant des pouvoirs publics que des diverses composantes de la société civile : former à l'éthique tous les maillons de la « chaîne algorithmique » - y compris les citoyens -, rendre les systèmes algorithmiques plus compréhensibles en renforçant les droits existants, travailler leur design au service de la liberté humaine, mettre sur pied une « plateforme nationale d'audit des algorithmes », encourager la recherche sur l'intelligence artificielle éthique et, enfin, « renforcer la fonction éthique au sein des entreprises ».

Photo : © Geoffrey DORNE / CNIL