Discours prononcé lors de la conférence des présidents des juridictions administratives, le vendredi 20 avril 2018 à Rennes
<a href="/admin/content/location/62141"> Lien à reprendre : > télécharger au format pdf</a>
Conférence des présidents des juridictions administratives
Intervention de Jean-Marc Sauvé[1], vice-président du Conseil d’État
Mesdames et Messieurs les présidents,
Monsieur le premier président de la cour d’appel de Rennes
Monsieur le président de l’Université de Rennes,
Mesdames et Messieurs les professeurs,
Chers collègues,
L’extraordinaire engouement qui entoure aujourd’hui la question de l’intelligence artificielle et du recours aux algorithmes ferait presque oublier que ces derniers ne sont pas nés hier, ni même au siècle dernier. L’étymologie du mot l’atteste, puisque le terme d’algorithme serait issu de la latinisation du nom propre Al-Khawarizmi, qui était celui d’un mathématicien perse du IXème siècle ayant rédigé l’un des tout premiers traités d’algèbre. L’expression d’intelligence artificielle a, quant à elle, été forgée en 1955 par deux informaticiens américains[2]. A cette aune, une interrogation surgit : si le sujet est aussi ancien et connu, pourquoi avoir attendu si longtemps pour en faire le sujet de l’une de nos conférences ? La juridiction administrative vivrait-elle dans une bulle imperméable aux transformations de notre environnement ? Je crois que sur ce point, comme sur bien d’autres, ce reproche ne peut nous être fait. La multiplication de déclarations, rapports, articles et livres sur l’intelligence artificielle dont nous sommes témoins depuis quelques mois et, en particulier, ces dernières semaines tient plutôt à des sauts technologiques, à l’accumulation des données et des capacités de traitement et à une prise de conscience collective. Grâce à l’essor du numérique, l’intelligence artificielle a pris une dimension nouvelle dont nous n’avons commencé à prendre la mesure que très récemment. Les algorithmes sont désormais utilisés au service d’outils numériques dont ils démultiplient les possibilités et les effets, marquant ainsi un tournant « civilisationnel »[3]. Désormais, ce ne sont plus des fonctions limitées de l’activité humaine qui sont concernées, telles que la capacité à résoudre un problème mathématique dans un cadre déterminé, mais bien des pans entiers de l’activité intellectuelle, en particulier le raisonnement et la prise de décision.
Les transformations occasionnées par ce changement d’échelle sont profondes et elles touchent tous les domaines de la vie humaine, des transports à la santé en passant, bien sûr, par les services publics, la justice et l’office du juge. Dans un tel contexte, ni le droit, ni le juge administratif ne peuvent être dispensés d’une réflexion approfondie sur ces sujets qui constituent, à n’en pas douter, l’un des plus importants défis à relever dans un avenir proche.
I. L’intelligence artificielle est en effet porteuse de transformations majeures, mais ambivalentes, auxquelles le juge administratif est ou sera directement confronté.
A. Le principal intérêt de l’intelligence artificielle en matière administrative est de faciliter le processus décisionnel.
Soit qu’ils influencent la décision publique, soit qu’ils s’y substituent, les algorithmes investissent le champ du droit public avec pour objectif d’accroître l’efficacité des services publics et des politiques menées par les personnes publiques. J’en donnerai deux exemples. En matière de renseignement, la loi du 24 juillet 2015 relative au renseignement prévoit la possibilité pour les services concernés de recourir à un algorithme visant à détecter les signaux faibles d’une menace terroriste par un traitement massif de données de connexion sans qu’aucune identification personnelle ne soit nécessaire[4]. La détection de ces signaux permet ensuite, le cas échéant, de justifier des mesures supplémentaires de contrôle et de surveillance. Dans le domaine de la santé – sur lequel insiste le rapport du député Cédric Villani[5] –, le traitement des données par des algorithmes puissants concourt à la construction d’un système de santé publique efficace et performant. La collecte et le traitement de ces données peuvent en effet apporter une aide déterminante à la vigilance pharmaco-épidémiologique, améliorer l’efficacité des parcours de soins[6] et favoriser la recherche de longue durée sur les protocoles de soin. L’exploitation des données du système national d’information inter-régimes de l’assurance maladie (SNIIRAM)[7] a, par exemple, permis de mettre au jour les dérives de l’utilisation du Médiator lorsqu’il était prescrit en dehors de l’indication prévue par l’autorisation de mise sur le marché[8]. Les systèmes d’aide à la décision clinique simulant le raisonnement médical à partir de larges bases de données se sont également multipliés dans l’espoir d’objectiver le processus décisionnel du médecin, mais aussi d’en augmenter la puissance d’analyse. L’ordinateur Watson de l’entreprise IBM a ainsi permis de diagnostiquer chez une patiente une forme rare de leucémie en consultant vingt millions d’articles de recherche en une dizaine de minutes seulement. L’ordinateur a également proposé le traitement qui lui paraissait le plus adapté à cette pathologie.
Dans le domaine de la justice aussi, les algorithmes sont de nature à transformer la manière dont les juges prennent leurs décisions. Les algorithmes dits prédictifs, fondés sur la constitution et l’ouverture progressive, mais massive et gratuite, des bases de jurisprudence – dans le cadre de l’open data –, permettent d’offrir une aide à la prise de décision juridictionnelle. En fournissant une information plus rapide, mais surtout plus précise et exhaustive sur la jurisprudence, les algorithmes peuvent réduire le temps consacré par les juges à leurs recherches, tout en approfondissant la connaissance qu’ils ont des pratiques juridictionnelles de leurs collègues. En retour, la prévisibilité des décisions de justice devrait s’en trouver améliorée. Par ailleurs, ces outils permettent aux parties de déterminer plus précisément les chances de succès d’une procédure juridictionnelle, ainsi que les moyens les plus pertinents à soulever, ce qui, selon les cas, peut éviter de recourir à la justice, lorsque le résultat est certain, ou alléger sa tâche. La justice prédictive favoriserait de cette manière le recentrage des juges sur les dossiers pour lesquels leur expertise permet d’apporter le plus de valeur ajoutée. Au final, il découlerait de toutes ces évolutions une plus grande confiance dans la justice, les jugements pouvant être purgés de leur part d’aléa et les juges étant libérés de tâches répétitives ou moins complexes, le tout au profit d’une justice plus rapide, sûre et efficace[9].
Par leur puissance de traitement, les algorithmes et les logiciels d’intelligence artificielle ouvrent ainsi des possibilités de transformation en profondeur du processus décisionnel dans les services publics et, notamment, la justice.
B. Derrière ces perspectives de progrès, se dissimulent néanmoins des questions et des risques nouveaux.
Au premier chef, la crainte existe que l’intelligence artificielle fasse perdre toute autonomie ou toute autodétermination aux êtres humains et à leurs organisations et finisse par s’y substituer. Les tâches jusqu’à présent accomplies par des humains seraient confiées à des systèmes automatiques qui, par l’effet de l’apprentissage machine (machine learning), deviendraient de plus en plus autonomes, alors même que l’intelligence artificielle n’a pas atteint – peut-être pas encore, m’objecterez-vous – la faculté essentielle de l’intelligence humaine qui est de connaître et de comprendre à partir des sens[10] et, notamment, à partir d’un contexte et d’un réseau complexe d’interrelations. Dans le domaine de la justice, une telle automatisation des procédures serait profondément perturbatrice. D’une part, elle remettrait en cause le propre de la justice qui est que chaque affaire soit examinée pour ce qu’elle est, avec sa part d’irréductible originalité et complexité. Or ces spécificités ne sauraient être systématisées par un logiciel, aussi puissant soit-il. Dès lors que les algorithmes sont principalement programmés pour réaliser des tâches ciblées à partir de règles qui leur sont données[11], ils ne sont pas en mesure de répondre à des questions ouvertes, ni de définir de leur propre initiative les questions juridiques qui se posent, au moins indirectement ou par rebond. En outre, le juge, sous l’effet de la surveillance résultant d’un traitement massif des décisions de justice, pourrait voir remises en cause sa liberté d’appréciation et son indépendance, préférant se ranger par « sécurité » à l’opinion dominante ou majoritaire de ses pairs. D’autre part, l’automatisation pourrait conduire, en matière juridictionnelle, à une cristallisation de la jurisprudence, alors que celle-ci doit être non pas figée et rétrospective, mais apporter une solution concrète à un litige actuel et, plus largement, accompagner les évolutions législatives, économiques et sociales. La puissance des algorithmes tend en effet à écraser les dimensions spatiales et temporelles, toutes les données pouvant être traitées ensemble et simultanément[12]. Le traitement algorithmique risque, dans ce contexte, de conférer une force excessive à des solutions majoritaires, mais pas forcément pertinentes. Lorsque l’on connaît le rôle que la jurisprudence administrative a joué dans la construction et l’adaptation du droit administratif français, on frémit à l’idée que des algorithmes puissent brider la liberté du juge et l’on en vient à s’interroger sur leur pertinence même. Comment un algorithme aurait-il pu déterminer la réponse à apporter en 2007 à la requête de la société Arcelor ? Ce que le juge comprend de la hiérarchie des normes et des relations entre les ordres juridiques nationaux et européens, un algorithme ne peut, en l’état, le saisir. Enfin, le développement de l’intelligence artificielle est susceptible de faire peser un risque sur les principes du droit au recours et du droit à un procès équitable. Comme garantir ces principes si les personnes concernées sont dans l’incapacité de connaître dans quelle mesure l’algorithme a joué un rôle dans le processus décisionnel, ni de comprendre sur quels critères et quelles données l’algorithme s’est fondé ?
Ces inquiétudes sont transposables dans tous les secteurs où se développe l’intelligence artificielle. Dès l’instant où des décisions sont susceptibles d’être prises à l’aide d’un algorithme, la question se pose de la marge de manœuvre dont dispose le médecin, le juge, le décideur public ou l’automobiliste confronté à la proposition d’un logiciel : est-il en mesure de la comprendre pour en contrôler la validité ou la légalité et, le cas échéant, s’y substituer ? Quelle serait alors sa responsabilité en cas de faute et de préjudice ?
Une seconde crainte tient au fonctionnement même de l’intelligence artificielle. Dès lors que les algorithmes restent conçus par des êtres humains, ils sont susceptibles de reproduire leur subjectivité et leurs biais, même inconscients. Il a ainsi été démontré que les algorithmes utilisés pour calculer le risque de récidive des prévenus reproduisent les biais ou préjugés sociaux, voire raciaux, de leurs concepteurs[13]. Ce biais est renforcé par les algorithmes d’apprentissage profond (deep learning)qui se nourrissent de données afin de personnaliser les réponses proposées et qui sont par conséquent susceptibles de reproduire des inégalités ou des comportements objectivement constatés[14]. Les résultats proposés par les applications d’intelligence artificielle ne se bornent pas en effet à fournir une information désincarnée ; ils agissent comme un signal : celui d’une tendance ou d’une interprétation majoritaire, qui a ensuite vocation à influencer la suite des propositions[15]. Nous devons être lucides sur le fait que le recours aux algorithmes risque d’être performatif ou auto-réalisateur, voire carrément perturbateur et qu’il puisse en découler des cas de discrimination, y compris indirecte, dont le juge administratif pourrait être saisi. La principale difficulté tient au fait qu’une fois l’algorithme créé, il sera très difficile de mettre en évidence ces biais et donc les discriminations qui en découlent.
Enfin, les capacités de collecte, de stockage et de traitement des données dont se nourrissent les algorithmes permettent aujourd’hui des rapprochements de renseignement auparavant impossibles ou très difficiles à réaliser, faisant ainsi peser un risque important sur le respect du droit à la vie privée. Ces traitements sont en effet susceptibles de révéler, sur chaque personne, des habitudes, des préférences, des faiblesses ou, tout simplement, des opinions qui pourront ensuite être utilisées contre elles dans leur vie professionnelle ou leur accès aux biens et services, le crédit ou l’assurance, par exemple.
L’intelligence artificielle, au vu des opportunités qu’elle ouvre et des transformations économiques et sociales qu’elle induit, est une véritable révolution. Elle revêt toutefois la spécificité d’affecter de manière ambivalente non pas les accessoires de la vie humaine, mais son essence même : l’intelligence.
II. La puissance de l’intelligence artificielle doit, par conséquent, faire l’objet d’une régulation adaptée qui repose sur une logique de transparence et de responsabilité.
A. Pour ne pas mener à une « société de boîtes noires »[16], l’utilisation des algorithmes doit, en premier lieu, être fondée sur un principe de transparence.
Eu égard à ce que j’évoquais précédemment sur les risques de discrimination ou de reproduction de certaines inégalités, l’un des principaux enjeux de la régulation de l’intelligence artificielle est de pouvoir l’expliquer et d’en comprendre le fonctionnement. En instaurant une plus grande transparence sur le fonctionnement des algorithmes, les utilisateurs ou les destinataires des décisions pourront comparer et discuter les résultats et obtenir des explications sur les différences, voire les erreurs ou les biais, qu’ils pourraient constater. En particulier, il est essentiel que le juge et les parties puissent débattre du contenu et des résultats des algorithmes – ceux qui suggèrent des rédactions et, plus encore, ceux qui proposent des solutions – pour être en mesure de ne pas subir passivement leurs résultats ou leurs oracles. La traçabilité et la régulation des algorithmes doivent aussi, dans toute la mesure du possible, être assurées ou du moins sérieusement recherchées.
La loi du 7 octobre 2016 pour une République numérique a déjà pris plusieurs dispositions en ce sens[17]. Les codes sources des algorithmes utilisés par l’administration ont notamment été inscrits au nombre des documents communicables[18]. En outre, les décisions individuelles qui sont prises sur le fondement d’un traitement algorithmique doivent comporter une mention explicite de cette procédure[19]. « Science sans conscience [n’étant] que ruine de l’âme »[20], ces dispositions doivent permettre à chacun d’exercer sa propre conscience et d’être vigilant dans l’utilisation des algorithmes, qui peut être faite à son égard. Seule cette intelligibilité permettra aux intéressés de ne pas subir passivement les effets de l’intelligence artificielle en facilitant un contrôle à la fois interne, par leurs producteurs et utilisateurs, et externe par les destinataires et les pouvoirs publics. Il est, en particulier, indispensable que l’essor des algorithmes prédictifs n’aboutisse pas à ce que l’intelligence artificielle se substitue, à terme, à l’analyse juridique et au raisonnement personnel du juge. Ce dernier doit continuer à exercer ses fonctions en toute indépendance en appliquant au litige dont il est saisi, les textes et la jurisprudence pertinents et il doit le faire en considération des faits et circonstances propres à chaque affaire dans le cadre d’un débat qui doit rester public et contradictoire.
La difficulté tient néanmoins à la complexité intrinsèque de ces algorithmes qui, même transparents, resteront inintelligibles au plus grand nombre. C’est en particulier vrai pour les réseaux de neurones profonds (deep learning) qui ne s’appuient pas sur des règles établies par avance par un esprit humain – comme dans les algorithmes déterministes –, mais sur une capacité à approfondir seuls l’appréhension d’une situation donnée. La seule information qu’une décision est prise sur la base d’un traitement algorithmique dont le code source est transparent peut dans ces conditions ne pas suffire à ce que le processus décisionnel puisse être efficacement discuté ou contesté. Il est également probable que l’obligation de transparence ne suffise pas à repérer les biais de conception des algorithmes, certains d’entre eux étant parfaitement inconscients, voire invisibles. La transparence doit ainsi être associée à une politique d’intelligibilité de l’information donnée car, pour l’immense majorité d’entre nous, la simple diffusion du code source ne peut suffire à comprendre le fonctionnement de l’algorithme[21].
B. En outre, il est indispensable de définir un principe de responsabilité applicable à tous les acteurs concernés.
C’est à la puissance publique qu’il revient, au premier chef, d’accompagner les mutations économiques, sociales et technologiques auxquelles nous sommes confrontés et de définir un équilibre qui soit exigeant sur la protection des droits, mais sans brider l’innovation, ni faire obstacle au changement. En matière de protection des données et de respect de la vie privée, la loi du 6 janvier 1978[22] et le règlement général sur la protection des données[23] – qui entrera en vigueur dans les prochaines semaines – fixent les principes de cet équilibre[24]. En particulier, la loi du 6 janvier 1978 fait obstacle à ce qu’une décision de justice puisse se fonder sur des traitements automatisés pour établir le profil d’une personne et rendre une décision et, si elle permet qu’une décision individuelle puisse prendre appui sur un traitement algorithmique, ce n’est qu’à la condition que ce traitement ne soit pas le seul fondement de la décision[25]. Par ailleurs, le projet de loi de programmation pour la justice, qui a été délibéré par le Conseil des ministres le 20 avril, c’est-à-dire aujourd’hui même, encadre la résolution amiable des différends par voie dématérialisée. Selon son article 3, « La conciliation, la médiation ou l’arbitrage en ligne ne peuvent résulter exclusivement d’un traitement par algorithme ou d’un traitement automatisé. Lorsque l’un de ces modes de règlement est proposé à l’aide d’un traitement algorithmique, l’intéressé doit en être informé par une mention explicite et doit expressément y consentir. Les règles définissant ce traitement, dont le responsable doit s’assurer de la maîtrise et de ses évolutions, ainsi que les principales caractéristiques de sa mise en œuvre, sont communiquées à l’intéressé qui en fait la demande ». Cet encadrement, fondé sur la non exclusivité des algorithmes, la transparence et la communication des règles et caractéristiques propres à ces outils, a vocation à s’appliquer aussi à la résolution amiable des litiges publics.
Mais en dehors de ces quelques règles applicables ou en gestation, la régulation de l’intelligence artificielle reste embryonnaire. En particulier, les effets collectifs des algorithmes ne sont que faiblement quantifiés à l’heure actuelle et ils ne sont, par conséquent, pas pris en compte, alors même que le recours à l’intelligence artificielle peut profondément transformer certains comportements collectifs, comme en matière de transport, d’éducation, de santé, de services financiers ou même d’alimentation, avec des conséquences à tous les niveaux des secteurs concernés[26].
Par ailleurs, cette régulation ne saurait être cantonnée au territoire national compte tenu de la transnationalité des acteurs en présence. Pour être réellement efficace, elle doit être conduite de manière coordonnée à l’échelle européenne, voire internationale[27]. Le Parlement européen s’est d’ailleurs saisi de ce sujet avec une résolution relative à l’encadrement de la robotique dans le droit civil[28].
Enfin, cette régulation passe par le contrôle de régulateurs indépendants, que ce soient des autorités indépendantes, comme la CNIL, et, pour finir, le juge. Appliquant un principe de proportionnalité dont il est familier, le juge et, notamment, le juge administratif aura un rôle à jouer dans la régulation de l’intelligence artificielle. Au-delà des défis qui le concernent très directement en matière de justice prédictive, de plus en plus de décisions administratives ont en effet vocation à être adoptées sur la base d’un traitement algorithmique dont il faudra contrôler la légalité et, en particulier, la conformité aux principes d’égalité et de non-discrimination.
La régulation de l’intelligence artificielle au service de l’humain implique une responsabilisation de l’ensemble des acteurs concernés dans une logique de conformité et de loyauté[29]. Il est nécessaire de rendre les acteurs privés vigilants et attentifs aux risques et enjeux de l’intelligence artificielle, comme à leur responsabilité propre, car la régulation et la gouvernance du numérique ne sauraient uniquement reposer sur la puissance publique. Cette ambition passe par l’affirmation d’un principe de loyauté des concepteurs et architectes de l’intelligence artificielle, dans le droit-fil de ce qui est prévu pour les opérateurs de plateformes numériques[30]. Ce principe permettrait par ailleurs de surmonter les difficultés d’intelligibilité que j’évoquais précédemment en imposant aux opérateurs numériques de se comporter conformément à l’intérêt général[31].
Au surplus, le recours à des dispositifs de conformité ou de certification est, dans une matière aussi évolutive, un moyen de réguler l’action des acteurs économiques, sans dresser d’insurmontables obstacles à un changement qui se fera sinon sans nous. Certaines des plus grandes entreprises du secteur ont par exemple lancé un collectif appelé « Partnership on Artificial Intelligence », qui vise à formuler les meilleures pratiques éthiques sur les technologies d’intelligence artificielle[32]. Le recours à des instruments de droit souple, dits de « soft law », tels que les codes de bonnes pratiques, les lignes directrices ou les recommandations présentant la conduite à tenir et mettant l’accent sur la responsabilité des acteurs privés et publics, doit ainsi être encouragé à l’instar de ce que propose le nouveau règlement de l’Union européenne en matière de protection des données[33]. Le respect de tels codes de conduite pourrait être contrôlé par des organismes certificateurs[34], comme y invite l’article 3 du projet de loi de programmation sur la justice consacré à la sécurisation du cadre juridique de l’offre en ligne de services de résolution amiable des différends. De manière générale, certains pays se dotent des chartes d’éthique, notamment sur l’usage des robots[35]. Cette logique de droit souple et de contrôle de conformité offre certainement une réponse plus adaptée à la nature transnationale des innovations en matière numérique, à condition qu’elle ne soit pas seulement décorative et qu’elle puisse être juridiquement sanctionnée.
Pour conclure, je citerai le philosophe Hans Jonas : « Le Prométhée définitivement déchaîné, auquel la science confère des forces jamais encore connues et l’économie, son impulsion effrénée, réclame une éthique qui, par des entraves librement consenties, empêche le pouvoir de l’homme d’être une malédiction pour lui ». Pour qu’elle ne soit pas une malédiction, l’intelligence artificielle doit demeurer un instrument et ne pas devenir une fin en soi. Comme elle est devenue une technique omniprésente et un enjeu stratégique, elle doit être maîtrisée, domestiquée et pensée en relation et en complémentarité avec l’activité humaine[36]. Face à cette révolution, l’émergence et le développement d’une nouvelle éthique s’imposent. Dans le champ plus restreint du droit public, le juge administratif devra prendre toute sa part à l’édiction de ces principes et jeter les bases d’une nouvelle étape du contrôle des décisions publiques. Nous sommes ainsi confrontés à une réalité que nous devons accepter et dont nous devons saisir les opportunités, tout en sachant faire preuve d’une grande vigilance sur l’intangibilité de nos principes et, en particulier, les principes d’une justice indépendante, impartiale, transparente, humaine et équilibrée, qui se garde de tout automatisme et de tout psittacisme, et qui ne soit pas dépendante de modèles économiques qui ne sont, par nature, ni désintéressés, ni neutres. Par notre réflexion et notre action, nous devons contribuer à façonner un droit responsable qui nous permette de tirer tous les profits de l’intelligence artificielle, sans aliéner l’essence de la vie, de la liberté et de l’autodétermination humaines.
[1]Texte écrit en collaboration avec Sarah Houllier, magistrat administratif, chargée de mission auprès du vice-président du Conseil d’Etat.
[2]John McCarthy et Claude Shannon ont, en 1955, levé des fonds pour l’organisation d’une conférence sur « l’intelligence artficielle », qui s’est tenue en 1956.
[3]E. Sadin, La vie algorithmique. Critique de la raison numérique, cité par P. Adam, « Connected Factory », Droit social, 2018, p.1.
[4]Art. L. 851-3 du code de la sécurité intérieure issu de l’article 5 de la loi n° 2015-912 du 24 juillet 2015 relative au renseignement.
[5]C. Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, rapport remis au Premier ministre le 28 mars 2018.
[6]E. Debiès, « L’ouverture et la réutilisation des données de santé : panorama et enjeux », RDSS, 2016, p. 697.
[7]Article L. 161-28-1 du code de la sécurité sociale.
[8]Etude annuelle 2014 du Conseil d’Etat, Numérique et droits fondamentaux, Annexe 3, La Documentation française, p. 368.
[9]A. Garapon, « Les enjeux de la justice prédictive », JCP G., 9 janvier 2017, doctr. 31.
[10] Définition du dictionnaire Le Petit Robert, 2010.
[11]C. Villani dans une interview au Figaro, 19 janvier 2018, « L’Europe peut relever le défi de l’intelligence artificielle ».
[12]Rapport de la CNIL, Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, décembre 2017, pp. 30-31.
[13]P. Cornille, « Justice prédictive : est-ce un oxymore ? », AJFI, juillet 2018, repère 7.
[14]C. Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, rapport remis au Premier ministre le 28 mars 2018, p. 142. Par exemple, le robot conversationnel Tay a dû être désactivé quelques heures après son lancement car, au contact des internautes et des propos qu’ils tenaient sur les réseaux sociaux, il s’était mis à proférer des grossièretés et des propos racistes et sexistes.
[15]Par exemple, il a été prouvé que l’application de ciblage publicitaire de Google, AdSense, avait tendance à proposer des offres d’emploi moins rémunératrices aux femmes qu’aux hommes, malgré un niveau de qualification et d’expérience équivalent. Ce résultat peut être le fruit d’une discrimination délibérée, mais il est aussi possible, selon la CNIL, que ces propositions résultent d’une réaction de l’algorithme aux données qu’il a reçues et qui reproduisent des biais existants dans la société (voir sur ce sujet le rapport de la CNIL, Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle., décembre 2017, pp. 31-34).
[16]C. Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, rapport remis au Premier ministre le 28 mars 2018, p. 140.
[17]Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.
[18]Art. L. 300-2 du code des relations entre le public et l’administration dans sa rédaction issue de l’article 2 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.
[19]Art. L. 311-3-1 du code des relations entre le public et l’administration dans sa rédaction issue de l’article 4 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique. Ces dispositions ont été précisées par un décret n° 2017-330 du 14 mars 2017 relatif aux droits des personnes faisant l’objet de décisions individuelles prises sur le fondement d’un traitement algorithmique.
[20]Rabelais, Pantagruel.
[21]Rapport de la CNIL, Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, décembre 2017, p. 51.
[22]Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.
[23]Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE.
[24]Les données doivent être collectées de manière loyale et licite en vue d’une finalité déterminée et légitime ; les données collectées doivent être pertinentes et adéquates au regard de cette finalité, elles doivent être complètes et exactes et leur conservation doit être prévue pour une durée définie (voir notamment l’article 6 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés).
[25]Art. 10 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés
[26]Rapport de la CNIL, Comment permettre à l’homme de garder la main ? Les enjeux éthiques des algorithmes et de l’intelligence artificielle, décembre 2017 et rapport de C. Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, rapport remis au Premier ministre le 28 mars 2018, p. 148.
[27]C’est aussi ce que préconise l’étude annuelle 2017 du Conseil d’Etat, Puissance publique et plateformes numériques : accompagner « l’ubérisation », La documentation française, p. 107.
[28]Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique ((2015/2013(INL)).
[29] Voir, en particulier, la proposition n° 4 de l’étude annuelle 2017 du Conseil d’Etat, Puissance publique et plateformes numériques : accompagner « l’ubérisation », La documentation française, p. 115.
[30]Article 49 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique. Ces dispositions sont inspirées d’une recommandation du Conseil d’Etat (Etude annuelle 2014 du Conseil d’Etat, Le numérique et les droits fondamentaux, La documentation française, p. 273).
[31]Etude annuelle 2017 du Conseil d’Etat, Puissance publique et plateformes numériques : accompagner « l’ubérisation », La documentation française, p. 116.
[32]A. Bensamoun et G. Loiseau, « La gestion des risques de l’intelligence artificielle. De l’éthique à la responsabilité », JCP G., n°46, 13 novembre 2017, doctr. 1203.
[33]Art. 40 du Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE.
[34]Voir par exemple ce qui est fait en matière de protection des données personnelles (Art. 41 et 42 du Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE).
[35]C’est notamment le cas de la Corée du Sud (Rapport de l’Office parlementaire d’évaluation des choix scientifiques et technologiques, Pour une intelligence artificielle maîtrisée, utile et démystifiée, Tome 1, p. 142).
[36]C. Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, rapport remis au Premier ministre le 28 mars 2018, p. 12.