Comment adapter nos sociétés, nos emplois, nos services publics, nos droits… à l’intelligence artificielle et à la robotique ? Voici les passionnantes pistes et préconisations du Parlement européen à ce sujet

Le Parlement européen, de nouveau, trace des perspectives passionnantes et un programme de travail ambitieux sur la robotique, l’intelligence artificielle… et les impacts de ces phénomènes sur nos sociétés, nos emplois, nos services publics, notre droit…

 

Voici ce document :

 

Le Parlement européen constate tout d’abord l’évidence, à savoir que l’on va vers une « société soutenue par l’intelligence artificielle et la robotique ».

Il souligne que l’automatisation combinée à l’intelligence artificielle va accroître la productivité et donc augmenter la production, avec des créations et des suppressions d’emplois, des transformations considérables. L’utilisation accrue de la robotique et de l’IA devrait également réduire l’exposition de l’homme à des conditions nocives et dangereuses et contribuer à créer davantage d’emplois de qualité et décents, ainsi qu’à améliorer la productivité.

robot 3.png

D’où une urgence :

  • de préparer une reconversion des travailleurs concernés (et qui risquent d’être nombre d’entre nous… pour partie de nos tâches du moins).
  • d’anticiper des évolutions importantes dans les relations du travail et de gérer cette incidence de manière équilibrée afin de promouvoir la réindustrialisation et de permettre aux travailleurs de bénéficier aussi des gains de productivité, avec de larges consultations des partenaires sociaux dans un cadre où existe « un équilibre fragile entre les propriétaires et les travailleurs ». Le Parlement européen invite instamment les États membres à éliminer les obstacles à l’entrée dans le marché du travail, tels que les qualifications excessives (remarque personnelle : deux universitaires défendaient, en France, récemment qu’il faudrait être Bac+3 pour surveiller des plans d’eau en façade maritime… si on continue comme cela que va-t-on faire de nos jeunes peu diplômés !?).
  • élaborer et de mettre en oeuvre des stratégies de formation et de reconversion dans le domaine des compétences numériques 
  • d’adapter les programmes d’enseignement, y compris en mettant en place de nouveaux parcours de formation et au moyen de nouvelles technologies de transmission; souligne qu’il convient d’aborder de manière adéquate les aspects pédagogiques; estime notamment qu’il faut inclure l’acquisition des compétences numériques, y compris la programmation, dans l’éducation et la formation, depuis l’enseignement fondamental jusqu’à l’apprentissage tout au long de la vie; 
  • de proposer toute une série de mesures contre les utilisations malveillantes de l’intelligence artificielle (dont beaucoup de propositions sur les droits fondamentaux) 

 

AI et science fiction 2

 

Le Parlement européen salue la proposition de la Commission relative au programme pour une Europe numérique et le budget de 2,5 milliards d’euros consacré à l’intelligence artificielle, ainsi que la hausse du financement au titre du programme Horizon 2020. Il encourage les États membres à engager diverses politiques en ce domaine… ,notamment pour garantir divers droits humains et pour éviter l’hémorragie des chercheurs européens vers les Etats-Unis ou la Chine.

Sur ce point, la lecture des points 18 et suivants de la résolution s’impose. 

 

Le Parlement européen estime ensuite que :

  • l’Europe doit consacrer son nouveau programme phare FET1 à l’intelligence artificielle, en mettant tout particulièrement l’accent sur une approche centrée sur l’homme et les technologies du langage
  • que l’intelligence artificielle, l’apprentissage automatique et les développements exponentiels enregistrés dans la disponibilité des données et l’informatique en nuage stimulent les initiatives de recherche visant à comprendre la biologie moléculaire et cellulaire, à guider le développement des traitements médicaux et à analyser les flux de données afin de détecter les menaces pour la santé, de prévoir les foyers de maladies et de conseiller les patients; constate que l’exploration de données et les systèmes de données et de navigation peuvent être utilisés pour recenser les lacunes, les risques, les tendances et caractéristiques en matière de soins.
  • lorsque des risques apparaissent comme un élément inhérent et inévitable d’une recherche en matière d’IA, des protocoles robustes d’évaluation et de gestion des risques doivent être développés et respectés, en tenant compte de l’exigence selon laquelle le risque de dommages ne doit pas être supérieur à celui rencontré dans la vie normale (c’est-à-dire que les individus ne doivent pas être exposés à des risques plus grands ou plus nombreux que ceux auxquels ils s’exposent du fait d’un mode de vie normal).
  • qu’il importe d’investir davantage dans ce domaine afin de rester compétitif (avec plus d’investissements publics à côté des investissements privés, majoritaires en ce domaine)
  • qu’il est indispensable de s’interdire tout financement de la robotique autonome militaire (le passage du drône, contrôlé à distance par l’homme, au clone autonome dans la guerre n’est plus du tout de la science fiction…)
  • qu’il importe de veiller à ce que la propriété intellectuelle de la recherche menée au moyen des fonds publics de l’Union reste dans l’Union et entre les mains des universités européennes; 

 

Les avancées technologiques notables ont, dans l’histoire, toujours

« nécessité une période de transition, au cours de laquelle la majeure partie de la société a dû acquérir une meilleure compréhension de la technologie pour l’intégrer dans sa vie quotidienne »

 

AI et science fiction 6.jpg

 

Le Parlement européen en déduit toute une série de conséquences en termes de communication, de formation et d’information, d’adaptation réglementaire…

Le Parlement d’ailleurs à ce sujet (au delà des « mock trials » comme ceux faits à Lyon sur les véhicules autonomes par exemple ; voir ici nos nombreux articles et nos vidéos à ce propos…) se félicite :

«  de l’utilisation de «bacs à sable réglementaires» pour introduire, en coopération avec les régulateurs, de nouvelles idées innovantes permettant de mettre en place des garanties dans la technologie dès le début, en facilitant et en encourageant ainsi son entrée sur le marché; souligne la nécessité d’introduire des bacs à sable réglementaires spécifiques à l’IA afin de tester la sécurité et l’efficacité de l’utilisation des technologies de l’IA dans un environnement réel »

 

Le Parlement européen  étudie ensuite les conditions d’appui du développement de l’IA : connectivité, accessibilité des données et informatique à haute performance, et infrastructure en nuage … 

Voir sur ce point les paragraphes 35 à 53 (notamment le paragraphe 40 pour des dimensions juridiques en ce domaine).

Puis le Parlement européen aborde les questions de politique industrielle lato sensu en ce domaine (points 54 et suivants)… dont des adaptations pour le secteur public aux points 61 et suivants.

Citons in extenso ces points 612 à 108 :

 

  • 3.1. Les secteurs prioritaires 
  • 3.1.1. Secteur public
  • 61. souligne qu’il y a un certain nombre d’avantages à tirer de l’IA et de la robotique dans le secteur public et se félicite des investissements accrus dans la recherche et le développement afin d’en garantir le succès;
  • 62. souligne que les États membres doivent aussi investir dans l’éducation et les programmes de formation relatifs à l’IA en vue d’aider les employés du secteur public à se familiariser à l’utilisation de l’IA et de la robotique; constate qu’il convient également de lancer des campagnes d’information à l’intention des citoyens qui utiliseront les services du secteur public fournis par des systèmes d’IA et de robotique afin d’atténuer leurs craintes quant à la perte du contrôle de leurs données personnelles et d’instaurer la confiance;
  • 63. souligne que les informations du secteur public représentent une source considérable de données susceptible de contribuer à faire rapidement progresser et à créer une nouvelle stratégie englobant les nouvelles technologies numériques, notamment l’intelligence artificielle;
  • 64. estime que l’adoption par le secteur public d’une intelligence artificielle de confiance peut fortement soutenir la réforme de l’administration publique dans le cadre de la prise de décision et améliorer les services publics et peut aussi favoriser l’adoption plus largement répandue de l’IA dans d’autres secteurs;
  • 65. reconnaît l’utilisation de l’automatisation des processus robotisés et son incidence sur l’amélioration des procédures du secteur public; prend acte de son interopérabilité avec les systèmes antérieurs;
  • 66. demande aux États membres de piloter le passage au numérique en se positionnant comme les principaux utilisateurs et acheteurs responsables des technologies de l’IA; souligne, dans ce contexte, que les États membres doivent adapter leurs politiques en matière de données s’appliquant à la collecte, l’utilisation, l’archivage ou l’annotation des données publiques, entre autres, afin de permettre le déploiement de l’IA dans l’ensemble des secteurs publics;
  • 67. souligne la nécessité d’associer le public au processus de développement de l’IA; invite par conséquent la Commission à publier en code source ouvert tout algorithme, outil ou technologie financé ou cofinancé par des fonds publics;
  • 68. estime que l’IA constituera un atout majeur pour la mise en oeuvre du principe «une fois pour toutes», qui permet la combinaison de bases de données et d’informations provenant de différentes sources et favorise ainsi les interactions entre les citoyens et les administrations publiques;
  • 69. invite la Commission à garantir la protection des citoyens contre tout système de décision fondé sur un classement effectué par l’IA dans les administrations publiques, semblable à ceux que la Chine prévoit d’utiliser;
  • 3.1.2. Santé
  • 70. souligne que le contact humain constitue un aspect essentiel des soins de santé;
  • 71. fait observer que l’IA et la robotique peuvent présenter des avantages dans le secteur des soins de santé au fur et à mesure que l’espérance de vie augmente, par exemple en aidant les médecins et les infirmières à consacrer davantage de temps à des activités plus importantes (comme la relation avec le patient);
  • 72. note l’incidence que l’IA a déjà eue sur le bien-être, la prévention, les diagnostics, la recherche ainsi que son potentiel considérable en matière de conception de soins personnalisés; estime que cela contribuera finalement à créer un écosystème de soins de santé plus durable, plus efficace et davantage axé sur les résultats;
  • 73. fait observer que lorsque l’IA est combinée avec un diagnostic humain, le taux d’erreur est souvent inférieur à celui des diagnostics réalisés par les seuls médecins1;
  • 1 Perspectives de l’économie numérique de l’OCDE 2017
  • 74. souligne que l’utilisation de données dans le secteur de la santé doit faire l’objet d’une surveillance particulière du point de vue éthique et qu’elle ne doit en aucune manière entraver l’accès à la protection sociale ou à l’assurance;
  • 75. estime que lorsqu’un dispositif médical implanté a recours à l’intelligence artificielle, le porteur doit avoir le droit de contrôler et de modifier le code source utilisé par le dispositif;
  • 76. estime qu’une attention particulière devrait être accordée à l’utilisation des mégadonnées dans le domaine de la santé, dans l’objectif de tirer le meilleur parti des possibilités qu’elles offrent, telles que l’amélioration de la santé des patients et des performances des systèmes de santé publique des États membres, sans abaisser les normes éthiques et sans porter atteinte à la vie privée ni à la sécurité des citoyens;
  • 77. souligne toutefois que le système actuel d’approbation des dispositifs médicaux pourrait ne pas être adapté aux technologies de l’IA; invite la Commission à suivre de près l’évolution de ces technologies et à proposer des modifications au cadre réglementaire, le cas échéant, en vue de clarifier le cadre relatif à la répartition de la responsabilité entre l’utilisateur (médecin/professionnel), le producteur de la solution technologique et l’établissement de soins proposant le traitement; souligne l’importance particulière que revêt le problème de la responsabilité juridique pour les dommages dans le secteur de la santé en ce qui concerne l’utilisation de l’IA; met donc l’accent sur la nécessité d’éviter que l’utilisateur soit amené à céder systématiquement à la solution de diagnostic ou au traitement proposé par l’instrument technologique par crainte de subir des mesures de responsabilité civile lorsque le jugement professionnel et éclairé l’amène à tirer des conclusions pouvant être en partie divergentes;
  • 78. demande aux États membres et à la Commission d’accroître le financement des technologies de l’IA liées à la santé dans les secteurs public et privé; salue, dans ce
  • contexte, la déclaration de coopération signée par 24 États membres de l’Union et la Norvège en vue de renforcer l’impact des investissements dans l’IA au niveau européen; demande aux États membres et à la Commission de déterminer si les programmes de formation du personnel médical et de santé doivent être actualisés et harmonisés au niveau européen pour assurer des niveaux élevés de compétence et des conditions égales dans les différents États membres en ce qui concerne la connaissance et l’utilisation des instruments technologiques les plus avancés en matière de chirurgie robotique, de biomédecine et d’imagerie biomédicale fondée sur l’IA;
  • 79. invite la Commission à élaborer des stratégies et des politiques permettant à l’Union d’occuper la première place mondiale dans le secteur en pleine croissance de la technologie des soins de santé, tout en garantissant aux patients un accès à des soins médicaux homogènes et efficaces;
  • 80. reconnaît que de meilleurs moyens de diagnostic pourraient permettre de sauver des millions de vies, étant donné que, selon l’Organisation mondiale de la santé, 89 % des décès prématurés dans l’ensemble de l’Europe sont causés par des maladies non transmissibles;
  • 81. met en avant la contribution apportée par l’IA et la robotique à l’innovation des pratiques et des techniques cliniques, de prévention et de réadaptation dans le domaine de la santé, notamment au regard des avantages offerts aux patients handicapés;
  • 82. reconnaît que l’utilisation accrue de capteurs dans le domaine de la robotique a élargi le champ d’application des soins et permet aux patients de bénéficier d’un traitement et de services plus personnalisés et de recevoir des soins à distance à partir de leur propre domicile, tout en générant des données plus significatives;
  • 83. reconnaît que, selon l’enquête Eurobaromètre de mai 20171, à l’heure actuelle, les citoyens de l’Union se sentent encore mal à l’aise avec l’idée que des robots soient utilisés dans les soins de santé de tous les jours; demande à la Commission et aux États membres de mettre au point des stratégies et des campagnes de communication visant à sensibiliser la population aux avantages de l’utilisation des robots dans la vie quotidienne; prend acte notamment de l’ambition de la stratégie du Japon en matière de robotique;
  • 1 Eurobaromètre spécial 460.
  • 3.1.3. Énergie
  • 84. note que l’IA permet aux fournisseurs d’énergie de passer d’une gestion préventive à la maintenance prédictive des actifs et de parvenir à une production d’énergie plus efficace en améliorant la fiabilité, en particulier pour les énergies renouvelables, et en déterminant les emplacements les plus efficaces pour les nouvelles installations, ce qui permet ainsi une meilleure gestion de la réponse à la demande;
  • 85. reconnaît que des données plus précises produites par l’IA en matière de potentiel de production d’énergie renouvelable amélioreront la sécurité des investissements pour les entreprises et les individus, accélérant ainsi la transition énergétique vers les sources d’énergie renouvelable et contribuant à la stratégie à long terme de l’Union pour une économie neutre pour le climat;
  • 86. fait observer que des solutions impliquant des capteurs sont déjà utilisées pour gérer l’utilisation de l’énergie dans les habitations et que cela a entraîné des économies d’énergie et monétaires considérables;
  • 87. salue le potentiel de l’IA dans le cadre de la modélisation, de la détermination et de la diminution de l’influence de l’activité humaine sur le climat; constate que, bien que la numérisation accrue crée aussi de nouveaux besoins énergétiques, elle peut également améliorer l’efficacité de secteurs grands consommateurs d’énergie et offrir une meilleure compréhension des processus permettant ainsi de les perfectionner;
  • 88. souligne qu’une numérisation accrue du secteur de l’énergie entraîne un accroissement de l’ampleur des réseaux énergétiques, lesquels sont par conséquent davantage exposés aux menaces informatiques; invite les États membres et la Commission à accompagner le passage au numérique du secteur de l’énergie au moyen de mesures, par exemple dans le domaine de l’intelligence artificielle, renforçant la cybersécurité;
  • 3.1.4. Transports
  • 89. se félicite de la capacité de l’IA et de la robotique d’améliorer considérablement nos systèmes de transport par la mise en place de trains et de véhicules à moteur autonomes; demande davantage de recherche et d’investissement dans ce domaine afin d’en garantir le développement sûr et efficace; met en évidence les possibilités extraordinaires qui s’ouvrent à la fois aux grandes sociétés technologiques et aux PME;
  • 90. fait observer qu’en réduisant le taux d’erreur humaine dans le secteur des transports, le système est susceptible de devenir plus efficace, avec moins d’accidents, grâce à des évaluations plus claires et à la valeur prédictive de la technologie, à la réduction des retards, à la cartographie des schémas de circulation et à l’exploitation des services dans les délais, ainsi qu’à des économies plus importantes, avec moins de fautes imputables aux conducteurs et des processus internes rationalisés;
  • 91. fait observer que la prévalence de véhicules autonomes présentera des risques en matière de confidentialité des données et de défaillances techniques et va transférer à l’avenir la responsabilité du conducteur vers le fabricant, imposant aux compagnies d’assurance de modifier la manière dont elles intègrent le risque dans leur souscription;
  • 92. constate que la communication vocale est de plus en plus utilisée dans l’interaction avec les véhicules et les systèmes de transport mais que ces fonctions sont uniquement disponibles dans quelques langues européennes et qu’il convient donc de veiller à ce que tous les Européens puissent utiliser ces possibilités dans leur langue maternelle;
  • 3.1.5. Agriculture et chaîne alimentaire
  • 93. prend acte du fait que l’IA est susceptible de catalyser une transformation en profondeur du système alimentaire actuel en faveur d’un nouveau modèle plus diversifié, résilient, adapté au niveau régional et sain pour l’avenir;
  • 94. souligne le rôle que l’IA peut jouer dans les efforts visant à résoudre les problèmes de sécurité alimentaire, à prévoir l’apparition de famines et les épidémies de maladies d’origine alimentaire, à réduire le gaspillage alimentaire et les déchets, ainsi qu’à améliorer la gestion durable des terres, de l’eau et d’autres ressources environnementales essentielles à la santé des écosystèmes;
  • 95. met en évidence que l’IA peut intervenir à des points critiques de la chaîne de valeur du système alimentaire, de la production à la consommation, et améliorer notre capacité à fondamentalement modifier la façon dont nous produisons, transformons et achetons les produits alimentaires, en informant mieux sur les pratiques de planification de l’utilisation des sols;
  • 96. constate que l’IA peut améliorer la gestion des ressources et l’efficacité des intrants, contribuer à réduire les déchets de récolte et influencer les choix de consommation;
  • 97. constate que, sous la forme de l’agriculture de précision, l’IA est susceptible de modifier la production agricole ainsi que la gestion globale des terres en améliorant la planification de l’utilisation des terres, en prévoyant des modifications dans leur affectation et en surveillant la santé des cultures, tout en ayant le potentiel de transformer la prévision des événements météorologiques extrêmes;
  • 98. constate que l’IA peut radicalement modifier la livraison des intrants, la lutte contre les organismes nuisibles et la gestion des exploitations agricoles, influencer les pratiques agricoles, transformer la manière dont les produits d’assurance sont conçus ou contribuer à prévoir et à éviter les famines et les cas de malnutrition aiguë;
  • 99. note que l’IA peut améliorer la prise de décision en matière de gestion des systèmes agricoles et stimuler la conception d’outils d’aide à la décision et de conseil, tout en renforçant l’efficacité et la santé des exploitations agricoles;
  • 3.1.6. Cybersécurité
  • 100. constate que la cybersécurité constitue un aspect important de l’IA, notamment en raison des problèmes de transparence que comporte l’IA de haut niveau; estime qu’il convient d’assortir la perspective technologique, y compris la vérification du code source et les exigences en matière de transparence et de responsabilité, d’une approche institutionnelle abordant les défis que présente l’introduction dans le marché unique d’IA élaborées dans d’autres pays;
  • 101. plaide pour la mise en oeuvre rapide de l’Acte législatif sur la cybersécurité; fait observer que l’élaboration de systèmes de certification européens devrait garantir un développement plus résilient ainsi qu’un déploiement plus sécurisé de l’IA et des systèmes de robotique;
  • 102. considère que l’IA peut à la fois constituer une menace pour la cybersécurité et l’outil principal de lutte contre les attaques informatiques; estime que l’Agence de l’Union européenne chargée de la sécurité des réseaux et de l’information (ENISA) doit préparer un plan d’action en matière de cybersécurité dans le domaine de l’IA afin d’évaluer les menaces et les faiblesses spécifiques à l’IA et d’y remédier;
  • 103. souligne l’importance du renforcement de la base industrielle en tant que composante stratégique du développement sécurisé de l’IA; attire l’attention sur le fait que, pour garantir un niveau ambitieux de cybersécurité et de protection des données ainsi que des services informatiques de confiance, l’Europe doit investir dans son indépendance technologique; met en évidence le fait que l’Union doit instamment développer sa propre infrastructure, ses propres centres de données et systèmes d’informatique en nuage et ses propres composants informatiques, tels que des processeurs graphiques et
  • des puces;
  • 104. prend acte du fait qu’au fur et à mesure de l’évolution de l’IA et des capacités des pirates informatiques, des solutions solides de cybersécurité s’imposeront;
  • 105. reconnaît que le déploiement de solutions intégrant l’IA aux fins de la cybersécurité permettra de prévoir les menaces, de les prévenir et de les atténuer;
  • 106. met en évidence le fait que, si l’IA permettra à l’avenir de détecter plus largement les menaces, une interprétation humaine de ces menaces est impérative pour déterminer si ce sont de véritables menaces;
  • 107. invite la Commission à étudier l’utilisation d’applications de cybersécurité fondées sur des chaînes de blocs qui améliorent la résilience, la confiance et la robustesse des infrastructures de l’IA grâce à des modèles désintermédiés de chiffrement des données; invite la Commission à examiner la possibilité de récompenser les citoyens en échange de leurs données au moyen de jetons;
  • 108. invite la Commission à renforcer les capacités de l’Union en matière de cybersécurité en combinant et en coordonnant davantage les efforts dans toute l’Europe;

 

La suite porte sur les PME.

 

 

Puis viennent les questions de Cadre juridique pour l’intelligence artificielle et la robotique pour laquelle nous nous permettons de nouveau de citer in extenso cette résolution :

  • 114. demande à la Commission, en vue de promouvoir un environnement réglementaire 
  • favorable au développement de l’IA et conforme au principe d’amélioration de la réglementation, de réévaluer régulièrement la législation en vigueur afin de s’assurer qu’elle soit adaptée à son objectif en ce qui concerne l’IA, tout en respectant les valeurs fondamentales de l’Union, et, le cas échéant, de s’efforcer de modifier les propositions en question voire de les remplacer lorsqu’il s’avère que ce n’est pas le cas; 
  • 115. salue la création de plateformes participatives fondées sur l’IA qui permettent aux citoyens de se faire entendre avec succès et d’interagir avec les gouvernements en faisant des propositions, y compris au moyen de budgets participatifs et d’autres instruments de démocratie directe; souligne que les projets ascendants peuvent encourager la participation des citoyens et aider la population à prendre des décisions en connaissance de cause, de manière plus efficace et démocratique; 
  • 116. constate que l’IA est une notion qui englobe un large éventail de produits et d’applications, à commencer par l’automatisation, les algorithmes, l’intelligence artificielle étroite et l’intelligence artificielle générale; estime qu’il convient d’envisager avec précaution toute loi ou réglementation globale de l’IA, car la réglementation sectorielle peut prévoir des politiques suffisamment générales mais également affinées jusqu’à un niveau significatif pour le secteur industriel; 
  • 117. souligne qu’il faut mettre au point un cadre stratégique qui encourage la conception de tous types d’intelligence artificielle, et pas uniquement celle de systèmes fondés sur l’apprentissage profond, particulièrement gourmand en données; 
  • 4.1. Un marché intérieur de l’intelligence artificielle 
  • 118. souligne l’importance du principe de reconnaissance mutuelle en ce qui concerne l’utilisation transfrontière des produits intelligents, notamment des robots et des systèmes robotiques; rappelle que, le cas échéant, les essais, la certification et la sécurité des produits devraient garantir que certains produits sont sûrs dès leur conception et par défaut; prend acte, dans ce contexte, de l’importance de se pencher également sur les aspects éthiques liés à l’IA; 
  • 119. souligne que le droit de l’Union relatif à la mise en oeuvre de la stratégie du marché unique numérique devrait éliminer les obstacles au déploiement de l’IA; demande à la Commission d’évaluer la nécessité de mettre à jour les cadres politiques et réglementaires en vue de la mise en place d’un marché unique européen de l’IA; 
  • 120. est conscient de l’usage de plus en plus fréquent de technologies liées à la robotique et à l’IA dans les véhicules autonomes, tels que les voitures autonomes et les drones civils; relève que certains États membres légifèrent déjà dans ce domaine particulier ou envisagent de le faire, ce qui pourrait donner lieu à une mosaïque de législations nationales qui entraverait le développement de véhicules autonomes; appelle par conséquent à la mise en place d’un ensemble unique de règles de l’Union établissant un juste équilibre entre les intérêts et les risques potentiels pour les utilisateurs, les entreprises et les autres parties concernées, tout en évitant une surréglementation du secteur de la robotique et des systèmes d’IA; 
  • 121. invite instamment les États membres à moderniser leurs systèmes d’éducation et de formation professionnelle pour tenir compte du progrès scientifique et des avancées dans le domaine de l’IA, conformément à la directive relative à un contrôle de 
  • proportionnalité1 et à la directive relative à la reconnaissance des qualifications professionnelles2, et à faire en sorte que les services professionnels de l’Union soient compétitifs à l’échelle internationale dans les décennies à venir; 
  • 1 Directive (UE) 2018/958 du Parlement européen et du Conseil du 28 juin 2018 relative à un contrôle de proportionnalité avant l’adoption d’une nouvelle réglementation de professions, JO L 173, du 9.7.2018, p. 25. 
  • 2 Directive 2013/55/UE du Parlement européen et du Conseil du 20 novembre 2013 modifiant la directive 2005/36/CE relative à la reconnaissance des qualifications professionnelles et le règlement (UE) nº 1024/2012 concernant la coopération administrative par l’intermédiaire du système d’information du marché intérieur («règlement IMI») (JO L 354 du 28.12.2013, p. 132). 
  • 3 Directive 2006/123/CE du Parlement européen et du Conseil du 12 décembre 2006 relative aux services dans le marché intérieur (JO L 376 du 27.12.2006, p. 36). 
  • 4 Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique») (JO L 178 du 17.7.2000, p. 1). 
  • 122. souligne que l’IA s’applique à toute une série de secteurs dans lesquels la normalisation revêt une grande importance, comme la fabrication intelligente, la robotique, les véhicules autonomes, la réalité virtuelle, les soins de santé et l’analyse des données, et estime que la normalisation de l’IA à l’échelle de l’Union favorisera l’innovation et garantira un niveau élevé de protection des consommateurs; est d’avis que, compte tenu du nombre important de normes existant sur des questions telles que la sécurité, la fiabilité, l’interopérabilité et la sûreté, l’Union devrait se fixer pour priorité de poursuivre la promotion et le développement de normes communes pour la robotique et l’IA; invite la Commission, en coopération avec les organismes de normalisation de l’Union européenne, à continuer de s’engager de manière proactive auprès d’organismes internationaux de normalisation en vue de l’amélioration des normes dans ce domaine; 
  • 123. rappelle que de nombreux aspects politiques pertinents pour les services fondés sur l’IA, y compris les règles relatives à la protection des consommateurs et la politique en matière d’éthique et de responsabilité, sont couverts par le cadre réglementaire existant sur les services, à savoir la directive sur les services3, la directive sur la reconnaissance des qualifications professionnelles et la directive sur le commerce électronique4; souligne, dans ce contexte, que l’homme doit toujours être responsable en dernier ressort de la prise de décision, en particulier pour les services professionnels tels que les professions dans le domaine médical, juridique et comptable; estime qu’il est nécessaire de déterminer si la surveillance par un professionnel qualifié est nécessaire afin de protéger les objectifs légitimes d’intérêt général et de fournir des services de haute qualité; 
  • 124. reconnaît l’importance de l’amélioration des services numériques, tels que les assistants virtuels, les dialogueurs et les agents virtuels, apportant des gains d’efficacité opérationnels sans précédent, mais n’en souligne pas moins la nécessité de mettre au point une IA centrée sur l’humain et axée sur le marché afin de produire des décisions de meilleure qualité et plus fiables, compte tenu des limites de l’autonomie de l’IA et de la robotique; 
  • 4.2. Données personnelles et respect de la vie privée 
  • 125. insiste sur la nécessité d’assurer un haut niveau de sûreté, de sécurité et de protection des données utilisées pour la communication entre les personnes, d’un côté, et les robots et l’intelligence artificielle, de l’autre; invite, par conséquent, la Commission et les États membres à intégrer la sécurité et le respect de la vie privée dans les principes de conception de leurs politiques relatives à la robotique et à l’intelligence artificielle; 
  • 126. répète que le droit au respect de la vie privée et le droit à la protection des données à caractère personnel, inscrits aux articles 7 et 8 de la charte des droits fondamentaux et à l’article 16 du traité sur le fonctionnement de l’Union européenne, s’appliquent à tous les domaines de la robotique et de l’intelligence artificielle, et que le cadre juridique de l’Union en ce qui concerne la protection des données doit être pleinement respecté; souligne la responsabilité qui est celle des concepteurs de robotique et d’intelligence artificielle de développer des produits de telle manière qu’ils soient sûrs, sécurisés et adaptés à l’utilisation à laquelle ils sont destinés, et qu’ils suivent des procédures de traitement des données qui soient conformes à la législation existante et garantissent la confidentialité, l’anonymat, le traitement équitable et le respect du droit; 
  • 127. invite la Commission à veiller à ce que le droit de l’Union relatif à l’intelligence artificielle comprenne des mesures et des règles qui prennent en compte l’évolution technologique rapide dans ce domaine, en vue de garantir que le droit de l’Union ne soit pas en retard en matière de développement et de déploiement technologique; souligne la nécessité d’aligner ce droit sur les règles en matière de protection de la vie privée et des données; appelle à une révision des règles, principes et critères applicables à l’utilisation des caméras et des capteurs dans la robotique et l’intelligence artificielle, conformément au cadre juridique de l’Union pour la protection des données; 
  • 128. invite la Commission à faire en sorte que tout cadre réglementaire à venir de l’Union en matière d’IA garantisse la protection de la vie privée et la confidentialité des communications, la protection des données à caractère personnel, notamment les principes de licéité, loyauté et transparence, de protection des données dès la conception et par défaut, de limitation des finalités, de limitation de la conservation, d’exactitude et de minimisation des données, conformément à la législation de l’Union en matière de protection des données, ainsi que la sécurité, y compris des personnes, et les autres droits fondamentaux, tels que le droit à la liberté d’expression et d’information; 
  • 129. souligne que le droit au respect de la vie privée doit toujours être respecté et que les personnes ne doivent pas être identifiables personnellement; souligne que les développeurs d’IA devraient toujours avoir des contenus clairs, éclairés et dénués d’ambiguïté et que les concepteurs d’IA ont la responsabilité de mettre au point et d’appliquer des procédures pour garantir le consentement valable, la confidentialité, l’anonymat, le traitement équitable et le respect de la légalité; souligne que les concepteurs doivent se conformer à toute demande visant à détruire d’éventuelles données y afférentes ou à les supprimer d’une série de données; 
  • 130. rappelle que le règlement (UE) 2018/1807 du Parlement européen et du Conseil du 14 novembre 2018 établissant un cadre applicable au libre flux des données à caractère non personnel dans l’Union européenne1 dispose que si «les évolutions technologiques permettent de transformer les données anonymisées en données à caractère personnel, ces données doivent être traitées comme des données à caractère personnel et le 
  • 1 JO L 303 du 28.11.2018, p. 59. 
  • règlement général sur la protection des données (RGPD)1 doit s’appliquer en conséquence»; 
  • 1 Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (JO L 119 du 4.5.2016, p. 1). 
  • 2 Directive 85/374/CEE du Conseil du 25 juillet 1985 relative au rapprochement des dispositions législatives, réglementaires et administratives des États membres en matière de responsabilité du fait des produits défectueux (JO L 210 du 7.8.1985, p. 29). 
  • 4.3. Responsabilité 
  • 131. salue l’initiative de la Commission consistant à créer un groupe d’experts sur la responsabilité et les nouvelles technologies, chargé de conseiller l’Union européenne sur l’applicabilité de la directive sur la responsabilité du fait des produits2 aux produits traditionnels, aux nouvelles technologies et aux nouveaux défis de société (sous-groupe «directive sur la responsabilité du fait des produits») et d’aider l’Union européenne à définir des principes d’orientation en vue d’une éventuelle adaptation de la législation applicable au niveau européen et national en matière de nouvelles technologies (sous-groupe «nouvelles technologies»); 
  • 132. déplore toutefois qu’aucune proposition législative n’ait été présentée au cours de la législature actuelle, ce qui retarde la mise à jour des règles en matière de responsabilité au niveau de l’Union et compromet la sécurité juridique dans toute l’Union dans ce domaine, tant pour les commerçants que pour les consommateurs; 
  • 133. constate que les ingénieurs en IA ou les entreprises qui les emploient devraient demeurer responsables des répercussions sociales, environnementales et sur la santé humaine que les systèmes d’IA ou la robotique pourraient avoir sur les générations actuelles et futures; 
  • 4.4. Protection et autonomisation du consommateur 
  • 134. souligne que la confiance des consommateurs est essentielle pour le développement de l’IA et que les systèmes fondés sur l’IA traitent de plus en plus de données des consommateurs, ce qui fait de ceux-ci des cibles privilégiées de cyberattaques; souligne également que l’IA doit fonctionner d’une manière qui ne porte pas préjudice aux citoyens et aux consommateurs et estime donc qu’il y a lieu de veiller à l’intégrité des données et des algorithmes sur lesquels repose cette technologie; 
  • 135. considère que les technologies de l’IA conçues tant pour la fabrication que pour l’usage individuel devraient être soumises à des contrôles de sécurité des produits par les autorités de surveillance du marché et à des règles de protection des consommateurs qui mettent en place, le cas échéant, des normes minimales de sécurité et tiennent compte du risque d’accident résultant de l’interaction avec des humains ou de l’activité à proximité d’humains; estime que toute politique en matière d’IA devrait tenir compte des questions d’éthique, de protection des données, y compris des données de tiers et des données personnelles, de responsabilité civile et de cybersécurité; 
  • 4.5. Droits de propriété intellectuelle 
  • 136. rappelle sa résolution susmentionnée du 16 février 2017, dans laquelle il relevait qu’il n’existe aucune disposition juridique qui s’applique spécifiquement à la robotique mais que les régimes et doctrines juridiques existants peuvent s’appliquer en l’état à ce domaine, certains aspects nécessitant néanmoins un examen spécifique; demande encore une fois à la Commission de soutenir une approche transversale et technologiquement neutre de la propriété intellectuelle, qui s’applique aux différents secteurs concernés par l’application de la robotique; 
  • 137. salue, à cet égard, la communication de Commission aux institutions européennes contenant des orientations sur certains aspects de la directive 2004/48/CE du Parlement européen et du Conseil relative au respect des droits de propriété intellectuelle1 (COM(2017)0708) mais souligne qu’il demeure nécessaire de contrôler la pertinence et l’efficacité des règles en matière de propriété intellectuelle lorsqu’elles sont appliquées à la gouvernance de l’IA; souligne, dans ce contexte, l’importance des bilans de qualité; 
  • 1 JO L 195 du 2.6.2004, p. 16. 
  • 5. Aspects éthiques 
  • 138. estime que les actions et les applications de l’intelligence artificielle devraient respecter les principes éthiques et les lois nationales, européennes et internationales en la matière; 
  • 139. demande la création d’une charte éthique des bonnes pratiques en matière d’IA et de robotique à suivre par les entreprises et les experts; 
  • 140. invite la Commission et les États membres à promouvoir une coopération étroite et transparente entre les secteurs public et privé et le monde universitaire afin de renforcer le partage de connaissances et de promouvoir l’éducation et la formation des concepteurs sur les implications éthiques, la sécurité et le respect des droits fondamentaux ainsi que l’information des consommateurs sur l’utilisation de la robotique et de l’intelligence artificielle, en mettant tout particulièrement l’accent sur la sécurité et la confidentialité des données; 
  • 141. invite la Commission à veiller à ce que les demandes fondées sur l’IA ne puissent pas utiliser des données collectées auprès de différentes sources sans avoir préalablement reçu le consentement des personnes concernées; invite la Commission à créer un cadre garantissant que le consentement explicite des personnes concernées génèrera des données uniquement aux fins prévues; 
  • 142. invite la Commission à respecter le droit des citoyens à une vie hors ligne ainsi qu’à garantir l’absence de discrimination vis-à-vis des citoyens pour lesquels il n’existe pas de données enregistrées; 
  • 5.1. Technologie centrée sur l’homme 
  • 143. souligne que des règles éthiques doivent être en place pour garantir un développement de l’IA centré sur l’homme, la responsabilité et la transparence des systèmes décisionnels algorithmiques, la clarté des règles de responsabilité et l’équité; 
  • 144. se félicite de l’initiative de la Commission visant à établir un groupe d’experts à haut niveau sur l’intelligence artificielle, ainsi qu’un réseau d’alliance européenne de l’IA dont l’objectif est de présenter des lignes directrices en matière d’éthique dans le 
  • domaine de l’IA; demande à la Commission de garantir l’adoption la plus large possible de ces lignes directrices d’éthique par l’industrie, le monde universitaire et les autorités publiques; recommande aux États membres de transposer ces lignes directrices dans leurs stratégies nationales relatives à l’IA et de mettre au point de véritables structures de responsabilité à l’intention de l’industrie et des gouvernements lors de la conception et du déploiement de l’IA; 
  • 145. estime qu’un suivi continu du déploiement des lignes directrices en matière d’éthique dans le domaine de l’IA et de leur incidence sur le développement de l’IA centrée sur l’humain est essentiel; demande à la Commission de déterminer si des lignes directrices volontaires en matière d’éthique suffisent à garantir une adoption éthique et solidaire de l’IA qui ne crée pas de divisions économiques et sociales dans les sociétés européennes et de présenter des mesures politiques et réglementaires, le cas échéant; 
  • 146. prend acte des évolutions récentes en matière de suivi des analyses comportementales et d’adaptation à celles-ci; invite la Commission à mettre au point un cadre éthique délimitant leur utilisation; invite instamment la Commission à créer une campagne de sensibilisation et d’information concernant l’IA et son utilisation dans l’analyse comportementale; 
  • 5.2. Valeurs qui alimentent la technologie – éthique dès la conception 
  • 147. souligne que le cadre éthique de référence devrait se fonder sur les principes de bienfaisance, de non-malfaisance, d’autonomie et de justice, sur les principes et valeurs consacrés à l’article 2 du traité sur l’Union européenne et par la charte des droits fondamentaux de l’Union européenne, tels que la dignité humaine, l’égalité, la justice et l’équité, la non-discrimination, le consentement éclairé, le respect de la vie privée et de la vie familiale et la protection des données, ainsi que sur d’autres principes et valeurs fondateurs du droit de l’Union, tels que la non-stigmatisation, la transparence, l’autonomie, la responsabilité individuelle et la responsabilité sociale, ainsi que sur les pratiques et codes de déontologie existants; 
  • 148. estime que l’Europe devrait jouer un rôle de chef de file sur la scène internationale en déployant uniquement une IA intégrant des principes éthiques; souligne que pour y parvenir, il convient de garantir la gouvernance éthique de l’IA à différents niveaux; recommande aux États membres d’instaurer des organismes de suivi et de surveillance de l’éthique de l’IA et d’encourager les entreprises qui développent l’IA à établir un conseil d’éthique ainsi qu’à mettre au point des lignes directrices en la matière à l’intention de leurs développeurs; 
  • 149. souligne que les normes européennes en matière d’IA doivent se fonder sur les principes d’éthique numérique, de dignité humaine, de respect des droits fondamentaux, de protection et de sécurité des données, et ainsi contribuer à renforcer la confiance des utilisateurs; met en avant l’importance de s’appuyer sur le potentiel de l’Union pour créer une infrastructure solide pour les systèmes d’IA, fondée sur des normes exigeantes en matière de données et de respect des personnes; fait observer que la transparence et l’explicabilité doivent être intégrées dans le développement de l’IA; 
  • 150. fait observer que les technologies de l’intelligence artificielle destinées aux systèmes d’armes automatisés doivent continuer à faire l’objet d’une approche dans laquelle l’homme reste aux commandes; 
  • 5.3. Prise de décision – limites à l’autonomie de l’intelligence artificielle et de la robotique 
  • 151. attire l’attention sur le caractère difficile et complexe de la prédiction des comportements futurs d’un grand nombre de systèmes complexes d’IA ainsi que des comportements découlant de l’interaction entre différents systèmes d’IA; demande à la Commission d’évaluer la nécessité d’établir des règlements spécifiques concernant la prise de décision intégrant l’IA; 
  • 152. note que l’IA restera un outil utile pour compléter l’action humaine et pour améliorer ses performances et réduire les erreurs; 
  • 153. demande que les citoyens disposent d’un droit de savoir, d’un droit de recours et d’un droit d’obtenir réparation lorsque l’IA est utilisée pour des décisions touchant des personnes, ce qui peut poser un risque important pour les droits et les libertés des individus ou porter préjudice à ces derniers; 
  • 154. souligne qu’un algorithme utilisé dans un système de prise de décision ne doit pas être déployé sans avoir fait l’objet d’une analyse d’impact préalable, sauf s’il est clair qu’il n’aura pas d’incidence significative sur la vie des personnes; 
  • 155. estime que l’intelligence artificielle devrait être soumise à des principes solides, notamment les systèmes à autonomie intégrée, y compris la capacité à extraire de manière indépendante des données sensibles, à les collecter et à les partager avec diverses parties prenantes, ainsi que la possibilité d’auto-apprentissage, voire d’évoluer vers l’auto-modification; souligne que les systèmes d’IA ne doivent pas conserver ou divulguer des informations personnelles confidentielles sans l’accord explicite préalable de la source de ces informations; 
  • 5.4. Transparence, biais et explicabilité des algorithmes 
  • 156. fait observer que, si l’intelligence artificielle apporte de grands avantages en termes d’automatisation et de prise de décision, elle comporte également un risque inhérent lorsque les algorithmes sont statiques et opaques; souligne, dans ce contexte, la nécessité d’une plus grande transparence en ce qui concerne les algorithmes; 
  • 157. demande à la Commission, aux États membres et aux autorités chargées de la protection des données d’identifier et de prendre toutes les mesures possibles afin d’empêcher ou de réduire au minimum toute discrimination et biais algorithmiques, et de mettre en place un cadre éthique commun solide pour le traitement en toute transparence des données à caractère personnel et la prise de décision automatisée, qui puisse servir de guide pour l’utilisation des données et pour l’application de la législation européenne; 
  • 158. souligne que tout système d’IA doit être développé dans le respect des principes de transparence et de la responsabilité des algorithmes, de manière à permettre la compréhension de ses actions par les êtres humains; remarque qu’afin de renforcer la confiance et de permettre le progrès de l’IA, les utilisateurs doivent savoir comment sont utilisées leurs données, ainsi que d’autres données et les données déduites des leurs, quand ils communiquent ou interagissent avec un système d’IA ou avec des humains qui s’appuient sur un tel système; considère que cela contribuera à une meilleure compréhension et à plus de confiance de la part des utilisateurs; insiste sur le 
  • fait que le caractère intelligible des décisions doit être une norme de l’Union européenne, conformément aux articles 13, 14 et 15 du RGPD; rappelle que le RGPD prévoit d’ores et déjà le droit d’être informé de la logique qui sous-tend tout traitement de données; souligne que, conformément à l’article 22 du RGPD, les individus ont le droit de bénéficier d’une intervention humaine lorsqu’une décision fondée sur un traitement automatisé les affecte de manière significative; 
  • 159. souligne que la Commission, le comité européen de la protection des données, les autorités nationales chargées de la protection des données et d’autres autorités de contrôle indépendantes devraient désormais jouer un rôle essentiel en vue de promouvoir la transparence, le respect du droit et la sécurité juridique en général, et plus particulièrement les normes concrètes protégeant les droits fondamentaux et les garanties associées au traitement et à l’analyse des données; demande une coopération plus étroite entre les autorités chargées du contrôle ou de la réglementation des comportements dans l’environnement numérique; demande des financements et des effectifs adéquats pour ces autorités; 
  • 160. reconnaît que les algorithmes d’apprentissage automatique sont entraînés pour apprendre par eux-mêmes, apportant ainsi des avantages en termes d’automatisation et de prise de décision; demande l’élaboration de lignes directrices en matière d’éthique de l’IA relatives aux problèmes associés à la transparence, à l’explicabilité, à la responsabilité et à l’équité des algorithmes; 
  • 161. met en évidence l’importance revêtue par l’explicabilité des résultats, des processus et des valeurs des systèmes d’IA, afin de les rendre compréhensibles pour les publics non spécialisés et de leur fournir des informations utiles, ce qui est nécessaire pour en évaluer l’équité et instaurer la confiance; 
  • 162. souligne que le manque de transparence en ce qui concerne ces technologies et leurs applications soulève un certain nombre de questions éthiques; 
  • 163. fait observer que les systèmes d’IA devraient pouvoir être expliqués aux humains et devraient fournir des informations utiles, de façon à ce que des retours d’informations soient possibles; reconnaît que l’efficacité des modèles d’IA dépend des retours d’informations et de la réévaluation et encourage donc ce processus; 
  • 164. constate que les citoyens s’inquiètent du fait de ne pas savoir quand il est fait usage de l’IA et quelles informations sont traitées; recommande que les citoyens soient informés à chaque fois que l’IA est utilisée; souligne qu’afin de conserver la confiance des consommateurs, il importe de garantir la sécurité de la transmission des données; 
  • 165. considère que la responsabilité algorithmique devrait être réglementée par les décideurs au moyen d’analyses d’impact fondées sur des paramètres établis; 
  • 166. note que la divulgation du code informatique lui-même ne résoudra pas le problème de la transparence de l’IA parce qu’il ne révélerait pas les biais inhérents qui existent et ne permettrait pas d’expliquer le processus d’apprentissage automatique; souligne que la transparence signifie non seulement la transparence du code mais aussi des données et de la prise de décision automatisée; 
  • 167. reconnaît que la divulgation du code source est susceptible de conduire à une mauvaise 
  • utilisation des algorithmes et à leur manipulation; 
  • 168. relève l’importance de lutter contre les biais des développeurs et donc la nécessité d’avoir une main-d’oeuvre diversifiée dans tous les domaines du secteur informatique ainsi que des mécanismes de sauvegarde permettant d’éviter que des biais liés au sexe ou à l’âge ne soient intégrés aux systèmes d’IA; 
  • 169. reconnaît que la divulgation du code ou des secrets commerciaux découragerait également les entreprises de R&D de mettre au point de nouveaux codes étant donné que leur propriété intellectuelle serait menacée; constate que le développement de l’IA doit plutôt encourager les modèles d’interprétabilité et leur interaction avec les données d’entrée et d’entraînement; 
  • 170. reconnaît que, bien que la transparence et l’explicabilité puissent révéler des défaillances, elles ne garantissent pas la fiabilité, la sécurité et l’équité; estime, par conséquent, que la responsabilité fait partie intégrante de la mise en place d’une intelligence artificielle digne de confiance, qui peut être obtenue par différents moyens, tels que les analyses d’impact, l’audit et la certification; 
  • 171. souligne la nécessité de développer des protocoles de surveillance continue et de détection de biais algorithmiques; 
  • 172. fait observer que les créateurs d’algorithmes doivent garantir le respect d’exigences essentielles, telles que l’équité ou l’explicabilité depuis le début de la phase de conception et tout au long du cycle d’élaboration; 
  • 173. constate la nécessité d’élaborer des lignes directrices décrivant des bonnes pratiques de développement; 
  • 174. souligne l’importance d’afficher l’historique de tout modèle d’IA afin de pouvoir retracer son évolution; estime que cela améliorera la compréhension des modèles et contribuera à établir une confiance fondée sur leur histoire; 
  • 175. souligne que l’utilisation des systèmes d’IA doit être clairement identifiée dans les interactions avec les utilisateurs; 
  • 176. fait observer que le développement de l’IA et de la robotique devra s’opérer dans le respect des droits de l’homme et ne devra en aucun cas perpétuer, dans les machines et les robots, les stéréotypes fondés sur le sexe ou toute autre forme de discrimination; 
  • 177. fait observer que même des données d’apprentissage de qualité peuvent perpétuer une situation existante d’injustice ou de discrimination si elles ne sont pas utilisées avec soin et discernement; remarque que l’emploi de données de mauvaise qualité, obsolètes, incomplètes ou incorrectes à différentes étapes du traitement des données peut avoir pour conséquence de mauvaises prédictions et évaluations, et donc des biais, qui peuvent résulter en des violations des droits fondamentaux des individus ou des conclusions entièrement incorrectes et des résultats erronés; considère par conséquent qu’il est important, à l’ère des mégadonnées, de veiller à ce que les algorithmes soient entraînés sur des échantillons de données représentatifs et de haute qualité afin de garantir la parité statistique; souligne que même si des données exactes et de haute qualité sont utilisées, l’analyse prédictive fondée sur l’IA ne peut offrir qu’une probabilité statistique; rappelle qu’en vertu du RGPD, le traitement ultérieur des 
  • données à caractère personnel à des fins statistiques, y compris l’entraînement d’IA, ne peut aboutir qu’à des données agrégées qui ne peuvent être réappliquées aux citoyens; 
  • 178. invite la Commission à veiller à ce que toute personne qui produit des documents ou des vidéos synthétiques comportant des trucages vidéos élaborés ou tout autre vidéo synthétique réaliste déclare explicitement qu’il ne s’agit pas d’un original; 
  • 179. constate que l’IA dépend, par nature, de la collecte d’une grande quantité de données et souvent de la création de nouvelles bases de données utilisées pour émettre des hypothèses concernant des personnes; estime qu’il conviendrait de mettre l’accent sur la détermination et l’élaboration de mécanismes d’intervention face aux menaces potentielles en vue de garantir l’atténuation des effets négatifs; 
  • 180. répète que les systèmes d’IA ne doivent pas créer ou renforcer des biais; souligne qu’il convient de tenir compte des biais et de l’équité lors de l’élaboration et de l’utilisation d’algorithmes à toutes les étapes, depuis la conception jusqu’à la mise en oeuvre; estime que les jeux de données et l’algorithme doivent faire l’objet d’évaluations et d’essais réguliers en vue de garantir l’exactitude de la prise de décision; 

 


 

Isaac.Asimov01NB remarque personnelle. Dans de nombreux domaines, comme le Parlement européen l’avait déjà souligné, il importe de conduire une réflexion en amont, les choix ne pouvant plus se résumer à la belle synthèse des fameuses lois d’I. Asimov :

1 « Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. » ;
2 « Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Première Loi. » ;
3 « Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la Première ou la Deuxième Loi. »

Mais dans divers domaines, notamment le véhicule autonome et les questions d’éthique comme de responsabilités, cela reste sur cette base qu’il importe de réfléchir. Voir ici. 


 

Puis viennent des réflexions du Parlement européen, assez longues, sur la Gouvernance européenne et mondiale en ce domaine.

 

robot-1214536_1920.png

 

Bref, cette réflexion passionnante s’inscrit dans la même perspective que :

  • le remarquable rapport Villani (Rapport de synthèse France Intelligence Artificelle, commandé par le Ministère de l’Économie à Cédric Villani, 28 mars 2018 ; voir ici).
  • le Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données).
  • le document de travail sur l’internet des objets de la Commission de l’Union Européenne, 19 avril 2016, p.22.
  • la Résolution du Parlement européen du 16 février 2017 contenant des recommandation à la Commission concernant des règles de droit civil sur la robotique (2015/2103[INL]).