Affichage des articles dont le libellé est data. Afficher tous les articles
Affichage des articles dont le libellé est data. Afficher tous les articles

13 mai 2021

Confiance & IA

 

Comment redonner confiance dans l'Intelligence Artificielle tout en conservant la capacité d'innovation des acteurs, si possible, européens? 

 

 C’est la question à laquelle la Commission Européenne souhaite apporter une réponse en publiant le 21 avril 2021 ses proposition en matière de régulation de l'intelligence artificielle. A l'instar du RGPD sur les données personnelles, elle souhaite que l'Europe soit la référence mondiale pour une intelligence artificielle digne de confiance. Pour ce faire, elle soumet un classement en cinq catégories selon le risque que peut représenter l'IA pour la sécurité et les droits fondamentaux des citoyens et des entreprises européens. A noter que les différentes catégories ne font jamais directement le lien avec les IA mises en place dans les réseaux sociaux. Est-ce réellement un oubli ?

 

Nous pouvons illustrer la gradation des risques mentionnés par la Commission Européenne  par :

Inacceptable si l'IA vise à :

  • Manipuler le comportement humain pour priver les utilisateurs de leur libre arbitre ;
  • Contribuer à une notation sociale.

Élevé pour un usage de l'IA dans :

  • Les infrastructures critiques (par exemple les transports) susceptibles de mettre en danger la vie et la santé des citoyens ;
  • L'éducation ou la formation professionnelle, qui peuvent déterminer l'accès à l'éducation et le parcours professionnel d'une personne (par exemple, la notation d'épreuves d'examens);
  • Les composants de sécurité des produits (par exemple, l'application de l'IA dans la chirurgie assistée par robot);
  • L'emploi, la gestion de la main d'œuvre et l'accès à l'emploi indépendant (par exemple, les logiciels de tri des CV pour les procédures de recrutement);
  • Les services privés et publics essentiels (par exemple, l'évaluation du risque de crédit, qui prive certains citoyens de la possibilité d'obtenir un prêt);
  • Le maintien de l'ordre, qui est susceptible d'interférer avec les droits fondamentaux des personnes (par exemple, la vérification de la fiabilité des éléments de preuve);
  • La gestion de la migration, de l'asile et des contrôles aux frontières (par exemple, la vérification de l'authenticité des documents de voyage);
  • L'administration de la justice et des processus démocratiques (par exemple, l'application de la loi à un ensemble concret de faits).

Limité si l'IA contribue :

  •     Aux agents conversationnels tels que les Chabots.

Minime si l'IA entre dans :

  •     Les filtres anti-spam ;
  •     Les jeux vidéo.

A souligner, cette dernière catégorie regroupe à date la majorité des usages.

Les risques
Gradation des risques de l'IA

Par ailleurs, chaque niveau de risque entrainera des obligations spécifiques pour la mise sur le marché  de l'intelligence artificielle. Ces mesures pourront, pour un risque limité, consister simplement en une  information. Par contre, pour les IA à hauts risques, elles pourront nécessiter notamment des études d'impact, des mesures d'atténuation des risques, offrir une capacité à être auditées, etc. Ce point présente  une certaine cohérence avec la philosophie du RGPD !

Quelles seront les prochaines étapes ?

Les prochaines étapes consisteront à faire adopter les propositions par les Etats membres ainsi que le Parlement européen. Et là, c'est une histoire de temps et de lobbies ! 

Source :