22 juin 2023

Temps de lecture : 4 min

Le Parlement Européen nous protège-t-il vraiment contre les dangers de l’IA ?

La plus haute instance législative européenne a adopté il y a quelques jours l’European AI Act, le fameux projet commun de régulation de l’intelligence artificielle. Reste maintenant aux États membres à trouver un consensus autour d’un texte définitif.

Depuis quelques mois, les mises en garde contre les dangers encourus pour l’espèce humaine d’une recherche dérégulée des intelligences artificielles s’enchainent et se ressemblent. Le 5 avril dernier, nous avions publié une interview de Steven Weber, professeur de science politique à l’université de Californie à Berkeley, dans laquelle il expliquait les raisons qui l’avaient poussé à signer le fameux appel à un moratoire de six mois sur la recherche en IA aux côtés d’un millier d’experts du sujet, tous plus inquiets les uns que les autres.

Il était clair selon lui que « ces outils ont été lâchés dans la nature beaucoup trop tôt », notamment « parce que Microsoft désirait prendre des parts du marché de Google dans le search » et qu’il incombait à présent à l’UE de reprendre le contrôle en instaurant « un RGPD pour l’IA ». Yann Le Cun, patron de l’IA chez Meta, avait beau déclarer la semaine dernière à Viva Tech, devant une foule de technophiles enthousiastes, que « l’IA est intrinsèquement bonne » car elle n’est rien d’autre qu’une « amplificateur d’intelligence » – bel élément de langage, mes respects – et qu’on ne devrait donc pas la craindre mais plutôt l’imaginer comme un simple « assistant dans notre vie de tous les jours », pas sûr que beaucoup mordent à l’hameçon.

 

 

Un bouclier supra-national

Certainement pas le Parlement Européen qui vient d’adopter l’European AI Act pour mettre un bon coup de pied dans la fourmilière dans un contexte de course à la réglementation avec les États-Unis et la Chine. L’instance de Strasbourg a voté à une écrasante majorité – 499 voix pour, 28 contre et 93 abstentions – en faveur d’un nouveau projet d’encadrement du secteur introduit par la Commission européenne il y a déjà deux ans. La version finale de la loi devrait être votée quelque temps fin 2023. Une phase de trilogue, associant le Conseil de l’Union européenne, la Commission et le Parlement, s’ouvre désormais, pour aboutir à un texte définitif.

Thierry Breton, le commissaire européen au Marché intérieur, commente cette promulgation historique en expliquant judicieusement que « l’intelligence artificielle soulève un grand nombre de questions. Elles sont sociales, éthiques, économiques. (…) Il faut agir rapidement et prendre ses responsabilités. Nous travaillons activement à faire de l’Europe le fer-de-lance d’une IA transparente, respectueuse des droits fondamentaux et qui rend compte des valeurs européennes (…) ». De grands mots pour nous enfumer ou une réelle ambition concrétisée par des prises de positions fortes ? Il en faudra assurément…

 

 

Que dit le texte dans le détail ?

La loi impose en réalité un régime réglementaire complet basé sur les risques pour les systèmes d’IA. À savoir que les applications de l’intelligence artificielle qui menacerait les moyens de subsistance ou les droits de l’homme des personnes – en lien avec la surveillance biométrique, par exemple – ou leur sécurité seraient comme « inacceptables » et seraient tout simplement interdites. Pour plus de clarté, une échelle des risques a été établie en ces termes : viennent d’abord les systèmes « à haut risque » tels que les applications dans les infrastructures de transport public l’évaluation scolaire, la chirurgie médicale, l’application de la loi ou l’évaluation du crédit financier. Mettre en place des projets d’IA sur ces thématiques demanderait au préalable à leurs développeurs de respecter une série d’obligations réglementaires d’évaluation des risques et de robustesse de la sécurité avant leur utilisation commerciale.

Viennent ensuite les systèmes à « faible risque » que sont les chatbots génératifs, les logiciels de reconnaissance faciale et les filtres anti-spam, et qui ne demanderaient aux entreprises désireuses de s’y coller qu’une obligation d’expliquer clairement aux utilisateurs comment fonctionnent les produits qu’ils utilisent. Une plus grande marge de manœuvre que Boniface de Champris, responsable des politiques à l’Association de l’industrie informatique et des communications, justifie en soulignant que cette nouvelle réglementation se doit d’aborder les risques tout en laissant suffisamment de flexibilité aux développeurs pour fournir des applications d’IA utiles.

 

 

« Les yeux sont tous tournés vers nous aujourd’hui. Alors que les grandes entreprises de la technologie sonnent l’alarme sur leurs propres créations, l’Europe a proposé une réponse concrète aux risques que l’IA commence à poser », a déclaré Brando Benifei, un euro député italien. « Nous voulons que le potentiel positif de l’IA pour la créativité et la productivité soit exploité, mais nous lutterons également pour protéger notre position et contrer les dangers pour nos démocraties et nos libertés lors des négociations avec le Conseil ».

 

Les détracteurs se font déjà entendre

Mher Hakobyan, conseiller en matière de plaidoyer sur la réglementation de l’intelligence artificielle à Amnesty International, a salué « la décision du Parlement européen, qui a adopté une interdiction des technologies abusives de surveillance de masse lors du vote crucial de ce jour ». Il rappelle cependant qu’il est « que le Parlement et les États membres de l’UE veillent à ce que, lors des prochaines négociations, le texte final de la loi sur l’IA interdise le développement, la vente, l’utilisation et l’exportation des technologies de reconnaissance faciale et autres technologies de surveillance de masse.

Avant de conclure : « Il n’existe pas de moyen d’utiliser l’identification biométrique à distance tout en respectant les droits humains. Aucune correction, technique ou autre, ne saurait la rendre compatible avec le droit relatif aux droits humains. La seule garantie contre l’identification biométrique à distance est une interdiction pure et simple. Si ces systèmes sont légalisés, cela créera un précédent inquiétant et de grande portée, susceptible de conduire à l’avenir à la prolifération de technologies d’IA qui ne respectent pas les droits humains ».

 

 

À lire aussi sur le même thème

Les Newsletters du groupe INfluencia : La quotidienne influencia — minted — the good. Recevez une dose d'innovations Pub, Media, Marketing, AdTech... et de GOOD

Bonne idée ! Je m'inscris !

Allez plus loin avec Influencia

the good newsletter

LES FORMATIONS INFLUENCIA

les abonnements Influencia