1 décembre 2021

Temps de lecture : 6 min

« Il ne faut surtout pas diaboliser la data, ce serait une grave erreur », Aurélie Jean.

Docteure en sciences des matériaux et en mécanique numérique, entrepreneure, Aurélie Jean est une figure internationale de la modélisation et de l’algorithmique. Elle est l’auteure de « De l’autre côté de la machine »* paru en 2019 et qui a reçu le prix du livre INfluencia en 2020. Aujourd’hui, alors que les algorithmes ordonnent et influencent nos vies – et pas seulement sur la Toile – elle se demande : « Les algorithmes font-ils la loi ? »* Interrogée dans notre nouvelle revue sur la data, qui paraît cette semaine, elle répond qu’il ne faut pas s’en laisser conter : derrière et devant les machines agissent des humains, des forces émotionnelles et délibératives, solidaires. Chacun est libre de ses choix. L’important étant de comprendre (à son niveau) ce qu’est la data, et déjà de se poser des questions à son sujet…

INfluencia :  à la question : les algorithmes font-ils la loi ?*  » qui est le titre de votre nouveau livre, Vous répondez : non, mais ils sont partout. Vous conseillez alors de les dompter plutôt que de les réguler. De quelle façon ?

Aurélie Jean : on doit « dompter » les algorithmes, ce qui est une métaphore bien évidemment (rires), par l’obligation pour chaque acteur (individuel, institutionnel ou privé) d’avoir une gouvernance algorithmique pertinente pour assurer le bon fonctionnement de ces entités mathématiques et numériques. Cela inclut les bonnes pratiques de développement, de tests, de backtesting (ou « test rétroactif de validité », i.e. une fois que l’algorithme est utilisé en conditions réelles) et d’usage. Cela passera par une réglementation cohérente, pragmatique et souple, qui protège sans freiner l’innovation.

IN :  les Peut-on dire que les algorithmes sont intelligents ?

A.J : absolument pas ! Les algorithmes maîtrisent un raisonnement analytique uniquement. Ils sont très efficaces, mais sans aucune maîtrise d’une intelligence générale.

IN :  sans intelligence, soit, mais La principale menace néanmoins pourvus d’une forte capacité de nuisance, des algorithmes c’est ce que vous appelez parlez « d’effet bulle ». C’est-à-dire ?

A.J. : cet « effet bulle » n’est pas la principale menace mais une elle en est unedes menaces. On utilise très souvent des algorithmes dits « de catégorisation » pour classer des individus ou des scénarios selon des similarités statistiques. Par exemple, sur une application comme Twitter, on peut « classer » les utilisateurs selon leur comportement : le type de contenu qu’ils partagent ou qu’ils aiment, le type de profil qu’ils suivent… Pour en retour proposer à un utilisateur des contenus que des gens de sa « classe » aiment avec, en théorie, l’idée que ces contenus lui plairont également. En soi, ce genre d’algorithme est beaucoup utilisé, j’en usee les utilise moi-même… Cela étant dit, il faut bien les développer et les utiliser pour écarter les risques intrinsèques à la classification. Dans le cas d’un réseau social comme Twitter,  lacelle-ci classification peut devenir rigide, ce qui suppose que les classes ne changent pas dans le temps et que les individus restent figés dans une classecase, ne passant pas d’une classe à l’autre. L’utilisateur va alors se voir suggérer des contenus de sa classe uniquement. On comprend alors les dérives, comme à travers les classes dans lesquelles les théories du complot et les fausses nouvelles sont partagées, qui vont paraître encore plus plausibles par les utilisateurs. De la même manière, des utilisateurs d’une autre classe penseront que l’on vit dans un monde particulier vu sous le prisme de leur classe uniquement, où les complotistes (ou les anti-vaccins) n’existent pas. Écrit autrement, on crée des bulles d’observation et d’opinion. On parle d’effet bulle.

IN. :  la data peut-elle être une alliée ? Quelles sont les limites de la politique du « no data », ce mouvement de résistance qui émerge face sinon à la « dictature » tout du moins aux dérives du numérique ?

A.J. : il ne faut surtout pas diaboliser la data, ce serait une grave erreur. La politique du « no data » est contre-productive. Depuis des décennies on utilise les données pour calibrer des modèles mathématiques et algorithmiques, ou encore pour les entraîner. Grâce à ces modèles, on peut prévoir la météo, détecter des tumeurs, optimiser des parcours de véhicules, diminuer les accidents sur une chaîne de production, pré-détecter des micro-cracks boursiers, détecter révéler des fraudes financières… et tant d’autres choses. On peut également vous suggérer des contenus pertinents et cohérents vis-à-vis de vos usages sur un moteur de recherche, sur un site de commerce en ligne ou encore sur le site de votre journal favori. Ce dont il faut davantage se méfier, ce sont des usages de ces données. C’est pourquoi le RGPD [règlement général sur la protection des données, ndlr] impose aux acteurs de spécifier l’usage en amont des data collectées pour éviter de tomber dans la collecte massive de données. Le RGPD protège justement les données à caractère personnel. Les prochaines réglementations sur l’IA l’intelligence artificielle seront également un changement important, je l’espère, dans la gouvernance algorithmique.

IN. :  vous avez initié le serment Holberton-Turing** en 2018 sur le modèle du serment d’Hippocrate des médecins. Doit-on et peut-on encore limiter la collecte des data à des finalités bien précises et identifiées en amont ?

A.J. : c’est déjà le cas. Le RGPD impose de définir en amont les usages futurs des données collectées pour éviter une collecte massive des donnéesd’informations à caractère personnel. Avec mon ami et collaborateur Grégory Renard, qui est scientifique en algorithmique et spécialiste en IA et de l’analyse sémantique, nous avons imaginé ce serment pour venir en complément des textes de lois. Ce serment est un moyen de déclencher des prises de conscience individuelles et collectives, mais aussi d’encourager les acteurs scientifiques et techniques à s’interroger sur leur travail, sur les bénéfices, les menaces, le sens de leurs résultats, et plus généralement sur leur responsabilité morale. Depuis la rédaction de ce serment, d’autres textes serments ont vu le jour et qui confirment l’importance de ce genre d’initiative en complément de la loi.

IN. :  vous évoquez régulièrement les nouveaux enjeux pour les entreprises. Comment la data les affecte-t-elle ?

A.J. :   j’aime faire référence au livre The Inversion Factor*** publié chez MIT Press et co-écrit par le professeurr Sanjay Sarma, du MIT, que je connais personnellement et dont j’apprécie le travail. Dans cet ouvrage, les auteurs expliquent comment l’arrivée de la data a permis l’évolution des modèles économiques des entreprises, où les choses s’inversent. Une entreprise ne propose plus un produit mais un service, et les utilisateurs ne sont plus des consommateurs mais des collaborateurs. C’est en collaborant avec les utilisateurs qu’une entreprise va pouvoir récolter ses données dans le but de lui fournir de meilleurs services. Cela étant dit, on comprend bien, alors, les bouleversements dans les entreprises : tant dans ce qu’elles produisent que dans leur relation avec leurs utilisateurs. Elles doivent créer un lien de confiance avec eux en les intégrant dans le processus de développement – tout en leur expliquant d’abord comment les choses fonctionnent un minimum pour espérer obtenir de leur part des retours d’expérience (leur on parle de feedback) afin d’améliorer les technologies et/ou le service proposé.

IN. :  vous êtes une spécialiste duRevenons au code et aux algorithmes. Pourquoi le code et l’entrepreneuriat constituent-ils, selon vous, une « combinaison évidente » ?

A.J. :  on peut innover de plein de manières différentes ! Personnellement, je maîtrise Cela étant dit, l’algorithmique et baigne quotidiennement dans les STEM [science, technology, engineering, and mathematics, ndlr]. Selon moi, ces disciplines permettent d’innover dans tous les domaines. J’ai eu la chance de développer des modèles en ingénierie, en médecine ou encore dans la finance. Cela étant ditÀ force, on comprend bien l’importance de maîtriser cette disciplineles data pour l’utiliser les utiliser même si on n’est pas amené à développer des outils soi-même. Apprendre à coder, même en introduction, permet de démystifier des termes comme algorithme, data, fuite de mémoire, bug et tant d’autres termes. C’est un vecteur pédagogique puissant, j’en suis persuadée.

IN.  :  pensez-vous que le RGPD soit une réelle avancée ? Quelles sont ses faiblesses ?

A.J. : le RGPD est assurément une révolution dont l’Europe peut être fière. Comme je l’écris dans mon livre, ce texte a réussi le pari brillant d’autoriser la collecte de données à caractère personnel en l’encadrant assez fermement. Il a influencé d’autres pays encadrements législatifs comme, aux États-Unis, le texte californien CCPA (California Consumer Privacy Act) qui est reconnu aujourd’hui dans plusieurs États. Il existe des améliorations à réaliserapporter, comme en dans tout les texte de loi. En particulier, il faudrait réparer certains vides technologiques ( comme celui concernant le droit à l’oubli notamment, comme je l’expose dans mon livre) ou encore adapter les applications du RGPD à la taille de l’entreprise : par exemple, une startup à quelques petits détails près devrait être conforme de la même façon qu’un grand groupe comme Orange ou Facebook ? Cela n’a pas de sens. Il faut, je pense, s’inspirer davantage de ce qu’a fait le CCPA aux États-Unis sur ce point.

IN. :   vous dites dans votre ouvrage que dans un futur proche, « l’ombre asservissante disparaîtra pour laisser place à un éclairage juridique et scientifique chez chaque personne physique ou morale. L’Europe mettra en place une régulation pratique et pragmatique permettant de contrôler intelligemment les développements algorithmiques sans empêcher l’humain et notre planète de profiter des avancées et progrès technologiques et scientifiques ». D’où vient cette confiance ?

A.J. : cette confiance me vient de ce qu’on a réussi àpu réaliser dans le passé. La réussite du RGPD me donne confiance en l’Europe pour réussir à construire les prochaines régulations avec pragmatisme et efficacité, en encourageant l’innovation tout et en protégeant les individus.

 

*De l’autre côté de la machine – Voyage d’une scientifique au pays des algorithmes, Humensis, 2019. Les algorithmes font-ils la loi ?, Éditions de l’Observatoire, 2021. 

**Du nom des pionniers de l’informatique Betty Holberton et Alan Turing.

***Linda Bernardi, Kenneth R. Traub, Sanjay E. Sarma, The Inversion Factor: How to Thrive in the IoT Economy, MIT Press, 2017.

Interview extraite de la Revue 38 d’INfluencia DATA : La nouvelle identité ?

in-38

 

 

À lire aussi sur le même thème

Les Newsletters du groupe INfluencia : La quotidienne influencia — minted — the good. Recevez une dose d'innovations Pub, Media, Marketing, AdTech... et de GOOD

Bonne idée ! Je m'inscris !

Allez plus loin avec Influencia

the good newsletter

LES FORMATIONS INFLUENCIA

les abonnements Influencia