5 avril 2023

Temps de lecture : 5 min

« L’IA générative et les outils comme ChatGPT ont été lâchés dans la nature beaucoup trop tôt » estime Steven Weber, de UC Berkeley

Professeur à UC Berkeley School of Information, Steven Weber s’intéresse de près aux enjeux économiques, politiques et sociétaux de l’intelligence artificielle. Avec des milliers d’experts, il a récemment signé l’appel à un moratoire de 6 mois sur la recherche en IA, le temps de prendre le recul nécessaire, publié par le think tank américain Future of Life. Alors que l’Italie vient de bloquer ChatGPT, il partage avec INfluencia ses préoccupations et des pistes de solutions.

Je voudrais poser la question du “pourquoi” cette course à l’IA a été lancée.

INfluencia: vous étiez parmi les premiers à signer la lettre ouverte pour une pause dans le développement de l’IA d’au moins six mois : pour quelle raison ?

Steven Weber: pour être parfaitement transparent, je l’ai signée en pensant que c’était exactement ce qu’il fallait faire, même si la solution proposée – cette idée d’une pause de six mois – n’est absolument pas réaliste. Malheureusement, le débat public et les médias se sont concentrés sur ce caractère irréaliste de la solution, plutôt que sur le fond du message et l’appel à une forme de retenue. Si j’ai signé la lettre, c’est parce que je pensais que cela permettrait d’ouvrir un débat public pour savoir si nous devons ou non aller plus loin avec cette technologie, et sur la façon de le faire. 

Nous connaissons déjà certains des risques posés par ces technologies et nous pouvons être sûrs que beaucoup d’autres seront observés au cours des années à venir, car ces outils ont été lâchés dans la nature beaucoup trop tôt.

Surtout, je voudrais poser la question du “pourquoi” de cette course à l’IA. Il y a encore six à huit mois, l’IA générative et les LLM [Large Language Models, comme GPT], étaient des programmes de recherche très intéressants, qui se déroulaient au sein de quelques startups et universités, et qui n’avaient pas encore été rendus public. Je pense que nous aurions dû en rester à ce stade-là.

IN. : pourquoi, selon vous, ces technologies auraient-elles dû rester au stade de la recherche, et ne pas être mises entre les mains du grand public ?

S.W. : nous avons déjà vécu une période de “move fast and break things” avec les réseaux sociaux… Si c’était à refaire, le referions-nous ? Nous connaissons déjà certains des risques posés par ces technologies et nous pouvons être sûrs que beaucoup d’autres seront observés au cours des années à venir, car ces outils ont été lâchés dans la nature beaucoup trop tôt. 

Microsoft a sauté le pas pour cour-circuiter Google. La décision commerciale la plus irresponsable de 21è siècle

Or, si ces technologies sont arrivées si vite dans les mains du grand public, c’est parce que Microsoft a décidé de sauter le pas, afin de prendre des parts du marché de Google dans le search… Je pense que cette décision restera dans l’Histoire comme l’une des décisions commerciales les plus irresponsables du 21e siècle. Cela est d’autant plus surprenant de la part de Microsoft, une entreprise qui a passé toutes ces dernières années à se bâtir une réputation d’acteur responsable. Il a tout gâché à cause de la promesse de quelques milliards de dollars de revenus dans la recherche en ligne. 

Si vous consultez les rubriques consacrées à l’éthique dans l’intelligence artificielle sur le site de Microsoft, vous trouverez des centaines de pages de documentation sur ce qu’ils appellent leurs principes d’IA éthique et leurs pratiques responsables, avec une longue liste de guidelines qu’ils mettent à la disposition des autres entreprises. Ils ont simplement mis tout cela de côté. Honnêtement, je ne comprends pas le raisonnement derrière tout ça, si ce n’est la pression commerciale à court terme à laquelle on a l’impression qu’ils ont succombé.

IN. : Microsoft, avec son partenariat avec OpenAI a pris les devants, mais d’autres acteurs ont emboîté le pas : cette concurrence est-elle saine ?

S.W. : Google a noué un accord avec la startup Anthropic, Meta a déjà son modèle, LLaMA, et Amazon développe probablement ses propres modèles de langue. Vous avez donc une forme de concurrence, mais une concurrence entre silos, ce qui est très inefficace pour le secteur dans son ensemble et ralentit le progrès pour la société. Cela segmente également les dangers et les risques, ce qui va rendre les choses plus difficiles à gérer. Il s’agit d’une technologie très, très précoce et j’aimerais la voir évoluer dans un écosystème plus ouvert. Au lieu de cela, nous avons des concurrents qui font la course pour se devancer les uns les autres commercialement et pour les talents, ce qui me semble sous-optimal d’un point de vue sociétal et technologique.

Ce que je crains le plus, c’est ce que les Américains appellent parfois le “Thalidomide moment”, en référence à la mise sur le marché prématurée d’un médicament dans les années 50, avant qu’il n’y ait des mécanismes de contrôle pour tester les produits pharmaceutiques.

Ma crainte, c’est que quelque chose de vraiment grave arrive, que cette technologie nous explose à la figure. Par exemple, qu’elle pollue l’élection de 2024 de la même manière que les médias sociaux ont impacté l’élection précédente, mais de façon beaucoup, beaucoup plus grave. Ce que je crains le plus, c’est ce que les Américains appellent parfois le “Thalidomide moment”, en référence à la mise sur le marché prématurée d’un médicament dans les années 50, avant qu’il n’y ait des mécanismes de contrôle pour tester les produits pharmaceutiques. Ce médicament, utilisé pour réduire les nausées chez les femmes enceintes, a entraîné un grand nombre de malformations chez les bébés, parce que les tests n’avaient pas été effectués à l’avance. Ce drame a retardé l’innovation dans le secteur pharmaceutique pendant des dizaines d’années. 

IN. : quelles solutions préconisez-vous ?

S.W. : je n’ai pas vraiment envie de ralentir les choses et d’empêcher cette technologie de se développer. Néanmoins, pour que cette dernière tienne ses promesses et ait un impact positif sur le monde, il faut qu’elle soit sûre.

Les Américains ne l’avoueront jamais, mais le RGPD, avec ses qualités et ses défauts, est maintenant la norme pour les entreprises américaines en matière de protection de la vie privée

Si j’avais une baguette magique, j’aimerais voir la demi-douzaine des plus grandes entreprises qui travaillent sur ce sujet devancer les autorités de la concurrence et se mettre d’accord pour définir un régime d’autorégulation. Celui-ci pourrait être inspiré de la manière dont les essais cliniques pour les produits pharmaceutiques sont menés. Avant une mise sur le marché, les médicaments doivent suivre des étapes : un essai de phase 1 permet de déterminer si ce médicament est réellement efficace, puis un essai de phase 2 le compare à un placebo, et dans un essai de phase 3, on cherche à observer les effets secondaires sur une population-test un peu plus large. Tout cela est très précisément encadré par la FDA et beaucoup de médicaments ne passent pas ces différentes étapes avant la mise sur le marché.

la FTC [l’Autorité de la Concurrence] est tellement surchargée de dossiers, qu’elle n’a tout simplement pas la capacité de se pencher sur l’IA générative qui évolue beaucoup trop rapidement.

Mais aujourd’hui, aux Etats-Unis, la FTC [l’Autorité de la Concurrence] est tellement surchargée de dossiers, qu’elle n’a tout simplement pas la capacité de se pencher sur l’IA générative qui évolue beaucoup trop rapidement. Je pense que Bruxelles a de bonnes chances d’être le principal régulateur de cette technologie, de la même manière que le RGPD pour les données personnelles. 

Les Américains ne l’avoueront jamais, mais le RGPD, avec ses qualités et ses défauts, est maintenant la norme pour les entreprises américaines en matière de protection de la vie privée… Sur ce sujet, l’Europe a joué le rôle de régulateur mondial, et ça a fonctionné. Nous finirons aussi par avoir un RGPD pour l’IA.

Allez plus loin avec Influencia

the good newsletter

LES FORMATIONS INFLUENCIA

les abonnements Influencia