27 novembre 2023

Temps de lecture : 3 min

L’IA et le mirage de l’optimisation totale.

Alors que l’IA tisse sa toile dans les moindres recoins de notre existence, on ne peut rester sourds aux voix qui s’inquiètent d’un scénario où la technologie et la modélisation deviendraient totales, permanentes et systématiques. Un article de Maurice N’Diaye à retrouver dans la revue 44 d’INfluencia.

Le recours à l’IA repose beaucoup sur l’idée d’optimiser des tâches, d’automatiser des processus et d’augmenter l’humain. Avec, pour une communauté d’acteurs, le rêve d’atteindre un jour une IA si puissante qu’elle pourrait se substituer à toutes les tâches et aux décisions réalisées par l’humain.

Mais doit-on adhérer à l’idée qu’il existe une version optimale de tout ? Que nos comportements, nos souhaits, nos choix, nos décisions puissent être optimisées ? Qu’il n’y ait qu’une seule et unique « bonne réponse » à chacun de nos problèmes ?  Certainement pas et il est important de se rappeler que les fondements essentiels de ce qui constitue nos sociétés, notre humanité et nos intelligences ne peuvent être réduits en algorithme.

Tout n’est pas optimisable

Les limites ne sont pas seulement techniques, liées au fait qu’on ne sait aujourd’hui représenter toute la complexité du monde par des modèles. Loin s’en faut ! Trop de paramètres, trop d’intrications, trop d’aléas… Il n’y a qu’à regarder la fiabilité d’un bulletin météo une semaine à l’avance en bord de mer.

Mais même avec des modèles très puissants, qui peuvent restituer des dynamiques partielles sur le fonctionnement d’un secteur, d’une population ou d’un événement climatique, il est des choses qu’on ne rationalise pas.

La justice par exemple. Y a-t-il une seule bonne et optimale manière de délivrer la justice ? Les différents modèles à travers le monde ne semblent pas dégager une réponse parfaite mais plutôt plusieurs typologies de systèmes, avec chacun leurs équilibres et leurs principes.

La morale ensuite. On cite souvent la « moral machine » ou le dilemme du tramway (est-il moral d’aider quelqu’un quand cela peut nuire à autrui ?). Et les résultats de ce test diffèrent totalement selon les régions du monde. Certaines privilégient le pragmatisme, d’autres des principes moraux figés. 

Le bonheur également, comment le définir, comment le mesurer et donc comment l’optimiser ?

Et que dire de la religion, des systèmes politiques, des modèles sanitaires ou du rapport à la distribution des richesses…

 

L’IA hybride, LA solution ?

Le mirage de l’optimisation cache un présupposé qui réduit la finalité des algorithmes à un petit nombre d’indicateurs. Mettre en œuvre la rationalité revient souvent à définir une fonction d’optimisation, qui va chercher à maximiser ou minimiser une valeur afin de trouver la « meilleure » réponse à un problème posé. Comment augmenter les revenus, réduire les délais de livraison, améliorer le niveau de satisfaction des clients, limiter le nombre d’accidents ?

Dans de nombreux cas, une approche algorithmique est en mesure d’apporter de gigantesques gains d’efficacité pour prendre de meilleures décisions, plus rapidement et réduire les erreurs ou le gâchis de ressources.

Mais ne nous trompons pas sur le fait que cette approche ne peut et ne doit s’appliquer qu’à une partie de nos problèmes et de nos vies. Il serait inconscient, par exemple, de prétendre qu’une machine puisse déterminer LA meilleure façon de gérer la fin de vie. Ou LA meilleure manière de construire un système de représentation politique.

Nous devons continuer à penser ensemble les valeurs et principes auxquels nous croyons, qui nous unissent et qui peuvent différer, parfois fortement, d’un peuple à un autre, d’une époque à une autre. Il est possible de concevoir des algorithmes qui nativement intègrent des règles ou des principes, pour orienter certaines tâches dans un champ de contraintes prédéfini. Par exemple, dans l’optimisation de l’allocation du temps d’une équipe sur une semaine, prévoir que les employés ne travaillent pas la nuit ou le week-end ! De la même manière qu’un Deliveroo peut intégrer le mode de transport de son livreur pour adapter ses objectifs de temps de trajet, il est possible d’étendre de façon systématique, dans tout modèle de simulation ou d’optimisation, des contraintes d’ordre moral, éthique ou sanitaire. 

Au-delà d’être une possibilité, cela doit devenir un réflexe afin de garantir une utilisation saine et respectueuse de l’IA, hybride dans le sens où elle respecte les sensibilités et différences, responsable dans le sens où elle pose des limites à la rationalité et l’optimisation dans un monde qui s’accélère de façon brutale.

L’avenir de l’IA réside dans une collaboration étroite entre technologues, philosophes, sociologues, psychologues et éthiciens. Ensemble, ils peuvent façonner une IA qui résonne avec nos émotions, nos aspirations, une IA qui est un miroir fidèle de notre complexité et de notre diversité.

 

À lire aussi sur le même thème

Les Newsletters du groupe INfluencia : La quotidienne influencia — minted — the good. Recevez une dose d'innovations Pub, Media, Marketing, AdTech... et de GOOD

Bonne idée ! Je m'inscris !

Allez plus loin avec Influencia

the good newsletter

LES FORMATIONS INFLUENCIA

les abonnements Influencia