22 mai 2025

Temps de lecture : 6 min

Recherche, messagerie, lunettes connectées… Google redessine notre quotidien numérique

À l’I/O 2025, Google a tout misé sur l’intelligence artificielle pour réinventer nos usages quotidiens : recherche, messagerie, création, shopping… Une démonstration impressionnante... et pourtant. Ces innovations sont-elles prêtes à s’ancrer dans nos vies, ou restent-elles des promesses en quête d’usage réel ?

Le 20 mai 2025, Google a tenu sa conférence annuelle I/O au Shoreline Amphitheatre de Mountain View, en Californie. Pendant plus de trois heures et demie, les équipes de Sundar Pichai, PDG d’Alphabet ont déroulé une avalanche d’annonces, toutes centrées sur une seule ambition : faire de l’intelligence artificielle la nouvelle interface de notre quotidien numérique. Chaque outil, chaque service, chaque interaction est désormais réimaginé à travers le prisme de l’IA générative, avec Gemini comme pilier central dans ses multiples déclinaisons (2.5, Flash, Live). C’est désormais clair : Google n’est plus simplement une entreprise de services numériques, mais une entreprise d’intelligence artificielle.

Mais cette transformation est autant stratégique que technique. Face à OpenAI — désormais soutenu à la fois par Apple et Microsoft —, Google doit marquer sa différence tout en sécurisant son cœur économique : la publicité ciblée et les données comportementales. Un exercice d’équilibriste, qui suppose de convaincre à la fois développeurs, annonceurs et utilisateurs… dont les attentes, aujourd’hui, ne coïncident pas toujours. On vous livre un résumé condensé, mais critique et structuré, de tout ce qu’il fallait retenir de cette édition 2025 : ce que Google a montré, ce que cela change — et ce que cela implique vraiment pour nos usages, nos modes de consommation et l’écosystème numérique.

Recherche et AI Overviews : la fin du web ouvert ?

L’un des changements les plus structurants concerne la recherche. L’interface traditionnelle de Google cède de plus en plus la place aux “AI Overviews” : des blocs de réponse générés directement par l’IA, combinant plusieurs sources et informations. Le bénéfice immédiat pour l’utilisateur : une réponse plus rapide, synthétique, parfois contextualisée. Mais le coût est majeur pour les producteurs de contenus, médias en tête.

Ce format court-circuite les clics, réduit l’exposition aux sources, et transforme Google en éditeur de fait. Dans le secteur de la presse, nombreux sont ceux à parler d’un “moment Facebook”, avec un risque de dépendance accrue à un écosystème opaque et centralisé. Pour les consommateurs, cela signe aussi la fin d’une certaine découverte horizontale de l’information. La réponse est déjà là, prête à être crue, digérée, avalée — mais sans que l’on sache vraiment qui parle, ni sur quoi elle repose.

Astra & Gemini Live : assistant augmenté ou coach algorithmique ?

Gemini Live et Project Astra incarnent la volonté de Google de réinventer l’assistance numérique : caméras, micros, texte, vidéo, contexte — tout est agrégé pour proposer une interaction fluide et proactive. L’assistant devient un compagnon, capable de mémoriser vos préférences, de comprendre ce que vous regardez ou entendez, et de réagir en temps réel.

Mais cette fluidité pose des questions. Jusqu’où accepterons-nous que nos appareils soient “toujours à l’écoute” ? Peut-on parler de confort quand on commence à externaliser des fonctions cognitives élémentaires (planifier, organiser, comprendre) à un système propriétaire ? Et quelles garanties avons-nous quant à l’utilisation (présente et future) des données enregistrées par ces interfaces omniscientes ?

Création de contenus : une IA qui automatise (presque) tout

Sur le terrain stratégique des créateurs, Google avance à pas de géant. Avec Imagen 3 et 4, la firme propose désormais des modèles capables de générer des visuels d’un réalisme bluffant, rivalisant avec les meilleures banques d’images. Plus impressionnant encore, Veo inaugure une nouvelle ère pour la vidéo générative : narration structurée, plans fluides, rendu 1080p, transitions automatiques… le tout à partir d’un simple prompt textuel. Côté plateformes, YouTube Studio se dote de Gemini, qui suggère des scripts, génère des miniatures, automatise le titrage et peut même proposer des montages sur la base de tendances ou d’analyses sémantiques. Une promesse de gain de temps indiscutable pour les créateurs solo ou les petites équipes.

Mais à l’échelle de l’écosystème, le risque est double : tout d’abord, une standardisation massive des contenus, clonés, préformatés, où la ligne éditoriale disparaît au profit de l’efficacité algorithmique. Sans oublier un glissement du rôle du créateur vers celui de “contrôleur qualité” d’un flux produit par l’IA, réduit à valider, affiner, diffuser — plus qu’à inventer. Cette industrialisation du storytelling ne manquera pas de séduire les marques, les agences et les médias cherchant à produire plus vite et à moindre coût. Mais elle pourrait aussi provoquer un backlash culturel : dans un monde saturé de contenus homogènes, l’originalité, l’imperfection, la subjectivité — bref, l’humain — pourraient redevenir des signes distinctifs recherchés. Autrement dit : l’authenticité deviendrait un luxe.

Shopping IA, Gmail personnalisé, Google Beam

Derrière la diversité des outils dévoilés, une même logique traverse l’ensemble des annonces de Google : celle d’un quotidien rendu plus fluide par la prédiction, la simplification et l’automatisation des tâches ordinaires. Dans le e-commerce, l’IA s’immisce dès la recherche d’un produit. Grâce à la vision par ordinateur, Google propose désormais des essayages virtuels directement depuis une recherche, tout en affinant ses recommandations à partir des goûts, des tailles et des budgets détectés chez l’utilisateur. Une expérience d’achat personnalisée, quasi frictions-free, pensée pour réduire l’hésitation et maximiser la conversion.

Du côté de Gmail, la logique est similaire : anticiper l’intention pour faire gagner du temps. Le système génère des brouillons adaptés à la tonalité de l’interlocuteur (formelle, amicale, commerciale…) avec une fluidité déconcertante. Là encore, l’utilisateur se transforme en validateur plus qu’en rédacteur. Enfin, avec Google Beam, évolution de son projet Starline, la firme ambitionne de réenchanter la visioconférence. Finis les visages à plat sur écran : les appels deviennent immersifs, en 3D, sans besoin de casque ou de lunettes. Objectif affiché : réinjecter de la chaleur humaine dans des échanges dématérialisés devenus trop froids, trop fonctionnels.

Un confort certain, mais aussi une forme de délégation constante : nos messages, nos achats, nos interactions — tout devient assisté. Reste à savoir si cette assistante omniprésente renforce notre capacité d’action… ou si elle finit par l’émousser.

Les lunettes connectées… vraiment prêtes pour le grand public ?

Parmi les annonces les plus spectaculaires de cette édition 2025, les lunettes Android XR occupent une place de choix. Conçues en collaboration avec des marques de mode comme Warby Parker et Gentle Monster, elles marient design soigné et promesse technologique : traduction en temps réel, superposition d’informations contextuelles, interaction directe avec Gemini, le tout sans altérer l’apparence ni alourdir le visage. Mais derrière le vernis de l’innovation, les doutes s’accumulent.

D’abord, l’usage des lunettes connectées reste pour le moment ultra-marginal, encore loin d’un geste quotidien pour la majorité des consommateurs. Ensuite, leur prix, encore non communiqué, devrait dépasser allègrement les 1 000 euros, freinant leur adoption au-delà d’une élite technophile. À cela peut s’ajouter un facteur social peu maîtrisable : le rejet persistant de ces objets dans l’espace public, souvent perçus comme intrusifs ou anxiogènes.

À court terme, c’est sans doute dans les univers professionnels — logistique, santé, industrie — que ces lunettes ont le plus de chances de s’imposer. Là où le besoin d’interface mains libres, de visualisation contextuelle ou d’assistance guidée est réel, documenté et finançable. Pour le grand public, en revanche, l’équation reste ouverte. Il faudra un déclencheur : une baisse significative des prix, un usage phare plébiscité par les utilisateurs, ou un effet de mode porté par des figures d’influence. À ce stade, l’effet “wow” ne suffit pas à garantir l’effet “waouh j’achète”. Mais, cela peut évoluer… et même plus rapidement qu’on peut l’imaginer. Pour cause, ces technologies innovantes avancent à grand pas. Les lunettes intelligentes présentées au CES 2025 ont montré des avancées significatives au niveau des fonctionnalités, du design et des prix (plus accessibles).

Viabilité économique : un modèle encore flou

Derrière la démonstration technologique, une question centrale reste en suspens : comment Google compte-t-il rentabiliser cette nouvelle galaxie de services dopés à l’IA ? Si la firme promet que de nombreuses fonctionnalités de Gemini resteront gratuites, notamment pour le grand public, elle amorce déjà un virage plus structuré vers un modèle payant. L’offre Gemini Advanced, à 49 dollars par mois, s’adresse clairement aux professionnels : créateurs de contenus, communicants, PME, tous ceux qui chercheront à exploiter le plein potentiel de l’assistant, de la mémoire contextuelle à la génération vidéo ou à l’intégration dans les flux de production.

Mais Google ne pourra pas indéfiniment avancer sans résistance. Les éditeurs, déjà fragilisés par la centralisation de la recherche, voient d’un très mauvais œil l’utilisation de leurs contenus pour entraîner les modèles de Gemini. Certains envisagent même des ripostes juridiques ou techniques (via robots.txt) pour bloquer cette captation sans contrepartie. Les rapports avec l’écosystème médiatique s’annoncent donc de plus en plus tendus, à mesure que Google se mue en agrégateur intelligent.

Même prudence du côté des annonceurs, pourtant clients historiques du géant. S’ils saluent les promesses d’un ciblage plus précis grâce à l’IA, ils s’inquiètent de la perte de lisibilité sur les contextes de diffusion, la maîtrise du message et l’expérience utilisateur dans un univers où tout est préfabriqué par algorithme. Autrement dit, plus l’IA s’interpose entre les marques et les publics, plus elle brouille la relation.

Bref, une démonstration magistrale… mais un avenir encore incertain

Google table sur un équilibre à trois étages : une base gratuite pour installer les usages, une couche premium pour monétiser auprès des pros, et une architecture publicitaire nourrie aux données comportementales. Mais ce château repose sur un socle encore mouvant. Car à ce stade, la promesse est là — mais l’adoption, elle, reste à construire.

Avec I/O 2025, Google n’a pas seulement montré sa puissance technologique. Il a dessiné un avenir possible : celui d’un quotidien guidé, filtré, enrichi — mais aussi encadré, surveillé, pré-mâché. La question n’est plus de savoir si l’IA va changer nos vies, mais comment, à quel rythme et avec quels garde-fous. Pour l’instant, beaucoup de ces outils relèvent encore de la fascination technique. Leur adoption réelle dépendra de la capacité de Google à générer du désir, de la confiance et de la valeur d’usage. Trois piliers qui, eux, ne s’inventent pas par algorithme.

Allez plus loin avec Influencia

the good newsletter

LES FORMATIONS INFLUENCIA

les abonnements Influencia