Brioche Pasquier utilise l’IA vocale pour permettre – enfin – à ses salariés de tous pays, de se comprendre
Avec l’IA vocale, Brioche Pasquier facilite les échanges entre salariés de nationalités diverses mais rappelle l’importance d’une mise en place sécurisée de l’intelligence artificielle.
Présente dans près d’une dizaine de pays, Brioche Pasquier, leader français de la viennoiserie, a franchi une étape décisive dans la modernisation de sa communication interne.
Le groupe a récemment intégré DeepL Voice, une solution de traduction vocale instantanée, afin de lever les barrières linguistiques entre ses sites en France et ses filiales à l’étranger.
Mais cette avancée ne s’est pas faite sans répondre à une autre exigence clé : la protection de la confidentialité des données, un impératif majeur pour toute entreprise recourant à des outils d’intelligence artificielle.
Les non-anglophones n’osaient pas s’exprimer lors des réunions internationales
Dans un environnement de travail multiculturel, la langue peut devenir un obstacle majeur à la collaboration. Bien que la diversité linguistique soit une richesse, elle peut ralentir les échanges, créer des malentendus et générer de la frustration.
Chez Brioche Pasquier, les collaborateurs non anglophones hésitaient parfois à s’exprimer lors de réunions internationales, de peur d’être mal compris. Cela entraînait des pertes d’information et des délais de décision prolongés.
Pour y remédier, le groupe a opté pour DeepL Voice, un outil qui permet à chacun de s’exprimer dans sa langue maternelle, tout en assurant une traduction orale fluide et instantanée. Le résultat : des réunions plus inclusives, plus claires et plus efficaces.
« Ce qui nous a séduits, c’est la qualité des traductions. DeepL Voice est de loin l’outil le plus complet que nous ayons testé. Nos réunions sont désormais plus humaines », témoigne Christine Aubry, coordinatrice internationale chez Brioche Pasquier.
75% des entreprises européennes ne respecteraient pas le RGPD
L’usage d’une IA vocale dans un contexte professionnel pose une question fondamentale : qu’advient-il des données échangées ? Pour Brioche Pasquier, comme pour toute entreprise responsable, garantir la confidentialité et la sécurité des données était une condition sine qua non à l’adoption d’un tel outil.
L’IA linguistique de Deepl, qui est déjà utilisée par plus de 200.000 entreprises et gouvernements, assure protéger les datas de ses clients. Son outil a reçu la certification ISO 27001 sur la sécurité de l’information, la cybersécurité et la protection de la vie privée pour les systèmes de management de la sécurité de l’information.
Il est également estampillé SOC 2 Type II, une norme qui a été conçue pour les organisations de services et les rapports sur les contrôles non-financiers. Il est également conforme au Règlement Général sur la Protection des Données (RGPD), un cadre européen que 75% des entreprises du Vieux Continent ne respecteraient pas, selon une récente enquête d’Ipsos.
L’un des enjeux majeurs de l’IA générative réside dans le risque d’exposition involontaire de données sensibles. Nombreux sont les employés qui, en interagissant avec ces outils, y déposent par méconnaissance des informations confidentielles, sans avoir conscience des dangers.
Cette imprudence peut entraîner la divulgation de secrets commerciaux, la violation de données personnelles ou encore des contentieux liés aux droits d’auteur. Et lorsque les bonnes pratiques de sécurité sont ignorées, c’est l’ensemble de l’entreprise qui s’expose à des conséquences juridiques ou réputationnelles.
De nouvelles attaques : l’extraction ou l’empoisonnement des données
Le risque ne se limite pas aux utilisateurs directs. Une faille dans une solution d’IA générative tierce peut compromettre des systèmes centraux interconnectés, facilitant ainsi le vol de propriété intellectuelle.
Par ailleurs, l’essor de cette technologie donne naissance à des formes d’attaques inédites. L’extraction de données consiste à regrouper, à des fins malveillantes, des informations sensibles issues de différentes sources.
Quant à l’empoisonnement des données, il s’agit d’introduire sciemment des informations falsifiées dans le système afin d’en altérer les résultats ou de le rendre inopérant.
Manipulation des modèles d’IA eux-mêmes
Les modèles prédictifs de l’IA, utilisés pour dégager des tendances, peuvent eux aussi faire l’objet de manipulations, menant à des projections biaisées, à du vol d’informations ou à de fausses conclusions.
Autre menace croissante : l’injection de commande, une technique qui permet aux cybercriminels de manipuler le comportement du modèle afin qu’il dévoile des données confidentielles ou exécute des actions non prévues.
Adopter des architectures de sécurité renforcées devient impératif
Face à ces défis, les entreprises doivent conjuguer innovation et vigilance. Elles peuvent encadrer efficacement l’usage de l’IA générative en définissant des politiques claires et en s’appuyant sur des outils capables de surveiller en temps réel les échanges avec ces technologies.
– Cela passe notamment par l’adoption d’architectures de sécurité modernes, comme les plateformes SSE (Security Service Edge), fondées sur les principes du « zero trust ». Celles-ci unifient la protection des données, des applications SaaS, des navigateurs et des systèmes internes via une couche de sécurité centralisée dans le cloud.
– Les CASB (Cloud Access Security Brokers) jouent aussi un rôle central dans ces dispositifs. Ils offrent une visibilité sur les services cloud utilisés, identifient les risques associés aux applications, détectent les comportements à risque et assurent la conformité.
– Des solutions commencent à être proposées pour les IA génératives. Grâce à une catégorisation intelligente des menaces et une analyse comportementale, les entreprises peuvent adapter leurs protocoles de sécurité en temps réel.
Si l’IA générative ouvre un champ presque infini d’opportunités pour les marques, son encadrement est nécessaire pour ne pas dire obligatoire.