Risques et atouts de l’intelligence artificielle générative pour les services client
Les IA génératives, comme ChatGPT, ont plusieurs avantages pour un service client. Mais les organisations doivent comprendre les risques liés à cette technologie, comme les réponses fabriquées de toutes pièces ou les biais.
L’IA générative peut avoir plusieurs applications pertinentes pour les services clients. Mais les outils comme ChatGPT, Google Bard ou Jasper AI présentent aussi des risques. Les professionnels du CX doivent les avoir à l’esprit pour mieux les contrôler avant de mettre en œuvre ce type de technologies dans leurs call centers.
Pourquoi et comment utiliser l’IA générative dans le service client ?
L’IA générative – comme GPT d’OpenAI (l’algorithme qui motorise ChatGPT) – est un outil qui comprend des questions formulées en langage naturel (« les prompts ») et qui génère des réponses tout aussi naturelles, sur un mode de conversation.
Derrière cette technologie se trouvent ce qu’on appelle les « grands modèles de langages » (les LLMs pour Large Language Model). Ces LLM s’entraînent sur des corpus (internet, la base de savoir d’une entreprise, ou les deux, selon les cas) et « apprennent » sur divers types de données (texte, audio, images) pour arriver à générer des réponses qui auraient pu être imaginées par des humains.
Chaque entreprise étant différente, les cas d’utilisation peuvent varier considérablement d’un service client à l’autre. Mais de manière générale, les organisations intègrent de plus en plus de l’IA générative dans leurs chatbots pour :
- Répondre aux questions des clients sur un produit ou un service.
- Faciliter les commandes, les échanges et les retours.
- Fournir une assistance multilingue.
- Orienter les utilisateurs vers les FAQ et les équipes de service pour obtenir de l’aide.
Les risques de l’IA générative pour le service client
Malgré leurs avantages, les systèmes d’IA générative présentent aussi des risques.
1. Informations inventées de toutes pièces
Les réponses d’une IA générative ne sont pertinentes que si les informations sur lesquelles elle a été entraînée sont, elles aussi, pertinentes.
Mais même avec de « bonnes » données, l’IA peut dans certains cas interpréter les informations de manière incorrecte ou s’appuyer sur des informations insuffisantes ou obsolètes. Elle peut alors donner de mauvaises réponses à l’utilisateur, voire créer des réponses de toutes pièces. À l’extrême, on parle même « d’hallucinations ».
Les hallucinations sont des « non-sens cohérents », c’est-à-dire de fausses déclarations, quelques fois sans lien avec le sujet, que les chatbots lancent avec assurance et éloquence.
À chaque fois qu’un bot génère des résultats aléatoires, totalement imaginaires ou inexacts, les utilisateurs perdent confiance dans l’outil. Il faut donc veiller particulièrement à mitiger ce risque de « mauvaises réponses ».
2. Informations biaisées
Les modèles d’IA générative comme ChatGPT s’entraînent sur des données provenant de milliards de pages web. Par conséquent, les préjugés (politiques, par exemple) présents sur internet peuvent se retrouver dans les résultats de l’outil.
Si le chatbot d’une organisation génère des réponses sexistes ou politiquement biaisées – ce que ChatGPT a déjà fait –, l’image de marque d’une organisation peut être sérieusement écornée.
Les organisations qui souhaitent investir dans un outil d’IA générative doivent comprendre comment les différents éditeurs entraînent leurs produits (et s’ils appliquent des mesures pour réduire les risques de biais).
Si vous prévoyez de former vous-mêmes un outil (ce qui est une autre option intéressante), vous devrez tenter d’exclure les informations biaisées de vos jeux de formation. Certains outils permettent par ailleurs de mettre des garde-fous pour lutter contre les réponses non souhaitées.
3. Mauvaise interprétation des questions
Même si les utilisateurs rédigent soigneusement leurs questions, une IA peut, dans des questions complexes, se concentrer à tort sur des mots clés ou des bouts de phrases spécifiques qui ne sont pourtant pas essentielles pour l’utilisateur.
Cette interprétation erronée du « prompt » fait que l’IA génère des résultats trompeurs ou inexacts. Dans ce cas, les clients peuvent se sentir frustrés en devant réécrire leurs questions de manière à ce que l’outil puisse les comprendre.
4. Réponses inconstantes
En règle générale, si vous entraînez votre LLM sur des ensembles de données complets, vos systèmes répondront de manière cohérente et constante aux questions des clients.
Dans le cas contraire, si vos jeux de données sont incomplets, vous laisserez la place à « l’interprétation ». Sans aller jusqu’au travers des réponses fabriquées de toute pièce, un chatbot pourra donner des réponses différentes à la même question (si on la lui pose plusieurs fois).
Or les clients veulent des réponses claires et donc constantes. Des réponses qui varient s’apparentent à de l’hésitation et peuvent nuire au CX.
5. Manque d’empathie
Une IA générative comme ChatGPT peut simuler l’empathie dans ses réponses, mais il n’a pas la compassion et la « chaleur » humaine d’un véritable agent. Si un client en colère commence une interaction avec un bot motorisé par une IA qui manque d’empathie, sa colère ne pourra que grandir ; et rendre la tâche de l’agent qui prendra la suite d’autant plus dure.
6. Sécurité, dépendance et confidentialité
Comme toute technologie connectée à un réseau, les systèmes d’IA générative posent des problèmes de sécurité.
Un de ces problèmes est de vérifier que les réponses données à des questions comme « où trouver telle pièce ? » n’envoient pas les clients sur des sites malveillants (une boutique factice, mais bien référencée, pour faire du phishing par exemple).
Les plateformes peuvent également collecter et stocker des données sensibles que des entreprises (mal informées sur l’apprentissage des modèles) leur confieraient sans s’en rendre compte. ChatGPT par exemple utilise les données des utilisateurs pour entraîner son outil pour tous les autres utilisateurs (ce qui n’est plus le cas des données envoyées par l’API de ChatGPT depuis mars 2023).
Enfin, la question de la dépendance à un fournisseur tiers se pose également de manière stratégique (que se passe-t-il pour votre CX et pour l’entraînement de votre modèle, si vous décidez de changer de prestataire à cause d’une hausse de ses tarifs par exemple ?).
Faut-il utiliser ChatGPT pour son service client ?
Il n’y a pas de réponse toute faite à cette question. La seule chose qui est sûre, c’est que l’IT n’a pas intérêt à se jeter sur l’IA générative sans réfléchir à toutes les problématiques que nous venons d’évoquer (et auxquelles on peut ajouter celle du prix).
Parfois, l’IA ne peut pas offrir le niveau de qualité des réponses dont les professionnels ont besoin. Dans d’autres cas, l’outil pourra le faire, mais il faudra un entraînement supplémentaire, voire un fine-tuning.
On conseillera en tout cas aux entreprises qui souhaitent mettre de l’IA générative dans leur service client de traiter le système comme un nouvel employé qui arrive dans l’organisation et qui doit prendre le temps d’apprendre les processus de l’entreprise.
Tous ces systèmes ont généralement besoin d’un entraînement avant de pouvoir les laisser interagir directement avec les clients.
Les dirigeants doivent enfin (et surtout) s’assurer que les résultats générés sont conformes aux bonnes pratiques, à la culture et aux valeurs de leur organisation.
Toutefois, à mesure que les outils d’IA générative comme ChatGPT évoluent, les moyens de réduire les risques se développent également.