Worawut - stock.adobe.com
IA générative : les DSI tempèrent l’enthousiasme des fournisseurs
Les responsables informatiques présents à Enterprise Connect ont fait part de leur enthousiasme pour l’expérimentation de la GenAI dans le domaine de l’expérience client, mais également de leur circonspection quant à la manière dont les fournisseurs devraient s’y prendre pour avancer.
L’enthousiasme du marché IT à destination des entreprises pour l’IA générative, notamment au service de l’expérience client (CX), n’a pas cessé en 2024 après une année 2023 souvent spectaculaire. Mais l’heure est tout de même à la prudence côté DSI.
Interrogé à l’occasion de la conférence Enterprise Connect, qui s’est tenue fin mars 2024 à Orlando, un panel de responsables IT a ainsi tenu à tempérer quelque peu l’euphorie ambiante autour de ce qui est perçu par les analystes du marché IT comme une immense lame de fond.
Premier enjeu : la valorisation des services d’IA. Sinead Aylward, DSI en charge des centres d’appels chez Johnson Controls International, spécialiste de la digitalisation des espaces de travail, a ainsi reçu des applaudissements enthousiastes après avoir déclaré que les organisations ne voulaient surtout pas être surfacturées pour l’introduction de l’IA dans des plateformes cloud sur lesquelles elles ont déjà investi beaucoup d’argent.
Et Sinead Aylward d’expliquer être cliente cloud depuis 2016 et affirmer que « nous ne voulons pas être surtaxés pour cette nouvelle technologie, mais plutôt être reconnus comme partenaires fondateurs qui ont largement contribué, en la finançant, au développement de l’IA. Nous souhaitons à ce titre que le service soit donc gratuit ou à un prix raisonnable. »
Une remarque qui intervenait à l’occasion d’une table ronde comprenant des représentants de cinq fournisseurs et de trois utilisateurs et portant plus généralement sur la nécessité de sécuriser et de régir l’utilisation de l’IA générative.
Gary LaSassoDSI, Amicus Therapeutics
De son côté Gary LaSasso, DSI chez Amicus Therapeutics, biotech spécialisée dans la R&D sur les maladies rares, précise ainsi un deuxième enjeu : la nécessité de se concentrer sur la sécurité et la confidentialité des données, ainsi que sur la gouvernance et la conformité, en particulier dans des secteurs réglementés tels que la santé.
« Nos recherches scientifiques, nos données de fabrication, les informations sur les patients ne peuvent pas être divulguées. Nous devons nous assurer que nous avons des contrôles sur ces données exploitées par les IA », explique Gary LaSasso. Sans compter une problématique au long cours de la gestion des données : « plus elles sont exploitées plus elles doivent être fiables. »
Plus précisément il estime que les outils d’IA sont certes susceptibles de fournir de mauvaises réponses parce que les utilisateurs ne posent pas les bonnes questions – un problème largement documenté depuis 18 mois – mais également parce que, en amont, ils ne fournissent pas de sources valables. Pour Gary LaSasso, « certaines sources trop anciennes ou de mauvaise qualité doivent être retirées de la piscine », au risque, dans le cas contraire, d’altérer durablement le niveau d’assistance proposé par les IA.
Troisième intervenant côté utilisateurs Craig Youngs, en charge des communications unifiées de l’Université Brigham Young, insiste également sur la protection de la vie privée, la sécurité et la gouvernance. Des conditions essentielles dans son contexte. Du coup son organisation regarde bien sûr avec intérêt les opportunités fournies par l’IA, mais a décidé d’adopter une approche particulièrement « méthodique et réfléchie ».
« Nous avons formé un groupe de travail interdisciplinaire pour examiner les différentes options d’IA qui existent actuellement côté fournisseurs. Mais selon moi il est important qu’une personne identifiée soit nommée à la tête de cet effort ».
Craig YoungsEn charge des communications unifiées, Université Brigham Young
Selon M. Youngs, la personne chargée de superviser l’adoption de l’IA sur ce marché en pleine évolution doit pouvoir consacrer du temps à l’étude des différents outils et de la manière dont ils peuvent être intégrés dans les processus opérationnels.
Selon lui, « la culture d’une organisation joue également un rôle important dans le choix des outils d’IA à adopter et dans la rapidité de leur déploiement. »
Et de préciser que « si la culture de l’organisation est très conservatrice, il faudra peut-être aller un peu plus lentement que dans le cas où elle est agile et rapide. Si vous vous y prenez mal, cela ne fonctionnera pas bien et vous n’obtiendrez pas le niveau d’adoption que vous espériez. »
Un mot d’ordre donc côté utilisateurs : patience et modération…
En revanche, sans surprise, du côté des fournisseurs l’heure est au discours rassurant. De leur point de vue il y a de bonnes raisons d’être optimiste et de penser que l’IA Générative (GenAI), et d’autres développements associés, produiront de la valeur commerciale, y compris là où on ne l’attend pas encore. Et ils ont un message très clair « n’ayez pas peur d’essayer la GenAI », même dans des domaines aussi sensibles pour les entreprises que le service client en général et les centres d’appel en particulier.
Quelle limite de la GenAI en matière d’empathie
Un point de vue a tout particulièrement retenu notre attention : celui de Kevin Shatzkamer, responsable des partenariats stratégiques au sein de l’équipe Applied AI Engineering de Google Cloud, pour qui les potentialités d’empathie (sic) – une caractéristique généralement jugée propre aux humains – de l’IA générative seront déterminantes.
Kevin ShatzkamerResponsable des partenariats stratégiques, équipe Applied AI Engineering, Google Cloud
« Bien sûr les meilleurs humains sont plus doués pour l’empathie que les meilleurs logiciels. Mais il n’est pas vrai de dire que les logiciels sont incapables de gérer l’empathie », estime Kevin Shatzkamer.
Et d’expliquer qu’il y a également « beaucoup de gens – par exemple quand ils sont nouveaux sur un emploi ou dans un contexte hors langue maternelle – qui trouvent que l’empathie peut être un défi ; ils ne se perçoivent pas nécessairement dans une situation délicate, ou n’apprécient pas au bon niveau l’usage de tel ou tel mot, donnant à penser qu’ils manquent d’empathie ».
Avec l’IA « nous constatons que les modèles sont capables de reconnaître qu’il s’agit d’une situation délicate et de générer des textes empathiques. Ils peuvent donc être utiles pour faire des suggestions aux personnes qui les utilisent dans ces contextes-là, afin d’améliorer aussi les capacités d’empathie des humains qui en auraient besoin. » Ces modèles iront-ils jusqu’à comprendre le point de vue prudent des DSI dans les entreprises utilisatrices ?