aleutie - Fotolia

L’IA au travail source de bouleversements et d’imprévisibilité

D’après Adecco, une majorité des dirigeants se sentent dépassés par la révolution de l’IA. Les salariés expriment eux aussi des craintes. Et c’est un problème. Car pour LaborIA, un dialogue social et technologique est essentiel pour une diffusion sereine de l’IA dans le monde du travail.

L’intelligence artificielle, comme toute technologie d’automatisation, attise l’appréhension des employés sur l’avenir de leurs postes. Le boom de l’IA générative n’a fait qu’amplifier ces interrogations pour les professions intellectuelles auparavant relativement épargnées par l’automatisation.

Selon une étude menée par Adecco auprès de 2 000 dirigeants de 9 pays, dont la France, les employés seraient loin d’être les seuls à rester dans le flou quant aux impacts de l’IA sur l’emploi et les compétences. Certes, 66 % des sondés reconnaissent l’impact de l’IA dans leur secteur d’activité. Mais peu s’y préparent au niveau technologique. Seulement 11 % estiment avoir progressé dans la digitalisation de leur entreprise au cours des dernières années. Et sur le plan stratégique, 57 % doutent de la capacité de leur propre équipe de direction à saisir les « risques et les opportunités » liés à l’IA.

Former les collaborateurs à l’usage de l’IA ? Oui, pour 34 % de dirigeants

Au niveau de l’adaptation des compétences, le bilan reste mitigé là aussi. Seulement 43 % des cadres interrogés témoignent de la mise en place de programmes de formation formels visant à améliorer les compétences en matière d’IA.

Une autre étude d’un spécialiste de l’emploi, Randstad, soulignait que l’adoption à grande échelle de l’IA nécessiterait une montée en compétences des salariés. De son côté, Addeco constate que 34 % des sondés font état de leur l’intention de former leurs collaborateurs à l’utilisation de l’IA. En France, les dirigeants sont 51 % (contre 46 % en moyenne, au niveau mondial) à réorienter les salariés vers d’autres postes en cas d’impact de l’IA sur leur emploi.

Mais les entreprises peinent en outre à accompagner les collaborateurs dans l’adoption. Ils sont 50 % à déclarer fournir des conseils à leurs équipes sur la manière d’utiliser l’IA au travail.

Les dirigeants misent en revanche majoritairement sur l’embauche pour monter en maturité sur l’intelligence artificielle : 66 % (64 % en France) prévoient ainsi de recruter à l’externe.

Le rôle des salariés trop peu valorisés dans les projets IA

En tout état de cause, pour les auteurs de l’étude, malgré les « changements complexes » qui se profilent, « les dirigeants manquent d’empressement. »

Mais l’empressement est-il de rigueur ? En matière d’intégration de l’IA au travail, les difficultés sont réelles et multifactorielles, avertit le LaborIA, une initiative de l’INRIA et du ministère du Travail qui vient de livrer les résultats de deux ans d’étude. Ses auteurs soulignent d’emblée « la complexité inattendue du travail d’intégration des IA par l’activité de travail. »

Ce constat s’explique en grande partie par le fonctionnement même des IA, basé sur l’entraînement et l’apprentissage. « Les interactions humain-machine impliquent des périodes d’apprentissage prolongées et incertaines », pointent les chercheurs. Et les salariés ne sont pas seulement consommateurs. Ils « doivent utiliser les systèmes intégrant de l’IA, mais aussi s’engager dans leur entretien, leur amélioration et leur supervision. »

LaborIA relève également un problème de gestion de la « dette technologique » et de la reconnaissance du travail auprès de l’IA.

L’implication humaine est nécessaire pour le maintien en condition opérationnelle et la pérennité de l’investissement initial. « Or, les organisations étudiées reconnaissent trop rarement le travail de supervision des IA », note l’étude. Cette absence de reconnaissance (allocation de temps, validation de compétences et de qualifications nouvelles, gratifications symboliques et matérielles, etc.) se traduit par un désengagement et l’échec de projets.

Concepteurs et utilisateurs ne partagent pas une même conception du travail

Les auteurs mettent en lumière un problème plus en amont encore, qu’ils qualifient de « conflit de rationalité entre logiques gestionnaires et travail ordinaire/réel ». Les gestionnaires se préoccuperaient avant tout de l’optimisation et du renforcement de l’efficacité.

Ils partageraient aussi une croyance, celle de la capacité de l’innovation à améliorer les performances et la productivité du travail. Cette rationalité se distingue donc de la rationalité du travail ordinaire. Celle-ci part des préoccupations concrètes des travailleurs confrontés à l’IA sur la manière de vivre et d’exercer leur travail au quotidien.

Ainsi, peut émerger un conflit. Il est le fruit de divergences entre, d’une part, les situations vécues par les destinataires de l’IA sur le terrain et, d’autre part, les situations traitées par la technologie et la vision portée par les décideurs/concepteurs.

L’argument de l’amélioration du bien-être du collaborateur par l’automatisation de tâches fastidieuses n’est pas la panacée. En outre, cet objectif d’amélioration affiché « passe parfois sous silence le surtravail nécessaire à l’apprentissage et à la supervision de l’IA. »

« Les gains de productivité du travail escomptés ou réalisés, grâce à l’introduction des IA, peuvent être contrebalancés par les questionnements des salariés sur l’évolution du sens de leur travail », prévient l’étude.

Les faux arguments de la simplification et des agents augmentés

Les chercheurs attirent l’attention sur les effets de ce « conflit de rationalité » susceptible d’aboutir à des situations difficiles pour les personnes qui travaillent. Il est dès lors clé que ce conflit soit résolu par un compromis entre les parties.

C’est encore plus vrai pour les « IA dont les méthodes de déploiement correspondent à des dynamiques (intentionnelles ou non) de substitution. » Pourquoi ? Car ces IA génèrent des « comportements d’anticipation des risques encourus pour l’emploi et des réactions défensives. »

Le compromis vise en particulier à conduire à « des configurations dites capacitantes » dans lesquelles les systèmes d’IA fonctionnent sur la base d’interactions homme-machine augmentant les aptitudes et les compétences humaines.

Mais même dans une telle configuration, l’adoption n’est pas garantie. LaborIA relève, par exemple, ce qu’il qualifie de « paradoxe de facilitation ». Pour les décideurs, de telles IA visent à soulager les employés de la « mauvaise fatigue. » Mais la facilitation des tâches permise par l’IA peut contribuer à « fragiliser la reconnaissance des efforts fournis par certains salariés dans le cadre de leurs activités. »

Ces « discours managériaux » ne sont pas forcément convaincants. Dès les expérimentations, de nombreux salariés « ont le sentiment inverse d’un accroissement de leur charge de travail. » Lors de l’utilisation, ils expriment aussi un désaveu.

L’IA ajoute ainsi « inutilement un travail de vérification » qui peut être vécu comme contraignant et chronophage. « Le paradoxe de la facilitation montre que l’effort est aussi partie prenante de la satisfaction, quand il est associé à une bonne fatigue », résume l’étude.

Chasser les anomalies sur un tableur Excel pourrait apparaître « parfaitement rébarbatif et répétitif de l’extérieur ». Néanmoins, « il peut constituer une motivation intrinsèque à l’activité, lorsque cette tâche est vécue et interprétée d’un point de vue ludique ».

Résultat : supprimer, par l’introduction de l’IA, des opérations interprétées par la logique gestionnaire comme fastidieuses peut constituer, pour une agente interrogée, « une véritable déception nourrissant un ennui professionnel. »

L’IA bouleverse l’organisation du travail et le management

Troisième grand résultat de l’étude LaborIA : l’IA bouleverse l’organisation du travail et le management. Ainsi, « l’arrivée de l’IA reconfigure les rôles professionnels, les compétences requises et le management », notamment autour du rôle de manager intermédiaire ».

L’introduction et la multiplication des IA dans l’univers professionnel ne s’annoncent donc pas comme un long fleuve tranquille.

Mais l’étude ne se cantonne pas à un recensement des points de blocage. De leurs observations pendant deux ans, les chercheurs tirent « des recommandations concrètes pour un dialogue social et technologique. »

Il s’agit, entre autres, de partir du travail réel pour penser le rôle et la place des IA, de garantir la co-conception, d’organiser le dialogue en continu, ou de rendre les systèmes d’IA explicables.

Reste que la difficulté réside surtout dans l’exécution. L’application de ces recommandations devra être sincère et ne pas constituer seulement un vernis marketing permettant à la rationalité gestionnaire de s’imposer coûte que coûte. Simple bon sens ?

Pour approfondir sur IA Responsable, IA durable, explicabilité, cadre réglementaire

Close