Comment l’IA peut imposer le leadership IT sur les organisations
Aborder les questions relatives à l’IA et définir des stratégies qui attireront les meilleurs talents figurent parmi les principaux défis discutés à l’occasion du rendez-vous annuel du CW500 Club, le club d’utlisateurs IT britanniques animé par nos confrères de ComputerWeekly.
L'amélioration de l'attraction et de la rétention des talents et l'adoption de meilleures approches en matière de données sont des aspects essentiels pour que les stratégies d'intelligence artificielle (IA) fonctionnent. Ce sont les conclusions de la plupart des DSI participants à une table ronde sur le Leadership de l’IT organisée par nos confrères de ComputerWeekly (édité comme LeMagIT par le groupe TechTarget) dans le cadre du CW500 Club, et organisée en collaboration avec Mortimer Spinks à Londres.
Daniel Hulme, directeur général de la société de conseil en intelligence artificielle Satalia et directeur de la maîtrise en Business Analytics au University College London, a participé à l’événement et analyse pour nous l'impact de l'IA sur la prise de décision IT et l’organisation du SI.
Pour Daniel Hulme il convient d’abord de revenir sur les définitions « faibles » et « fortes » du concept. Selon lui, la façon la plus populaire de décrire la technologie est « l'IA faible », par laquelle les ordinateurs peuvent émuler des tâches humaines définies très strictement.
Daniel HulmeDG Satalia et professeur University College London
Mais la définition la plus intéressante est liée à l'émulation de fonctions cognitives qui semble se rapprocher toujours plus des capacités humaines. « Les humains sont très doués pour trouver des modèles dans environ quatre dimensions et résoudre des problèmes jusqu'à environ sept, tandis que les ordinateurs peuvent trouver des modèles dans des milliers de dimensions et résoudre des problèmes avec des milliers de choses différentes et éloignées les unes des autres. Du coup comparer les deux approches n’est pas vraiment la bonne chose à faire pour comprendre ce qui se joue. Une meilleure définition de l'IA est celle d'un comportement adaptatif axé sur les objectifs prédéfinis, dans un contexte où l'on essaie d'atteindre un but et d'avancer rapidement et sans friction vers un résultat. Dès lors que l’on est capable d’automatiser ces deux concepts – la production d’objectifs et la recherche d’efficacité du processus de traitement – on peut fournir beaucoup de valeur. »
Un mot est particulièrement important dans cette approche selon Daniel Hulme : « adaptatif ». Un système apprend si une décision est bonne ou mauvaise, adapte son propre modèle interne, puis prend une meilleure décision la fois suivante. Une gageure qui, pour l’instant n’est le fait que de très peu de systèmes actuellement à l’œuvre dans le monde de l’IA.
Du coup Daniel Hulme explique ne pas encore « avoir vu un seul système d'entreprise performant en production susceptible de fonctionner dans ce contexte ». Et pour cause.
Selon lui, « pour l’heure aucun responsable informatique ne veut réellement entendre parler d'un système se comportant d'une manière un jour et pouvant se comporter d'une autre manière le lendemain. Je dirais que le véritable paradigme des systèmes d'IA réside dans leur capacité à apprendre et à s'adapter à la production. Mais ces systèmes sont très difficiles à construire. »
Résoudre les problèmes d’optimisation
Pour les intervenants, les sous-ensembles de l'intelligence artificielle tels que l'apprentissage machine peuvent apporter beaucoup de valeur aux organisations, mais les entreprises ont encore besoin de préciser de quelle manière elles souhaitent les utiliser. Selon Daniel Hulme, si l'apprentissage machine est par exemple utile pour trouver des modèles dans des jeux de données complexes, ce n’est pas le paradigme idéal si l’on souhaite résoudre des problèmes d'optimisation impliquant un élément de décision.
Daniel HulmeDG Satalia et professeur University College London
« Je dirais que les entreprises n'ont pas de problèmes d'apprentissage machine, elles ont des problèmes d'optimisation. Elles doivent donc s'assurer qu'elles harmonisent l'apprentissage machine avec l'optimisation, qui consiste à prendre des décisions fondées sur les informations apportées par l'apprentissage machine » détaille Daniel Hulme.
Attirer les talents avec des projets d'IA intéressants
L'architecture des systèmes et l'éthique associées à la construction de systèmes capables de s'adapter et de prendre des décisions soulèvent cependant un certain nombre de considérations.
« Au cours de la prochaine décennie, les technologies d'AI deviendront des commodités », dit-il. « Un prestataire sera spécialisé dans l'optimisation, un autre assurera l'auto-apprentissage et nous aurons libre accès à la puissance de calcul. Nous avons déjà beaucoup d'outils nécessaires pour trouver des modèles. Et ils sont tous open source. Du coup, pour les dirigeants du SI, le principal champ de bataille n'est pas la technologie, mais la façon dont ils attirent, motivent et retiennent les talents pour innover. Si votre organisation n'innove pas et ne s'adapte pas au monde plus rapidement que ses concurrentes, ces derniers l’emporteront. »
Daniel Hulme constate que les entreprises essaient souvent d'embaucher ses étudiants dans l’établissement où il enseigne tout en échouant invariablement. Les problèmes qu'elles veulent résoudre avec l'IA ne sont « pas suffisamment sexys », selon lui. Un plan clair et des projets motivants sont la clé pour attirer les talents et les fidéliser, tout comme l'adoption de certains principes organisationnels spécifiques.
Daniel HulmeDG Satalia et professeur University College London
« Beaucoup d'investissements sont consacrés à l'utilisation de l'apprentissage machine et de l'intelligence artificielle pour vendre plus de produits et de services ainsi qu'à l'optimisation pour réduire les coûts », dit-il. Mais « si vous n'utilisez pas efficacement ces technologies pour changer le fonctionnement de votre organisation, vous perdrez des talents et ne serez pas en mesure de recruter, vous mourrez probablement de l'intérieur… »
Ce n’est pas tout, « une fois que vous avez trouvé comment attirer les talents, que ce soit en constituant vos propres équipes d'IA ou en travaillant avec des fournisseurs tiers, vous devez encore les motiver ».
Autonomie, maîtrise et finalité
Pour Daniel Hulme, l'autonomie, la maîtrise et l'objectif sont les trois éléments clés d'une motivation efficace et de projets d'IA réussis. Il s’agit de donner aux informaticiens la liberté de faire ce qu'ils veulent, la possibilité de devenir vraiment bons dans ce qu'ils veulent faire, ainsi que des objectifs sur lesquels ils peuvent aisément s’aligner.
Considérer l'impact de l'intelligence artificielle sur les emplois est un autre point que les dirigeants devront développer plus en détail – à la fois en termes de ce qu'il advient de leurs fonctions informatiques mais également de la pression sur l'ensemble de l'organisation – s'ils veulent utiliser la technologie de manière efficiente.
« Nous cherchons à libérer les gens de leurs tâches les plus rébarbatives, mais à un moment donné, nous voudrons les libérer de l'ensemble de leur travail, car nous sommes poussés à réduire les coûts et à offrir un rendement aux actionnaires, ce qui passe notamment par la suppression de la main-d'œuvre », explique Daniel Hulme.
En effet « les entreprises ne seront pas en mesure de se recycler assez rapidement pour absorber les nouveaux emplois. L'économie n'étant pas prête à faire face à des pertes d'emplois de grande ampleur, les dirigeants du SI qui sont en première ligne doivent penser à relever ces défis. » Daniel Hulme s’appuie sur la théorie de la singularité – qui détermine le moment où une intelligence artificielle deviendra plus performante qu’un cerveau humain en toute circonstance – pour estimer le point de bascule à 30 ou 40 ans. Et enjoint les DSI à anticiper les effets dès à présent.
Selon lui, « la « superintelligence » sera certainement la dernière invention que l'humanité créera seule. Certains pensent que c'est la chose la plus glorieuse qui nous arrivera. D'autres estiment que c'est notre plus grande menace existentielle. Si nous ne coopérons pas en tant qu'espèce au cours des trois prochaines décennies, cette chose nous verra très probablement comme une menace et nous retirera de l'équation. En tant que spécialiste de l’IT, nous devons faire preuve d'une grande diligence en ce qui concerne les types de technologies que nous mettons au point pour l'intelligence artificielle. Et nous avons aussi une énorme responsabilité. »
Adapté d’un article d’Angelica Mari, publié en langue anglaise sur Computerweekly.com