OpenWorld 2019 : Clive Swan remet le point sur le I d’IA
Pour le patron de l’IA chez Oracle, nombre d’entreprises voient leurs projets de Machine Learning échouer. En cause : des données incomplètes et des datascientists absents.
À l’occasion d’Oracle OpenWorld, le MagIT a rencontré Clive Swan, le Monsieur IA d’Oracle, qui revient sur les faux espoirs que suscite l’intelligence artificielle.
Le MagIT : Où en sont les entreprises en matière d’IA ?
Clive Swan, Senior Vice President, Oracle : Les entreprises ont la pression pour développer des solutions d’IA. Un rapport public de 2018 montre que 60 % d’entre elles cherchent à déployer des solutions d’IA sur l’année à venir, mais que seulement 5 % de cette fraction y sont parvenues. Paradoxalement, les attentes très élevées au sujet de l’IA ont tendance à ralentir les entreprises. Sous la pression, elles se sentent obligées de décrocher la lune, et ont des attentes irréalistes. Mais celles qui se sont lancées commencent à percevoir les difficultés d’un projet d’IA : les données et la scalabilité.
Le MagIT : quelles sont les raisons de ces échecs ?
Clive Swan : La première idée fausse est qu’il suffit de jeter ses données dans un data lake, et que l’essentiel est fait. La réalité est que l’IA est très dépendante de la qualité des données, que celles-ci doivent être enrichies pour être pertinentes. Commencer par une base de données relationnelle unifiée est un bon point de départ, mais n’est pas suffisant. La qualité des données n’est pas vérifiée par défaut. Par exemple, vous pouvez entrer la raison sociale d’une entreprise sans vérifier qu’elle existe vraiment.
Les données doivent être complètes. Aussi intelligent que l’algorithme d’IA puisse être, ses prédictions s’appuient sur ces données et si elles ne sont pas de qualité, les réponses de l’IA ne seront pas meilleures que celles tirées au hasard. Ce que l’on constate, c’est que les données initiales doivent être enrichies d’autres informations issues de différentes sources. Or, ces sources ne modifient pas les données elles-mêmes dans la base. Par exemple, si une entreprise perd son DAF ou si elle doit faire face à une class action, cela ne modifie pas les chiffres de l’entreprise, mais cette information doit être intégrée d’une manière ou d’une autre par un algorithme.
Le MagIT : quelles sont les autres difficultés rencontrées ?
Clive Swan : La scalabilité. Par scalabilité, je n’entends pas la capacité des ordinateurs à réaliser les calculs sur des jeux de données de plus en plus grands, je pense plutôt à l’industrialisation des opérations. Historiquement, les premières solutions d’IA ont été mises au point « à la main » par des datascientists. Le problème que nous avons est que ces outils d’IA doivent encore être paramétrés finement par ces datascientists – ce qui coûte très cher – pour être adaptés aux besoins spécifiques d’une entreprise. Les multinationales de la finance peuvent s’offrir ces datascientists, pas une entreprise lambda. Mettre au point des outils d’IA pour la dizaine ou la centaine de ses propres applications est impossible. Pour résoudre ce problème, nous avons développé chez Oracle des outils à base de Machine Learning qui permettent d’automatiser les fastidieuses tâches d’initialisation, mais aussi les phases d’apprentissage en continu.
Le MagIT : quelle est la bonne marche à suivre ?
Clive Swan : Une erreur que font les entreprises est de penser qu’un projet d’IA donnera des résultats immédiatement. Ce n’est pas le cas. Un projet d’IA nécessite une méthodologie, une démarche par petits pas, pour mettre en place les éléments de base. Et parfois, il faut revenir en arrière, voire recommencer depuis le début. C’est ce qui est arrivé à l’un de nos clients, un vendeur d’électronique grand public. Il souhaitait améliorer ce que l’on appelle dans le marketing la « next best action ». Il s’agissait de déterminer la meilleure action à mener pour qu’une vente se réalise. C’est très important, car cela permet d’améliorer les prévisions commerciales et de gérer les stocks en conséquence. Or ce fabricant s’est aperçu que les ventes réalisées ne correspondaient pas aux données issues du marketing d’engagement. Celles-ci s’avéraient incomplètes et peu fiables, et il a fallu les corriger.