AI Paris 2019 : les entreprises mettent leur Machine Learning en action
La seconde édition du salon dédié à l'Intelligence Artificielle montre que l'âge des PoCs touche à sa fin. Les formes plus complexes d'algorithmes commencent à se répandre. Reste la question majeure du « faire maison » ou du « faire faire ».
Comme un reflet de la montée en puissance des projets d'Intelligence Artificielle en France, le Salon AI Paris a déménagé de la sympathique (mais désormais trop petite) Cité de la Mode pour migrer vers le plus imposant Palais des Congrès.
Certes, AI Paris n'y occupait qu'un demi étage et pas la grande salle, comme le fait l'autre évènement phare de l'organisateur Corp. Agency avec Big Data Paris, mais les 5.000 visiteurs recensés et la diversité des témoignages montrent clairement une évolution du marché et donnent quelques enseignements.
Phase de production, diversité de cas d'usages, montée en complexité
Premier enseignement, les entreprises sortent de la phase des PoCs et entrent dans la mise en production. En tout cas pour les cas « simples » d'Intelligence Artificielle - si tant est qu'une IA, même sous la forme d'un algorithme de Machine Learning basique puisse être simple.
Honeywell (nucléaire, aérospatial, bâtiment, et défense) a par exemple dévoilé qu'il avait déployé un projet RPA à grande échelle depuis trois mois. Dans un tout autre domaine, celui du commerce, Rakuten (Price Minister) et la coopérative U ont, chacun de leur côté, expliqué qu'ils se servaient de la reconnaissance d'image pour unifier un référentiel produits (pour le premier) et d'un moteur de scoring fait maison pour optimiser les assortiments (pour le deuxième). Dans l'IoT - et « l'IA at the Edge » - Veolia est également passé de la phase des démonstrateurs, à un déploiement international avec un algorithme de maintenance prédictive directement embarqué dans les micro-controleurs.
Deuxième enseignement, les témoignages d'IA Paris ont montré la diversité des projets en fonction des secteurs... qui ne fait que traduire au final la diversité de l'IA elle-même.
Lire aussi :
Du Big Data à l’AI : de l’automatisation à l’autonomie du code
AI vs BI : comment expliquer et amener l’Intelligence Artificielle aux métiers
Machine Learning vs Deep Learning ? La même différence qu'entre un ULM et un Airbus A380
Les 5 conseils d'Andrew Ng pour déployer une Intelligence Artificielle en entreprise
Ces projets vont du plutôt simple techniquement (mais très utile d'un point de vue métier) comme le routage de mails à la MAIF ou le pricing (forme évolué de CPQ) chez Saint-Gobain, à des applications plus complexes comme la traque des fraudeurs par Bercy, un « coach » pour les praticiens de l'AP-HP ou encore la reconnaissance d'image appliquée à l'agriculture dite « de précision » (avec Carbon Bee) et le Deep Learning appliqué aux données satellites open-sourcées pour cartographier le réseau autoroutier d'Asie du Sud-Est (avec Earthcube).
Le troisième enseignement est d'ailleurs que ces formes plus complexes et/ou plus évoluées de Machine Learning - comme le Deep Learning, le Generative Adversarial Networks ou l'apprentissage non supervisé - commencent à réellement montrer le bout de leur nez.
Marché français mature...
Pour Farid Benkara, Business Developement Manager chez Octopeek, le marché français est bel et bien arrivé à maturité. Certains secteurs comme la grande distribution, la banque et l'assurance seraient même déjà familiarisés depuis plusieurs années avec l'IA en production.
Les distributeurs par exemple, utilisent depuis longtemps la reconnaissance d'images pour faire des relevés de produits et de prix sur les sites de leurs concurrents (et réduire ainsi drastiquement leurs coûts de veille). Quant au secteur financier, il aurait recours à plusieurs formes d'IA pour automatiser différents processus destinés à combler ainsi les fermetures d'agences.
Mais le point le plus important de cet IA Paris est peut-être à venir. Car comme le confirme Farid Benkara au MagIT, les entreprises réfléchissent de plus en plus de façon posée et stratégique à la question du « qui fait quoi ? » dès qu'elles entrent en production.
... et de plus en plus conscient de l'importance du « fait maison »
Pour les PoCs, il n'est en effet pas véritablement problématique de se reposer sur les services des GAFA et des API tierces. Au contraire, cela permet d'aller plus vite pour démontrer ce que le Machine Learning peut faire concrètement et ses bénéfices possibles.
Mais quand l'IA entre en production, les sociétés françaises seraient de plus en plus nombreuses à envisager de faire les choses elles-mêmes. Soit totalement en interne avec les outils d'un acteur français comme Dataiku. Soit avec des prestataires de proximité comme Saint-Gobain avec La Javaness, Mano Mano avec SICARA, ou Total avec Amayas Consulting... même si Total a par ailleurs des projets d'analyse automatisée des relevés de sols pour la prospection pétrolière en partenariat avec Google Cloud.
La prise de conscience semble se faire, doucement mais sûrement, sur l'importance d'avoir la main sur l'apprentissage des algorithmes. Ou dit autrement, de posséder les paramètres que génère l'apprentissage en continu - paramètres qu'il n'est pas possible aujourd'hui de transférer si l'apprentissage a été fait sur via un service clef en main externe.
Or aujourd'hui, selon Gartner, les deux tiers des entreprises dans le monde externalisent leur Intelligence Artificielle. La prochaine édition d'AI Paris apportera certainement un éclairage précieux sur l'évolution de ce chiffre en France, et sur cette prise de conscience stratégique.