Pourquoi l’optimisation des modèles d’IA est cruciale
Alors que de plus en plus d’entreprises se lancent dans l’IA Edge, les praticiens de cette technologie en plein essor tentent de relever les défis de l’optimisation de l’apprentissage automatique sur des appareils peu puissants.
Lors de la conférence Edge AI Summit qui s’est tenue en novembre 2021, des experts de Ford, Panasonic AI Lab et XMOS ont examiné comment l’optimisation peut permettre à TinyML – un ensemble de bibliothèques d’apprentissage automatique fonctionnant sur des microcontrôleurs 32 bits et ne nécessitant pas beaucoup de mémoire – d’exécuter des modèles d’IA sur des équipements peu puissants.
Les raisons d’optimiser les modèles
Il existe de nombreuses raisons d’optimiser les modèles ML. La principale d’entre elles est que l’IA doit être solide et résiliente, préconise Harsh Bhate, ingénieur et chercheur chez Ford.
L’ingénieur explique que les systèmes de conduite autonome, par exemple, sont soumis à de nombreuses contraintes, notamment en matière de latence, de mémoire et d’empreinte énergétique. Sans optimisation, il n’est pas possible d’atteindre les résultats souhaités, c’est-à-dire de faire travailler l’IA en temps réel tout en utilisant chaque bit de données et chaque ressource de calcul.
Une autre raison d’optimiser les modèles d’IA, c’est d’en exécuter davantage avec les mêmes capacités de calcul, ce qui permet de tirer le meilleur parti des modèles ML, selon, Andrew Stanford-Jason, technologue principal chez XMOS, un fournisseur de semi-conducteurs dédiés à l’IA. Cela permet de réduire l’empreinte mémoire, de diminuer la facture énergétique et de produire des modèles plus denses.
Un équilibre à trouver entre hardware et software
De nombreuses organisations qui cherchent à optimiser et à déployer leurs systèmes TinyML ou IA Edge travaillent avec des puces spécialisées dans l’IA.
Les entreprises qui déploient ces puces doivent décider si le gain d’argent ou de temps est plus important, selon Andrew Stanford-Jason.
« Vous pouvez tirer le meilleur parti de votre matériel si le logiciel a été conçu en fonction de cette cible », déclare-t-il.
L’expert rappelle qu’il y a toujours un compromis à faire entre les efforts à déployer sur le silicium et ceux à effectuer pour fournir des outils logiciels performants.
« C’est une question de disponibilité », poursuit-il. Des puces plus puissantes augmentent les coûts énergétiques. A contrario, le développement et l’optimisation des outils logiciels réclament plus de temps.
Mais, en fin de compte, le client veut simplement que son modèle fonctionne, indique Andrew Stanford-Jason. Le fournisseur choisit le silicium, et le client veut une interface standard sur laquelle il peut placer son modèle.
IA embarquée : l’approche de Ford
En tant que client des fournisseurs de silicium, Ford fait partie du dernier maillon de l’écosystème. Le constructeur a conçu ses modèles pour s’exécuter en périphérie, sur les produits des équipementiers.
« Une grande partie de nos efforts porte sur la manière de concevoir ces architectures de façon à ce qu’elles soient optimisées pour n’importe quel dispositif en périphérie, et ensuite nous pouvons nous appuyer sur cela et tirer parti des équipementiers », explique Harsh Bhate.
Harsh Bhate affirme que Ford a plusieurs projets en cours consacré à l’IA en périphérie. Par exemple, le constructeur automobile déploie des microcontrôleurs exécutant un modèle IA basé sur une programmation « bare-metal », et développe un VSOC (Vehicule Security Operation Center) incluant des modèles de machine learning capables de détecter les attaques visant les systèmes embarqués de ses véhicules. Un VSOC implique généralement de déployer un module logiciel sur un des calculateurs du véhicule à protéger.
Outre un gain d’efficacité des algorithmes, l’électrification de l’automobile réclame de superviser la consommation de chacun des composants pour à la fois optimiser la durée de vie des batteries et augmenter l’autonomie des voitures.
L’avenir de l’optimisation
Les modèles d’IA optimisés seront différents à l’avenir.
Andrew Stanford-JasonTechnologue principal chez XMOS
Les éditeurs et les équipementiers devront s’assurer que l’optimisation garantit certaines propriétés et que ces capacités sont puissantes, préconise Denis Gudovskiy, chercheur principal en apprentissage profond au Panasonic AI Lab.
Aussi, les développeurs se concentreront davantage sur le contrôle des flux de machine learning, note Andrew Stanford-Jason. En France, c’est la problématique soulevée par le consortium confiance.ai.
« Sans l’introduction de mécanismes de robustesse dans le modèle, il sera difficile d’utiliser ces modèles. Sinon, les entreprises devront faire face à des résultats imprévisibles », ajoute-t-il.