shocky - Fotolia
Intelligence artificielle : la stratégie « Made in France »
Lancée en 2018, la stratégie pour faire de la France une championne de l’IA commencera une nouvelle étape en 2024. En parallèle, l’État espère faire réviser l’IA ACT – qu’il perçoit comme une entrave à l’innovation – avant sa mise en application. Le point sur ces initiatives.
En plus des initiatives des instances internationales auxquelles elle appartient (G7 et Union européenne), la France développe sa propre stratégie en matière d’IA depuis 2018, après la remise du rapport Villani. Son coordonnateur, Guillaume Avrin, en détaillait les principaux axes lors de l’évènement SophI.A en novembre.
La mise en œuvre de cette stratégie s’effectue en plusieurs phases. En 2024, le gouvernement prépare une nouvelle étape.
« La première avait pour vocation de structurer l’écosystème R&D sur le territoire national », explique le responsable. Cette étape a débouché notamment sur la création des instituts 3IA, de plus de 300 programmes doctoraux, de 150 chaires de recherche et du supercalculateur Jean Zay. « Il s’agissait de se mettre en ordre de bataille », résume Guillaume Avrin.
La deuxième phase, en cours, a pour but « de diffuser l’IA dans l’économie […] Toutes les actions que nous prenons ont pour objectif d’accélérer cette diffusion dans nos entreprises et dans notre société. »
Guillaume AvrinCoordonnateur national pour l'intelligence artificielle
Dans ce cadre, la coordination nationale sur l’IA remplit trois missions :
- investissement (1,5 milliard d’euros de budget alloué via France 2030),
- coordination interministérielle pour garantir la cohérence entre les ministères,
- et animation de l’écosystème « pour bénéficier au maximum de l’effet réseau », une des sources du succès de la Silicon Valley.
Pour cette phase active de la stratégie nationale, trois types d’action sont mis en œuvre, détaille le coordonnateur.
La première est la formation, avec un budget de 700 millions d’euros répartis entre les programmes AI Cluster et AI Booster France 2030.
« L’idée de l’IA Cluster est de nous assurer que la formation de nos talents en IA est associée aux recherches à l’état de l’art », ce qui ne peut se faire aujourd’hui sans former les futurs diplômés aux LLM et à leur conception, considère Guillaume Avrin.
Avec le volet « compétences et métiers d’avenir », la France vise cette fois « la massification » de la formation en IA en soutenant tous les cours et les classes consacrés à la formation à l’intelligence artificielle, des experts comme des utilisateurs métiers.
À l’axe de la formation s’en ajoute un second, consacré au soutien des entreprises de la deeptech qui relève des domaines identifiés comme stratégiques pour la France – comme l’IA embarquée. « Être capable de développer des systèmes d’IA à l’état de l’art pour les applications B2B est très important », explique le coordonnateur.
La France en soutien à la deeptech et à l’IA générative française
Sur les deeptech, la France entend aussi soutenir les travaux en faveur de l’IA frugale, car « il n’y aura pas de déploiement soutenable de systèmes d’IA si nous sommes incapables d’en superviser l’impact sur l’environnement. »
L’IA frugale est aussi présentée comme source d’un avantage concurrentiel sur la scène internationale, poursuit Guillaume Avrin.
Enfin troisième axe de la stratégie nationale : l’IA de confiance, garantie indispensable à la diffusion de l’intelligence artificielle en France.
L’émergence de l’IA générative sera aussi prise en compte dans la stratégie France, indique son pilote.
Guillaume AvrinCoordonnateur national pour l'intelligence artificielle
Selon lui, l’écosystème de startups en IA générative demeure trop faible. Le pays ne peut se satisfaire d’acheter des solutions étrangères, « créant de nouvelles dépendances. »
En réaction, la France prend donc des initiatives. Guillaume Avrin cite par exemple l’appel à projets sur des communs pour l’IA générative. Un succès, se satisfait-il, avec plus de 40 réponses « de haute qualité ».
« Les choses vont dans le bon sens en ce qui concerne la préservation de notre souveraineté et nous allons poursuivre », promet-il.
La dernière partie de la stratégie nationale a quant à elle pour objectif d’aligner l’offre française d’IA sur la demande. Cela passera par une montée en compétences de la justice et des avocats, mais aussi des centres de test, des organismes de certification comme des assurances pour assurer les systèmes autonomes.
« Les assureurs doivent eux aussi être impliqués dans la stratégie nationale pour l’IA, de manière à ce que l’ensemble de l’écosystème fonctionne de concert pour accompagner le déploiement de l’intelligence artificielle et de ses technologies révolutionnaires. »
Une régulation de risques réels plutôt que des spéculations
Sur la régulation de l’IA générative, enfin, Guillaume Avrin défend une approche basée sur des risques réels et identifiés et invite à se garder « des spéculations ».
« Nous ne devrions pas spéculer. Cela n’a aucun sens d’imaginer des situations associées à l’IA générative sans avoir préalablement identifié les situations susceptibles de nous y conduire. Nous devons anticiper et non spéculer », martèle-t-il.
Guillaume AvrinCoordonnateur national pour l'intelligence artificielle
Ces « risques réels », la France entend les aborder à l’occasion de la prochaine édition du Safety Summit qu’elle accueillera.
En conclusion, et en phase avec le cap fixé par Emmanuel Macron, Guillaume Avrin estime que « la bonne direction » consiste à héberger en France les développements en IA.
Il revendique d’ailleurs quelques premiers succès, comme Mistral AI et son modèle 7B, suivi, depuis, du lancement d’un second modèle Mixtral 8x7B. « Ce n’est qu’un exemple, mais il traduit notre capacité à concevoir un système d’IA bon et même meilleur que des technologies compétitives. »
Pour Guillaume Avrin, la stratégie nationale française démontre son efficacité, quand bien même elle ne dispose que d’un budget de 1,5 milliard d’euros. « Cela ne semble rien en comparaison des 10 milliards investis par Microsoft dans OpenAI. » Mais l’enjeu est aussi d’attirer les capitaux des VC vers les acteurs français pour « en maximiser le développement », explique-t-il.
« Nous devons aussi nous assurer sur le volet de la demande que nous expérimentons l’IA et nous habituons à interagir avec ces systèmes […] Si nous parvenons à faire travailler et à faire progresser ensemble la demande et l’offre, alors nous serons certains de disposer des bons développements en IA », conclut le coordonnateur.
Revoir l’AI ACT
Pour le président de la République, l’AI Act pourrait freiner cette ambition. Raison pour laquelle il estime, qu’en matière de régulation, « il faut que l’on soit toujours à la bonne vitesse, et en tout cas au bon rythme », invite-t-il.
« Je demande donc à ce qu’on évalue, de manière régulière, cette réglementation. Si l’on perd des leaders ou des pionniers à cause de cela, il faudra revenir [dessus]. C’est clé. », plaide le président. Emmanuel Macron n’écarte d’ailleurs pas de parvenir à faire une de ces évaluations avant l’entrée en application effective de l’AI Act.
C’est aussi le sens des déclarations, le 9 décembre, de son secrétaire d’État, Jean-Noël Barrot. « Il faut éviter d’écraser les innovateurs européens sous une réglementation qui soit trop lourde. Nous allons donc examiner très attentivement l’accord qui a été trouvé cette nuit », lançait-il alors que l’AI ACT était à peine négocié.
L’accord européen reste provisoire – insiste la France – et plusieurs mois d’écriture du texte sont encore à prévoir avant un vote et une adoption. Selon Jean-Noël Barrot « un certain nombre de détails » restent à régler. Et « le diable se cache souvent dans les détails », souffle-t-il.