IA : les projets de directives européennes préoccupent les éditeurs américains
La Commission européenne a publié des lignes directrices sur la réglementation de l’IA. Celles-ci exigent que les systèmes utilisés dans les secteurs à haut risque soient transparents et fassent l’objet d’une surveillance humaine. Certains éditeurs américains semblent préoccupés.
Vu des États-Unis – Alors que les fonctionnaires de l’Union européenne publiaient des propositions de grande envergure pour réglementer l’intelligence artificielle, les grands éditeurs américains se sont empressés de faire pression contre ce qu’ils craignent être des excès gouvernementaux qui étoufferont l’innovation.
Ces projets de régulation présentés sous la forme d’un livre blanc publié le 19 février font écho aux déclarations de plusieurs géants de l’IT. Google et IBM ont appelé ces dernières semaines à plus de réglementations dans des tentatives apparentes de devancer les mesures gouvernementales visant à renforcer la surveillance de l’IA et d’autres technologies.
Dans un même temps, Sundar Pichai, PDG d’Alphabet, Mark Zuckerberg, PDG de Facebook, et John Giannandrea, vice-président senior d’Apple chargé de l’intelligence artificielle, se sont rendus en Europe en début de semaine. Ils ont rencontré plusieurs responsables européens avant la publication des deux documents édités par la Commission européenne.
Facebook a publié son propre livre blanc sur la réglementation des contenus en ligne, indiquant aux régulateurs européens comment ils devraient réglementer Facebook et les autres éditeurs de contenus en ligne. Mais c’était aussi un signe que Facebook, comme Google, semble prêt à coopérer avec les autorités européennes en matière de réglementation.
Le guide publié par la CE ne précise pas comment les règlements sur l’IA seraient mis en œuvre à l’horizon 2022.
Plus de transparence, plus de vérifications
Ces lignes directrices, présentées dans deux documents, indiquent que les systèmes basés sur l’IA à haut risque, tels que ceux utilisés dans les hôpitaux, les tribunaux et les transports doivent être transparents. Ils doivent également être traçables et placés sous surveillance humaine. Les régulations proposées s’inspirent ouvertement du RGPD.
Les régulateurs de l’UE ont également déclaré que les acteurs de l’IA devraient être tenus de fournir des jeux de données non biaisées. Ils ont également appelé à un débat à l’échelle européenne sur l’utilisation de la technologie de reconnaissance faciale.
« Les initiatives et les lignes directrices actuelles sont axées sur la protection des données, l’utilisation autorisée, la prévention des préjugés et la transparence dans la prise de décision », considère Martin Sokalski, expert en IA et directeur de KPMG. « Il est clair que lorsque ces décisions ont un impact sur un consommateur final ou sur la société, les consommateurs souhaitent davantage de visibilité et d’orientation sur la manière dont leurs informations sont utilisées et si ces décisions sont justes ».
Les projets de directives européennes ont été dévoilés quelques semaines après que la Maison blanche ait publié ses propres indications concernant l’utilisation de l’IA par les entreprises et les agences gouvernementales aux États-Unis. Celles-ci étaient nettement plus vagues que celles de la Commission européenne. Le gouvernement américain encourage largement l’assouplissement des lois pour ne pas ralentir l’innovation.
« Les autorités devraient pouvoir tester et certifier les données utilisées par les algorithmes lorsqu’elles vérifient les cosmétiques, les voitures ou les jouets », indique le livre blanc de l’UE.
Des doutes sur l’équilibre entre réglementation et innovation
Selon Martin Sokalski, les éditeurs de solutions d’intelligence artificielle semblent vouloir réellement une meilleure régulation.
L’une de ces entreprises est DataRobot, un spécialiste de l’automatisation du machine learning. Ted Kwartler, vice-président, Trusted AI chez DataRobot, a déclaré que son entreprise accueille favorablement les appels à des approches réglementaires qui ne ralentissent pas les avancées technologiques.
Les lignes directrices de la Commission notent explicitement l’importance de développer une législation efficace qui n’étouffe pas l’innovation, mais les acteurs du marché ne semblent pas totalement convaincus.
« L’approche de l’Union européenne ne prend pas en compte la nature open source de l’innovation en matière d’IA et de ML », estime Ted Kwartler. « La communauté est mondiale, les fournisseurs et les développeurs doivent collaborer pour acquérir de l’expertise », ajoute-t-il.
« Il ne peut pas y avoir de lourdes restrictions sur la technologie de l’IA. À un moment donné, les données, les talents et les capitaux s’éloigneront de l’Europe parce que s’occuper de cette réglementation étouffante n’en vaut pas la peine », tranche-t-il.
Les possibles partenariats publics privés accueillis à bras ouverts
Le financement européen de la recherche et l’innovation dans le domaine de l’IA s’élèvent actuellement à 1,5 milliard d’euros par an. Selon la Commission européenne, ce montant est très inférieur au financement public de cet ensemble technologique aux États-Unis et en Chine. L’UE doit augmenter considérablement son financement pour atteindre 20 milliards d’euros par an au cours de la prochaine décennie. Le livre blanc en question invite à davantage de collaboration entre secteur public et privé.
« Nous nous réjouissons des appels à partenariats avec le secteur privé tout en accueillant favorablement les approches réglementaires qui n’étouffent pas l’innovation. Nous pensons qu’il y a de la place pour ces deux aspects », affirme Ted Kwartler.
« Une manière pour l’Union européenne de s’associer au secteur privé pour accélérer les progrès de l’IA serait de rendre la Data Science plus accessible aux personnes qui ne sont pas traditionnellement formées pour cette activité », prêche-t-il.