Stockage : les 4 stress techniques que suscite l’IA
Le stockage de données sera impacté par l’intelligence artificielle au niveau de ses débits, de sa latence, de son administration, mais aussi à celui de la gouvernance de ses contenus. Cet article déchiffre les différentes problématiques.
Cet article examine les principaux points de stress technique liés au stockage des données dans le cadre d’un projet IA. Le sujet est d’autant plus d’actualité que, selon IBM, 42 % des entreprises de plus de 1 000 salariés utilisent aujourd’hui l’IA dans leurs activités. Parmi elles, 40 % se disent encore en phase de tâtonnement. Une grande partie de cet usage concerne l’IA générative d’après des grands modèles de langage (LLM), tels que ChatGPT. Ces formes d’IA sont de plus en plus utilisées dans les applications d’entreprise ou via des chatbots qui interagissent avec les clients.
Si la plupart des systèmes d’IA générative sont, pour l’instant, basés sur le cloud, les fournisseurs s’efforcent de faciliter l’intégration des LLM aux données de l’entreprise. Sachant que, idéalement, les données devaient être aussi proches que possible des ressources de calcul, utiliser des données locales suggère de déployer directement sur site de la puissance de traitement. Cependant, les LLM, tout comme les formes plus conventionnelles de Machine learning, nécessitent d’importantes ressources en calcul qui, elles-mêmes, nécessitent des baies de stockage adaptées aux traitements de données.
L’investissement dans l’infrastructure sera important, que cette infrastructure soit en cloud ou sous la forme d’équipements sur site. Il est donc nécessaire de réfléchir à deux fois à la manière de le pérenniser. D’autant que (au-delà de la simple notion de performances) se posent les questions de l’administration des ressources et du maintien de la conformité des données. Deux sujets qui diffèrent selon que ces ressources sont en cloud ou sur site. Cet article fait le point.
L’entraînement des IA exige beaucoup d’entrées-sorties
Il n’existe pas d’architecture de stockage unique qui soit optimale pour tout projet d’IA. Le type de stockage dépend du type de données. Pour les grands modèles de langage, la plupart des entraînements sont effectués avec des données non structurées, à savoir des fichiers ou des objets stockés sur des NAS ou des baies S3. En revanche, les modèles financiers utilisent des données structurées, pour lesquelles le stockage en mode bloc est plus courant. Et il y aura des projets d’IA qui utiliseront les trois types de stockage.
Pour un modèle basé sur le cloud, le stockage en ligne est le choix par défaut. Les goulets d’étranglement au niveau des entrées/sorties dans une infrastructure en cloud posent moins de problèmes que la latence subie lors du transfert des données vers ou depuis le cloud. Et les grands fournisseurs de clouds proposent désormais une gamme d’options de stockage très performantes.
Si les données se trouvent sur site, par exemple dans une base de données, il peut être judicieux d’utiliser les serveurs locaux pour exécuter le modèle. Cela apporte le bénéfice supplémentaire de donner aux développeurs d’applications d’IA le moyen de mieux contrôler les possibilités offertes par l’infrastructure.
Les modèles d’IA font un usage intensif des unités de traitement graphique (GPU), qui sont coûteuses. Il est donc essentiel que le stockage suive le rythme des demandes des GPU. Cependant, dans certains cas, les unités centrales de traitement sont plus susceptibles d’être un goulet d’étranglement que le stockage. Tout dépend du type de modèle, des données sur lesquelles il est entraîné et de l’infrastructure disponible.
Les modèles d’IA doivent être entraînés avant d’être utilisés. Plus cet entraînement est correct, plus le modèle est fiable. Et lorsqu’il s’agit d’entraîner un modèle, plus il y a de données, mieux c’est. C’est donc au cours de la phase d’entraînement que les projets d’IA sollicitent le plus l’infrastructure informatique, y compris le stockage.
La façon dont une entreprise prévoit ensuite d’utiliser son modèle d’IA influencera tout autant son choix entre le stockage local et le stockage en cloud. Lorsque la phase d’entraînement de l’IA est de courte durée, le stockage en cloud est probablement le plus rentable et les limites de performance sont moins importantes. L’entreprise peut désactiver le stockage une fois l’entraînement terminé et récupérer son modèle. Toutefois, si les données doivent être conservées pendant la phase opérationnelle – pour affiner les réglages ou pour appuyer le traitement de nouvelles données – les avantages d’un service à la demande en cloud sont plus faibles. Il sera plus judicieux d’utiliser des ressources sur site et, quitte à y investir, autant déporter aussi les calculs sur site dès le départ.
L’inférence a besoin d’une faible latence
Une fois qu’un modèle est entraîné, ses besoins en matière de stockage de données devraient diminuer. Un système d’IA de production exécute les requêtes des utilisateurs ou des clients par le biais d’algorithmes adaptés, et ceux-ci peuvent être très efficaces.
Christof StührmannDirecteur ingénierie cloud, Taiga Cloud
« Le modèle qui résulte de l’entraînement à l’IA est généralement petit par rapport à l’échelle des ressources de calcul utilisées pour l’entraîner, et il ne demande pas trop de stockage », explique Christof Stührmann, directeur de l’ingénierie en cloud chez le prestataire Taiga Cloud.
Néanmoins, le système a toujours des entrées et des sorties de données. Les utilisateurs ou les applications introduisent des requêtes dans le modèle, qui fournit ensuite ses résultats de la même manière.
Dans cette phase opérationnelle ou d’inférence, l’IA a besoin d’E/S très performantes pour être efficace. Le volume de données requis peut être inférieur de plusieurs ordres de grandeur à celui de la formation, mais les délais d’entrée des données et de retour des requêtes peuvent se mesurer en millisecondes.
Certains cas d’utilisation clé de l’IA, tels que la cybersécurité et la détection des menaces, l’automatisation des processus informatiques, le balayage biométrique pour la sécurité ou la reconnaissance d’images dans l’industrie, nécessitent tous des résultats rapides. Même dans les domaines où la GenAI est utilisée pour créer des chatbots qui interagissent comme des humains, le système doit être suffisamment rapide pour que les réponses semblent naturelles.
Là encore, il s’agit d’examiner le modèle et ce que le système d’IA cherche à faire. « Certaines applications nécessitent une très faible latence », explique Roy Illsley. « L’IA doit alors être située aussi près que possible de l’utilisateur et les données peuvent ne représenter qu’une très petite partie de l’application. D’autres applications peuvent être moins sensibles à la latence, mais impliquent de grandes quantités de données, et l’IA doit donc être située à proximité du stockage, avec la capacité et les performances nécessaires. »
L’enjeu d’administrer autant de données que possible
Le troisième impact de l’IA sur le stockage est la nécessité permanente de collecter et de traiter les données. Pour l’IA « classique » et le Machine Learning, les data-scientists veulent avoir accès à autant de données que possible, en partant du principe que plus il y a de données, plus le modèle est précis.
Cela est lié à l’approche plus large de l’entreprise en matière de gestion des données et du stockage. Il s’agit notamment de savoir si les données sont stockées sur des SSD ou des disques durs, où sont conservées les archives, et quelles sont les politiques de conservation des données historiques.
L’entraînement de l’IA et la phase d’inférence vont puiser des données dans toute l’entreprise, potentiellement à partir d’applications multiples, d’informations saisies par des humains et depuis des capteurs.
Les développeurs d’IA ont commencé à considérer les data fabrics comme un moyen d’alimenter les systèmes d’IA, mais les performances peuvent poser problème. Il est probable que les réseaux de données devront être construits sur différents niveaux de stockage afin d’équilibrer les performances et les coûts.
Pour l’instant, l’IA générative pose moins de problèmes, car les LLM sont formés sur des données Internet. Mais cela va changer, car de plus en plus d’entreprises cherchent à utiliser les LLM avec leurs propres données.
L’enjeu de la conformité avec des données soumises à une analyse externe
Les entreprises doivent s’assurer que leurs données d’IA sont sécurisées et conservées conformément aux lois et réglementations locales.
Richard Watson-BruhnExpert en sécurité des données, PA Consulting.
Cela influencera l’endroit où les données sont conservées, les régulateurs étant de plus en plus préoccupés par la souveraineté des données. Dans les services d’IA basés sur le cloud, il est donc nécessaire de comprendre où les données sont stockées pendant les phases d’entraînement et d’inférence. Les entreprises doivent également contrôler la manière dont elles stockent les entrées et les sorties du modèle.
Cela s’applique également aux modèles qui fonctionnent sur des systèmes locaux, bien que les politiques de protection des données et de conformité déjà en place devraient couvrir la plupart des cas d’utilisation de l’IA.
Néanmoins, la prudence est de mise. « La meilleure pratique consiste à déterminer quelles données sont intégrées dans le pool d’apprentissage de l’IA et à définir clairement les données que l’on souhaite ou non conserver dans le modèle », explique Richard Watson-Bruhn, expert en sécurité des données chez PA Consulting. « Lorsque les entreprises utilisent un outil comme ChatGPT, il peut être tout à fait acceptable que ces données soient conservées dans le cloud et transférées à l’étranger, mais des conditions contractuelles doivent être mises en place pour régir ce partage. »