RHEL AI : IBM lance Red Hat sur la piste de l’IA générative en cloud hybride
Si IBM a officiellement présenté ses premiers LLM ouverts, tirés de la collection Granite, les experts pensent que l’offre RHEL AI de Red Hat est plus susceptible de se démarquer par la manière dont elle relie l’IA aux infrastructures de cloud hybrides.
DENVER – Les dirigeants de Red Hat ont proclamé que l’IA open source est trop complexe pour que la plupart des entreprises puissent y contribuer et l’incorporer dans leurs applications spécifiques. RHEL AI, une nouvelle plateforme d’IA open source, vise à changer cette situation.
Red Hat Enterprise Linux AI inclut le système d’exploitation RHEL de Red Hat, emballé sous forme d’image de conteneur amorçable à l’aide de l’utilitaire bootc Linux, ce qui le rend portable à travers les infrastructures. RHEL AI intègre également la collection de grands modèles de langage IBM Granite. Certains d’entre eux propulsent Ansible Lightspeed de Red Hat et sont disponibles depuis WatsonX.
Avec RHEL AI, l’éditeur fournit les outils d’alignement d’InstructLab AI. InstructLab, également ouvert sous licence Apache 2.0 par IBM Research et Red Hat la semaine dernière, permet aux utilisateurs d’affiner les modèles Granite préentraînés à l’aide d’une taxonomie de connaissances et de compétences qui génère un ensemble de données synthétiques.
« Vous pouvez désormais enseigner à un modèle de fondation une nouvelle compétence… avec cinq exemples, alors qu’il en aurait fallu 5 000 auparavant » vante Matt Hicks, président et PDG de Red Hat, lors du keynote d’ouverture du Red Hat Summit 2024. « Avec la possibilité d’enseigner à des modèles plus petits les compétences pertinentes pour votre cas d’usage, tout s’améliore – les coûts d’entraînement sont plus faibles, les coûts d’inférence sont plus faibles, les options de déploiement s’élargissent. »
Ces mises à jour représentent un changement de position par rapport à l’année dernière. Matt Hicks déclarait au Red Hat Summit 2023 que Red Hat n’avait pas l’intention de se lancer dans les modèles d’IA – un changement reconnu lors d’une conférence de presse.
« Le contexte était très différent », assure Chris Wright, directeur technique de Red Hat. « L’industrie était vraiment ralliée autour de modèles propriétaires, et nous ne fournissons pas de solutions propriétaires de ce type. L’année dernière, la transition s’est faite dans le sens d’une plus grande ouverture dans l’écosystème des LLM ».
Red Hat ne développe toujours pas ses propres modèles open source, mais soutient les projets d’IBM Research ainsi que d’autres outils de développement et de déploiement d’IA ouvert, précise le CTO.
RHEL AI s’attaque aux problèmes de l’IA open source
RHEL AI vise à résoudre certains des problèmes courants liés à l’IA open source, qui a émergé parallèlement aux LLM propriétaires tels que ceux d’OpenAI et d’Anthropic. Si les possibilités de collaboration sont plus riches avec de tels modèles, les jeux de données utilisés pour les entraîner ne sont souvent pas disponibles avec le code source du modèle. Lors de l’événement de Red Hat, IBM Research a également publié les modèles Granite Code Instruct et divulgue les ensembles de données utilisés pour les entraîner, comprenant des métadonnées du CodeNet d’IBM, selon un billet de blog de l’entreprise.
L’entraînement de grands modèles de langage open source nécessite par ailleurs des ressources, auxquelles la plupart des entreprises traditionnelles n’ont pas accès pour des raisons de coûts, de compétence ou de manque de disponibilité des équipements.
Les fournisseurs cloud ont comblé cette lacune jusqu’à présent avec des services LLM hébergés, bien que les premiers utilisateurs aient dû faire preuve de prudence, pour éviter de faire exploser les coûts. RHEL AI, en revanche, cible les grandes entreprises qui ont des charges de travail d’IA à la périphérie, sur site et dans plusieurs clouds avec des images de conteneurs RHEL portables et des outils d’automatisation hybrides OpenShift. Tandis que InstructLab est destiné à rendre le réglage fin des modèles d’IA générative plus accessible aux masses, en exigeant moins d’entrées de données que d’autres LLM hébergés.
« Le fait qu’InstructLab soit open source est unique », affirme Rob Strechay, analyste en chef de la société de médias technologiques TheCube, lors d’un entretien avec SearchITOperations, une publication sœur du MagIT. « Il est difficile d’obtenir des données simulées pour s’entraîner – InstructLab peut faire le lien entre les outils de data science et les données. Les organisations veulent cette simplicité ».
Les porte-parole de Red Hat pensent que l’IA open source peut également surmonter certains problèmes communs aux LLM en général, tels que le respect des normes d’objectivité et d’adéquation des résultats grâce aux travaux et aux échanges communautaires. Comme pour les LLM propriétaires et les services associés de Microsoft et GitHub, Red Hat préservera la confidentialité des ensembles de données des utilisateurs et indemnisera les utilisateurs des LLM Granite.
RHEL AI est accessible en préversion pour les développeurs et il n’est pas clair, à ce stade, jusqu’où IBM et Red Hat prévoient d’aller en matière d’indemnisation. Lorsqu’on leur a demandé s’ils allaient indemniser les utilisateurs des outils d’IA open source de leur gamme contre les attaques par injection, les responsables de Red Hat ont répondu qu’ils suivraient les politiques d’indemnisation Watsonx d’IBM. Celles-ci sont décrites comme des protections contre les infractions aux droits d’auteur et la violation de la propriété intellectuelle, dans un communiqué de presse d’IBM datant de septembre 2023.
Cela pourrait être problématique si les outils d’entraînement des IA étaient exposés au grand jour, avance un analyste.
« Sur scène, les porte-parole de Red Hat ont évoqué l’agrégation de toute une série d’informations sur les patients et les clients afin d’entraîner des modèles », résume Bret Ellis, analyste chez Forrester Research, au cours de la conférence de presse. « Que se passe-t-il lorsque ce point d’agrégation devient la cible d’un gang cyber et qu’il peut trouver des moyens de pousser le modèle à divulguer des informations ? Comment mettre en place des garde-fous autour de cela, spécifiquement ? »
L’industrie dans son ensemble n’a pas encore trouvé toutes les réponses à cette question, répond le CTO Chris Wright.
« La manière dont nous avons travaillé sur Linux avec un modèle de défense en profondeur, en fournissant des contrôles d’accès obligatoires tout au long du système d’exploitation avec SELinux ou ACS, intégrant StackRox directement dans Kubernetes… jouera ici », affirme-t-il. « C’est juste que les outils sont moins bien compris à ce stade ».
Les images RHEL AI relient l’IA à l’infrastructure IT
Alors que Red Hat a présenté sa vision d’un avenir du développement de l’IA porté par les communautés open source, les analystes estiment que RHEL AI se démarque davantage par son mécanisme de déploiement en mode image, qui liera les moteurs d’exécution de l’IA à son système d’exploitation populaire et les rendra plus facilement déployables en cloud hybride.
Surtout, RHEL AI pourrait offrir une alternative plus familière aux outils WebAssembly côté serveur qui sont toujours en cours de développement, afin d’ajouter la portabilité aux applications d’IA générative, selon Torsten Volk, analyste chez Enterprise Management Associates, lors d’un interview.
« Les modèles d’IA ne différencient pas vraiment [les éditeurs] », lance-t-il. « Ce qui les différencie, c’est tout ce qui entoure le modèle qui permet aux data scientists, aux développeurs, aux ingénieurs de plateforme et de données de créer, déployer, gérer, surveiller, affiner et partager de manière collaborative entre les organisations, car cela ne se produit pas actuellement. »
Red Hat a également présenté un vaste ensemble d’outils intégrés de développement d’applications d’IA générative et de gestion de l’infrastructure qui allaient bien au-delà de RHEL. Il a en outre évoqué des mises à jour d’OpenShift AI, de Podman, des intégrations avec l’IDE VS Code et des partenariats élargis avec les concepteurs de puces Intel, AMD et Nvidia.
Un analyste présent lors de la conférence a déclaré qu’OpenShift jouera un rôle clé sur le marché de l’IT, à mesure que l’adoption de l’IA générative par les entreprises augmentera.
Steven DickensAnalyste, Futurum Group
« Je vois un pourcentage important de charges de travail d’IA déployées sur site lorsqu’elles atteignent la production pour des raisons de confidentialité et de souveraineté des données », observe Steven Dickens, analyste chez Futurum Group, auprès de SearchITOperations.
RHEL AI et d’autres outils d’IA open source seront tout aussi importants pour la collaboration et le partage des données entre les institutions médicales disposant de différents niveaux de ressources financières, d’après Dr Rudolph Pienaar, membre de l’équipe scientifique de l’hôpital pour enfants de Boston, lors du keynote principal du Red Hat Summit 2024.
« L’open source permet à une communauté d’analyser, de vérifier, de tester et d’instaurer la confiance », avance-t-il, citant le travail effectué par le Boston Children’s Hospital avec le Massachusetts Open Cloud OpenShift Service et ChRIS, un projet open source pour l’analyse des images radiologiques, afin de favoriser une telle collaboration. « L’open source uniformise les règles du jeu. Parce que les outils que nous utilisons à l’hôpital Boston Children’s fonctionnent sur OpenShift et parce que ChRIS est open source, un hôpital n’importe où peut utiliser les mêmes algorithmes que nous utilisons pour aider les enfants, où qu’ils se trouvent ».