singkham - Fotolia

Ansible Lightspeed : chez Red Hat, la génération de code ne se fera pas sans IBM

Red Hat s’appuie sur l’expertise d’IBM pour entraîner Watson Code Assistant à l’écriture de playbooks Ansible, alors que les inquiétudes persistent sur les risques liés au code généré par l’IA et que les rivaux conservent une forte avance.

Red Hat a sauté dans le train de l’IA générative cette semaine aux côtés de sa société mère IBM. L’éditeur a lancé la version bêta d’un assistant de programmation pour Ansible ainsi qu’une nouvelle ligne de produits OpenShift pour les MLOps. Il a ainsi fait ses premiers pas dans un marché d’ores et déjà dominé par GitHub et sa solution Copilot.

Ansible Lightspeed, une nouvelle phase du projet open source Project Wisdom que Red Hat a lancé à l’automne dernier, utilisera Watson Code Assistant pour générer des playbooks Ansible en YAML sur la base d’invites en langage naturel. Jusqu’à présent, les responsables du Project Wisdom se sont appuyés sur les référentiels de code source ouvert Ansible et ont fait appel aux utilisateurs internes d’IBM pour entraîner le modèle de fondation de Watson Code Assistant. Désormais, la version bêta publique qui devrait être disponible d’ici à la fin du mois de juin ouvrira l’outil à tous les utilisateurs de l’édition Enterprise d’Ansible, dans l’espoir d’affiner encore les réponses de l’IA.

Un retard justifié, selon Red Hat

L’incursion prudente de Red Hat dans le domaine de la génération de code par l’IA se fera avec un an de retard par rapport à la disponibilité générale de GitHub Copilot, l’assistant le plus populaire à ce jour. Elle est également en retard de plusieurs mois par rapport aux fonctionnalités de Pulumi et Firefly mêlant IA générative et Infrastructure as code. La disponibilité générale de Lightspeed n’est pas attendue avant la seconde moitié de l’année.

Ce n’est pas du temps perdu, selon Chris Wright, directeur technique et vice-président senior de l’ingénierie mondiale chez Red Hat. Puisque les annonces s’accumulent, Red Hat doit se démarquer.

« Nous savons tous que ChatGPT a suscité beaucoup d’intérêt dans le monde entier », avance M. Wright. « Mais voici les questions que nous nous sommes posées : “Que pourrions-nous faire si l’IA était vraiment spécifique ? Au lieu d’un [modèle] à usage général comme celui qui anime ChatGPT, que se passerait-il si nous entraînions un [modèle] sur un code spécifique [pour] fournir des solutions d’IA ciblées et spécifiques à un domaine comme l’automatisation informatique ?” ».

Les outils d’IA générative consacrés à OpenShift suivront, prévient Chris Wright lors de sa keynote, sans donner plus de détails. Red Hat a également repositionné son produit OpenShift Data Science comme base d’une nouvelle gamme nommée OpenShift AI. Ces solutions bénéficieront d’améliorations des pipelines de déploiement de modèles tels que la détection des biais, une meilleure prise en charge des GPU et la prise en charge de plusieurs grands modèles de langage (LLM).

Red Hat n’a pas exclu de prendre en charge des modèles d’IA autres que ceux d’IBM dans OpenShift AI, selon Ashesh Badani, vice-président senior et directeur des produits chez Red Hat, lors d’une interview cette semaine.

« Nous essayons […] de faire d’OpenShift la base pour le déploiement de divers modèles », confirme-t-il. « Maintenant, à l’avenir, pourriez-vous nous voir intégrer d’autres modèles d’IA générative ? Oui. Il n’y a aucune raison qui nous empêche de le faire ».

La promesse d’Ansible Lightspeed séduit, mais doit montrer des résultats

Peu importe ce que Red Hat a pu prévoir, il est jusqu’à présent resté proche d’IBM pour Ansible Lightspeed. La PaaS OpenShift AI a été utilisée pour construire la plateforme Watsonx.ai déployée au début du mois, et la communauté d’usagers de la version bêta privée d’Ansible Lightspeed était en grande partie composé des 12 000 employés de l’Office of the CIO d’IBM.

« Les équipes de recherche d’IBM comprennent vraiment les données et les modèles de fondation », affirme Thomas Anderson, vice-président et directeur général de l’unité commerciale Ansible de Red Hat. « Ce que nous apportons, c’est notre expertise concernant Ansible ».

Thomas Anderson n’a pas fourni d’informations spécifiques sur la manière dont l’équipe derrière Project Wisdom a mesuré la précision des réponses du modèle lors des premiers tests, ni sur les améliorations apportées lors de la version bêta privée. À titre anecdotique, l’Office of the CIO d’IBM a pu utiliser Lightspeed pour générer correctement 60 % du code Ansible dans le cadre d’un programme pilote.

Bien que la qualité des résultats de Lightspeed reste à prouver dans le monde entier, l’IA générative au service de l’infrastructure as code présente une proposition de valeur convaincante qui retient l’attention des professionnels de l’IT, même si l’utilisation en production est encore loin d’être acquise.

« Au fur et à mesure de sa maturation, l’IA sera incorporée à un certain niveau dans l’IT pour réduire les coûts, automatiser plus rapidement, et réduire le niveau de code [expertise] requis pour automatiser ou déployer quelque chose ».
Ty LimResponsable SRE, Blue Shield of California

« L’IA est actuellement un thème à la mode, mais je ne sais pas à quoi ressemblera l’IA dans un an – je n’exclus rien », affirme Ty Lim, responsable SRE chez l’assureur de santé Blue Shield of California, lors d’une interview au Red Hat Summit. « Au fur et à mesure de sa maturation, l’IA sera incorporée à un certain niveau dans l’IT pour réduire les coûts et automatiser plus rapidement, et réduire le niveau de code [expertise] requis pour automatiser ou déployer quelque chose. C’est la promesse ».

Ansible Lightspeed fournit des informations sur ses données d’entraînement lorsque cela est nécessaire, selon les responsables de Red Hat. Toutefois, la plupart des professionnels de l’IT risquent de ne pas déployer le code généré en production. La décision de justice résultant du procès en cours aux États-Unis contre OpenAI, Microsoft et GitHub sur la licence Copilot est attendue, signale Andy Thurai, un analyste de Constellation Research.

En outre, Andy Thurai demeure sceptique quant à la capacité de Watson Code Assistant, dont la disponibilité générale est également prévue dans le courant de l’année, à se mesurer à ses concurrents.

« Watson Code Assistant n’est pas très impressionnant – c’est un logiciel courant, comme beaucoup d’autres », juge-t-il. « À mon avis, Copilot [de GitHub] est bien meilleur en termes de précision et de variété du code qu’il peut écrire ».

Néanmoins, Ansible bénéficie d’une forte reconnaissance dans le domaine de l’IaC et d’une large base de clients, ce qui est un point en faveur de Red Hat, reconnaît Andy Thurai. Ansible Lightspeed s’intégrera initialement via une extension pour Visual Studio Code de Microsoft, ce qu’Andy Thurai a qualifié de décision intelligente, car cela pourrait aider Lightspeed à tirer parti de la traction autour de Microsoft et de GitHub Copilot.

Rob Strechay, fondateur de Smuget Consulting et expert IT, comprend la logique derrière le fait d’utiliser des données spécifiques à un domaine pour entraîner Watson Code Assistant, bien qu’il attende lui aussi de voir les performances de Lightspeed dans le monde réel.

« Copilot pourrait puiser n’importe où dans Git, tandis que Watson Code Assistant utiliserait une quantité limitée de code connu applicable au YAML que vous essayez de construire pour Ansible », compare Rob Strechay. « Le contexte est important, et [un] plus grand [jeu de données] ne représente pas toujours la meilleure solution ».

Pour approfondir sur Outils de développement