GenAI : Atlassian monte (trop rapidement ?) en régime
S’il se montre prudent concernant les gains de performance attribués à l’IA générative, Atlassian mise fortement sur cette technologie. Reste que des interrogations demeurent, concernant sa politique tarifaire et la sécurisation des traitements de données.
Atlassian a fait état de sa volonté de ménager la chèvre et le chou concernant ses clients Data Centers. Il entend par ailleurs fusionner certains produits Jira et unifier l’expérience utilisateur. Il est temps d’évoquer l’un des aspects difficiles à éviter de sa feuille de route : l’infusion de l’IA générative un peu partout dans ses outils. C’est l’objet de la gamme Atlassian Intelligence et de Rovo.
Rovo, le Copilot d’Atlassian
Outre la barre de recherche « intelligente » intégrée dans l’interface de Jira, l’éditeur a fortement mis en avant Rovo, son assistant d’IA désormais en disponibilité générale. Il y a d’un côté Rovo Search, un système managé pour chercher des informations dans des dépôts comme Google Drive, Microsoft SharePoint, Teams, Figma GitHub, Slack, mais aussi Confluence Data Center (sur site donc).
De l’autre, Rovo Chat est un agent conversationnel, activable dans l’interface des produits Atlassian et dans Google Docs. Il doit aider à résumer des tâches ou des changements effectués dans une feuille de route produit. Il peut évaluer le contenu et la documentation d’un projet, réaliser le brouillon d’une FAQ ou encore – s’il est connecté avec un outil RH – permettre à l’employé de se renseigner sur la gestion de ses vacances.
Mais l’éditeur propose également 20 agents d’IA sur étagère pour aider à la rédaction de documentation, la génération de release note, et résumer les actions d’une équipe, etc.
Plus de fonctionnalités pour les développeurs dans Atlassian Intelligence
Il est aussi possible d’identifier et de créer une « issue » (pardon un « work ») dans Jira depuis une page Confluence grâce à la GenAI. Il suffit de surligner le texte pour que le LLM sous-jacent suggère les tâches et propose de la diffuser sur Slack. De la même manière, les vidéos asynchrones Loom servent à générer un résumé des tâches à effectuer, à partir d’un transcript automatisé (compatible avec plus de 50 langues, dixit l’éditeur) et les enregistrer comme des issues.
Un LLM est également mis à contribution pour diviser un projet ou un programme en tâches/cartes distinctes. Cette fonctionnalité est entrée en disponibilité générale.
Atlassian a déjà prévu de proposer l’inverse, c’est-à-dire un moyen de rassembler des tâches diverses en épopées ou de les rattacher à des épopées existantes.
« Par exemple, vous avez cinq tâches dans votre backlog qui n’ont pas d’épopée parente, et nous pourrions soit suggérer une épopée existante, soit dire que toutes ces tâches semblent liées à quelque chose et vous n’avez jamais créé d’épopée », évoque Dave Meyer, directeur du produit Jira chez Atlassian. « Voici une suggestion d’épopée basée sur ce qui se trouve déjà dans les tâches ».
L’éditeur prévoit également d’ajouter des prompts optionnels pour reformuler – clarifier – la description des « works ».
Ce n’est qu’une partie des fonctionnalités d’IA générative évoquées lors de la conférence Team 24. Pour les développeurs, un agent d’IA développé par Atlassian peut automatiser la génération de code, de recommandation de modification, et poster un pull request vers Bitbucket ou GitHub à partir d’une description d’une tâche dans Jira. Depuis BitBucket, un agent peut, à l’inverse, suggérer des revues de code.
Dave MeyerDirecteur produit Jira, Atlassian
« Le développeur pourra lire la suggestion et l’appliquer. L’agent d’Atlassian vérifie la branche et met à jour la pull request », explique Dave Meyer. Le merge demeure manuel, mais l’éditeur imagine pouvoir automatiser la modification des éléments de code les plus basiques (ou le code boilerplate).
« Nous pensons qu’à court ou moyen terme, pour une mise en œuvre ou pour des morceaux de code plus complexes, les humains devront encore faire une grande partie du travail », considère le responsable produit. L’éditeur a produit plus tôt cette année une étude qui tempère les gains de productivité imputés à l’IA.
Pour autant, une intégration avec GitHub Copilot est prévue afin d’apporter du contexte disponible dans Jira, à même le CLI. En clair, les produits d’Atlassian deviennent les sources d’un système RAG propulsé par l’assistant de GitHub.
Des modifications tarifaires à anticiper
Reste à voir si les clients souhaitent adopter ces fonctionnalités et le coût qu’elles représentent. Récemment, Atlassian a modifié la tarification et les offres liées à Jira Service Management. Dès le 16 octobre, certaines capacités d’IA de la solution ITSM ne sont accessibles qu’en souscrivant à un forfait Premium ou Enterprise. Si l’IA ne résout pas les problèmes les plus avancés, elle demeure actuellement un moyen de générer de la consommation de services SaaS. D’autant plus que dans le cas présent, elle peut aider à regrouper les alertes et à automatiser certaines charges de travail – après une phase de personnalisation.
Les plans Premium et Enterprise de Jira Service Management incluent gratuitement le stockage de 50 000 objets d’actifs et 1 000 conversations assistées par des agents virtuels chaque mois. Des frais supplémentaires s’appliquent au-delà de ces limites (0,05 dollar par objet stocké par mois et 0,30 dollar par conversation avec assistants par mois). L’éditeur dit appliqué des remises basées sur le volume.
Pas encore de garanties fermes en matière de sécurité et de transferts de données
L’autre frein est lié à la sécurité et à la gouvernance des données.
Actuellement, Rovo n’est pas conforme aux normes SOC2, ISO, HIPAA, et ne permet pas d’appliquer un mécanisme de résidentialité des données.
« Nous sommes actuellement en train d’obtenir la conformité SOC2 et ISO27001 pour valider notre approche, ce qui devrait être fait d’ici la fin de l’année 2024 », avance l’éditeur.
Pour l’instant, Rovo Search ne permet pas de sélectionner les dossiers à indexer dans un workspace externe. « C’est quelque chose que nous imaginons possible à l’avenir », affirme l’éditeur dans sa documentation. En revanche, il dispose d’un moyen d’hériter la politique de permission de l’entreprise. Les données indexées sont supprimées 30 jours après la suppression de connexion avec un outil tiers. Une procédure légèrement différente pour Google Docs et Figma.
Afin de propulser Rovo, Atlassian exploite des grands modèles de langage qu’il héberge lui-même – dont Llama 3, Mixtral, Phi 3 – mais aussi ceux d’OpenAI, via API.
« Les données que vous soumettez et les réponses que vous recevez via Atlassian Intelligence et Rovo ne sont pas utilisées pour affiner ou améliorer les modèles ou services LLM », assure l’éditeur.
De même, l’acteur dit être le seul à stocker, même temporairement, les données des usagers.
Il y a tout de même des transferts temporaires vers les instances d’OpenAI.
« Pour les modèles hébergés par des tiers, chaque demande de données est envoyée individuellement au fournisseur externe via un service chiffré SSL, pour être traitée et renvoyée à Atlassian », réagit l’éditeur de Jira.
Les modèles d’OpenAI sont utilisés dans Atlassian Intelligence, Rovo et Loom AI. Ils traitent des « données à caractère personnel contenues dans les informations du compte utilisateur et les textes ou fichiers créés par le client et stockés dans les produits cloud correspondants ». Aujourd’hui, le lieu de traitement est localisé aux États-Unis.
Par ailleurs, Atlassian déploie une technique de routage dynamique entre les grands modèles de langage, ce qui ne permettrait pas – en tout cas à ce jour – de choisir les modèles à employer.