Appian veut combiner IA agentique et gestion fine des processus

Lors d’Appian Europe 2024, l’éditeur a présenté les nouveautés d’Appian 24.4 et a tracé les grandes lignes de sa feuille de route pour 2025. S’il n’a pas encore d’offre spécifique à la conception d’agents d’IA, ils pensent avoir tous les éléments pour se lancer et sécuriser le fonctionnement en entreprise.

Sans surprise, le spécialiste du BPM mise sur l’IA générative. Aujourd’hui, Appian propose deux gammes de services : AI Skills et AI Copilot.

Avec AI Skills, Appian assure que les entreprises peuvent l’utiliser pour « bâtir, configurer et entraîner des modèles de machine learning personnalisés ». Les clients sont davantage intéressés par la finalité : extraire des données au sein de documents. AI Skills détecte les tables qui s’étalent sur plusieurs pages dans des documents PDF, comme les lignes sur un bon de commande ou une facture, et permet d’en extraire les données avant de les charger dans un formulaire ou dans une base de données (entre autres).

La rencontre de l’OCR et de l’IA générative

« Nos clients combinent ces capacités avec les fonctions d’extractions et OCR que nous proposions déjà par le passé », affirme Adam Glaser, directeur de la gestion produit chez Appian. Ce serait particulièrement le cas chez les assureurs afin d’insérer des documents papier dans un processus entièrement numérisé.

Puisque l’éditeur utilise les modèles de langage-vision (Vision Language Model, VLM) d’Anthropic, avec la version 24.4, ces outils peuvent également extraire des données en provenance d’images et de visuels, dont des diagrammes, des cases à cocher, etc.

Un copilote pour tous les usagers

Quant à AI Copilot, il est décliné par catégorie d’usagers de la plateforme. Pour les métiers, l’éditeur propose Enterprise Copilot. Il s’agit d’une expérience de chatbot intégré à l’environnement, Appian qui permet de se connecter aux données de l’entreprise à travers un pattern RAG (Retrieval Augemented Generation). Il convient de préparer des jeux de données de connaissances, par exemple au regard de la politique RH de l’entreprise.

AI Copilot permet également d’interroger les enregistrements disponibles à travers Appian. Par ailleurs, l’éditeur a annoncé la disponibilité générale d’AI Copilot pour Data Fabric.

Data fabric est une « base de données virtuelle pour les données analytiques et transactionnelles », rappelle Adam Glaser. Cette couche de virtualisation permet de se connecter aux différents silos, de les connecter à un modèle de données unifié sans les répliquer.

Dans ce contexte, AI Copilot doit permettre d’interroger des données, d’obtenir des indicateurs clés, de créer des visualisations, des rapports et des tableaux de bord à partir de Process HQ. Process HQ est un outil de process mining en disponibilité générale depuis le mois de mai. Ici, il est possible d’interroger des données en provenance de différentes sources répertoriées dans le data Catalog de la plateforme. Appian AI Copilot pour Data Fabric serait désormais capable de traiter « jusqu’à 250 types d’enregistrement ».

Soit dit en passant, Process HQ s’enrichit de Process Insights et Data fabric Insights. Ces modules visent à simplifier l’analyse des problèmes qui affectent certaines parties de processus et à remédier à ces goulets d’étranglement.

Toujours avec AI Copilot, les développeurs, ont le droit à un outil permettant de convertir un PDF en une interface. Par exemple, une équipe peut avoir sauvegarder un formulaire pouvant être traduit en front office à relier au back office d’une application. Cette capacité, auparavant disponible à travers les API d’OpenAI, est maintenant propulsé par des modèles hébergés dans le tenant Amazon Bedrock d’Appian, ce qui correspond à son offre Private AI. Les utilisateurs des versions self-managed 23.3 à 24.3 n’auront plus accès à cette fonctionnalité à partir du 6 juin 2025. Ici, Appian doit faire à la fin du support de GPT-4 par Azure.

« Nous avons un accord avec Amazon pour incorporer le socle AWS dans Appian Cloud », affirme Malcom Ross, directeur de la stratégie produit chez Appian auprès du MagIT. Un partenariat jugé significatif de l’engagement de l’éditeur dans le domaine de la GenAI, selon le Magic Quadrant 2024 de Gartner consacré aux plateformes Low code.

« Les modèles que nous utilisons le plus fréquemment sont ceux d’Anthropic, mais Bedrock nous donne accès aux LLM Mistral, Llama, etc. », poursuit le directeur de la stratégie produit. « La meilleure approche pour nous actuellement est de travailler avec de grands modèles de langage existants, de faire des ajustements supplémentaires en fine tuning et ensuite de combiner cela avec la recherche RAG sur notre Data Fabric ».

Ensuite, AI Copilot doit permettre aux développeurs de générer des tests unitaires et des données synthétiques. À l’applaudimètre lors d’Appian World 2024 en avril, Malcom Ross dit avoir observé un fort intérêt des développeurs. « Tous les développeurs ont immédiatement compris que ça leur ferait gagner du temps au quotidien. Ce sont finalement de petites améliorations qui ont été les plus plébiscitées ».

Du low-code au langage naturel

Il y a toutefois un usage qui n’intéresse pas forcément Appian : la génération de code. « Les modèles qui génèrent du code JavaScript, Java ou Python sont nombreux », note Malcom Ross. « Nous avons exploré une voie différente : fournir à l’IA un document en langage naturel, comme une politique d’entreprise. Par exemple, un document pourrait indiquer : “Les commandes de plus de 50 euros ne peuvent pas être annulées dans les cinq premiers jours”. Ce texte est rédigé naturellement, sans qu’il soit nécessaire de le coder ».

Selon le responsable, un LLM peut « lire » ce document, comprendre le contexte (par exemple, l’identité du client et sa commande), valider l’information à l’aide d’un cadre de données plus large, et déterminer si la politique s’applique. « Si c’est le cas, le modèle peut décider des prochaines étapes en fonction des règles. Cela pourrait inclure annuler une commande, envoyer un e-mail au client pour lui dire : “Nous n’avons pas trouvé votre commande”, ou effectuer d’autres actions », suggère Malcom Ross. Et d’en faire la démonstration lors de la conférence Appian Europe. Un pattern que l’éditeur pourrait adopter « dès 2025 ».

Il faudra d’abord compter sur Appian Composer, une « nouvelle expérience de conception low-code en langage naturel » que l’éditeur présentera en détail lors d’Appian World 2025, en avril à Denver.

L’IA agentique, une conviction plus qu’une réalité

Appian se range donc dans la catégorie des acteurs qui cherchent à développer des agents autonomes. Salesforce a également fait la démonstration d’un processus similaire créé à l’aide d’un agent orienté par des humains à l’aide de prompts en langage naturel et d’une base de connaissances. Microsoft, Oracle, Google, AWS, ServiceNow… beaucoup d’éditeurs et de fournisseurs sont dans les « starting-blocks ».

« [l'IA agentique] va avoir des répercussions majeures. Cependant, si nous ne lui donnons pas une structure, nous allons constater qu’elle est inefficace et inefficiente ».
Matt CalkinsCofondateur et CEO, Appian

« Le terme Agentique signifie que l’IA ne se contente pas de répondre à des questions, mais qu’elle est capable d’agir par elle-même », résume Matt Calkins, cofondateur et CEO d’Appian, lors de la conférence d’ouverture d’Appian Europe. « Cela va avoir des répercussions majeures. Cependant, si nous ne donnons pas de structure à l’IA agentique, nous allons constater qu’elle est inefficace et inefficiente. Et si nous ne lui donnons pas de contrôle, nous constaterons qu’elle pourrait même enfreindre l’AI Act », prévient-il.

Et de présenter les différenciateurs majeurs, selon lui, d’Appian face à ses concurrents. En résumé, l’éditeur pourra intégrer, puis encadrer les agents avec Process HQ, sa suite de process mining issu du rachat de Lana Labs, les processus et les cas développés avec son moteur BPMN, ainsi qu’avec sa Data Fabric.

Un intérêt et des interrogations

Toutes les entreprises ne sont pourtant pas prêtes à adopter l’IA générative. « Concernant les nouveautés technologiques en général, le secteur public est à la traîne, tout comme les sciences de la vie et l’industrie pharmaceutique qui ont tendance à être un peu plus conservatrices. En revanche, les services financiers, l’assurance et d’autres secteurs montrent une plus grande ouverture », constate Adam Glaser, directeur de la gestion produit chez Appian.

« Je ne dirais pas qu’ils sont totalement à l’aise avec l’IA, mais ils y sont réceptifs. Ces industries ont souvent des initiatives stratégiques au niveau des conseils d’administration pour évaluer si l’IA peut les aider à être plus compétitifs, à fidéliser les clients, et à optimiser leurs ressources afin d’éviter d’ajouter du personnel tout en acquérant de nouveaux clients », poursuit-il. « C’est dans ces secteurs que nous avons constaté une adoption significative ».

« Depuis cette année, nos clients passent de l’expérimentation à la réalisation de la valeur grâce à la centralisation de la prise de décision en matière d’IA, à travers un centre d’excellence ».
Malcom RossSVP, Product Strategy, Appian

« Depuis cette année, nos clients passent de l’expérimentation à la réalisation de la valeur grâce à la centralisation de la prise de décision en matière d’IA, à travers un centre d’excellence », assure de son côté Malcom Ross. « Cela crée quelques goulets d’étranglement, car souvent une seule équipe doit évaluer chaque projet d’IA. Pour un éditeur comme Appian, cela freine donc l’adoption de notre produit. Mais un grand intérêt est porté à l’apport de l’IA dans le cadre de la gestion de processus ».

Il y a toutefois des questionnements concernant le prix des services d’IA générative. « Les nouvelles fonctionnalités d’Appian, comme Case Management Studio et ses modèles GenAI, ne sont pas incluses dans le coût de son offre de plateforme principale », prévient Gartner. « Bien qu’Appian n’ait pas modifié ses coûts de licence pour [sa] plateforme en 2024, les clients qui souhaitent utiliser les nouvelles fonctionnalités devront peut-être payer des frais supplémentaires ».

L’éditeur ne s’en cache pas et clarifie le modèle économique de ces extensions IA auprès du MagIT. « Nous proposons dans différents SKU qui sont basés sur des tranches de consommation, sur trois niveaux : Standard, Advance et Premium. », rappelle Malcom Ross. Un nombre limité de tokens est consommable mensuellement : respectivement 100 millions, 200 millions et 500 millions de tokens. Avec AI Skills, il est possible de traiter 20 000 pages par mois avec l’offre Advance et 50 000 avec le forfait Premium. Le forfait Standard ne donne accès qu’à AI Copilot for developers.

« Nous ne sommes pas les moins chers, nous ne l’avons jamais été ».
Matt CalkinsCofondateur et CEO, Appian

« Nous ne sommes pas les moins chers, nous ne l’avons jamais été », avance Matt Calkins lors de la conférence, avant d’évoquer la fonction d’Autoscale. « En revanche, nous vous offrons quelque chose de plus. Nous vous offrons l’innovation, des partenariats, la fiabilité et l’élasticité ».

Reste à voir si ce discours fait mouche, d’autant qu’une prise en charge d’autres services d’IA semble la bienvenue. C’est à l’étude pour la version self-managed, dixit Adam Glaser.

Data fabric, la priorité des clients

Les clients avec lesquels LeMagIT a pu discuter s’intéressent davantage à Data Fabric. « Data Fabric est non seulement de la fonctionnalité la plus rapidement adoptée, mais aussi la plus largement adoptée », vante le directeur de la gestion produit. Outre la synchronisation des types d’enregistrement et la simplification du RBAC dans la version 24.4, l’éditeur continuera à faire évoluer cette brique.

« Nous déploierons une importante extension de Data Fabric avec la version 25.1, prévue en mars, qui inclura des améliorations telles que la gestion des volumes de capacité et d’autres fonctionnalités associées », relate Malcom Ross.

Pour Adam Glaser, l’investissement dans Data Fabric est « stratégique », car cette couche « offre des avantages clés en matière de performance, sécurité et mise à l’échelle des données. C’est pourquoi, pour des solutions comme Process HQ ou notre architecture RAG, nous utilisons Data Fabric plutôt que des intégrations legacy ».

Pour approfondir sur BPM et RPA