· 5 min de lecture

Du SaaS à l'Agentic, comment le rapport à l'interface se transforme

Est-ce que le SaaS est mort ? Cette punchline (plutôt efficace pour capter l'attention) est de plus en plus brandie par nombre d'experts californiens du software. L'idée derrière la provocation est de dire que l'interface telle que nous la connaissons devient sinon obsolète, du moins dépassée.

L'IA bouleverse le statu quo et redéfinit les possibles à travers un raz de marée de transformations. Parmi elles, nombreuses et protéiformes, il y a en effet la question de l'interface utilisateur. Comment la repenser, elle aussi, à l'aune d'une application capable de s'adapter au contexte courant ?

Agentic, un buzzword, ou un nouveau modèle de conception ?

Agentic. Voilà la tendance qui émerge et ChatGPT en est le plus bel étendard (ainsi que tous les ersatz qui ont ensuite fleuri). Nous ne nous en rendons pas forcément compte, mais dès lors que nous parlons à ChatGPT, l'interface s'adapte à notre réponse. Selon l'intention, l'agent conversationnel peut faire une recherche web pour vous, afficher des résultats d'images ou résumer des documents, voire écrire du code et l'exécuter pour lancer des calculs. Ça n'a l'air de rien, mais la transformation est de taille :

  1. Le langage naturel a remplacé les composants d'interface (l'input de mot-clé de Google est remplacé par une question en langage naturel)
  2. Le LLM devient l'aiguilleur entre les différentes possibilités applicatives offertes (le contexte remplace la liste déroulante, le bouton ou le clic droit sur un menu contextuel).
  3. Nous n'avons encore rien vu, car sous ce paradigme, c'est toute la conception logicielle qui doit se repenser.

Le cerveau, le corps

Le principe d'une application agentique est simple dans son essence : plutôt que de prévoir une interface pour tous les cas de figure, un LLM est placé en face de l'utilisateur et a pour rôle de comprendre son intention. L'interface s'adapte ensuite dynamiquement : tel composant est requis, on l'affiche ; telle action est demandée, on l'exécute. Etc.

Le LLM joue ici le rôle de cerveau, et le code, celui du corps.

Si on prend un regard plus conceptuel, au sens informatique, une application agentique peut se définir ainsi :

une boucle de décision dans laquelle un LLM reçoit un état (le contexte), agit ou raisonne, puis décide soit de répondre, soit de demander plus d'information à l'utilisateur. Et la boucle reprend.

Concrètement, les composants du système sont donc :

  • Un LLM avec un contexte structuré (une mémoire conversationnelle qui permet à l'utilisateur d'interagir de façon implicite)
  • Un format de sortie contrôlé : le code interprète les réponses du LLM (exécution de commande, affichage, etc.)
  • Un orchestrateur capable de :
    • relancer la boucle selon les retours (analyse de sortie, relance adaptée)
    • s'arrêter si une réponse finale est produite (souvent via une modification d'interface)

Il s'agit d'une machine à états abstraits : les états sont potentiellement infinis et dynamiques. La différence majeure est que l'orchestrateur n'est plus rigide ni codé à l'avance, mais incarné par un LLM.

Et ça, ça change absolument tout.

Alors, est-ce que le SaaS est mort ?

Non. Bien sûr que non. Le dire serait comme croire que la commande vocale va remplacer le clavier. Ça n'est pas arrivé, et ça n'arrivera pas, pour la simple raison qu'il s'agit de différentes modalités d'interactions, qui ont toutes deux leur pertinence, leur usage, et leurs contraintes. Pour vous en convaincre, imaginez un open space où chaque personne dicterait des commandes à son ordinateur…

Il en va de même pour le SaaS, ou plus exactement, pour l'interface rigide et l'agentic. L'un ne disparaîtra pas au profit de l'autre, les deux vont se compléter.

En revanche, un SaaS qui ne se réinvente pas sous l’angle agentique aura sans doute du mal à rester pertinent.

Un exemple simple qui parlera à tout le monde : réserver un billet de train. Aujourd'hui, il vous faut aller sur le site de la compagnie, saisir une date, choisir une ville de départ, une ville d'arrivée (ou l'inverse, les choix UI/UX sont parfois surprenants…), puis sélectionner un billet, une classe, un siège, etc.

Demain, avec une version agentique du même SaaS, on pourrait sans aucun problème imaginer un seul champ de saisie à la ChatGPT, où on pourrait dire :

Je veux un aller-retour Paris Lille pour le 11 juin, départ le matin avant 8h. Retour en soirée.

L'application pourrait alors proposer à la fois les billets éligibles, et en profiter pour afficher les options disponibles sous forme de widgets : choix de la place (ici l'interface actuelle est optimale, on visualise le siège, on clique, etc), choix de la classe.

Imaginez le confort d'utilisation. Ce serait du SaaS, mais agentique.

Un futur séduisant, mais une mise en œuvre complexe

Maintenant, soyons honnête : le scénario de l’application agentique avec un simple champ texte est séduisant. Mais sa mise en œuvre est loin d’être triviale.

Concevoir une UX capable de réagir à un raisonnement non déterministe, maintenir la cohérence d’une interface face à des intentions ambigües, garantir la sécurité d’actions déclenchées automatiquement… tout cela impose une architecture logicielle bien plus fine, modulaire et résiliente que celle des SaaS traditionnels.

Les enjeux sont partout : dans l’interface (qu’il faut entièrement repenser pour accueillir une logique caméléon), dans le backend (où l’orchestration devient floue, guidée par des probabilités), et même dans la façon de concevoir le produit.

Enfin, injecter un LLM dans une app ne suffit pas. Ce n’est pas une surcouche, c’est un changement profond de modèle.

Mais pour le produit qui réussira cette transformation, qui saura mettre l’agentic là où il prend tout son sens, et trouver ce juste milieu entre fluidité conversationnelle et solidité applicative, alors là, le terrain est fertile pour une adoption massive.

Pour aller plus loin

Un podcast centré sur ce sujet, de YCombinator, avec un excellent exemple : la rédaction automatique de GMail. Pourquoi elle est mal pensée, pourquoi elle n'est pas agentique, comment elle pourrait le devenir.

La métaphore évoquée dans cette vidéo sera une parfaite conclusion : injecter du LLM dans un SaaS existant sans une réflexion profonde agentique (ce qu'a fait GMail avec sa rédaction d'email automatique), c'est comme remplacer le cheval d'un carrosse par un moteur. Ça ne fonctionne pas. Ajouter un moteur implique... d'inventer la voiture qui va avec.

IA LLM Agentic SaaS