www.planet-fintech.com
www.planet-fintech.com www.planet-fintech.com
Planet-Fintech
L'actualité francophone des sociétés qui disruptent l'industrie financière



IA dans l’assurance : Bâtir les fondations d’une IA réellement déployable


IA dans l’assurance : Bâtir les fondations d’une IA réellement déployable
France FinTech a réuni le 5 mai, dans les locaux d’Accenture, partenaire de la rencontre, assureurs, insurtechs et experts, autour d’un enjeu désormais central pour le secteur : le passage à l’échelle de l’IA.

Au-delà des expérimentations, c’est bien la capacité à industrialiser, intégrer et transformer les modèles existants qui s’impose aujourd’hui comme le véritable défi.

Une ligne directrice s’est dessinée au fil de la matinée : comprendre où en est réellement le marché, identifier les points de blocage, illustrer les conditions de réussite à travers un cas concret, puis ouvrir sur les mutations déjà à l’œuvre, notamment du côté des canaux de distribution.

Passer du “ça marche” au “ça tient”


L’assurance n’est plus au stade de la découverte de l’IA. Les expérimentations se multiplient et certains acteurs ont déjà pris une longueur d’avance. Pour autant, la différence ne se fait plus sur la capacité à lancer des POC, mais sur celle à les faire tenir dans le temps.

Comme le résume David Sardas, Directeur chez Accenture, en ouverture de la rencontre : « Le POC prouve que ça marche. Le passage à l’échelle prouve que ça tient. » Tenir signifie être capable d’opérer en production, de maîtriser les coûts, d’assurer la conformité et de garantir la robustesse des systèmes dans la durée. C’est précisément sur ce terrain que les difficultés apparaissent.

Les freins sont désormais bien identifiés : une donnée souvent fragmentée et difficilement exploitable, des systèmes d’information complexes et hétérogènes, des exigences élevées en matière de conformité et de sécurité, ainsi que des enjeux de souveraineté encore en construction.

Dans ce contexte, l’adoption de l’IA suit une progression claire : d’abord un usage individuel, puis une assistance aux équipes, avant une exécution partielle dans les systèmes et, à terme, une automatisation plus complète. Aujourd’hui, la majorité des acteurs se situe encore dans ce passage délicat entre assistance et exécution.

Une question moins technologique qu’organisationnelle


Très rapidement, les échanges ont déplacé le centre de gravité du débat. Le principal défi n’est pas uniquement technique.

La question du passage à l’échelle se joue avant tout dans l’organisation. Valentin Bardet, Head of Customer Success FR/BE chez Shift Technology, insiste sur ce point : « La résistance au changement est le principal bloqueur du passage à l’échelle ». Ce constat est largement partagé. Un POC peut fonctionner dans un environnement contrôlé, mais le déploiement à grande échelle implique d’embarquer les équipes, d’adapter les processus et d’accepter de revoir certaines habitudes.

Noureddine Bekrar, Co-fondateur et CTO chez Leocare, apporte un autre éclairage : « Le passage à l’échelle, c’est le moment où l’IA s’intègre naturellement dans le travail des équipes. On ne se demande plus si on l’utilise, elle fait simplement partie de notre quotidien ». Autrement dit, l’IA devient invisible et n’est plus un outil que l’on teste, mais un composant intégré du fonctionnement quotidien.

Cette transformation suppose de traiter des sujets parfois sous-estimés : la peur de la substitution, le manque de compréhension des outils ou encore les interrogations éthiques. Dans certains cas, des dispositifs structurants – chartes IA, comités dédiés, règles d’usage – se révèlent indispensables pour créer un cadre de confiance.

Des fondations à construire très en amont


Si le facteur humain est déterminant, les fondations techniques restent incontournables.

Sur la donnée, le consensus est clair : elle constitue le socle de toute démarche. Qualité, structuration, accessibilité et gouvernance conditionnent directement la capacité à industrialiser les usages. Noureddine Bekrar le rappelle : « 70 % du travail, c’est la data. C’est la partie la moins visible, mais c’est elle qui détermine ce qu’on peut faire ensuite. Sans une base solide, qualifiée et bien gouvernée, les cas d’usage restent fragiles ».

Sans ce socle, les projets restent au stade expérimental. Et lorsqu’on tente d’industrialiser a posteriori, les limites apparaissent rapidement.

Même logique côté systèmes d’information. Dans des environnements souvent marqués par le legacy IT, la tentation de reconstruire intégralement les architectures se heurte à la réalité des délais et des coûts. Valentin Bardet souligne l’importance d’une approche pragmatique : « Une technologie doit arriver en surcouche, plutôt que remplacer l’intégralité d’un système ». Cette logique d’intégration progressive permet d’accélérer le passage à l’échelle, tout en limitant les risques.

Enfin, la nature même des technologies utilisées impose de repenser les cadres de contrôle. Comme l’explique Christian Fauré, Chief Operating Officer chez Wakam : « Il faut construire des cadres déterministes autour de technologies probabilistes ».

La performance des modèles ne suffit pas. Il est nécessaire de maîtriser les entrées, de contrôler les sorties et de garantir l’auditabilité des décisions.

Confiance et souveraineté : un équilibre pragmatique


Les enjeux de confiance traversent l’ensemble des discussions, qu’il s’agisse de sécurité, de confidentialité ou de souveraineté. Sur ce dernier point, les positions convergent vers une approche pragmatique. Valentin Bardet observe une évolution des attentes : « Il faut être capable de répondre aux exigences spécifiques de chaque assureur ».

Les demandes en matière de transparence, d’auditabilité ou de contrôle se renforcent, sans pour autant conduire à une rupture brutale avec les grands fournisseurs technologiques. Noureddine Bekrar le formule clairement : « Une souveraineté totale n’est pas réaliste aujourd’hui, et ce n’est pas forcément l’objectif. Ce qui compte, c’est de bien choisir ses partenaires, de savoir ce qu’on leur confie et de garder la main sur les usages stratégiques. ». La priorité reste donc la maîtrise des usages, le respect des cadres réglementaires et la capacité à adapter les solutions aux contraintes opérationnelles.

Dans ce contexte, l’explicabilité devient un enjeu central. Les modèles doivent être encadrés, les décisions tracées et les cas d’usage clairement définis afin d’éviter tout effet de boîte noire.

Le “dernier kilomètre”, principal point de friction


Au-delà des principes, les retours d’expérience convergent sur un point particulièrement critique : la difficulté à finaliser les projets. Atteindre un niveau de performance satisfaisant est souvent rapide. Aller au bout l’est beaucoup moins. Christian Fauré résume cette situation : « On arrive vite à 80 %, puis on reste bloqué à 80 % ». Les dernières étapes – sécurisation, qualité des données, formation des équipes, mise en conformité – concentrent une grande partie de l’effort. Elles conditionnent pourtant la capacité à déployer réellement les solutions.

Cette réalité invite à revoir les critères de succès. Plutôt que de viser systématiquement un niveau de perfection, certaines organisations choisissent d’accepter des solutions imparfaites mais utiles, dès lors qu’elles apportent une valeur tangible.

Un cas concret : repenser l’assurance à partir des usages


L’intervention de Théo Viggiano, CTO chez TechFin, illustre de manière concrète ces enjeux à travers le retour d’expérience du déploiement d’outils IA chez IMA (Inter Mutuelle Assistance).

Le projet présenté part d’un problème simple : les clients souscrivent souvent des assurances redondantes, notamment dans le cadre de voyages, faute de visibilité sur les garanties déjà incluses dans leurs contrats existants. La solution développée permet d’identifier automatiquement ces garanties et de proposer uniquement une couverture complémentaire, mieux ciblée et moins coûteuse. « On propose uniquement les garanties dont le client a réellement besoin », explique Théo Viggiano.

Derrière cette apparente simplicité, le projet met en lumière plusieurs défis structurants. La collaboration avec un grand groupe impose des cycles longs et une coordination étroite entre équipes métier, IT et conformité. Le chantier de la donnée, en particulier, représente l’essentiel de l’effort. « 70 % de la difficulté, c’est la construction de la base de données », précise-t-il.

Malgré ces contraintes, les résultats sont au rendez-vous, avec une amélioration significative du taux de conversion. Le projet a également évolué en intégrant des interfaces conversationnelles, illustrant la capacité des organisations à adapter leurs approches en fonction des évolutions technologiques.

Vers une transformation du canal de distribution


La dernière partie de la rencontre ouvre une perspective plus large.

Avec l’émergence des agents conversationnels, l’IA ne se limite plus à optimiser les processus existants. Elle commence à intervenir directement dans la décision d’achat.

Raphaël Vullierme, Tech Founder chez Hexa, décrit cette évolution : « L’IA devient un acteur direct dans la décision d’achat ». Les modèles sont désormais capables d’analyser les offres, de les comparer et de formuler des recommandations. Cette capacité modifie en profondeur les logiques de distribution.

Les premiers effets sont déjà visibles. Une part croissante du trafic et des conversions provient de ces nouveaux canaux, avec des performances parfois supérieures aux approches traditionnelles.

Dans ce contexte, les assureurs doivent adapter leur stratégie. Il ne s’agit plus seulement d’être visible pour les utilisateurs, mais aussi pour les systèmes d’IA qui orientent leurs choix. « Il faut optimiser son offre pour les agents IA, pas seulement pour les clients », souligne Raphaël Vullierme.

Une transformation déjà en marche


Au terme de cette rencontre, une conviction s’impose : la transformation est engagée.

Les usages évoluent rapidement, portés par les consommateurs et les nouvelles interfaces. Les entreprises, quant à elles, avancent à des rythmes variables, mais ne peuvent ignorer ces mutations.

La question n’est plus de savoir si l’IA va transformer l’assurance, mais à quelle vitesse elle se produira et avec quelles conséquences pour les acteurs qui n’auront pas su s’adapter.


pub



Notez

Vendredi 15 Mai 2026



Nouveau commentaire :