Planet-Fintech
L'actualité des sociétés qui disruptent l'industrie financière



La confiance, enjeu majeur de l’adoption de l’IA

Avec deux tiers (66%) d’utilisateurs réguliers, seulement 46% sont prêts à faire confiance à cette technologie


La confiance, enjeu majeur de l’adoption de l’IA
L’étude « Trust, attitudes and use of Artificial Intelligence: A global study 2025 », réalisée par KPMG en collaboration avec l’Université de Melbourne, constitue la plus vaste enquête mondiale sur la confiance du public envers l’IA et les différents usages observés à ce jour. L’étude a interrogé plus de 48 000 personnes dans 47 pays entre novembre 2024 et janvier 2025.

Principaux enseignements :

  • La confiance demeure un défi majeur à travers le monde : bien que deux tiers (66 %) des personnes utilisent régulièrement l’IA, seulement 46 % se disent prêtes à faire confiance aux systèmes d’IA au niveau mondial ;

  • En France, deux tiers des Français déclarent utiliser régulièrement l’IA, mais le pays reste à la traîne en matière de formation à l’IA, son acceptation et la perception de ses bénéfices ;

  • L’étude révèle des taux élevés d’adoption de l’IA dans les économies émergentes comme dans les économies avancées, mais à des niveaux comparativement faibles de formation et de connaissance de l’IA ;

  • Un renforcement du cadre règlementaire national et international, mais aussi des règles d’utilisation de l’IA au travail, s’impose comme une aspiration très forte parmi les utilisateurs.

Une adoption très élevée dans le monde entier mais des niveaux comparativement faibles de formation et de connaissance


38 % des personnes du panel de KPMG et de l’Université de Melbourne interrogées déclarent une utilisation régulière de l’IA (hebdomadaire, quotidienne), et 13 % en ont une utilisation semi-régulière (mensuelle ou quasi-mensuelle). Trois personnes sur quatre (73 %) utilisent l’IA dans un cadre professionnel et près de quatre personnes sur cinq (78 %) dans un cadre personnel.

Dans les 47 pays couverts par le panel (ils n’étaient que 17 dans l’édition 2022), la proportion d’employés déclarant utiliser l’IA à des fins professionnelles est passée de 54 % en 2022 à 67 % en 2024. À un niveau exceptionnel de 85 %, les salariés des économies émergentes sont encore nettement plus nombreux que ceux des économies avancées à déclarer utiliser un outil d’IA au travail.

Presque tous les étudiants (92 %) utilisent l’IA dans leurs études et le font régulièrement. 83 % utilisent l’IA régulièrement ou semi-régulièrement. L’utilisation par les étudiants est élevée tant dans les économies émergentes que dans les économies avancées (89 % d’utilisation régulière ou semi-régulière contre 78 % dans les économies avancées).

La France à la traîne sur la formation à l’IA, son acceptation et la perception de ses bénéfices


67 % des personnes interrogées en France déclarent utiliser régulièrement l’IA, dont 59 % dans leur cadre professionnel, 65 % à titre plus personnel et 90 % pour ce qui concerne les étudiants.

76 % des Français interrogés déclarent ne pas avoir reçu de formation à l’outil IA, contre 61 % sur le plan mondial. Seuls 24 % des Français s’estiment formés à l’IA, contre 50 % des répondants des économies émergentes et 32 % des économies avancées, ce qui place la France au 40e rang des 47 pays du panel...

La confiance et l’acceptation dans l’IA sont également relativement faibles en France : 33 % se déclarent prêts à faire confiance à l’IA, contre 46 % au plan mondial, et 61 % acceptent ou approuvent l’IA, contre 72 % au niveau mondial.

En France, l’état d’esprit reste légèrement marqué par une forme de défiance, 41 % des répondants affichant une perception des risques de l’IA supérieure à ses bénéfices et 33 % affirmant au contraire croire davantage aux retombées positives de l’IA plutôt qu’à ses risques. La perception des avantages de l’IA l’emporte sur le plan mondial à 42 %, contre 32 % décrivant des risques supérieurs aux avantages perçus.

32 % des répondants du panel France estiment que la réglementation actuelle de l’IA est suffisante, contre 43 % à travers le monde. 92 % des Français interrogés n’ont pas connaissance des lois et réglementations en vigueur en matière d’IA et 71 % expriment la nécessité d’un cadre de réglementation de l’IA. À 87 %, les Français souhaitent des lois et des règlements pour lutter contre la désinformation générée par l’IA.

La nécessité de règles d’utilisation de l’IA dans le cadre de l’entreprise prend tout son sens à l’aune des usages et pratiques professionnels décrits par les salariés français eux-mêmes :

  • Seuls 39 % des salariés s’engagent régulièrement dans une démarche critique vis-à-vis de l’IA au travail et 45 % ne vérifient pas l’exactitude des résultats produits par leur recours à un outil IA ;
  • 57 % des répondants évitent de révéler l’usage de l’IA au travail et présentent le contenu généré par l’IA comme étant le leur ;
  • 53 % admettent une utilisation inappropriée de l’IA au travail, contraire aux règles de l’entreprise lorsqu’elles existent, ou une pratique de l’IA augmentant l’exposition accrue de leur entreprise, par exemple le téléchargement sur un outil IA de contenus protégés par les droits d’auteur, le téléchargement d’informations financières ou commerciales.

Seules 39 % des personnes interrogées déclarent avoir bénéficié d’une formation à l’IA et 48 % déclarent en avoir une connaissance limitée. Illustration de cette connaissance limitée, un tiers des personnes interrogées ne savent pas que l’IA permet d’utiliser des applications courantes : 90 % déclarent utiliser les réseaux sociaux, mais 47 % ignorent le rôle de l’IA dans ces mêmes réseaux sociaux.

Malgré ces faibles niveaux de formation et de connaissance en matière d’IA, 60 % des personnes interrogées pensent pouvoir utiliser l’IA de manière efficace. Dans le détail, 50 % des personnes interrogées dans les économies émergentes, contre 39 % dans les économies avancées, déclarent avoir suivi une formation spécifique à l’IA. Conséquence : 74 % des personnes interrogées dans les économies émergentes et 51 % dans les économies avancées estiment pouvoir utiliser efficacement les outils et systèmes d’IA.

Une aspiration croissante au renforcement du cadre règlementaire national et international, mais aussi des règles d’utilisation de l’IA au travail


En moyenne, 58 % des personnes interrogées considèrent que l’IA est digne de confiance : 69 % dans les économies émergentes et 52 % dans les économies avancées. Acceptation et confiance vont de pair : 84 % des personnes interrogées dans les économies émergentes, contre 65 % dans les économies avancées, déclarent accepter l’IA.

La confiance dans les systèmes d’IA est très nettement contextuelle et peut dépendre du cas d’utilisation et de la confiance dans l’organisation qui déploie le système : le panel KPMG – Université de Melbourne révèle une confiance majoritaire pour ce qui concerne par exemple l’utilisation de l’IA dans le domaine de la santé (52 %). La santé est l’application de l’IA la plus fiable dans 42 des 47 pays étudiés, reflet du bénéfice d’une précision accrue des diagnostics et des traitements médicaux offerts aux patients, combiné à un haut niveau de confiance dans les professionnels de santé dans la plupart des pays du panel.

La confiance dans les systèmes d’IA a diminué au fil du temps – passant de 52 % en 2022 à 44 % en 2024 dans 13 des 17 pays couverts par le panel en 2022 – et l’inquiétude a augmenté.

Le paysage réglementaire actuel ne répond pas aux attentes du public : seules deux personnes sur cinq estiment que la réglementation et les lois actuelles régissant l’IA sont suffisantes. Cette tendance est la plus marquée dans les économies avancées, où seulement 37 % considèrent que la réglementation et les lois actuelles sont adéquates. En revanche, 55 % des habitants des économies émergentes considèrent que les garanties entourant l’IA sont suffisantes.

La conviction qu’un cadre de réglementation de l’IA est nécessaire se situe à un niveau élevé du panel, stable depuis 2022 à 71 %. Il existe un mandat public fort en faveur d’une réglementation internationale et nationale forte. 76 % se prononcent en faveur d’une régulation internationale, 69 % en faveur d’une régulation nationale et 71 % en faveur d’une co-régulation par les industriels et les autorités nationales de régulation.

Dans les économies avancées, un peu plus de la moitié des employés déclarent que leur organisation a mis en place des mécanismes pour soutenir l’adoption et l’utilisation responsable de l’IA, contre environ 70 % dans les économies émergentes.

Le soutien à l’utilisation responsable de l’IA dans l’éducation reste également largement perfectible, puisque seule la moitié des étudiants décrivent une politique guidant l’utilisation générale de l’IA dans leur établissement d’enseignement : seuls 52 % des étudiants qui utilisent l’IA dans le cadre de leurs études s’y engagent régulièrement de manière critique. Plus de trois quarts d’entre eux déclarent ne pas pouvoir terminer leur cours sans l’aide de l’IA et comptent sur l’IA pour effectuer des tâches, plutôt que d’apprendre à le faire eux-mêmes. 81 % affirment qu’ils consacrent moins d’efforts à leurs études, ou à leur évaluation, en sachant qu’ils peuvent compter sur l’IA, et deux-tiers d’entre eux ont commis des erreurs dans leur travail à cause de l’IA.

« L’étude 2025 ‘Trust, attitudes and use of Artificial Intelligence’ livre deux informations majeures. au plan mondial, les pays à économie émergente pourraient être particulièrement bien placés pour bénéficier d’un avantage concurrentiel stratégique à long terme. En effet, si l’IA devient un moteur essentiel de la productivité, de l’innovation et de la résolution des défis se posant à nos sociétés, les nations qui accéléreront son adoption responsable seront probablement mieux positionnées pour prospérer. Dans ce contexte, les organisations ont un rôle clé à jouer pour contribuer à la conception, l’usage et la diffusion d’une IA éthique et de confiance, nécessitant notamment la formation des talents, condition essentielle pour transformer nos modèles de manière durable. », relève Damien Allo, Associé, Membre du Directoire, en charge des activités Advisory chez KPMG en France.

Méthodologie

L’équipe de recherche de l’Université de Melbourne, dirigée par la professeure Nicole Gillespie et le docteur Steve Lockey, a conçu et mené de manière indépendante l’enquête, la collecte de données, l’analyse et la rédaction du rapport de cette étude.

Cette étude constitue le quatrième volet d’un programme de recherche portant sur la confiance du public envers l’intelligence artificielle. La première étude, menée en 2020, portait sur la confiance des Australiens dans l’IA. La deuxième, réalisée en 2021, a élargi le champ d’analyse à cinq pays, et la troisième, en 2022, a interrogé des personnes dans 17 pays.

Cette recherche a été soutenue par le partenariat de recherche « Chair in Trust » entre l’Université de Melbourne et KPMG Australie, avec un financement de KPMG International, KPMG Australie et l’Université de Melbourne.


Mardi 6 Mai 2025



Nouveau commentaire :