Evaluer et sécuriser l'IA Anticiper et prévenir 05 février 2026 Face à l’essor de systèmes d’IA de plus en plus complexes, l’évaluation devient une fonction stratégique pour maîtriser les risques, qualifier la robustesse des modèles et éclairer les décisions publiques – jusque dans le champ de la sécurité nationale. Créé en 2025, l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA) structure une capacité publique d’expertise sur l’évaluation et la sécurité des IA avancées. Il fédère des compétences techniques et interdisciplinaires pour analyser les comportements des systèmes, développer des méthodes d’évaluation adaptées, appuyer la mise en œuvre du cadre réglementaire et contribuer à la maîtrise des risques systémiques, tout en facilitant les échanges entre monde académique, administration, industrie et société civile, en coordination avec les initiatives européennes et internationales. Le 31 janvier 2025, en amont du sommet français pour l’action sur l’intelligence artificielle, l’Institut national pour l’évaluation et la sécurité de l’IA a été créé. Traitant de sujets à l’intersection de différents domaines tels que le soutien technique à la régulation, la maitrise des risques systémiques et la performance des modèles, l’INESIA s’est doté d’un programme de travail ambitieux, permettant d’accompagner le développement d’une IA de confiance et contribuant à faire de la France un des leaders mondiaux en la matière. Sous le pilotage du Secrétariat général de la défense et de la sécurité nationale (SGDSN) et de la Direction générale des Entreprises (DGE), l’INESIA structure son activité autour de trois pôles : appui à la régulation de l’IA ; risques systémiques ; performance et fiabilité. L’INESIA fédère un écosystème de chercheurs et d’ingénieurs issus de l’Agence nationale de la sécurité des systèmes d’information (ANSSI), de l’Institut national de recherche en sciences et technologies du numérique (Inria), du Laboratoire national de métrologie et d’essais (LNE) et du Pôle d’expertise de la régulation numérique (PEReN), afin de mener à bien les travaux de recherche scientifique qui permettront d’identifier, de mesurer et de faire face aux risques potentiels que les modèles et systèmes d’IA peuvent faire peser sur les intérêts fondamentaux de la Nation. Au-delà de son programme de recherche, détaillé dans le cadre de sa feuille de route, l’Institut assure également la représentation de la France dans le domaine de la sécurité de l’IA : le SGDSN représente ainsi la France au sein du réseau des AI Safety Institutes, rebaptisé « International Network for Advanced AI Measurement, Evaluation and Science » en décembre 2025. Aux côtés du Canada, de la Corée du Sud, des Etats-Unis d’Amérique, du Japon, du Kenya, de Singapour, du Royaume-Uni ou encore de l’AI Office de la Commission européenne, l’INESIA travaillera à promouvoir la sécurité, l’inclusivité et la confiance dans l’IA. À l’échelle européenne, la DGE pilote les échanges avec la Commission européenne, et en particulier avec le Bureau de l’IA. Alors que l’IA joue un rôle croissant dans des domaines d’activité sensibles, elle nécessite des attentes élevées de fiabilité et de sûreté. En se dotant du premier institut national au sein de l’Union européenne pour l’évaluation et la sécurité de l’IA, la France s’est construit un positionnement singulier en participant à l’analyse des risques systémiques liés à l’IA, en apportant un appui aux régulateurs nationaux en matière d’IA et en contribuant activement à la constitution d’outils, de métriques et de protocoles d’évaluation des modèles d’IA. L’action de l’INESIA repose sur quatre principes fondamentaux : construire une démarche scientifique et stratégique, structurer une capacité souveraine d’évaluation, coordonner les expertises publiques et mutualiser les moyens, être lisible et actif dans les réseaux internationaux. Ces quatre axes sont déclinés en trois pôles stratégiques et un axe transverse, qui se traduisent par onze projets opérationnels, décrits au sein de sa feuille de route 2026-2027 : Pôle 1 – Appui à la régulation : pour participer à une mise en œuvre efficace du cadre réglementaire de l’IA, qui protège les citoyens et soutienne l’innovation.L’INESIA veillera à contribuer à la mise à disposition des autorités compétentes au niveau national d’outils d’évaluation nécessaires à leurs activités (Projet n°1.). Des points de situation réguliers permettront de suivre les travaux normatifs accompagnant la mise en œuvre du règlement européen sur l’intelligence artificielle (RIA) (Projet n°2.). Par ailleurs, les travaux lancés dans le champ de la détection de contenus synthétiques à l’occasion du sommet français pour l’action sur l’IA seront poursuivis (Projet n°3.). Enfin, des méthodes d’évaluation adaptées à la cybersécurité des systèmes et des produits intégrant de l’IA seront développées (Projet n°4.). Pôle 2 – Risques systémiques : pour objectiver les risques systémiques que pourrait poser l’IA, informer la décision publique et affirmer la place de la France dans la sécurité de l’IA. Des activités de recherches seront conduites afin de mieux comprendre les risques systémiques, les caractériser, les maîtriser, et informer la décision publique (Projet n°5.). Plus en aval, des travaux permettront d’affiner l’évaluation des systèmes agentiques (Projet n°6.). Enfin, la poursuite des activités conduites dans le cadre du réseau international des AISI affirmera la place de la France dans les efforts en faveur de la sécurité de l’IA (Projet n°7.). Pôle 3 – Performance et fiabilité : pour stimuler la créativité de l’écosystème, faire de l’émulation un levier pour favoriser l’émergence de solutions plus performantes et plus fiables.Des challenges seront conduits, qui permettront de renforcer l’émulation entre les acteurs et favoriseront le développement de solutions créatives (Projet n°8.). Axe transverse : pour créer des communs structurants pour les travaux de l’INESIA, développer les synergies des parties et de leurs travaux, fédérer un écosystème.Une mise en commun des bonnes pratiques et connaissances permettra de capitaliser sur l’existant et de renforcer les connaissances (Projet n°9.). Il sera nécessaire de mettre en place l’architecture technique qui permettra l’évaluation des modèles et systèmes (Projet n°10.). Finalement, l’organisation d’activités d’animation scientifique permettra de fédérer l’écosystème de l’évaluation et de la sécurité de l’IA (Projet n°11.). Feuille de route INESIA 2026-2027 Télécharger PDF - 1 975.8 KB Focus sur les quatre partenaires de l'INESIA Le PEReN Service à compétence nationale sous tutelle interministérielle, le pôle d’expertise de la régulation numérique (PEReN) accompagne les pouvoirs publics intervenant dans le champ de la régulation des plateformes numériques et de l’IA. Centre d’expertise technique, il mutualise des compétences à l’état de l’art en sciences des données, traitement et audit algorithmiques, évaluation de l’IA et développement logiciel pour produire des outils, des études et du conseil numérique. Il conduit également des projets de recherche publique exploratoire ou scientifique. Les évolutions technologiques récentes de l’intelligence artificielle, induites par l’essor de l’intelligence artificielle générative, ont amené le PEReN à capitaliser sur son savoir-faire en audit et évaluation algorithmique ; ainsi le PEReN a acquis une expertise en matière d’utilisation et d’évaluation de grands modèles d’IA, eux-mêmes briques fondatrices des systèmes d’intelligence artificielle. Le PEReN est familier avec les bibliothèques logicielles classiquement utilisées ainsi qu’avec les principales méthodes d’évaluation. L'ANSSI L’Agence nationale de la sécurité des systèmes d’information (ANSSI) assure la mission d’autorité nationale en matière de défense et de sécurité des systèmes d’information. A ce titre, l’ANSSI dispose d’une expertise reconnue en matière de cybersécurité et évalue régulièrement l’ensemble des risques et menaces pouvant peser sur un système d’informations. Comme tout système logiciel, les systèmes d’IA présentent des vulnérabilités. Ils nécessitent par conséquent d’être sécurisés dès leur conception, en respectant en particulier les bonnes pratiques existantes en cybersécurité, que cela soit lors des phases de développement ou de déploiement, ainsi que dans la gestion des vulnérabilités et de la chaîne d’approvisionnement logicielle, tant propriétaire qu’open-source. Les menaces cyber pesant sur les systèmes d’intelligence artificielle sont les mêmes que pour tout autre système d’information, tant au niveau de leurs infrastructures d’hébergement que du fait de leur interconnexion avec d’autres systèmes, qui vient augmenter les risques de latéralisation. Il existe par ailleurs des risques spécifiques à l’IA. Les données utilisées pour alimenter ces systèmes posent des défis singuliers en matière de confidentialité et d’intégrité. Si l’IA offre des opportunités infinies pour ses utilisateurs, la numérisation exponentielle de notre société l’expose également aux risques inhérents à ces technologies. Dans ce contexte, l’ANSSI contribue à renforcer le niveau de cybersécurité global et la stabilité du cyberespace, et travaille à l’identification et la bonne compréhension des risques cyber des systèmes d’intelligence artificielle. L’Agence met ainsi en évidence que le respect des bonnes pratiques de cybersécurité applicables à tout système d’information reste un enjeu primordial pour la mise en œuvre d’une IA de confiance. C’est notamment à ce titre que l’ANSSI est impliqué dans le pôle règlementaire de l’INESIA et développe son action en matière d’intelligence artificielle. En appui des autorités de surveillance de marché, l’ANSSI s’implique sur les aspects de cybersécurité pour : accompagner les administrations dans le déploiement de leurs systèmes d’IA sur les aspects cybersécurité ; contribuer à l’évaluation de la cybersécurité des modèles et systèmes d’IA avec les différentes parties impliquées ; accompagner les offreurs et les acquéreurs de solutions de cybersécurité implémentant de l’IA dans leurs produits ; sensibiliser l’ensemble de l’écosystème aux enjeux de cybersécurité liés à l’IA ; participer aux instances de normalisation à l’échelle européenne qui régissent les exigences applicables en matière de cybersécurité aux systèmes d’IA. Le LNE La mission première du Laboratoire national de métrologie et d’essais est de réaliser des mesures et des essais afin de soutenir une innovation de confiance. Cela fait désormais plus de 15 ans que le LNE a investi le champ de l’intelligence artificielle, persuadé des bouleversements économiques et sociétaux que cette technologie allait apporter. A cette fin, le LNE a mis au point des méthodes lui permettant notamment d’évaluer l’efficacité des systèmes d’IA et de déterminer si les décisions prises sont explicables, reproductibles et éthiques. Le LNE a ainsi mené, depuis 2008, plus de 1 500 évaluations de modèles d’IA, notamment en traitement du langage, en traitement des images et en robotique. Il développe par ailleurs des référentiels pour garantir et certifier ces technologies, pour les rendre plus efficaces et plus sûres, afin d’accompagner le développement d’une IA de confiance. Le LNE organise enfin des challenges, en mettant des équipes en compétition pour piloter la recherche et l’innovation vers un but à atteindre. Les travaux de recherche et de développement menés par le LNE contribuent ainsi à la création d’un cadre d’évaluation complet des systèmes d’IA, contribuant à : favoriser l’innovation et lever les verrous technologiques, notamment au travers de l’organisation de challenges ; démontrer la conformité réglementaire au sens de l’AI Act, mais également tout texte législatif national et/ou sectoriel pertinent ; démontrer la performance du modèle ; démontrer la conformité du modèle aux valeurs et à l’éthique nationales et européennes. Dans le cadre des évaluations qu’il mène, le LNE évalue à la fois la performance des systèmes d’IA (tests de robustesse aux variations des données d’entrée, qualité des réponses fournies, qualités des informations fournies) ainsi que la qualité systémique (tests de biais, cybersécurité, éthique, sûreté). L’évaluation des systèmes intelligents nécessite une méthodologie adaptée, reposant sur la définition de référentiels reconnus et partagés intégrant des critères tangibles, mesurables et opposables appelés métriques, ainsi que sur des bases de données et protocoles de mesure. INRIA Inria, Institut national de recherches en sciences et technologies du numérique, est en appui de l’État pour les stratégies nationales de recherche et d’innovation du numérique en tant qu'Agence de programmes. L’Institut national mène plus de 300 projets de recherche et d’innovation avec ses 3500 scientifiques, ingénieurs et personnels d’appui, en partenariat avec les universités et l’écosystème numérique. Son objectif : l’impact scientifique, technologique et industriel au service de la souveraineté numérique de la France. Inria s'engage ainsi à la mise en œuvre des politiques publiques à très fort enjeu, telles que la Stratégie nationale pour l’IA, dont il coordonne le volet recherche et formation depuis 2018, ainsi que le développement d’un écosystème français dédié à la sécurité numérique. Inria a ainsi très vite perçu les enjeux relatifs à l’évaluation de l’IA, permettant d’expliquer les risques, limites et problèmes de sécurité posés par certains modèles d’intelligence artificielle, et ainsi de renforcer la transparence sur ces systèmes. Au-delà des considérations techniques, Inria développe une approche de l’évaluation portant également sur des considérations éthiques et réglementaires. Chiffres clés - Stratégie française pour l'intelligence artificielle ≈ 2,5 Md€+ engagés par l’État sur les deux premières phases (1,5 Md€ + 1 Md€), complétés par des financements européens 3IA Création d’un réseau national d’instituts interdisciplinaires d’IA (3IA) puis d’AI Clusters à partenariats industriels renforcés Jean Zay Déploiement et extension du supercalculateur public Jean Zay, ouvert à la recherche et aux entreprises innovantes BLOOM Développement du modèle génératif ouvert BLOOM via un consortium international piloté depuis la France IAG Soutien à l’émergence de champions nationaux en IA générative (ex. Mistral AI, Photoroom) Pionniers de l’IA Lancement du programme « Pionniers de l’IA » pour les technologies de rupture (IA générative, robotique, santé) En savoir plus sur les ambitions françaises en matière d'IA Depuis 2018 et la remise du rapport de la mission « Villani » sur l’intelligence artificielle, le Gouvernement porte une stratégie nationale visant à faire de la France une nation de premier plan en intelligence artificielle. S’appuyant notamment sur le plan d’innovation « France 2030 », cette stratégie s’est articulée en trois phases pour favoriser la structuration de long terme de l’écosystème français d’IA, à tous les stades du développement technologique : formation, recherche, développements et innovations, applications, mise sur le marché et diffusion intersectorielle, soutien et encadrement du déploiement dans les cas d’usages les plus structurants pour l’économie. Dotée de près de 1,5 milliard d’euros, la première phase de la stratégie nationale pour l’IA (2018-2022) a œuvré pour positionner la France comme l’un des leaders mondiaux de cet ensemble de disciplines scientifiques et de technologies-clés du traitement de l’information. Cette ambition a permis de soutenir la création et le développement d’un réseau d'instituts interdisciplinaires d’intelligence artificielle (Instituts 3IA) dotées de chaires académiques d’excellence en IA. Cette première phase a permis d’investir dans les capacités de calcul de la recherche publique avec le supercalculateur public Jean Zay, pionnier en Europe dans le déploiement de composants électroniques spécialisés pour le calcul en IA (cartes graphiques), dont l’accès a été ouvert aux entreprises afin de soutenir la recherche et développement la plus à la pointe. La convergence de l’expertise en IA et de la capacité de calcul de Jean Zay en France a permis le développement de BLOOM, un modèle d’IA générative ouvert polyglotte qui a fait date, grâce aux efforts d’un consortium international dirigé par l’entreprise Hugging Face. En 2022, le président de la République a inauguré la deuxième phase de la stratégie nationale pour l’IA (2022-2025), visant à capitaliser sur les forces de recherche françaises en IA pour jeter les bases technologiques solides pour les applications économiques de l’IA, et à les diffuser dans toute l’économie. Cette phase, dotée de plus de 1 milliard d’euros, a agi sur plusieurs leviers, tirant parti de la diversité de l’expertise et des acteurs de l’IA en France : la poursuite de la formation et la recherche en IA, et le soutien au transfert de technologies entre les tissus académiques et économiques, notamment via les A Clusters, successeurs des Instituts 3IA avec des partenariats industriels renforcés ; le soutien à une offre à l’état de l’art en technologies de fondation dans l’écosystème d’innovation pour l’IA embarquée (dans des véhicules ou machines industrielles) ainsi que l’IA générative que la stratégie a soutenue dès son irruption dans le monde économique en 2023, avec des champions nationaux émergents tels que Mistral AI et Photoroom ; le rapprochement entre l’offre et la demande en IA pour favoriser le développement collaboratif d’applications basées sur ces technologies de fondation avec les entreprises détentrice des données réelles à même de spécialiser les modèles d’IA pour des cas d’usages rentables et adaptés aux métiers de l’économie ; le développement de méthodologies de diagnostic et de mise en confiance (contre, par exemple, la fuite de données) de systèmes d’IA en production, pour favoriser leur adoption confiante ; ainsi le projet Confiance.AI a permis la première application réussie de ces méthodologies dans une dizaine de démonstrateurs industriels. Cette seconde phase a aussi vu le renforcement de la puissance de calcul dédiée à l’IA, avec l’extension significative des capacités de Jean Zay, et la mise en place d’un réseau d’ingénieurs spécialisés auprès de ces machines pour accompagner les entreprises innovantes à la mise en œuvre de techniques de calcul de haute performance pour le passage à grande échelle de leurs technologies. Ces efforts ont été appuyés financièrement par l’Union européenne, à travers le financement des « usines de l’IA », dont la France a été l’un des premiers bénéficiaires. Dans ce même effort, la France lancé des travaux pour se doter de la première machine de classe exaflopique dédiée à l’IA, Alice Recoque, dont certains composants essentiels seront fournis par des entreprises françaises. Enfin, le Sommet pour l’action sur l’IA de février 2025 a été l’occasion d’acter le lancement de la troisième phase de la stratégie national en IA, en donnant une visibilité mondiale à ses ambitions. Cette troisième phase porte une mise à jour majeure de la stratégie industrielle de la France en IA, dans un contexte de compétition internationale accrue pour les marchés applicatifs de l’IA et d’un nécessaire effort de maîtrise des chaînes technologiques de l’IA pour servir la souveraineté numérique française. Sur le plan technologique, cette exigence se traduit par un élargissement de la cible technologique permis par l’essor de l’IA générative, avec un soutien à ces technologies (par exemple convergence IA et robotique ou IA et santé) dès leurs phases les plus précoces dans le dispositif de soutien à l’innovation de rupture « Pionniers de l’IA ». Sur le plan économique, cette troisième phase acte une concentration des efforts sur l’application de l’IA dans les secteurs les plus porteurs de gains de productivité et de souveraineté par l’intégration de ces nouvelles technologies, notamment la santé et l’industrie pharmaceutique, la robotique industrielle et son application à la manufacture, la cybersécurité et la défense, la production et la distribution de l’énergie, la transition écologique. Cette volonté est portée au niveau européen par la France et l’Allemagne dont la coopération en matière d’IA a été vigoureusement relancée lors du Conseil des ministres franco-allemand du Toulon en août 2025. Elle se matérialise notamment dans un Projet important d’intérêt commun (PIIEC) dédié à l’IA, qui vise la transformation de chaînes industrielles productives à grande échelle par l’IA. L’adoption de l’IA dans l’économie en France reste une priorité de la stratégie nationale, structurée dans le plan « Osez l’IA » ayant pour ambition de diffuser l’IA dans toutes les entreprises au moyen, notamment : d’un réseau des Ambassadeurs de l’IA, régionaux ou sectoriels, nommés par l’État pour leur capacité à promouvoir les usages de l’IA et sensibiliser les entreprises de leurs écosystèmes aux bénéfices concrets que l’IA peut leur apporter, en particulier les PMEs et ETI ; d’une plateforme de référencement des cas d’usages de l’IA qui ont été traités par des entreprises françaises, avec des informations fiables sur les coûts, délais et prérequis techniques de leur déploiement pour inciter les entreprises à franchir le pas et les répliquer ; d’une mise en valeur de l’offre existante de formations adaptées aux besoins des entreprises ; de dispositifs d’accompagnement avec Bpifrance ; un fonds de garantie pour faciliter le financement de projets IA pour des PME. *** Afin de permettre la diffusion de l’IA au sein de notre économie et maintenir la compétitivité de la France, il apparait fondamental d’assurer un déploiement maitrisé de cette technologie en se donnant les moyens de bâtir une IA de confiance, avec des standards élevés de fiabilité et de sûreté, et porteuse des valeurs de la France. La création de l’INESIA traduit l’ambition française en la matière. Retrouvez l'actualité de l'INESIA Haut de page