Avec la multiplication des événements autour du numérique (Sommet IA, VivaTech) et le recours de plus encadré aux technologies numériques, nous avons souhaité mettre en lumière un sujet du quotidien qui mérite une analyse du point de vue des Affaires publiques : l’IA. Stanislas Renondin de Hauteclocque, Policy & Compliance Manager chez Giskard a accepté de nous répondre et d’évoquer avec nous l’appréhension de ce dossier au niveau national et européen.
Depuis septembre 2024, le gouvernement compte une ministre déléguée chargée de l’intelligence artificielle et du numérique (d’abord secrétaire d’État) rattachée à Bercy. Au mois de février dernier, la France a accueilli le tout premier Sommet sur l’IA sous l’impulsion de l’Élysée. Côté industrie, le secteur français du numérique et de l’IA est particulièrement dynamique avec des acteurs innovants à forte croissance. Comment se structure le département des Affaires publiques chez Giskard et qu’est-ce que cet intérêt prononcé pour l’IA a changé dans votre pratique du quotidien ?
Chez Giskard, le département des affaires publiques repose sur une organisation légère, mais pleinement intégrée dans la stratégie globale de l’entreprise. En tant que Policy & Compliance Manager, je suis celui en charge de ces sujets, avec un rattachement direct à nos deux co-CEO. Notre taille (15 personnes) nous impose un fonctionnement très transversal : notre directeur commercial ainsi que nos fondateurs sont régulièrement associés aux démarches de représentation, notamment lors d’événements publics, d’échanges informels avec des élus ou de contributions à des travaux parlementaires.
La nomination de Clara Chappaz comme ministre déléguée à l’intelligence artificielle et au numérique correspond au boom politique de l’IA qui a trouvé son apogée lors du sommet parisien de cette année. Cela a eu un impact direct sur notre activité : davantage de consultations, de sollicitations institutionnelles, mais aussi une structuration plus nette des discussions autour de l’IA responsable. Nous avons échangé avec le cabinet de la ministre, et nous reconnaissons à la fois son rôle moteur dans la structuration de l’écosystème IA et sa capacité à porter une ligne cohérente entre ambition technologique et exigences éthiques. Si certaines améliorations restent à imaginer, comme la création d’un guichet unique pour les startups IA, son action est saluée.
Dans ce contexte, notre pratique du quotidien s’est adaptée. Nous assurons une veille législative et réglementaire active à l’échelle européenne (AI Act, projets de déréglementation, harmonisation du marché, réflexion autour d’un 28e régime), mais aussi nationale (notamment les projets de lois de finances impactant l’innovation). Nous participons à plusieurs groupes de travail techniques et normatifs, que ce soit via l’AFNOR, le Cen-Cenelec, ou directement auprès du AI Office pour ce qui est des codes de conduites des General Purpose AI. Nous contribuons également, à travers des articles ou des livres blancs, à diffuser notre lecture des enjeux juridiques et techniques liés à l’IA, même si nous ne formalisons pas systématiquement ces analyses sous forme de position papers.
Ce qui nous distingue, c’est notre engagement fort pour une régulation cohérente, lisible et constructive. Nous ne considérons pas la régulation comme une menace pour l’innovation, mais comme un outil essentiel de structuration du marché. En tant qu’acteur positionné sur le testing, la sécurité et la conformité des modèles d’IA, nous avons tout intérêt à ce qu’un cadre de confiance s’installe. C’est pourquoi nous défendons une vision européenne de l’IA alignée sur les principes d’éthique, de transparence et de souveraineté.
Vous soulignez justement votre positionnement particulier sur le marché de l’IA, puisque Giskard s’insère dans une logique de cybersécurité qui vise à protéger les organisations et les usagers dans leur utilisation d’agents IA. Cet enjeu de souveraineté est d’ailleurs prégnant. Le sujet de la protection des données est particulièrement discuté au Parlement ces derniers jours (cf. Sénateur LR Jacques Grosperrin – Question écrite n° : 04891 ; Sénatrice LR Évelyne Renaud-Garabedian – Question écrite n° : 04863). À cet égard, en dehors des institutions gouvernementales et parlementaires, quelles sont les parties prenantes avec lesquels Giskard dialogue pour prendre en compte cette dimension dans l’appréhension de la question « technique » de l’IA (ANSSI, CNIL…) ? Quels discours entretenez-vous auprès d’eux ?
En parallèle de nos échanges avec les administrations centrales, nous entretenons un dialogue soutenu avec plusieurs parties prenantes techniques. Cela inclut bien sûr la CNIL, l’ANSSI, la DGCCRF et la DGE, mais aussi des structures comme l’Inria, le PEREN, le LNE et d’autres laboratoires publics impliqués dans le testing de systèmes IA. À chaque fois, notre approche est pragmatique : dès lors qu’un sujet est pertinent pour nos travaux en matière de robustesse ou de conformité des modèles, nous cherchons à collaborer.
Nous participons également à de nombreux groupes de travail professionnels : Hub France IA, France Digitale, Positive AI, Alliance européenne pour l’IA, ainsi qu’aux travaux de normalisation menés par l’AFNOR et le Cen-Cenelec. Ces engagements exigent un suivi constant, ce qui représente un défi pour une structure comme la nôtre sans équipe dédiée aux affaires publiques, mais c’est une responsabilité que nous assumons pleinement. Cependant, le type de dialogue que nous entretenons dépend des interlocuteurs : certains échanges sont formels et réguliers (réunions institutionnelles, consultations publiques, contributions à des standards), d’autres plus ponctuels, autour de retours d’expérience ou de projets spécifiques. Dans tous les cas, nous défendons une ligne claire : une IA européenne, souveraine, mais aussi ouverte et pragmatique.
Concrètement, cela veut dire que nous soutenons la préférence européenne dans les appels d’offres publics, la protection des talents, ou encore la montée en puissance de solutions souveraines. Mais nous attirons aussi l’attention des pouvoirs publics sur la nécessité d’adapter ces ambitions à la réalité des startups. Par exemple, interdire les crédits cloud offerts par des acteurs américains sans alternative crédible en Europe serait contre-productif. Les startups ont besoin d’infrastructures performantes aujourd’hui, et les offres européennes, en matière de support logiciel notamment, ne sont pas encore à la hauteur. De la même manière, nous appelons à coopérer avec le Royaume-Uni, en particulier sur des actifs stratégiques comme ARM, qui reste un acteur central sur le marché des puces IA.
Enfin, l’open source constitue une part essentielle de notre identité, à l’image des pratiques en cybersécurité. Nous développons une plateforme open source de test de modèles IA, accompagnée de benchmarks construits autour de dimensions critiques : biais, hallucinations, robustesse, conformité réglementaire. Ces outils sont conçus pour créer un langage commun entre développeurs, entreprises et régulateurs. En contribuant à cet écosystème, nous cherchons à faire émerger une IA plus fiable, plus transparente et pleinement alignée avec les valeurs européennes.
La réglementation européenne a particulièrement avancé sur ces dossiers, depuis la publication de son livre blanc sur l’intelligence artificielle en février 2020 à l’adoption en mars 2024 du règlement (UE) 2024/1689. Quel bilan peut-on tirer de cette réglementation un an après son entrée en vigueur ?
Le règlement européen sur l’intelligence artificielle a conforté la mission fondatrice de Giskard : permettre aux entreprises de tester la qualité, la robustesse et la conformité de leurs modèles IA, y compris génératifs, en s’appuyant sur des critères concrets, comme les biais, la sécurité, la transparence ou encore la résilience. Il vient valider une conviction que nous portons depuis le début : il ne peut y avoir d’innovation durable sans cadre de confiance. L’éthique n’est pas un obstacle à la performance, elle en devient un levier.
Chez Giskard, nous sommes convaincus que performance et responsabilité ne sont pas contradictoires. Au contraire, une IA éthique et bien conçue est aussi une IA plus robuste et plus compétitive. Le règlement permet d’industrialiser cette exigence en rendant les tests systématiques et reproductibles. Cela réduit les coûts de mise en conformité, améliore la qualité produit et accélère la mise sur le marché.
Au-delà de l’aspect opérationnel, le texte donne un véritable sens politique à notre travail. Il consacre l’idée que la confiance est un pilier du développement industriel, et il offre une lecture pragmatique du risque, sans imposer de carcan inutile. Chez Giskard, nous intervenons très tôt dans le cycle de vie des systèmes IA, quel que soit leur niveau de risque formel, dès lors qu’ils génèrent des contenus ou présentent un enjeu pour les utilisateurs.
Les principaux apports du règlement sont clairs : il harmonise les règles au niveau européen, clarifie les attentes des autorités, et permet aux entreprises d’anticiper. Souvent caricaturée comme un frein à l’innovation, la régulation européenne est en réalité un facteur de stabilité. Ce n’est pas l’existence d’un cadre juridique qui pose problème, mais son manque de lisibilité, sa fragmentation, ou son inadéquation à certains leviers stratégiques. C’est précisément sur ce point que l’AI Act constitue un tournant : en harmonisant les règles pour 27 États membres, il met fin à une logique de patchwork juridique. Là où les États-Unis cumulent plus de 700 textes sur l’IA à l’échelle fédérée sans cadre unifié, l’Europe propose une voie lisible et prévisible pour les entreprises. En somme, elle exporte un cadre unique, là où d’autres importent une confusion normative.
Ce n’est pas un excès de régulation, c’est un choix stratégique. Contrairement aux idées reçues, les indicateurs de l’OCDE montrent que le droit européen favorise en moyenne davantage la libre concurrence que le droit américain. La construction d’un marché numérique intégré et stable, adossé à des règles claires, est à la fois une nécessité économique et une ambition politique.
Mais la régulation ne suffira pas. L’Europe reste freinée par des fragilités structurelles : un capital-risque fragmenté, des règles prudentielles qui brident l’investissement, un droit du travail souvent rigide pour attirer les talents internationaux. Pour que la régulation soutienne réellement la compétitivité, elle doit s’inscrire dans une stratégie plus large : faciliter l’accès au financement, fluidifier le recrutement, et aligner les politiques industrielles sur les objectifs numériques. C’est à cette condition que l’AI Act pourra devenir un levier de souveraineté numérique, au service d’un marché européen à la fois éthique, dynamique et compétitif. Enfin, sur le terrain, on observe déjà une inflexion. Le texte a agi comme un révélateur : dans de nombreuses entreprises, les projets IA, jusque-là dispersés, sont aujourd’hui mieux identifiés, regroupés sous des logiques de gouvernance transversale. Cela facilite notre travail au quotidien, en nous permettant d’interagir avec les bons interlocuteurs et d’apporter plus de valeur dans des contextes où l’IA n’est pas toujours le cœur d’activité. C’est un changement culturel aussi important que réglementaire.