Au cours des deux dernières années, la plupart des conversations sur la loi européenne sur l'IA sont restées entre les mains des équipes juridiques, des responsables de la conformité et des spécialistes de la politique. D'ici le 2 août 2026, cela changera de manière beaucoup plus pratique pour les équipes chargées des produits, de l'ingénierie et des plateformes.
C'est à ce moment-là que la majorité des règles de la loi sur l'IA commenceront à s'appliquer, y compris le cadre pour les systèmes d'IA à haut risque de l'annexe III et les obligations de transparence de l'article 50 pour certains systèmes d'IA et contenus générés par l'IA. La loi est entrée en vigueur le 1er août 2024. Les règles relatives aux pratiques interdites en matière d'IA et à la culture de l'IA s'appliquent depuis le 2 février 2025, et les obligations relatives aux modèles d'IA à usage général s'appliquent depuis le 2 août 2025. Certaines obligations relatives à l'IA à haut risque intégrée dans des produits réglementés s'appliquent plus tard, le 2 août 2027.
Il ne s'agit pas d'un autre aperçu de la conformité. Il s'agit d'un guide pratique destiné aux équipes qui conçoivent, construisent, intègrent et expédient des systèmes d'IA : ce qu'il faut revoir dans l'architecture, les flux de produits, la journalisation, la documentation, les dépendances des fournisseurs et les contrôles opérationnels avant de déployer l'IA en Europe.
L'importance de cette question pour les directeurs techniques et les équipes chargées des produits - et pas seulement pour les services juridiques et de conformité
La loi européenne sur l'IA est structurée comme une réglementation sur la sécurité des produits appliquée à l'IA. Les obligations qu'elle impose ne sont pas principalement des exercices de documentation ou des déclarations de politique générale. Il s'agit d'exigences techniques.
Pour les systèmes d'IA à haut risque, la loi exige que l'enregistrement automatique des événements soit intégré au système dès le départ. Elle exige des mécanismes de surveillance humaine qui ne soient pas des fonctions supplémentaires. Elle exige une documentation technique maintenue tout au long du cycle de vie du système. Elle exige des évaluations de conformité avant la mise sur le marché. Ce ne sont pas des choses qu'une équipe juridique peut produire après coup. Ce sont des choses que les équipes d'ingénieurs doivent concevoir, construire et maintenir.
Les manquements à la conformité qui résulteront de l'application de la loi en 2026 ne seront pas le fait d'équipes ayant rédigé une documentation imparfaite. Ils proviendront d'équipes qui n'ont jamais classifié leurs systèmes, qui les ont livrés sans passer par des portes de gouvernance dans leur processus de développement, et qui ont traité les systèmes de tierce partie avec une grande prudence. Intégration de l'IA comme des dépendances logicielles plutôt que comme des composants d'IA réglementés.
Les équipes chargées des produits sont également exposées. Les obligations de transparence au titre de l'article 50 exigent que les utilisateurs soient informés lorsqu'ils interagissent avec l'IA. Si votre système génère du contenu, manipule des médias ou prend des décisions affectant les utilisateurs, vos flux de produits devront peut-être être modifiés. Les points de contact du consentement, les mécanismes de divulgation, les voies de repli et les voies d'escalade humaines sont des questions de conception de produit - et il faut y répondre avant le déploiement.
En résumé : La conformité à la loi européenne sur l'IA en 2026 est d'abord un problème de produit, d'ingénierie et d'approvisionnement. L'examen juridique fait partie du processus, mais il ne peut se substituer aux décisions de conception qui auraient dû être prises lors de la planification du sprint.
Ce que signifie l'échéance d'août 2026
Depuis son entrée en vigueur en août 2024, la loi se déploie par étapes. Voici où en est la situation :
| Date | Ce qui s'applique |
| Février 2025 | Pratiques interdites en matière d'IA (article 5) et obligations en matière d'éducation à l'IA |
| Août 2025 | Obligations du modèle GPAI et exigences en matière d'infrastructure de gouvernance |
| août 2026 | Majorité des règles restantes - y compris l'IA à haut risque (annexe III), la transparence de l'article 50, l'application nationale |
| août 2027 | IA à haut risque intégrée dans des produits réglementés (dispositifs médicaux, machines, etc.) |
La Commission européenne a proposé un paquet “Digital Omnibus” à la fin de l'année 2025 qui pourrait repousser certaines échéances à haut risque jusqu'à 16 mois, à condition que des normes harmonisées soient disponibles. Cette proposition n'a pas été confirmée en tant que loi. Une planification prudente considère le mois d'août 2026 comme la date limite obligatoire.
La loi s'applique de manière extraterritoriale. Comme le GDPR, elle suit la portée des résultats de votre système, et non l'adresse d'enregistrement de votre entreprise. Si votre système d'IA est déployé dans l'UE ou affecte des résidents de l'UE, la loi s'applique, que vous construisiez à Londres, à Austin ou à Dubaï.
Comprendre votre rôle dans la chaîne d'approvisionnement de l'IA
L'un des aspects les plus importants sur le plan opérationnel - et les moins appréciés - de la loi est que vos obligations dépendent de vos rôle, et pas seulement votre technologie.
La loi fait une distinction entre
- Prestataires - les entités qui construisent ou commandent un système d'IA et le mettent sur le marché de l'UE sous leur propre nom
- Déployeurs - les entités qui utilisent un système d'IA dans un contexte professionnel
Une société SaaS qui construit un outil de recrutement basé sur l'IA et le vend aux entreprises européennes est une fournisseur. Une entreprise qui intègre cet outil dans son flux de travail RH est une déployeur. Les deux ont des obligations distinctes.
Cette distinction est très importante lors de l'intégration de l'IA d'un tiers :
- Si vous intégrez un modèle tiers (via une API) dans un produit que vous livrez à des clients européens, vous pouvez assumer des obligations au niveau du fournisseur pour le système en aval - même si vous n'avez pas formé le modèle sous-jacent.
- Si vous affinez, adaptez ou modifiez substantiellement le modèle d'un tiers, votre position en matière de conformité change.
- Si vous consommez un modèle GPAI tel qu'un LLM via une API, le fournisseur du modèle a des obligations GPAI distinctes - mais le système que vous construisez au-dessus de lui est de votre responsabilité de le classifier et de le régir.
Dans la pratique, de nombreuses équipes de produits sont simultanément fournisseurs pour les systèmes qu'ils construisent et déployeurs des capacités GPAI qu'ils intègrent. Les deux séries d'obligations peuvent s'appliquer.
Classification des risques : La question à laquelle vous devez d'abord répondre
Les obligations de la loi augmentent avec le risque. Avant toute chose - avant la documentation, avant l'infrastructure de journalisation, avant la refonte du produit - vous devez classifier vos systèmes d'IA.
| Niveau de risque | Ce qu'il couvre | Niveau d'obligation |
| Inacceptable | Manipulation subliminale, notation sociale, surveillance biométrique en temps réel | Interdit (depuis février 2025) |
| Risque élevé | Filtrage du recrutement, évaluation de la solvabilité, infrastructures critiques, catégorisation biométrique, évaluation de l'éducation | Obligations de conformité totale |
| Risque limité | Chatbots, contenu généré par l'IA | Obligations de transparence uniquement |
| Risque minimal | Filtres anti-spam, jeux d'intelligence artificielle | Pas d'obligations obligatoires |
Pour la plupart des équipes d'ingénieurs, le point de décision critique est de savoir si un système relève de la catégorie des Annexe III à haut risque. La Commission était légalement tenue de publier des lignes directrices sur la classification au titre de l'article 6 avant février 2026 et n'a pas respecté ce délai. Des orientations définitives sont attendues dans les mois à venir. Si vous n'êtes pas sûr que votre système réponde aux critères, l'absence d'orientations officielles n'est pas une raison pour attendre - c'est une raison pour procéder à votre propre évaluation documentée et vous rapprocher de la norme la plus élevée.
Ce que les équipes d'ingénieurs doivent examiner avant le déploiement
Si votre système est classé à haut risque, les implications techniques sont considérables. C'est là que les équipes trouvent généralement les lacunes les plus importantes.
Journalisation et auditabilité
L'article 12 exige que les systèmes d'IA à haut risque permettent techniquement l'enregistrement automatique des événements pendant la durée de vie du système. “Automatique” signifie que le système génère des journaux de son propre chef - une documentation manuelle ne satisfait pas à cette exigence. “Durée de vie” signifie du déploiement à la mise hors service, et pas seulement la version actuelle.
Les registres doivent couvrir les situations dans lesquelles le système peut présenter un risque ou faire l'objet d'une modification substantielle, les données pour la surveillance après la mise sur le marché et les données pour la surveillance opérationnelle du déployeur. L'article 18 exige que les registres soient conservés pendant au moins six mois.
La plupart des pipelines de journalisation capturent les résultats, mais pas la logique de décision. C'est dans cette lacune que réside le risque de non-conformité.
Dans la pratique, les équipes doivent examiner :
- Si les journaux capturent les entrées, les sorties, les étapes de décision intermédiaires, les horodatages et les interactions des opérateurs.
- Si les flux de travail des agents en plusieurs étapes sont tracés de bout en bout
- si les journaux sont stockés de manière à démontrer qu'ils n'ont pas été altérés
Documentation technique
Pour les systèmes à haut risque, l'annexe IV spécifie neuf catégories de documentation technique obligatoire qui doit être préparée avant la mise sur le marché et conservée tout au long du cycle de vie du système - y compris l'architecture du système, la méthodologie de formation, les mesures de performance, les limites connues et la documentation relative à la gestion des risques. L'article 18 exige que cette documentation soit conservée pendant 10 ans.
Dans la pratique, les équipes doivent examiner :
- Si la documentation est versionnée en même temps que les versions du modèle
- S'il couvre les performances sur des ensembles de données représentatifs, y compris les cas limites
- S'il est structuré de manière à permettre à l'autorité de régulation d'évaluer la conformité sans devoir procéder à une rétro-ingénierie du modèle.
Provenance du modèle et dépendances des tiers
Si votre système dépend d'un modèle de base tiers, vous devez comprendre quelle est la documentation fournie par ce fournisseur et où commencent vos obligations. Lorsque vous construisez une application à partir d'un modèle GPAI et que vous la déployez dans un contexte à haut risque, les obligations du fournisseur au niveau de l'application sont les suivantes vous.
Dans la pratique, les équipes doivent examiner :
- La documentation sur la gouvernance de l'IA fournie par chaque fournisseur de modèle tiers
- Les limites contractuelles de la responsabilité
- Si votre cas d'utilisation entre dans le cadre de ce qui a été documenté par le fournisseur du modèle
Mécanismes de surveillance humaine
Les systèmes d'IA à haut risque doivent être conçus de manière à permettre aux déployeurs de mettre en place une surveillance humaine. Il s'agit d'un exigences en matière d'architecture, Il ne s'agit pas d'une déclaration de processus. Le système doit pouvoir être interrompu, annulé ou signalé par un opérateur humain.
Dans la pratique, les équipes doivent examiner :
- Votre système dispose-t-il de seuils de confiance configurables qui déclenchent un examen humain ?
- Si des chemins de substitution existent dans l'interface utilisateur et dans le backend.
- Si les interventions de surveillance humaine sont enregistrées
Contrôles d'accès et responsabilité basée sur les rôles
La loi exige implicitement que vous puissiez identifier qui a pris les décisions, modifié le système ou approuvé les déploiements. L'IA fantôme - les employés utilisant des outils d'IA externes qui touchent les données de production sans visibilité centrale - crée une exposition à la conformité que la plupart des équipes d'ingénierie ne mesurent pas actuellement.
Dans la pratique, les équipes doivent examiner :
- Si tous les composants de l'IA dans votre pile de production sont inventoriés de manière centralisée
- Les contrôles d'accès basés sur les rôles régissent-ils les personnes autorisées à déployer, modifier ou désactiver les composants d'IA ?
- Votre processus de traitement des incidents couvre-t-il spécifiquement les défaillances des systèmes d'IA ?
Ce que les équipes produit doivent examiner avant le déploiement
Transparence et divulgation
Les obligations de transparence de l'article 50 s'appliquent à certains systèmes d'IA, y compris certains systèmes d'IA interactifs, les systèmes de contenu synthétique, les systèmes de reconnaissance des émotions / catégorisation biométrique, et certaines utilisations liées au deepfake - pas seulement à haut risque - à partir d'août 2026. Si votre produit interagit avec les utilisateurs par le biais d'une interface conversationnelle, génère du contenu ou prend des décisions visibles affectant les utilisateurs, vous devrez peut-être divulguer que l'IA est impliquée.
Dans la pratique, les équipes doivent examiner :
- Le contenu généré par l'IA est-il identifié comme tel dans l'interface ?
- Les utilisateurs sont-ils informés lorsqu'ils interagissent avec un chatbot ou un assistant d'IA ?
- Les points de contact pour la divulgation sont visibles et clairs - et ne sont pas noyés dans les conditions de service.
Escalade humaine et voies de repli
Pour les systèmes à haut risque, les utilisateurs doivent pouvoir s'adresser à un humain lorsque le système d'IA prend une décision qui les concerne. Ce n'est pas facultatif.
Dans la pratique, les équipes doivent examiner :
- Si chaque décision prise par l'IA et susceptible d'affecter un utilisateur est assortie d'une voie d'escalade ou d'examen correspondante.
- Si les chemins de repli fonctionnent lorsque la composante IA n'est pas disponible
- si la solution de repli est documentée dans le cadre des exigences opérationnelles du système
Consentement et pratiques en matière de données
Pour les équipes déployant une IA qui traite des données à caractère personnel, les obligations du GDPR et de la loi sur l'IA se chevauchent de manière significative. La prise de décision automatisée, la base légale des données de formation et les droits des personnes concernées s'appliquent simultanément.
Dans la pratique, les équipes doivent examiner :
- Si les flux de consentement sont alignés sur la façon dont le composant d'IA traite les données
- si les personnes concernées peuvent exercer des droits (accès, effacement, opposition) qui se propagent dans votre pipeline d'IA
- Votre système peut-il prendre en compte le retrait du consentement sans laisser de données de formation périmées en production ?
Une liste de contrôle pratique pour les directeurs techniques et les équipes de produits
Cette liste de contrôle contient des recommandations pratiques fondées sur les exigences de la loi, et non sur une interprétation juridique établie. Elle doit être utilisée comme point de départ d'une évaluation interne et ne doit pas se substituer à un examen juridique formel.
Inventaire et classification des systèmes
- [Tous les composants d'IA en production et dans la feuille de route ont été inventoriés.
- [Chaque système fait l'objet d'une évaluation documentée du niveau de risque
- [Les systèmes proches du territoire visé à l'annexe III ont été évalués sur la base de critères spécifiques de cas d'utilisation.
- [Les intégrations d'IA par des tiers ont été identifiées et leur niveau de conformité a été examiné.
- [Le rôle du fournisseur par rapport à celui du déployeur a été déterminé pour chaque composante de l'IA.
Ingénierie et architecture
- [L'infrastructure de journalisation enregistre les entrées, les sorties, les étapes de décision, les horodatages et les actions de l'opérateur.
- [Les registres sont conservés pendant au moins six mois et stockés sous une forme inviolable.
- [Il existe une documentation technique pour chaque système, dont les versions correspondent à celles des modèles.
- [Les mécanismes de neutralisation humaine sont intégrés dans l'architecture du système
- [Les contrôles d'accès basés sur les rôles déterminent qui peut déployer, modifier ou désactiver les composants de l'IA.
- [La provenance du modèle et la documentation de tiers sur le modèle sont examinées et stockées.
- [Le processus de traitement des incidents couvre les défaillances des systèmes d'IA et les résultats indésirables.
Produit et UX
- [Les points de contact pour la divulgation sont en place lorsque la loi exige la transparence.
- [Il existe des voies d'escalade humaines pour les décisions prises par l'IA qui affectent les utilisateurs.
- [Les flux de repli fonctionnent lorsque la composante IA n'est pas disponible.
- [Les flux de consentement s'alignent sur les pratiques de traitement des données de l'IA
- [La documentation du produit couvre les capacités, les limites et l'utilisation prévue des composants de l'IA.
Gouvernance et processus
- [Il existe un responsable désigné pour la conformité de l'IA au sein de votre organisation.
- [La gouvernance de l'IA est intégrée au processus de développement et n'est pas traitée comme un examen juridique final.
- [Il existe un plan de surveillance après la mise sur le marché pour les systèmes à haut risque.
- [L'évaluation de la conformité a été effectuée (ou programmée) pour les systèmes à haut risque.
- [L'enregistrement dans la base de données de l'UE est prévu pour les systèmes à haut risque applicables.
Le lien entre architecture et gouvernance
Il existe une tendance qui mérite d'être soulignée : les équipes les plus exposées au risque de conformité en vertu de la loi européenne sur l'IA ne sont pas nécessairement celles qui construisent l'IA la plus sophistiquée. Ce sont celles qui ont agi rapidement, qui ont intégré les capacités d'IA de manière opportuniste et qui n'ont jamais construit l'architecture sous-jacente pour soutenir l'observabilité, la traçabilité et la gouvernance au niveau du système.
Une infrastructure de journalisation qui produit des preuves de qualité d'audit. Des pipelines d'orchestration de modèles avec des chemins de décision traçables. Des cadres de documentation qui accompagnent le système tout au long de son cycle de vie. Des crochets de supervision humaine intégrés dans le flux principal. Il ne s'agit pas de caractéristiques de conformité, mais de bonnes pratiques d'ingénierie appliquées aux systèmes d'IA. La loi, à bien des égards, codifie ce qu'est un système d'IA de niveau de production. Déploiement de l'IA devrait ressembler à ceci.
Les équipes qui ont investi dans la discipline de la plate-forme constateront que la préparation à la conformité est en grande partie un exercice de documentation et d'évaluation, et non une reconstruction. Les équipes qui ne l'ont pas fait seront confrontées à un chemin plus difficile.
C'est la différence substantielle entre expérimenter l'IA et déployer l'IA. L'expérimentation est, de par sa conception, peu risquée. Le déploiement de la production sur les marchés réglementés signifie que chaque composant du système a un propriétaire, un objectif, une limite et une piste d'audit.
Questions à poser avant de déployer l'IA en Europe
Il s'agit de recommandations pratiques et non d'une liste de contrôle juridique définitive.
- Avons-nous classifié ce système ? S'agit-il d'un risque élevé au sens de l'annexe III ? Avons-nous documenté notre évaluation ?
- Sommes-nous le fournisseur, le déployeur ou les deux ? Comprenons-nous nos obligations dans chaque rôle ?
- De quelle IA tierce ce système dépend-il ? Où s'arrête leur responsabilité et où commence la nôtre ?
- Peut-on reconstituer ce que le système a fait et pourquoi ? Notre infrastructure d'enregistrement produit-elle des preuves qui satisferaient un auditeur ?
- Si ce système prend une décision qui affecte un utilisateur, que se passe-t-il ensuite ? Existe-t-il une voie d'escalade humaine ? Fonctionne-t-il ?
- Notre produit fait-il état de la participation de l'IA lorsque cela est nécessaire ? Les obligations de transparence sont-elles reflétées dans l'interface utilisateur, et pas seulement dans la politique de confidentialité ?
- Avons-nous effectué une DPIA ou une FRIA ? Pour les systèmes à haut risque traitant des données à caractère personnel, les deux peuvent être nécessaires.
- Notre documentation technique est-elle à jour et versionnée ? Un régulateur serait-il en mesure d'évaluer la conformité à partir de ces données ?
- Notre processus de développement comprend-il un portail de gouvernance pour le déploiement de l'IA ? Ou bien la conformité reste-t-elle une question secondaire au moment de la diffusion ?
Disposons-nous d'un plan de surveillance après la mise sur le marché ? Qu'est-ce qui déclenche un examen ou un rapport d'incident ?
Les erreurs courantes des entreprises
Traiter la conformité comme un examen juridique final. Les exigences imposées par la loi - enregistrement, documentation, surveillance humaine, transparence - sont des décisions de conception. Elles ne peuvent pas être intégrées dans un produit expédié sans un important remaniement.
Ignorer les obligations des modèles de tiers. Intégrer un LLM via API ne transfère pas vos responsabilités en matière de conformité au fournisseur du modèle. Si vous construisez un produit à partir d'un modèle GPAI et que vous le déployez dans un contexte à haut risque, les obligations du fournisseur à haut risque vous incombent.
Confondre la maîtrise de l'IA et la gouvernance de l'IA. Savoir ce que dit la loi n'est pas la même chose que de disposer de l'infrastructure nécessaire pour en démontrer la conformité. La documentation, l'enregistrement, les mécanismes de contrôle et les évaluations de la conformité sont des éléments opérationnels, et non des positions politiques.
En attendant l'extension du Digital Omnibus. La proposition existe. Elle pourrait être adoptée. Mais elle n'a pas été confirmée en tant que loi, et elle n'élimine pas les obligations de conformité sous-jacentes - elle ne fait qu'ajuster potentiellement le calendrier pour des catégories spécifiques de l'annexe III.
Appliquer la logique du GDPR et supposer qu'elle est suffisante. Les cadres se chevauchent mais ne sont pas identiques. La loi sur l'IA ajoute des exigences spécifiques - enregistrement, documentation technique, surveillance humaine, évaluation de la conformité - que le GDPR ne couvre pas.
Comment un partenaire de mise en œuvre dirigé par un ingénieur peut vous aider
Passer de l'expérimentation de l'IA à un déploiement prêt à la production dans les marchés réglementés est un défi d'ingénierie, et pas seulement un exercice de vérification de la conformité. Le travail est concret : construire une infrastructure de journalisation qui produit des preuves de qualité d'audit ; concevoir des mécanismes de surveillance humaine qui fonctionnent au niveau de l'architecture ; établir des cadres de documentation qui accompagnent le système tout au long de son cycle de vie ; réviser les systèmes de gestion de l'information et les systèmes d'information de l'entreprise. l'orchestration de modèles la traçabilité des pipelines, l'évaluation des dépendances des tiers et l'intégration des points de contrôle dans les flux de développement.
Chez Carmatec, c'est le travail que nous avons effectué avec nos clients dans le cadre de l'intégration de l'IA, ingénierie des plates-formes, et des systèmes d'entreprise. Nous avons construit Pipelines RAG, mis en œuvre Automatisation alimentée par l'IA, et a aidé les entreprises à passer de la validation du concept à la production. Les exigences en matière d'infrastructure liées à la conformité à la loi européenne sur l'IA ne constituent pas une nouvelle catégorie de travail - il s'agit de ce à quoi ressemble un déploiement d'IA de niveau production lorsqu'il est effectué correctement.
Si votre équipe construit des systèmes d'IA pour le marché européen et travaille sur les questions de préparation ci-dessus, nous sommes bien placés pour vous aider à évaluer votre situation, à identifier ce qui doit changer et à construire des systèmes déployables avec l'architecture nécessaire pour soutenir la conformité.
FAQ
La loi européenne sur l'IA s'applique-t-elle à mon entreprise si elle est basée en dehors de l'UE ?
La loi s'applique de manière extraterritoriale. Si votre système d'IA est déployé dans l'UE ou si ses résultats affectent des résidents de l'UE, la loi s'applique, quel que soit le lieu de constitution de votre entreprise ou l'endroit où le modèle est hébergé. Cela reflète le modèle territorial du GDPR.
Qu'est-ce qu'un système d'IA à haut risque au sens de la loi européenne sur l'IA ?
Les systèmes à haut risque sont énumérés à l'annexe III et couvrent des cas d'utilisation spécifiques tels que le recrutement et la sélection de CV, l'évaluation du crédit, la gestion des infrastructures critiques, la catégorisation biométrique et les outils d'évaluation de l'éducation. Si votre système entre dans ces catégories ou s'en rapproche, vous devez procéder à un exercice documenté de classification des risques.
Si nous utilisons un LLM tiers via une API, avons-nous des obligations de conformité ?
Oui. Si vous créez une application à partir d'un modèle GPAI et que vous la déployez dans un contexte à haut risque, les obligations du fournisseur du modèle à haut risque sont les vôtres. La conformité du fournisseur du modèle ne se substitue pas à la vôtre en tant que concepteur de l'application.
Quelle est l'amende encourue en cas de non-conformité ?
Pour les violations du système d'IA à haut risque, les sanctions peuvent atteindre 15 millions d'euros ou 3% du chiffre d'affaires annuel mondial, le montant le plus élevé étant retenu. Pour les pratiques d'IA interdites, le plafond est de 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial. L'exposition au GDPR pour la prise de décision automatisée peut s'appliquer en plus de ces montants.
La proposition Digital Omnibus pourrait retarder certaines échéances. Faut-il attendre ?
Non. La proposition n'a pas été confirmée en tant que loi, et même si elle est adoptée, elle ne fait qu'ajuster potentiellement le calendrier pour des catégories spécifiques de l'annexe III - elle n'élimine pas les obligations sous-jacentes. L'approche prudente consiste à planifier jusqu'à l'échéance d'août 2026.
La loi s'applique-t-elle aux outils d'IA internes, et pas seulement aux produits destinés aux clients ?
Cela dépend du cas d'utilisation. Les outils d'IA internes qui prennent des décisions concernant les travailleurs - évaluation des performances, répartition des tâches, surveillance du lieu de travail - peuvent relever des catégories à haut risque de l'annexe III et justifier un examen de la classification.
Conclusion
La loi européenne sur l'IA n'est pas une charge future de mise en conformité. Il s'agit d'une exigence technique actuelle dont la date d'entrée en vigueur est fixée au 2 août 2026.
Les organisations qui s'en sortiront le mieux sont celles qui la considèrent comme ce qu'elle est réellement : une réglementation relative à la sécurité des produits qui exige la même rigueur technique que celle que mérite tout système de production. Classification des systèmes, journalisation de niveau audit, documentation versionnée, architecture de supervision humaine, flux de produits transparents et gouvernance intégrée au processus de développement : tels sont les éléments constitutifs d'un déploiement conforme de l'IA. Ce sont aussi, et ce n'est pas une coïncidence, les éléments constitutifs de systèmes d'IA fiables, maintenables et dignes de confiance en production.
Si votre équipe est en train de mettre en place des fonctionnalités d'IA en vue d'un déploiement européen et n'a pas encore effectué d'exercice de classification systématique, examiné votre infrastructure de journalisation ou évalué les dépendances de vos modèles tiers, il est temps de commencer.
À propos de Carmatec
Carmatec construit des plateformes logicielles depuis 23 ans. Nous travaillons avec des entreprises technologiques au Royaume-Uni, en Europe, en Amérique du Nord, au Moyen-Orient et en Inde pour faire passer l'IA de l'expérimentation à la mise en œuvre prête pour la production - avec l'architecture, l'observabilité et la discipline de livraison que les systèmes de production requièrent.
Si vous préparez des systèmes d'IA en vue d'un déploiement en Europe et que vous avez besoin d'un partenaire technique pour vous aider à évaluer votre état de préparation, à revoir l'architecture et à mettre en place un système conforme, contactez notre équipe.