AFNOR Compétences : Bonjour Debora, pouvez-vous nous en dire un peu plus sur l’AI Act ?
Debora Cohen : En résumé, l’IA Act est un règlement européen qui encadre la mise sur le marché, la mise en service et l’utilisation des systèmes d’intelligence artificielle. On peut se féliciter que la 1ère loi globale sur l’IA au monde est européenne !L’IA Act a pour objectif d’harmoniser les règles juridiques applicables aux systèmes d’IA de tous les secteurs au sein de l’UE. Plus concrètement, le texte interdit certaines applications de l’IA, telles que la reconnaissance des émotions sur le lieu de travail, ou encore la notation sociale basée sur le comportement social .
Par ailleurs, les opérateurs, c’est-à-dire les fabricants, fournisseurs, utilisateurs professionnels, distributeurs de systèmes d’IA etc., seront soumis à des règles plus ou moins contraignantes en fonction du niveau de risque identifié - de minimal à inacceptable - du système d’IA concerné.
Par exemple, pour la création de systèmes à haut risque, comme les systèmes d’IA d’aide au diagnostic médical, la législation prévoit notamment la mise en place d’un système de gestion des risques, d’un système de gouvernance de données, la production de la documentation technique adéquate ou encore d’un contrôle humain.
Il faut retenir que ce règlement crée à la fois des obligations pour la création de systèmes d’IA mais aussi dans la relation entre professionnels (BtoB) et entre un professionnel et un particulier (BtoC) (obligation de transparence, marquage CE sur l’emballage, informations sur l’hypertrucage …).
Enfin, le règlement prévoit le droit pour les consommateurs de déposer plainte auprès de l’autorité qui sera chargée de la surveillance du marché et d’obtenir des explications sur les décisions prises sur la base de résultat d’un système d’IA .
AFNOR Compétences : Quel est le calendrier de mise en œuvre de l’IA Act ?
Debora Cohen : Concernant le calendrier, si le règlement est bien adopté définitivement en 2024, il entrera en application en 2026.Néanmoins, certaines règles seront applicables plus tôt, il en est ainsi :
- De l’interdiction des systèmes d’IA présentant des risques inacceptables, qui s’appliquera 6 mois à compter de la date d’entrée en vigueur du règlement ;
- Des règles concernant les modèles d’IA à usage général, qui seront applicables 12 mois après l’entrée en vigueur du règlement .
Enfin, les règles relatives aux systèmes d’IA à haut risque seront applicables 3 ans après l’entrée en vigueur de l’AI Act.
AFNOR Compétences : Quelles sont les limites de l’IA Act ?
Debora Cohen : Les systèmes d’IA sont en pleine évolution et le cadre actuellement prévu pourrait très vite devenir obsolète, d’autant plus lorsque certains spécialistes assurent que l’IA sera un milliard de fois plus « intelligente » que tous les cerveaux humains en 2045 .De plus, nous sommes en attente de plusieurs lignes directrices de la Commission sur la mise en œuvre pratique de l’IA Act , notamment concernant les pratiques interdites ou encore l’obligation de transparence. Les PME et start-ups pourraient très vite se sentir dépasser par la règlementation à venir. Cela n’a pas échappé au législateur européen qui pose l’obligation pour chaque Etat membre de mettre en place un « bac à sable règlementaire de l’IA » . Ce bac à sable devrait permettre de faciliter la mise à l’essai et la validation de systèmes d’IA innovants avant leur mise sur le marché ou leur mise en service.
Par ailleurs, le règlement fait peser sur les fournisseurs une obligation de surveillance après commercialisation : cela implique la mobilisation de moyens humains et techniques ayant un certain coût. On peut évidemment craindre que cette règlementation ne vienne freiner la compétitivité des acteurs européens face à leurs concurrents internationaux. Les entreprises doivent donc anticiper le plus possible leur mise en conformité à l’AI Act.
AFNOR Compétences : Peut-on dire qu’il y a une « interprétation française » sur l’IA ? En quoi serait-elle différente de celle des autres pays membres de l’UE ?
Debora Cohen : La France a lancé une stratégie nationale pour l’intelligence artificielle dès 2018, date à laquelle elle a investi 1,5 milliards d’euros pour soutenir la recherche et le développement des systèmes d’IA .Les autorités de régulation françaises n’ont pas attendu l’AI Act pour se positionner. C’est par exemple le cas de la Cnil, autorité compétente en matière de protection des données personnelles, qui a publié un plan d’action en mai 2023 pour « le déploiement de systèmes d’IA respectueux de la vie privée des individus » .
De son côté, l’ANSSI (Agence nationale de la sécurité des systèmes d’information) avait mis en avant dans ses « Papiers numériques » de 2020, les regards croisés de 3 experts qui militent en faveur d’une grande transparence des systèmes d’IA et d’une cybersécurité renforcée . Le Conseil d’Etat, dans son rapport d’août 2022, s’est positionné en faveur de l’utilisation de l’IA dans les services publics tout en rappelant les 7 principes dont font partie la primauté humaine, l’équité et la non-discrimination ainsi que la transparence.
La France est donc ouverte à l’IA mais sous réserve de certaines garanties techniques, humaines et juridiques. Lors des débats sur l’AI Act au Parlement européen, on a pu voir les positions d’autres pays. Par exemple, l’Italie craint que la règlementation ne dissuade l’utilisation de l’IA par les entreprises et l’Allemagne a exprimé le refus d’une surveillance de masse avec l’IA .
Juridiquement, les diverses « interprétations » des pays membres de l’UE pourraient ressortir des marges de manœuvres que leur laisse le texte. Chaque Etat sera libre et définir son régime de sanction (sauf pour les IA interdits ou à haut risque) ou encore de désigner et de doter l’autorité de surveillance du marché (qui aura notamment le pouvoir d’ordonner le retrait d’un système d’IA du marché ). Les efforts nationaux en faveur d’un durcissement des contrôles ou d’une plus grande attribution de moyen exprimera donc leur adhésion au règlement.
Malgré ces divergences de positions, l’IA Act a pu voir le jour, il existe donc bien une ambition commune de créer une IA digne de confiance et d’accroitre la compétitivité de l’UE en la matière .
Pour aller + loin, découvrez la formation « Règlement IA : quels impacts ? »
_________________________________________________________________________________________________________________________________________
Sources :
1. Art. 5.1c) AI Act ; voir également : Loi sur l’intelligence artificielle: accord sur des règles globales | Actualité | Parlement européen (europa.eu)
2. Art. 3.60) hypertrucage, « une image ou un contenu audio ou vidéo généré ou manipulé par l'IA, présentant une ressemblance avec des personnes, des objets, des lieux ou d'autres entités ou événements existants et pouvant être perçu à tort comme authentique ou véridique ».
3. Art. 85 AI Act.
5. Art. 86 AI Act.
6. Art. 113 AI Act.
7. Dispositions des chapitre I (dispositions générales) et chapitre II (les pratiques interdites en matière d’IA).
8. Les textes concernés sont : le chapitre III section 4 (autorités notifiantes et organismes notifiés), chapitre V (modèles d’IA à usage général) et chapitre VII (gouvernance) et XII (sanctions) sauf l’art. 101 (amendes applicables aux fournisseurs de modèles d’IA à usage général)
9. Art. 6§1 : l’article 6 porte sur les « règles relatives à la classification de systèmes d’IA comme système à haut risque » le §1 concerne la qualification de SIA à haut risque
10. Voir les propos de Philippe Olivier, député français, lors des débats sur l’AI Act au Parlement européen : Compte rendu in extenso des débats - Législation sur l’intelligence artificielle (débat) - Mardi 13 juin 2023 (europa.eu)
11. Art. 96 AI Act
12. Art.57 AI Act
13. La stratégie nationale pour l’intelligence artificielle | economie.gouv.fr
14. Intelligence artificielle : le plan d’action de la CNIL | CNIL
15. anssi-papiers_numeriques-2020.pdf (cyber.gouv.fr), page 44
16. Voir les propos du député européen, italien, Alessandro Panza : Compte rendu in extenso des débats - Législation sur l’intelligence artificielle (débat) - Mardi 13 juin 2023 (europa.eu)
17. Voir les propos de Sergey Lagodinsky Compte rendu in extenso des débats - Législation sur l’intelligence artificielle (débat) - Mardi 13 juin 2023 (europa.eu)
18. Art. 83.2 AI Act
19. Davantage de soutien aux start-up de l’IA pour stimuler l’innovation - Commission européenne (europa.eu)