La Commission nationale de l’informatique et des libertés (CNIL), a publié le 16 mai dernier sur son site un premier plan d’action pour réguler le secteur de l’intelligence artificielle en France. Cette démarche assez légitime quand on envisage toutes les dérives possibles a-t-elle une chance d’etre menée jusqu’au bout ?
Le plan d’action en 4 point de la CNIL pour réguler le domaine de l’IA
La Commission nationale des libertés informatiques (CNIL), l’autorité chargée de la protection de nos données personnelles, a publié mardi 16 mai sur son site internet un premier Plan d’action IA. Une mise en ligne qui intervient au lendemain des déclarations d’Emmanuel Macron sur l’intelligence artificielle qui appelait à « essayer de comprendre (l’IA) », avant d’en « penser le cadre et les instances » .
Ce plan comporte quatre volets :
1. Appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes.
En clair le CNIL doit d’abord comprendre comment fonctionnent les IA en particulier vis-à-vis de la protection des données.
2. Permettre et encadrer le développement d’IA respectueuses de la vie privée.
La CNIL souhaite ensuite aider les développeurs afin qu’ils puissent créer des intelligences artificielles qui respecteront le Règlement Général sur la Protection des Données (RGPD)
L’organisme, qui publie régulièrement depuis 2022 des guides à destination des développeurs, prépare un dossier complet consacré aux règles de partage et de réutilisation de données. Ce document reprécisera le cadre de ce qui est légalement autorisé en terme de réutilisation de données librement accessibles sur Internet. Ce type de données est actuellement massivement utilisé pour former de nombreux modèles d’IA, mais respecte rarement les droits d’auteur et des copyrights.
On imagine qu’il sera très difficile pour les IA génératives de le respecter, mais au moins ce qui est officiellement autorisé et interdit y sera clairement mentionné.
3. Fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe.
La CNIL souhaite accompagner les entreprises françaises dans le domaine de l’IA et elle lance pour cela des projets « bac à sable » dans différents domaines
L’organisme choisira des projets triés sur le volet et proposera un accompagnement avec des conseillers pour aider à les mener à bien. Un premier « bac à sable » a été lancé en 2022 et un nouveau « bac à sable » est prévu cette année, centré sur l’utilisation de l’IA dans le secteur public.
L’objectif est d’« engager un dialogue nourri avec les équipes de recherche, centres de R&D et entreprises françaises développant, ou souhaitant développer, des systèmes d’IA dans une logique de conformité aux règles de protection des données personnelles. »
4. Auditer et contrôler les systèmes d’IA et protéger les personnes
La CNIL souhaite « instaurer des règles claires, protectrices des données personnelles des citoyens européens afin de contribuer au développement de systèmes d’IA respectueux de la vie privée ». Dès qu’un cadre sera mieux défini il permettra les entreprises sauront précisément à quelles règles elles doivent se conformer et ce qu’elles risquent si elle ne le font pas.
De nombreuses plaintes à l’encontre de ChatGPT et des IA génératives30
Si la CNIL s’intéresse autant à la régulation de l’IA, c’est parce que les plaintes contre ChatGPT n’ont pas cessé ces dernières semaines. La commission doit déjà enquêter sur cinq plaintes, dont une déposée le 12 avril par le représentant de la majorité présidentielle Eric Bossorel.
Le RGPD stipule que les données personnelles traitées doivent être rigoureusement exactes. Or Monsieur Bossorel a diffusé des captures d’écran montrant qu’en posant des questions à l’IA sur sa propre carrière, cette dernière répondait n’importe quoi (dates et postes fantaisistes).
ChatGPT a en effet la fâcheuse tendance de fabuler avec beaucoup d’aplomb quand il ne sait pas répondre à une question. Son accès prochain à Bing devrait réduire un peu cette tendance, sans pour autant garantir l’exactitude des réponses de l’outil.
Rappelons également qu’aux USA plusieurs procès liés à l’IA ont déjà fait du bruit. Un procès en particulier a permis de statuer que sur le sol américain les contenus images générées par des IA tombaient automatiquement dans le domaine public. Les ayant droits des images utilisées sans leur autorisation pour alimenter les IA ne peuvent donc exiger aucune indemnisation auprès de Midjourney, Stable Diffusion, Dall-E, etc.