Ici et là, des professeurs, le doigt parfois menaçant, nous disent: "Mais les usages de l'IA par des élèves ne sont-ils pas interdits par l'Union européenne?
- Ah?
- Ben oui, un acte européen a été voté qui stipule que seules des personnes ayant au moins 18 ans peuvent se créer un compte..."
Euromythe, légende européenne !!!
Il existe bel et bien depuis juin 2024 un Acte européen qui cadre l’intelligence artificielle, mais il n'interdit pas explicitement l'utilisation de l'IA par les mineurs, aucun âge minimum n'est requis: il insiste juste sur l'importance de leur protection.
L'usage des IA n'est pas interdit ; sont interdits les usages qui exploitent la vulnérabilité d'un enfant en raison de son âge
En fait, comme le montre le schéma interactif ci-joint, les systèmes d'IA (SAI) sont répartis en trois degrés de risques; les IA dites généralistes comme chatGPT, Claude, etc. représentent un risque évident, certes, mais limité...
Aux fournisseurs d'applications IA, aux parents et aux éducateurs de veiller à ce que l'utilisation de l'IA par les enfants et les adolescents soit responsable, sûre et respectueuse de leurs droits :
que ce soit openAI pour chatGPT ou encore les suites éducatives de Microsoft (CoPilot) ou de Google (Gemini), ces entreprises sont encouragées à mettre en place des politiques transparentes en fonction de l'impact potentiel de leurs systèmes sur les personnes de moins de 18 ans et autres groupes dits vulnérables.
Parents et équipes éducatives sont, eux aussi, encouragés à éduquer enfants et adolescents aux forces et limites de ces nouveaux outils...
Concrètement, les grandes entreprises proposant des plateformes IA de type généraliste, suivent les recommandations de l'UNESCO (Organisation des Nations Unies pour l'éducation, la science et la culture) :
Currently, the terms of use for ChatGPT require that users must be at least 13 years old, and users under 18 must have their parent or legal guardian’s permission to use the services
et limitent l'accès à des personnes de plus de 13 ans. Pour les adolescents qui ont moins de 18 ans, la responsabilité incombe aux écoles qui sont censées solliciter un accord parental.
Outre l'habituelle éducation aux nouveaux médias, les équipes pédagogiques devraient se concerter avec leur référent numérique pour définir une politique d'utilisation des IA dans leur école, un paramétrage fin de la console d'administration propre à leur ENT ainsi qu´une communication transparente avec les parents comme avec les élèves: charte d'utilisation, mais aussi demande officielle pour la création de comptes...
Pedagokit proposera bientôt de tels documents...
RGPD: des professeurs s'inquiètent du traitement des données sensibles de nos élèves ; elles ne seraient pas protégées lorsqu'ils utilisent chatGPT ou même, l'IA liée à leur compte professionnel... Euromythe? C'est à nuancer...
On doit ici distinguer les services proposés par les espaces de travail éducatifs (Google Workspace for Education et Microsoft 365) et les autres:
Pour ce qui est de chatGPT, Claude.ai et autres services non liés au compte éducatif de l'élève, les données sensibles ne sont pas protégées. Bien que des fonctionnalités existent pour masquer ses données et "empêcher" qu'elles soient utilisées dans l'entrainement des modèles IA, cela s'arrête là: nos données se retrouvent quand même sur les serveurs de ces entreprises, non anonymisées.
Pour ce qui est des grandes suites éducatives, Google Workspace ou Microsoft 365, ces deux entreprises s'engagent systématiquement pour les comptes éducatifs à ne pas utiliser les données sensibles pour l'entrainement de leurs modèles IA.
La politique de Microsoft 365 est très claire: les données d'entrée et de sortie liées à Copilot relèvent de la même règle de protection que les échanges de mails ou les fichiers du drive.
Quant à Google, il propose désormais une expérience spécifique pour les adolescents et lance actuellement Gemini for Teens : dans ce cadre sécurisé et adapté pour les élèves, les conversations ne sont ni examinées par des humains ni utilisées pour améliorer l'IA ; des mesures de protection supplémentaires contre les abus sexuels sur mineurs (CSAM), des politiques de contenu et des expériences intégrées au produit aident les adolescents à comprendre les limites de l'IA générative.
Oui, les professeurs peuvent utiliser les systèmes d'intelligence artificielle en classe - d'ailleurs, les élèves ne les ont pas attendus pour consommer de l'IA, souvent à mauvais escient :D - mais ils doivent le faire sous certaines conditions: transparence, responsabilisation, pensée critique sont autant de garde-fous à mettre en place pour une intégration sécurisée et efficace de ces nouvelles possibilités pédagogiques (voir notre article sur la personnalisation des aides à l'apprenant)
Au-delà de la maîtrise technique d'ailleurs assez simple, les équipes éducatives devraient même opter pour une véritable alphabétisation aux systèmes d’IA: pensée critique, pensée éthique, ingénierie du prompt, c'est en outillant nos élèves que nous les préparerons au monde... actuelle.