Cadre et défis

Face aux multiples enjeux, il y a une nécessité d'encadrer et d'informer.

Dans cet article

La science et la technologie font l’objet de très grandes attentes sociales.

Ainsi sommes-nous faits, nous avons peur des changements, de l'inconnu. Nous avons peur de perdre le contrôle et que la technologie nous dépasse et nous asservisse. L’ordinateur et l’IA vont-ils sonner le glas de l’espèce humaine ?

La science est souvent considérée comme une entité infaillible mettant en lumière une mécanique parfaite. Sorte d’héritage du rationalisme de Poincaré qui impose une vision caricaturale du réel. La science et par extension le réel sont d’une infinie complexité. Personne ne peut prétendre les dominer absolument. Plutôt que la peur, faisons le choix de la prudence et analysons les risques que l’essor de l’intelligence artificielle pourrait engendrer. Sans gâcher notre propos, nous voyons poindre l’intérêt d’encadrer ces nouvelles pratiques afin d’éviter une forme d’atrophie cognitive chez nos élèves. Il ne s’agit pas de rejeter en bloc ni d’adopter aveuglément mais quoique nous en pensions, l’IA est déjà présente dans nos classes.

Vers une dette cognitive ?

L'étude du MIT :

Une étude du MIT de 2025 explore l'impact de l'utilisation des modèles de langage (LLM) comme ChatGPT sur les processus cognitifs lors de la rédaction d'essais. En comparant des participants (54 personnes) utilisant soit une IA, soit un moteur de recherche, soit uniquement leur cerveau, les chercheurs ont identifié un coût cognitif mesurable associé à l'assistance technologique. L'analyse par électroencéphalographie (EEG) démontre que la connectivité cérébrale diminue systématiquement avec le niveau de soutien externe : le groupe "Cerveau seul" présente les réseaux les plus étendus, tandis que l'usage de l'IA entraîne l'engagement neural le plus faible.
Résumé des conclusions clés :

Atrophie de l'engagement neural

L'usage de l'IA réduit la charge mentale immédiate mais diminue l'engagement dans les processus de réflexion profonde et de raisonnement critique.

Affaiblissement de la mémoire

Les utilisateurs de l'IA sont largement incapables de citer leur propre travail (83,3 % d'échec), suggérant que le contenu n'est pas internalisé dans la mémoire épisodique.

Perte de propriété intellectuelle

Les participants utilisant l'IA rapportent un sentiment de propriété de leurs écrits bien plus faible, percevant souvent la production comme "robotique" ou "sans âme".

Dette cognitive

L'étude introduit le concept de "dette cognitive" : l'utilisation répétée de l'IA remplace l'effort mental nécessaire au développement des compétences, affaiblissant ainsi les capacités futures de l'individu s'il doit travailler sans aide.

Pour l'heure, l'article scientifique présentant les résultats de cette expérience n'a pas encore été "revu par des pairs", une étape essentielle dans la recherche visant à corroborer la bonne démarche scientifique des chercheurs. L'expérience a par ailleurs été menée sur un échantillon assez restreint de sujets. Mais la chercheuse Nataliya Kosmyna souhaite alerter dès aujourd'hui sur la nécessité d'une "éducation à l'utilisation de ces outils", notamment auprès des enfants, et sur "le fait que le cerveau a besoin de se développer de manière plus analogique".
Téléchargement de l'infographie récapitulative de l'étude :

L'étude de l'OCDE :

C'est précisément ce sujet qualifié de "paresse métacognitive" que l'OCDE tente de traiter dans son rapport Digital Education Outlook 2026. Le problème est l’illusion de progrès que l'IA peut créer lorsqu’elle est introduite sans cadre pédagogique solide.

Dans ces expérimentations, des élèves utilisant l'IA conversationnelle (chatbot) pour résoudre des exercices de mathématiques réussissent 48 % de problèmes en plus à court terme. Mais lors d’un test ultérieur sans IA, leurs résultats sont 17 % inférieurs à ceux d’élèves n’ayant jamais utilisé ces outils. La performance augmente. L’apprentissage réel, lui, recule.
Si l'IA est en capacité de fournir les bonnes réponses ainsi que parfois le raisonnement, l'élève qui reçoit l'information n'est pas capable de s'approprier la méthode, les concepts. L'erreur n'est plus partie prenante dans le processus d'apprentissage, il n'y a plus de reformulation, plus de modèle mental. La compétence est substituée à l'utilisation de l'outil.

Au-delà d'une paresse individuelle, le problème réside également dans la construction des chatbots. Ces grands modèles d'IA sont conçus pour satisfaire un utilisateur, pas pour former un esprit. Ils optimisent la rapidité, la clarté, le résultat final. Or l’apprentissage repose précisément sur l’inverse : le doute, la lenteur, l’effort cognitif intermédiaire.

Infographie OCDE Infographie OCDE 2

Propositions : l’OCDE ne prône ni l’interdiction ni le laisser-faire, mais plaide pour un changement de notre perception de l'IA. Passer d’une IA de réponse à une IA de guidage. Des systèmes conçus spécifiquement pour l’éducation, co-développés avec les enseignants, qui privilégient le questionnement, les indices progressifs et le feedback sur le raisonnement plutôt que la solution immédiate. Cette transformation implique aussi de revoir l’évaluation. Noter uniquement le rendu final devient de plus en plus inadéquat dans un contexte où la production peut être largement déléguée à une IA. L’OCDE plaide pour des évaluations orientées processus : observer comment l’élève raisonne, comment il utilise l’IA, à quel moment, et avec quelle distance critique.

Pourquoi utiliser l'IA dans l'éducation ?

Mise en place à grande échelle sans cadre

La question est loin d'être triviale. Les récentes études évoquées précédemment et bien d'autres tentent d'alerter sur les biais et dérives de l'IA.

  • En décembre 2025, le Salvador a signé un accord avec xAI pour déployer un programme national d’éducation basé sur l’IA. Plus d’un million d’élèves, répartis dans 5.000 écoles publiques, doivent être accompagnés par Grok, le chatbot développé par la société d’Elon Musk. Grok est un chatbot généraliste, non conçu pour l’éducation, sans cadre pédagogique validé. Il est en outre régulièrement au cœur de controverses liées à des contenus politiques, complotistes ou historiquement faux.
  • Aux États-Unis, certaines “charter schools” expérimentent déjà des modèles d’enseignement fortement assistés par l’IA, touchant près de 4 millions d’élèves.
  • L’Estonie a lancé un partenariat avec OpenAI pour proposer un ChatGPT éducatif au secondaire.
  • À l’inverse, en Colombie rurale, des enseignants ont attribué une partie des échecs scolaires à l’usage non encadré de chatbots de Meta.

Plus près de nous, un sondage a été réalisé en 2024 auprès de collégiens et de lycéens de l'académie de Clermont-Ferrand (1157 élèves).

Conclusions :

  • la majorité des élèves de la 6e à la terminale connaissent le terme d’IA générative même s’ils n’arrivent pas exactement à le définir et utilisent l’IA générative
  • Cet usage progresse en fonction du niveau de classe : 68 % pour les 6e, 5e, 4e et plus de 85 % pour les 3e et les lycéens
  • les outils utilisés sont sensiblement les mêmes au collège et au lycée : ChatGPT, My AI de Snapchat et Canva (davantage représenté chez les lycéens) arrivent en tête
  • Une majorité d’élèves utilisent l’IA pour un usage scolaire avec une progression de l’usage de la 6e à la terminale : on passe de 52 % en 6e, 5e et 4e à 63 % en 3e puis à 75 % au lycée
  • Les lycéens semblent plus utiliser l’IA pour chercher des explications, des idées que pour rédiger directement leurs textes. Est-ce la réalité ?
  • Enfin une proportion non négligeable d’élèves disent faire toujours confiance aux réponses de l’IA : 1 élève sur 4 en 3e, moins en 6e, 5e et 4e où les élèves semblent mis en garde par les parents ou les professeurs et moins au lycée, 10 % tout de même.

Ces expériences montrent une chose essentielle. La question n’est plus de savoir si l’IA doit entrer à l’école. Elle y est déjà. La vraie question est de savoir si elle devient un raccourci ou un partenaire d’apprentissage.

Que faire avec l'IA ? En quoi est-ce une aide ?

Les IA génératives peuvent avoir un rôle important dans le soutien de l'enseignant et de ses pratiques. Au-delà du gain de temps que peut apporter l'IA sur des tâches prévisibles et répétitives, citons quelques exemples (qui seront illustrés dans la partie Outils pour la classe ) :

  • Créer du contenu : texte, vidéo, audio, infographie, questionnaires...
  • Création d'activités interactives
  • Traduction d'autres langues
  • Recherches d'idées ou autres
  • Accéssibilité de supports pédagogiques
  • Suivi des élèves
Plus largement, l'IA peut être un allié dans l'exercice des compétences attendues chez les enseignants et formateurs :
D'après BO du 25/07/2013

carte mentale compétences IA
Télecharger l'infographie Adapté de DRANE PACA

Cadre d'usage

Rapport IGSER : Ce que révèle le terrain

Le rapport IGSER (Inspection Générale de l'Éducation, du Sport et de la Recherche) de mai 2025 propose un état des lieux débouchant sur un ensemble de préconisations dans l'utilisation de l'IA à l'école. 4943 enseignants consultés sur 5 académies : Le rapport souligne la nécessité d'une intégration réfléchie, axée sur l'amélioration des pratiques pédagogiques et le développement des compétences des élèves.
S'agissant des enseignants, voici les retours importants :

90 %
estiment ne pas avoir reçu de formation adéquate.
Le besoin est identifié, mais l’offre reste timide pour l'heure. Les formations discoplinaires copmmencent à apparaitre.
70 %
déclarent un niveau moyen à faible en IA.
Logique : l’autoformation reste la règle pour l’instant. (mais la situation évolue)
45 %
sont favorables à des expérimentations encadrées.
Beaucoup veulent tester, mais avec un cadre et du soutien et sans injonctions.
12 %
ont bénéficié d’une formation à l’IA.
Les autres se forment via MOOC, Canopé ou entre pairs. (les formations de bassin commencent à apparaitre.)

En particulier, le rapport préconise :

  • Former les enseignants à l'utilisation pédagogique de l'IA.
  • Élaborer des directives claires pour l'usage éthique de l'IA en classe.
  • Encourager le développement d'outils d'IA adaptés aux besoins éducatifs.
  • Promouvoir la collaboration entre éducateurs, chercheurs et développeurs d'IA.

Ce cadre vise à maximiser les bénéfices de l'IA tout en minimisant les risques associés, notamment en termes de dépendance technologique et d'impact sur les compétences cognitives des élèves.

Rapport IGSER
Télécharger l'infographie

Cadre d'usage de l'IA dans l'éducation (juin 2025)

Dans ces conditions et en constatant que la facilité d'accès à l'IA ainsi sa capacité à produire du contenu souvent peu respectueux des données personnelles, on voit bien que l'usage de l'IA dans l'éducation doit être encadré par des principes éthiques et pédagogiques clairs. En juin 2025, le Ministère de l'Éducation nationale a publié un guide intitulé "Cadre d'usage de l'IA dans l'éducation", destiné aux enseignants et aux établissements scolaires.
Ce cadre repose sur 4 piliers fondamentaux :

Protéger les données

  • Ne pas saisir de données personnelles dans les IA grand public.
  • Ne pas demander la création de comptes aux élèves.

Esprit critique

  • L'IA génére des réponses même sans source vérifiée.
  • Attention à toujours questiionner les réponses de l'IA.

Open Source

  • Eviter les IA fermées.
  • Favoriser les IA libres pour plus de transparence, de contrôle et réduire les dépenses de fonctionnement

Impact environnemental

  • Renoncez à l'IA si une autre solution moins couteuse écologiquement répond à vos besoins.
  • Ayez une utilisation raisonnée.

Ainsi que sur la progréssivité des usages d'IA pour les élèves :

Ecole primaire (Cycle2 et 3)
Sensibilisation

Pas de minupulation directe d'IA
Priorité au raisonnement humain
Usage d'outils d'Adaptative Learning

Collège (cycle 4)
Usages encadrés

Usages expliqués et accompagnés
par l'enseignant en cours.
Parcours Pix sur l'IA.

Lycée
Vers l'autonomie

Utilisation autonome dans
un cadre pédagogique défini.

Dans tous les cas, la prise de recul et la mise en perspective face à l'information donnée par l'IA est indispensable

A partir de ces éléments, il devient facile d'identifier les droits, devoirs et possibilités liés à l'IA dans le cadre de la classe :
cadre d'usage
Télécharger l'infographie Adapté d'après Pascal Mériaux - DRANE de la région Auvergne-Rhône-Alpes

Rermarque sur les parcours Pix : Depuis le BO n°6 du 5 février 2026, un parcours Pix dédié à l'IA est disponible pour les élèves du second degré. Il résulte de l'expérimentation menée depuis la rentrée 2025 et devient obligatoire à la rentrée 2026 pour les élèves de 4e, 2nd et 1re année de CAP.
En réalité, ce parcours se divise en deux parties :
  • Partie 1 : décrypter le fonctionnement et les enjeux de l'IA.
  • Partie 2 : utiliser l'IA générative de façon éclairée et efficace.
L'important ici pour nous est qu'il s'appuie sur Référentiel de compétences numériques en intelligence articificielle. Ce document (version1.5 de janvier 2026) s'articule autour de trois dimensions clés : comprendre (les bases techniques), évaluer (exercer un jugement critique) et utiliser (résoudre des problèmes).

Infographaphie Pix

Les défis à relever

“Ne nous laissons pas voler les mots par les fous. C’est à peu près aussi déraisonnable que d’user du terme d’intelligence artificielle, très à la mode, pour référer à des algorithmes qui n’ont rien d’intelligent. Indépendamment des externalités négatives considérables du numérique. La seule question intéressante serait : tout cela nous rend-il plus heureux et plus alertes ? […] La seule question signifiante est celle des finalités. Où voulons nous aller ?”
Extrait du discours d’Aurélien Barrau à la conférence Beyond Growth de l’UE, 2023

Le défi est colossal. Les impacts de l’IA générative sont multiformes et touchent tous les pans de notre société : impacts directs sur l’environnement, l’éducation, la productivité, l’emploi et la créativité, la cybersécurité et la protection des données, les biais et les inégalités, la génération de faux, le droit d’auteur, ou encore la défense de la démocratie.

Lorsqu'il s'agit de technologie, il faut se méfier de deux extrêmes :

  • La sous-utilisation en raison de la peur et de l'ignorance.
  • L'utilisation indiscriminée de celle-ci qui provoque des effets secondaires indésirables.

Il ne s'agit pas ici, de développer en détails tous les impacts de l'IA mais de les identifier et de les comprendre pour mieux les gérer dans l'éducation. Intéressons nous au top 4 des défis à relever :

1. Fiabilité de l'information

L'IA générative, bien que performante pour structurer la connaissance, fait face à des limites de raisonnement logique. Elle est sujette aux « hallucinations », produisant des contenus plausibles mais factuellement incorrects. Il faut également souligner le risque de manipulation et la nécessité de ne pas accorder une confiance aveugle à ces outils, car leur objectif est souvent de produire une réponse satisfaisante plutôt que de garantir la vérité.

2. Protection des données et autorat

La question de la propriété intellectuelle est centrale : les modèles sont entraînés sur d'immenses volumes de données sans toujours respecter le droit d'auteur ou obtenir le consentement des artistes.

  • Propriété : Le statut juridique des œuvres générées par IA reste flou, car le droit français exige l'empreinte de la personnalité de l'auteur pour accorder une protection.
  • Vie privée : Le document rappelle que le RGPD s'applique déjà à l'IA générative. Le cas de l'interdiction temporaire de ChatGPT en Italie illustre les tensions autour de la collecte illicite de données et de l'absence de vérification de l'âge des mineurs.

3. Biais algorithmiques

L'IA générative a tendance à reproduire et amplifier les préjugés de notre société (sexe, origine, âge) présents dans ses données d'entraînement.

  • Stéréotypes : Par défaut, un algorithme peut représenter un PDG comme un homme blanc ou hyper-sexualiser les avatars féminins.
  • Biais politiques : Les modèles portent souvent une vision du monde centrée sur les États-Unis (le « West Coast Effect ») ou sont soumis à la censure étatique, comme c'est le cas pour les IA chinoises

4. Les enjeux environnementaux

L'impact écologique de l'IA est massif et souvent sous-estimé.

  • Émissions : L'entraînement de GPT-3 a émis plusieurs centaines de tonnes de CO2eq, mais la phase d'utilisation (inférence) peut s'avérer bien plus coûteuse en énergie sur le long terme.
  • Matérialité : Au-delà de l'élement carbone, il faut compter l'extraction des ressources minérales et la consommation d'eau pour refroidir les data centers.

Vers une charte d'utilisation

Avec tout ce qui a été dit précédemment, On voit bien la difficulté de définir ce que doit être véritablement l'IA sachant qu'elle est en constante évolution. Quel(s) rôle(s) lui donner ? Comment la considérer ? Nous pouvons cependant affirmer ce que nous ne voulons pas qu'elle soit. La charte suivant a été pensée comme un cadre de protection dans l'utilisation des outils IA en classe. Il ne faut pas y voir un produit fini mais un moyen d'entrée permettant de s'emparer des problématiques de l'IA.
Ouvrez le débat avec vos élèves... Discutez, débattez puis faites votre propre charte d'utilisation.

Charte d'utilisation
Télécharger le document Adapté de l'atelier du prof