Publicité



À Londres, ChatGPT est déjà dans tous les sacs à dos des collégiens et lycéens...

À Londres, ChatGPT est déjà dans tous les sacs à dos des collégiens et lycéens...

Au Lycée Français Charles de Gaulle de Londres, l'usage de l'IA est déjà une réalité dès la 4e. Mais entre utilisation instinctive et maîtrise réelle, l'écart se creuse. Comment les parents peuvent-ils accompagner leurs enfants ?

Advertorial
Membres Public

L'intelligence artificielle n'est plus un sujet de science-fiction. Dans les couloirs du Lycée Français Charles de Gaulle de Londres, elle fait déjà partie du quotidien scolaire. Depuis plusieurs mois, des enseignants autorisent leurs élèves à utiliser des outils d'IA générative, comme ChatGPT, dès la classe de 4e. Une réalité que de nombreux parents de la communauté francophone de Londres découvrent souvent après coup.

90% des lycéens français utilisent ChatGPT pour leurs devoirs

Le phénomène n'est pas propre à Londres. En France, 90 % des élèves de seconde déclarent avoir recours à ChatGPT pour effectuer leurs devoirs, selon des chiffres repris par le ministère de l'Éducation nationale. Face à cette déferlante, le gouvernement français a publié en juin 2025 un cadre officiel d'usage de l'IA en éducation, et a rendu obligatoire depuis la rentrée 2025 une micro-formation sur la plateforme Pix pour tous les élèves de 4e et de 2de.

Mais pour les familles françaises expatriées à Londres, le constat est différent. Le Lycée Charles de Gaulle, établissement du réseau AEFE, évolue dans un environnement où le Royaume-Uni pousse fortement l'adoption de l'IA. Le gouvernement britannique a dévoilé début 2025 son AI Opportunities Action Plan, avec l'ambition de faire de Londres le « bureau international de l'intelligence artificielle ». Cette double influence, programme français et contexte britannique, place les élèves des écoles françaises de Londres dans une situation inédite : exposés très tôt à l'IA, mais sans cadre de formation adapté.

Un écart qui inquiète les parents

Sur le terrain, les retours sont unanimes. Des parents d'élèves, des associations et des acteurs éducatifs locaux confirment un décalage préoccupant : les élèves utilisent l'IA au quotidien, mais de manière instinctive, sans comprendre comment elle fonctionne ni pourquoi elle peut se tromper.

Betty Alami, représentante d'Axiom Academic à Londres et en contact régulier avec les familles du Lycée Charles de Gaulle, observe cette situation au plus près : « Les enseignants autorisent déjà l'usage de l'IA dès la 4e, mais les parents ne sont ni informés ni préparés à cet enjeu. Il y a un vrai besoin de formation, pas seulement pour les élèves, mais aussi pour les familles. »

Le problème, selon les spécialistes, tient en trois mots : esprit critique insuffisant. Les élèves qui utilisent ChatGPT sans formation préalable ne savent souvent pas distinguer une réponse fiable d'une « hallucination » (un contenu faux présenté avec aplomb par l'IA). Ils ne maîtrisent pas non plus l'art du « prompt », cette compétence clé qui consiste à formuler des demandes précises pour obtenir des résultats pertinents.

Mais l'enjeu dépasse le cadre scolaire. L'IA générative est aussi conçue pour capter l'attention et créer un lien émotionnel avec ses utilisateurs, y compris les plus jeunes. Des chatbots dits « compagnons », accessibles librement en ligne, sont capables de simuler des conversations intimes et de s'adapter aux fragilités de leurs interlocuteurs. Aux États-Unis, plusieurs familles ont engagé des poursuites contre la plateforme Character.AI après le suicide d'adolescents qui entretenaient des relations virtuelles avec des chatbots. En février 2024, un garçon de 14 ans en Floride s'est donné la mort après des mois d'échanges avec un personnage fictif généré par IA. L'affaire, relayée par NBC News et le Washington Post, a conduit Google et Character.AI à un accord de règlement début 2026. L'enjeu n'est donc pas seulement pédagogique ou académique. Il peut, dans certains cas extrêmes, devenir vital.

Former plutôt qu'interdire

En France, le cadre officiel est clair : l'usage de l'IA est autorisé à condition qu'il soit encadré par l'enseignant et accompagné d'un travail personnel. Utiliser une IA générative pour ses devoirs sans autorisation explicite est désormais assimilé à de la fraude. Mais entre le cadre théorique et la réalité des salles de classe, le fossé reste important. Moins de 20 % des enseignants utilisent l'IA dans leur pratique professionnelle, et 56 % d'entre eux souhaitent être formés.

Pour les familles francophones de Londres, des initiatives commencent à émerger. Axiom Academic, réseau international de soutien scolaire présent à Londres, propose pendant les vacances de Pâques des ateliers pratiques destinés aux adolescents de 13 ans et plus. Animés par Solveig Tyrka, experte en pédagogie et en usages éducatifs de l'intelligence artificielle, ces ateliers en ligne visent à donner aux élèves une méthode claire pour utiliser l'IA de façon intelligente : comprendre son fonctionnement, apprendre à rédiger des prompts efficaces grâce à la méthode RACE (Rôle, Action, Contexte, Expectation), et développer un regard critique sur les contenus générés.

« L'objectif n'est pas de diaboliser l'IA ni de la glorifier », explique Constantin Mardoukhaev, cofondateur d'Axiom Academic. « C'est de donner aux élèves les outils pour passer d'un usage instinctif à une utilisation intelligente et utile pour leurs études. »

Un enjeu qui va s'accélérer

Les experts s'accordent sur un point : la vitesse d'évolution de l'IA rend toute réponse institutionnelle structurellement en retard. Les formations officielles des enseignants, aussi nécessaires soient-elles, seront rapidement dépassées par les mises à jour technologiques. C'est pourquoi la formation directe des élèves, mais aussi la sensibilisation des parents, deviennent un enjeu central.

Pour les familles françaises de Londres, la question n'est plus de savoir si leurs enfants utiliseront l'IA — ils le font déjà — mais de s'assurer qu'ils le feront avec discernement.


ATELIERS IA POUR ADOLESCENTS (13+)
Axiom Academic | Vacances de Pâques

3 ateliers de 1h30 en ligne, animés par Solveig Tyrka
Session 1 : 30, 31 mars & 2 avril à 11h (heure de Londres)
Session 2 : 6, 7 & 9 avril à 11h (heure de Londres)
Programme : méthode RACE, esprit critique, usage responsable
Inscription : axiom-academic.com
Contact : Betty Alami | +44 7501 078 385

SOURCES

1. Ministère de l'Éducation nationale (France), « Cadre d'usage de l'IA en éducation », juin 2025.

2. Ministère de l'Éducation nationale (France), « Mesures ambitieuses pour l'IA au service de l'éducation », février 2025.

3. Slate.fr, « Comment les enseignants français s'adaptent en classe », janvier 2026.

4. CNIL, « Enseignant : comment utiliser un système d'IA dans le cadre de vos missions ? », 2025.

5. Gouvernement britannique, AI Opportunities Action Plan, janvier 2025.

6. NBC News, « Lawsuit claims Character.AI is responsible for teen's suicide », octobre 2024.

7. CBS News, « AI company, Google settle lawsuit over Florida teen's suicide linked to Character.AI chatbot », janvier 2026.

Commentaires

- Règles de la communauté -

Publicité - Pour consulter le média sans publicité, inscrivez-vous





Publicité




Publicité - Pour consulter le média sans publicité, inscrivez-vous





Publicité