Enseignement du chinois et IA : analyse de l’enquête AFPC (octobre 2025)
L’AFPC a organisé du 2 octobre au 10 novembre 2025 une enquête auprès de ses membres sur l’usage de l’IA dans l’enseignement du chinois. Cette enquête s’est déroulée en deux phases : la première consacrée à des questions généralement fermées et la seconde en commentaires libres sur quelques thématiques. Le taux de réponse (11,5%, 70 répondants) se situe dans une fourchette attendue pour un questionnaire anonyme : il suggère que l’IA est bien entrée dans le quotidien des enseignants de chinois en France, mais sans provoquer d’engouement.
Le panel et ses conditions d’utilisation de l’IA
Le panel couvre plusieurs niveaux, et une part non négligeable des répondants enseigne à cheval sur plusieurs cadres. Les enseignants sondés enseignent majoritairement dans le secondaire comme deuxième langue vivante (50% : collège LVB ou lycée LV2), mais 41,3% des répondants déclarent assurer tout ou partie de leur service dans le supérieur (université et filières diverses : LEA, LLCER, LANSAD, CPGE), soit 22% du volume de cours. Cette coexistence de contextes n’est pas neutre : les attentes institutionnelles, les formats d’évaluation et les contraintes évaluatives ne pèsent pas de la même manière selon les niveaux, les contextes et la nature des tâches. Cela peut se traduire par le degré d’ouverture à l’usage de l’IA ou à certaines de ses fonctionnalités.
L’environnement et les conditions techniques sont globalement bons, mais restent inégaux : 60,9% des enseignants jugent bénéficier d’une connexion fiable ; 43,5% indiquent que le BYOD (« Bring Your Own Device » : appareils personnels des élèves : téléphone ou ordinateur) est autorisé ; 43,5% disposent d’une salle multimédia. Ces paramètres pèsent concrètement sur l’applicabilité : on peut avoir une intention pédagogique favorable à l’IA mais ne pas pouvoir la mettre en œuvre dans un cadre matériel contraint. Le fait que 95,7 % des enseignants utilisent l’IA, alors que seuls 60,9 % estiment bénéficier d’une connexion fiable, semble montrer que les pratiques se développent malgré des conditions matérielles parfois contraintes. Cela s’explique aussi par le fait qu’une partie de l’usage de l’IA se fait en amont ou en aval du cours, notamment à domicile, pour la préparation pédagogique, et non exclusivement en situation de classe.
Les enseignants face à l’IA : une appropriation prudente
L’autoévaluation de sa propre maîtrise donne des résultats moyens : 43,5% se situent au niveau 3/5, 37,6% au niveau 4–5/5, contre 18,8% à 1–2/5. La fréquence suit une logique comparable : 40% déclarent un usage élevé, 32,9% un usage moyen, 27,2% un usage faible. L’ensemble dessine un tableau cohérent : l’outil est déjà intégré, mais de manière raisonnablement graduée, avec une appropriation plutôt pragmatique qu’enthousiaste.
Les bénéfices perçus sont clairs : gain de temps (74,3%), diversification des ressources (70%), appui créatif (68,6%). Les commentaires libres illustrent bien ce pragmatisme : certains enseignants décrivent l’IA comme utile pour des tâches à faible valeur ajoutée, par exemple « tâches simples et répétitives… transcription de texte PDF » ou listes de vocabulaire.
Mais cette utilité n’implique pas une délégation de responsabilité : les enseignants tiennent à garder le contrôle et la maîtrise de leur enseignement. Cela apparaît dans un chiffre très parlant : 90,4% déclarent relire « souvent ou toujours » les productions de l’IA. L’idée générale est que si l’IA peut accélérer la production, la sélection, l’adaptation et la validation restent des gestes professionnels non délégables.
Ce pragmatisme se retrouve aussi dans la préparation des cours : à la question « À quelle fréquence utilisez-vous l’IA pour générer des objectifs pédagogiques, des progressions ou des séquences ? », 28,6% répondent « parfois » et 15,7% « souvent » ou « très souvent » (soit 44,3% d’usage au moins occasionnel), tandis que 55,7% déclarent « rarement » ou « jamais ». Autrement dit, si l’utilité est reconnue, l’intégration dans la routine de préparation n’est pas encore systématique.
Cela est encore plus vrai pour ce qui est de l’usage en cours. Il reste nettement plus limité que la préparation : selon l’activité, 64,2% à 95,6% des répondants déclarent ne « jamais » ou « rarement » l’utiliser. Même pour les usages les plus fréquents (générer des exemples ou traduire à la volée), 65,2% et 64,2% répondent « jamais/rarement », et les usages « souvent/très souvent » plafonnent à 13,4%. Pour des fonctionnalités plus avancées, la réticence est encore plus marquée : 89,9% déclarent ne jamais/rarement utiliser la synthèse vocale (TTS) et 95,6% la reconnaissance vocale (ASR).
Des inquiétudes s’expriment, qui peuvent expliquent quelques réticences ou limites à l’usage de l’IA : risque de plagiat/triche (51%), biais culturels ou factuels (43%), homogénéisation des productions (33%). Là encore, les commentaires confirment une vigilance concrète lorsqu’ils testent des usages avec des étudiants : « Je suis en train de faire des tests avec étudiants de master pour voir comment chatgpt peut les aider pour corriger des traductions, tant pour la compréhension du chinois que pour l’expression en français...je remarque pas mal de biais et les étudiants sont vite décontenancés… ».
Cette lucidité se lit dans les règles d’usage concernant les productions d’élèves : 51,5% l’interdisent pour les productions écrites, tandis que 35,3% l’autorisent mais avec citation de la source. 61,8% en interdisent l’usage dans le cadre d’exercices de grammaire. La même prudence se retrouve pour la lecture de textes ou de documents : 44,8% seulement l’autorisent dont 22,4% librement.
Se dessine ainsi une ligne de conduite cohérente : plus la tâche risque de remplacer l’effort cognitif central de l’élève, plus l’usage est restreint ; plus elle soutient un apprentissage (compréhension, entraînement, préparation), plus elle peut être tolérée — mais rarement sans conditions.
L’IA n’apparaît donc pas comme une rupture nécessitant une refonte des pratiques. Elle se présente davantage comme une technologie qui s’insère progressivement dans des pratiques existantes, lesquelles ne sont pas fondamentalement remises en question. Les enseignants l’intègrent là où elle peut constituer une aide ou un support utile, mais sans perdre de vue les effets de dépendance, de contournement ou de standardisation.
Un besoin réel de formation
Le manque de formation, et donc le besoin de combler cette lacune s’exprime nettement à travers le sondage. 61% des enseignants interrogés affirme n’avoir jamais eu de formation, même limitée à une conférence, tandis que 85,54% d’entre eux seraient intéressés à des degrés divers. Quel que soit le thème proposé, une large majorité des répondants juge la formation au moins pertinente (« pourquoi pas », « utile » ou « urgent ») : de 79,7 % à 91,0 % selon les items. La demande est particulièrement forte sur des questions directement opérationnelles : le paramétrage des outils atteint 91,0 % d’avis au moins favorables, et la conception d’activités 89,6 %. Si l’on ne retient que les réponses les plus affirmées (« utile » ou « urgent »), la formation apparaît comme une priorité pour une part substantielle du panel : 61,2 % pour la « conception d’activités » (dont 22,4 % la jugent « urgente »), 55,4 % pour « évaluation et triche », et 53,7 % pour « paramétrage d’outils ». Même les thèmes plus techniques restent fortement demandés : « éthique & RGPD » (50,0 % « utile/urgent »), « suivi des progrès » (47,7 %), « caractères et OCR » (44,6 %), « prononciation/tons » (40,0 %). L’ensemble suggère moins un besoin d’initiation générale qu’un accompagnement ciblé et progressif, centré sur des usages concrets et sécurisés.
Évaluation et certification : une ligne directrice très nette
Sur l’évaluation, les commentaires libres font ressortir une position très structurée : l’IA peut être utile pour apprendre, mais l’acte d’évaluer vise à mesurer ce que l’élève sait faire sans assistance. Plusieurs répondants l’expriment de façon directe :
« Les compétences de l’élève seules, sans aide externe, doivent être évaluées. »
« L’utilisation de l’intelligence artificielle pourrait avoir un impact significatif sur les barèmes d’évaluation des langues étrangères, en modifiant la manière dont les compétences linguistiques sont mesurées, en influençant la correction automatique des travaux écrits ou oraux, et en remettant en question les critères traditionnels d’évaluation. »
« ... mes examens sont tous en présentiel, avec interdiction des téléphones portables. S’il y a un changement, ce n’est pas dans le barème, mais dans la façon de surveiller les examens. »
« Travail maison très rarement noté ou faible coefficient. »
« Les devoirs à la maison ne peuvent être noté à cause de l’usage de l’IA. Tout doit être fait en classe. Sauf la pratique manuelle des caractères dans le cahier d’écriture. »
De nombreux commentaires convergent vers le même modèle : davantage d’épreuves en classe, davantage d’oral, et moins de devoirs maison notés. Certaines propositions sont explicites : « ne pas noter (…) les devoirs maison » et renforcer le poids des devoirs sur table. Il importe de limiter les évaluations impossibles à authentifier. C’est la traçabilité des productions qui est problématique.
Les enseignants introduisent dans leur pratique d’évaluation des modalités visant à vérifier l’authenticité des productions (versions successives, traces de rédaction, oral de vérification), mais ils en soulignent aussi les limites technologiques. Si selon un commentaire libre, « il est facile de détecter l’utilisation d’IA dans les productions écrites (vocabulaire ou tournures jamais vues en classe) », un autre commentaire lui rétorque : « Les détecteurs d’IA en ligne sont facilement contournables. Par exemple en extrayant le texte et en le passant par google translate... ». Quant à s’appuyer sur l’oral comme arbitre final, on évoque son caractère « chronophage ».
Cela renforce l’idée que la réponse est moins technique que pédagogique : savoir organiser les tâches, définir des modalités de vérification, et clarifier les règles.
Pour les certifications et examens (HSK, YCT, baccalauréat), une ligne directrice se dégage nettement : l’IA est perçue comme un outil utile pour s’entraîner et progresser, mais elle doit rester interdite pendant l’épreuve. Autrement dit, l’entraînement peut s’appuyer sur l’IA, tandis que l’évaluation certificative, le jour J, doit permettre d’observer le plus fidèlement possible les compétences langagières réellement maîtrisées par l’élève, sans assistance.
Quelques pistes d’action : mieux intégrer l’outil plutôt que d’en augmenter ou en diminuer l’usage
Dans la continuité de cette appropriation pragmatique, les attentes ne portent pas seulement sur une initiation générale, mais sur des leviers immédiatement opérationnels. Trois axes ressortent particulièrement (exprimés notamment dans les commentaires libres) :
- Définir des règles d’usage simples, explicites et révisables, adaptées aux types de tâches et aux niveaux.
- Développer une formation progressive, centrée sur les usages pertinents, leurs limites, la conformité (dont RGPD), et les méthodes de vérification.
- Installer des procédures de contrôle réalistes, compatibles avec les contraintes du terrain : demande de versions successives, obligation de citation, courts oraux de corroboration, etc.
Enfin, plusieurs commentaires convergent vers un point essentiel : l’efficacité et la sécurité des usages dépendent fortement de la qualité des consignes (prompts) et du cadrage des demandes. Un « bon usage » n’est donc pas un usage automatique, mais un usage contextualisé, réfléchi et maîtrisé.
Une appropriation maîtrisée, consciente des enjeux
Cette enquête représentative malgré le nombre limité de répondants donne une image sobre mais solide d’enseignants n’hésitant pas à pratiquer l’IA, mais modérément ou de manière mesurée, voire sélective. L’utilité de l’outil est reconnue (gain de temps, diversification, créativité), mais sous supervision (relecture fréquente des productions de l’IA : 90,4%) ou contrôle (vérifier l’authenticité des productions des élèves).
Sur l’évaluation et la certification, une doctrine commune se dégage : l’IA est un outil utile pour l’apprentissage et l’entraînement, mais il reste fondamentalement inadapté comme instrument d’évaluation. Cette dernière mesure l’autonomie et la maîtrise réelle sans assistance. Ce qu’on évalue, ce sont les compétences effectivement intégrées par l’apprenant.
Ce sondage constitue l’une des premières enquêtes systématiques portées par une association de langue en France. Il permet de faire un premier bilan de son intégration dans les pratiques et de mettre en lumière des points de vigilance. Il propose des éléments à une réflexion appelée à se poursuivre, éclairée par une autre enquête analogue dans le futur, dans un domaine évoluant rapidement.