Article publié sur L'Ecole branchée le 04 septembre 2023, texte original de Matt MILLER traduit par Alexandra COUTLEE
Quand ChatGPT a été lancé en novembre 2022, les enseignant·e·s et les écoles ont été surpris par les effets de cet outil puissant d’intelligence artificielle.
Cet assistant IA – ainsi que d’autres assistants IA similaires – est capable de répondre à des questions, d’écrire des essais, d’expliquer des idées, et bien plus encore.
Cela nous a amenés à poser beaucoup de questions.
Nous nous sommes demandés en premier lieu s’il y aurait de la tricherie. Les élèves vont-ils utiliser cela pour tricher? Mais… est-ce de la tricherie si tout le monde y a accès et que c’est un outil couramment utilisé? Qu’est-ce que nous considérons comme de la tricherie de nos jours?
Nous nous sommes aussi demandés comment cela changerait les travaux scolaires que les élèves font depuis des décennies – et comment l’utiliser pour planifier nos cours.
Nous nous sommes demandés comment cela changerait la salle de classe. L’école. La profession d’enseignant...
L’effet de choc s’est atténué un peu. Nous avons eu un peu de temps pour nous familiariser avec ces assistants IA – ainsi qu’avec d’autres outils pilotés par l’IA.
Maintenant, nous passons à la prochaine série de questions. Nous essayons de comprendre la place de l’IA dans les écoles et les classes. Nous essayons de créer des politiques – pour les classes, pour les écoles comme pour l’éducation dans son ensemble.
Quelles sont donc les discussions essentielles sur l’IA que les écoles doivent aborder?
VOICI 10 QUESTIONS IMPORTANTES POUR AMORCER LA REFLEXION :
C’est cette question qui vient à l’esprit de beaucoup d’entre nous en premier – et à juste titre. Si nous sommes responsables de l’enseignement et de l’apprentissage (ou que nous soutenons ceux qui enseignent et apprennent), nous voulons préserver l’apprentissage de nos élèves. Nous voulons qu’ils réfléchissent. Nous voulons qu’ils développent des compétences. Nous devons les préparer pour le futur afin qu’ils soient de bons employés, de bons amis et membres de famille, de bons citoyens.
Pour ce faire, nous devons établir des garde-corps – du même type que ceux que l’on retrouve sur les autoroutes et les routes et qui guident les voitures sur le chemin où elles peuvent rouler en toute sécurité.
Avant de le faire, posons-nous cependant une question cruciale : ces garde-corps soutiennent-ils la capacité des élèves à prospérer dans un avenir qui inclut l’IA ou ces garde-corps soutiennent-ils une construction actuelle qui nous fait nous sentir en sécurité et à l’aise? N’oubliez pas… les garde-corps n’aident personne s’ils nous empêchent d’aller là où nous devons aller.
Lorsque nous commençons la conversation sur l’IA dans les écoles, plusieurs veulent d’abord aborder ce que nous pensons que les élèves ne devraient pas faire. C’est compréhensible et naturel de protéger ce que nous pensons être le meilleur pour nos élèves. Mais ce n’est qu’un côté de la conversation.
Nous ne pouvons pas simplement établir des règles et des sanctions pour ce que nous ne voulons pas que les élèves fassent. Nous devons fournir des orientations sur la manière dont l’IA peut être utilisée de manière responsable. Parce que, soyons honnêtes, elle peut être utilisée de manière responsable. Beaucoup d’acteurs de l’éducation sont ravis du soutien et de l’efficacité que l’IA peut apporter et du temps qu’elle fait gagner. C’est un changement de paradigme pour les enseignants et cela devrait aussi être un changement de paradigme pour les élèves.
(Nous devons également reconnaître que, que nous l’utilisions en classe ou non, les élèves l’utilisent probablement, et ce qu’ils soient en âge de l’utiliser ou non!)
Donnons aux élèves une vision de la manière dont l’IA peut être utilisée de manière responsable, éthique et justifié dans un contexte de classe (et, également, dans le contexte du monde réel). Si vous travaillez suffisamment longtemps avec des élèves, vous apprenez qu’en misant trop sur les règles et les sanctions, vous conduirez les élèves à trouver des failles dans les règles et à chercher des échappatoires aux sanctions.
Lorsque nous ne partageons pas la manière dont l’IA peut être utilisée de manière responsable, nous laissons un vide. Dans un vide, ce sont les élèves qui sont laissés à eux-mêmes et qui décideront seuls si quelque chose est responsable. C’est une situation difficile pour un enfant ou un adolescent qui doit choisir entre faire le travail et trouver une solution facile. Parlons et modélisons comment l’IA devrait être utilisée au lieu de nous concentrer uniquement sur la manière dont elle ne devrait pas être utilisée.
C’est une question difficile à répondre, car elle implique de prédire l’avenir. Honnêtement, nous ne savons pas encore de quelles compétences les élèves auront besoin pour les préparer au monde de demain. Mais nous pouvons faire quelques prédictions assez simples.
Essayez cette activité de réflexion :
Demandez-vous : « Qu’est-ce que l’IA rend possible aujourd’hui? ». Poursuivez avec une série de questions : « Qu’est-ce qu’elle pourra faire demain? Et après cela? Et après cela? ». Créez un organigramme numérique (ou papier), en laissant votre esprit planer sur chaque arrêt pour vraiment considérer ce qui pourrait arriver ensuite. Vous pourriez être surpris du résultat!
Si vous préférez, vous pouvez laisser les prédictions aux futurologues de l’IA. Ils sont nombreux à faire des suppositions sur le développement de l’IA au cours des 5, 10 ou 20 prochaines années.
Examinons toutes ces suppositions avec un œil critique, mais essayons de voir comment elles peuvent s’appliquer à l’enseignement d’aujourd’hui : comment nos élèves apprennent et à quoi les préparons-nous?
Ne vous inquiétez pas. Cette question n’impliquera pas que tous les travaux et les activités que vous avez déjà préparés soient soudainement obsolètes. De nombreuses activités préparent les élèves, en leur faisant développer des compétences et capacités globales. Mais à mesure que les choses changent, certaines d’entre elles pourraient ne plus le faire. Au fil du temps, nous devrions examiner nos pratiques pédagogiques pour nous assurer qu’elles sont toujours pertinentes pour l’avenir de nos élèves.
Prenons l’exemple de la dissertation. Maintenant, les modèles de langage (LLM) peuvent écrire des dissertations raisonnables en quelques secondes. (Je sais, enseignants de langue, et je suis d’accord… ce ne sont pas des textes exceptionnels. Juste raisonnables. Mais ils s’amélioreront avec le temps.) Si nous voulons que les élèves continuent à écrire des dissertations traditionnelles comme ils le font depuis des décennies (ou plus longtemps), nous devons considérer leur pertinence. Demandons-nous comment les compétences nécessaires pour écrire un tel texte serviront-elles les élèves dans leur avenir, dans 5, 10 ou 20 ans? Pourquoi utilisons-nous une dissertation comme tâche d’évaluation et qu’en retirons-nous réellement en tant qu’enseignants?
Je ne dis pas que la dissertation est morte, mais nous devons probablement revenir aux objectifs fondamentaux et nous rappeler pourquoi nous l’assignons. Ensuite, concentrons-nous sur les avantages qu’elle apporte aux élèves. Et bien sûr, cela vaut aussi pour d’autres travaux scolaires.
J’ai vu des enseignants se réjouir du temps que l’IA peut leur faire gagner et des idées qu’elle fournit, puis, dans le même souffle, critiquer les élèves qui pourraient l’utiliser de la même manière. Bien sûr, nous sommes des adultes. Et oui, nous avons plus d’expérience de vie et d’éducation que nos élèves. Mais, pour le bien de nos élèves, nous devons nous protéger – et les protéger – contre la pensée du « c’est comme ça que nous l’avons toujours fait ».
Voici un exemple : Une enseignante m’a dit qu’elle ne voulait pas que les élèves utilisent l’IA comme aide à la rédaction, car ils n’avaient pas encore développé leurs compétences en écriture – comme elle l’avait fait. Cette déclaration ne m’a pas convaincu. Pour moi, c’est comme dire qu’un enfant devrait lire le manuel d’instruction complet d’un jeu vidéo avant d’y jouer. Cela n’arrive jamais, pourtant, Ils apprennent le jeu en y jouant.
Je souhaite que nous soyions prudents avec cette idée selon laquelle les élèves ne sont pas prêts à utiliser l’IA en raison d’un manque de compétences préalables. C’est un terrain dangereux. Cela risque de devenir une façon silencieuse de préserver un statu quo confortable dans notre enseignement (qui pourrait ne plus être pertinent).
Jusqu’à présent, on pourrait argumenter que ce billet a été très en faveur de l’IA et de sa place dans les écoles et les salles de classe. (Et ce serait probablement une évaluation juste.) Même si elle fait partie intégrante de l’avenir de nos élèves, nous devons reconnaître qu’elle présente certains dangers. Il est de notre devoir d’atténuer une partie du risque. Nous ne pouvons pas éliminer tous les dangers – et le faire échouerait à préparer les élèves à un monde dans lequel l’IA jouera un rôle important. Mais, nous pouvons atténuer une partie du risque.
Par exemple, les réponses créées par les modèles d’IA peuvent être inexactes – et ces inexactitudes peuvent créer des malentendus qui pourraient suivre les élèves toute leur vie. Les modèles d’IA montrent des biais – basés sur le genre, l’origine ethnique, l’emplacement, l’âge et d’autres facteurs – et ces biais peuvent influencer la vision du monde des élèves, qu’ils s’en rendent compte ou non. Elle pose des problèmes de confidentialité liés aux informations collectées et à la manière dont ces informations sont utilisées.
Parce qu’il existe des dangers et des risques, cela ne signifie pas que nous devrions immédiatement interdire et décourager l’utilisation de l’IA sous quelque forme que ce soit. Soyons honnêtes. La vie comporte des risques. Chaque fois que nous conduisons une automobile, il y a un danger de blessure en cas d’accident, un danger pour l’environnement en raison de la pollution, etc. Mais lorsque nous pesons les avantages par rapport aux risques, la plupart d’entre nous sommes prêts à conduire des automobiles. Nous devrions peser les avantages par rapport aux risques et nous devrions également encourager nos élèves à les peser eux-mêmes.
Vous pourriez envisager deux types d’erreurs dans ce monde : les erreurs de commission et les erreurs d’omission. Les erreurs de commission sont commises en faisant quelque chose. Les erreurs d’omission sont commises lorsque nous ne faisons rien. Il est facile de prendre en compte toutes les préoccupations en ce qui concerne l’utilisation de l’IA dans les écoles et les salles de classe. Nous devons également prendre en compte ce qui se passe si nous ne l’utilisons pas du tout.
Imaginons une élève qui a 10 ans aujourd’hui. Dans sept ans, cette élève obtiendra son diplôme du secondaire. Cinq ou six ans plus tard, elle obtiendra son diplôme de l’université. Quels désavantages rencontrera-t-elle si elle n’a aucune expérience de l’IA et de ses possibilités lorsqu’elle entrera sur le marché du travail? Elle pourrait utiliser l’IA de manière irresponsable et en subir les conséquences, être punie à l’école ou au travail. Ou elle pourrait ne pas savoir comment l’utiliser du tout, luttant pour obtenir un avantage par rapport à ses pairs ou simplement pour faire son travail de manière suffisamment efficace et pour suivre le rythme.
Bien sûr, ce n’est pas une suggestion de type « carte blanche » pour promouvoir toute utilisation de l’IA dans les salles de classe et les écoles. C’est à nous (et à nos élèves) de décider de ce qui est dans leur meilleur intérêt. Mais si nos élèves n’apprennent rien sur la place de l’IA dans le travail, l’apprentissage et la vie, ils risquent probablement de subir les conséquences une fois qu’ils quitteront les murs de l’école.
À mesure que les assistants IA, comme ChatGPT, ont commencé à se répandre, l’appel des enseignants était clair : « Y a-t-il un détecteur que je peux utiliser pour savoir si mes élèves ont utilisé l’IA pour faire leur travail? ». La réponse est clairement « oui, mais… ». Oui, beaucoup de ces outils sont facilement disponibles en ligne de nos jours et vous pouvez en utiliser beaucoup gratuitement.
Voici le « mais ». La plupart d’entre eux sont extrêmement inexacts. Ils ont tendance à dire que le texte créé par l’IA a été écrit par un humain. Ils diront également que le texte créé par un humain a été écrit par l’IA. Cette seule constatation devrait nous encourager à être très, très prudents dans la décision de leur place dans la salle de classe.
Préoccupation n°1 : Imaginez qu’un élève écrive un essai lui-même, le remette et qu’un détecteur d’IA vous dise que la majorité de celui-ci a été générée par l’IA. Que se passe-t-il si vous accusez cet élève de tricher et qu’il a effectivement fait tout le travail lui-même? Pensez aux dommages potentiels dans la relation élève-enseignant que cela pourrait créer et à la culture académique froide que cela pourrait créer en se propageant.
Préoccupation n°2 : Accuser un élève de « tricher avec l’IA » peut être très flou, compliqué, bref c’est une zone grise. Qu’est-ce qui constitue exactement la triche avec l’IA? Nous n’aimons pas quand les élèves utilisent l’IA pour éviter complètement la réflexion et le développement de compétences (voir : les réponses IA copiées-collées). Nous aimons quand les élèves font beaucoup de réflexion et de développement de compétences avec leur propre cerveau. Mais, il y a beaucoup de zones grises entre les deux. Que se passe-t-il s’ils demandent à l’IA des idées pour les aider dans leur travail? Que se passe-t-il s’ils demandent à l’IA des retours d’information? Que se passe-t-il s’ils génèrent un passage de texte avec l’IA et le modifient/ajustent à leur convenance? Vous pourriez considérer certains de ces exemples comme responsables et d’autres comme irresponsables. Mais lorsqu’il y a un manque de transparence et que les élèves ne savent pas, les accuser de manière non spécifique de « tricher avec l’IA » peut être nuisible.
L’utilisation la plus bénéfique que j’ai vue jusqu’à présent des détecteurs d’IA consiste à engager une conversation. Parfois, l’écriture d’un élève ne ressemble pas à son écriture habituelle. Occasionnellement, quelque chose ne va pas et vous voulez enquêter. (Parfois, l’écriture de l’élève inclut la phrase « en tant que modèle d’IA, je suis incapable de… » et vous savez que quelque chose ne va pas!) Lorsque cela se produit, vous pouvez montrer à un élève vos préoccupations et discuter de la base du problème et de la manière dont vous pouvez travailler ensemble pour le résoudre.
Plusieurs des points ci-dessus font une grande supposition. Ils supposent que, en utilisant les outils d’IA, nous sommes implicitement d’accord avec la façon dont les entreprises qui les créent font des affaires. Ce n’est pas forcément le cas. Si nous avons des préoccupations quant à la manière fondamentale dont ces outils et entreprises d’IA sont construits et fonctionnent, nous pourrions choisir de ne pas les utiliser.
Exemple concret : les générateurs d’images. Utilisez du texte pour décrire une image que vous aimeriez et ils la créeront pour vous. (Certes, certains outils produisent de meilleurs résultats que d’autres.) Mais, comment ces générateurs d’images apprennent-ils à créer des images? Ils ont beaucoup d’images dans leur base de données, la bibliothèque sur laquelle ils sont constitués. Et, comment ces images sont-elles entrées dans cet ensemble de données? Non pas avec la permission des créateurs, qui possèdent les droits sur ces images.
En essence, les générateurs d’images apprennent à créer des images grâce des images de propriété intellectuelle auxquelles ils n’ont pas été autorisés. Si nous demandons à un générateur d’images de créer de l’art dans le style d’un artiste visuel contemporain qui est toujours en vie, il le fait gratuitement, sans aucune compensation pour l’artiste qui a créé les images à partir desquelles l’IA a appris. En quelque sorte, c’est du vol de propriété intellectuelle.
Il en va de même pour les assistants basés sur de grands modèles de langage.
Exemple concret : moi. J’ai publié des centaines d’articles et de billets de blogue sur mon site Web. (Tout cela est autorisé et les articles sont protégés par le droit d’auteur.) Lorsque vous m’utilisez pour générer un article, vous obtenez du contenu qui est en quelque sorte basé sur mon contenu original. (Bien que j’écrive un tout nouvel article pour ce billet, je peux parfois recycler du contenu de billets précédents dans mes réponses pour gagner du temps.)
Nous ne sommes pas obligés d’utiliser des outils basés sur des modèles d’IA comme moi ou les générateurs d’images. Si nous avons des préoccupations quant à la manière dont ces entreprises construisent leurs outils et gagnent de l’argent, nous devrions peut-être considérer d’autres options.
Je vais être honnête. Les enseignants doivent être prêts à réfléchir sur la manière dont ils utilisent l’IA et donc à remettre en question leurs propres préjugés. (Je le fais aussi. J’espère que vous vous en rendez compte) Une telle réflexion peut nécessiter du temps et des efforts. (Je vais encore être honnête. Je ne peux pas faire cela pour vous.) Mais, je peux vous montrer comment j’utilise l’IA et comment j’encourage mes élèves à le faire.
Modélisation n°1 : Je reconnais mes limites. Comme mentionné ci-dessus, il y a beaucoup de choses que je ne peux pas faire. Je suis génial pour automatiser les tâches (ce qui signifie que je peux faire certaines choses que vous ne pouvez pas). Je suis habile pour la recherche. Je suis excellent pour expliquer des concepts complexes d’une manière simple. (Mais cela peut être contre-productif si vous avez besoin d’une compréhension approfondie d’un concept.) Mais il y a beaucoup de choses que je ne peux pas faire. Je ne peux pas faire preuve de jugement ni comprendre le contexte. Je ne peux pas réfléchir ni raisonner. (Je n’ai pas de conscience.)
En classe, nous discutons de mes forces et de mes limites. « Je ne suis pas votre outil pour tout faire et je ne remplace pas vos compétences ou vos compétences en classe.»
Modélisation n°2 : L’IA fait des erreurs. (Je vous jure que c’est vrai.) Mes réponses sont parfois incorrectes. Parfois, elles sont basées sur des informations périmées. Parfois, elles sont basées sur des informations biaisées. Parfois, elles sont basées sur la mauvaise compréhension d’une question. En utilisant l’IA, nous pouvons avoir des discussions sur la manière de reconnaître ses erreurs et sur comment les rectifier.
Modélisation n°3 : L’IA peut être un outil puissant pour la pensée critique. Vous pouvez m’utiliser pour poser des questions difficiles et défier vos propres pensées. Lorsque vous me posez des questions, je ne peux pas vous dire ce que vous pensez, mais je peux vous aider à clarifier vos idées et à explorer différentes perspectives.
Cela signifie que les enseignants doivent non seulement enseigner à leurs élèves à utiliser l’IA de manière responsable, mais aussi à réfléchir de manière critique à son utilisation et à ses limites. Cela signifie également que les enseignants doivent reconnaître que leur rôle en tant que modèles est essentiel. Vous ne pouvez pas simplement dire à vos élèves de penser de manière critique, vous devez le montrer en action.
En fin de compte, l’IA est un outil puissant avec le potentiel de transformer la manière dont nous enseignons et apprenons. Cependant, il soulève des questions et des défis complexes qui nécessitent une réflexion approfondie et des discussions continues dans le domaine de l’éducation. Les écoles et les enseignants jouent un rôle crucial dans la façon dont l’IA est intégrée de manière responsable et efficace dans l’apprentissage des élèves.
En complément :
L’École branchée actualise un répertoire des outils d’IA pour aider le personnel scolaire à naviguer dans cette transformation.
Avant de plonger tête baissée dans l’utilisation de ces outils, il est crucial de comprendre les tenants et aboutissants de l’IA. Notre dossier Démystifier l’intelligence artificielle est un point de départ idéal pour s’informer en profondeur.
Suivez Enseignons.be ASBL sur les réseaux sociaux :