Menu Fermer

L’esprit contre la rationalité instrumentale : éduquer et enseigner à l’ère des technologies numériques

C’est dans la précipitation et le chaos total que l’Intelligence Artificielle (IA) fait irruption dans le monde de l’éducation. Comme tout ce qui peut être produit doit l’être absolument, les problèmes éthiques ou même l’utilité sociale d’une nouvelle technologique viennent toujours après coup, pour la forme. Les conséquences écologiques d’une généralisation de l’Intelligence Artificielle, les doutes qui planent quant aux possibilités de maîtrise collective, sont pourtant des questions cruciales pour l’humanité. Mais c’est aussi de notre point de vue d’éducateurices qu’il faut envisager la question. Comment évaluer son intérêt pédagogique ? Comme le disait le philosophe Gunther Anders, il ne suffit pas de vouloir changer le monde car il change de toute façon considérablement sans nous et dans un sens qui n’est pas souhaitable. Il faut encore pouvoir interpréter ces changements pour les changer à leur tour.[1]

Expansion des technologies numériques : la course folle

Alors que l’IA générative en est encore à ses balbutiements, le ministère et la hiérarchie de proximité exhortent hâtivement les enseignant-es documentalistes à utiliser ces technologies avec les élèves, comme s’il s’agissait de s’embarquer dans une course folle sans avoir réfléchi au préalable aux fins. Toutes et tous mobilisé-es, mais pour quoi au juste ?

L’Inspection va jusqu’à nous encourager à laisser de côté les autres technologies de l’information et de la communication pour privilégier exclusivement l’IA générative, une véritable aberration pédagogique tant ces outils peuvent avoir des fonctions différentes. On peut s’interroger en tout cas sur ces injonctions contradictoires dont l’institution a le secret : développer le jugement critique des élèves d’un côté et s’adapter automatiquement aux dernières innovations technologiques de l’autre. Plus que jamais, les considérations pédagogiques semblent subordonnées à la (dé)raison économique. L’IA grand public est pourtant en passe d’avoir des conséquences incommensurables sur l’environnement, la vie collective ou l’« écologie de l’esprit ».            

Nous ne nous attarderons pas en détail sur les conséquences écologiques de l’expansion des technologies numériques. Mais il ne fait aucun doute que l’IA est une grande consommatrice d’énergie. D’ici à 2026, Elle pourrait générer un surplus de 37 milliards de tonnes de CO2 dans l’atmosphère.[2] Il est toutefois impossible à ce jour de quantifier les effets de l’IA en la matière.

Nous n’insisterons pas non plus sur les conséquences sociales et politiques, la destruction d’emplois, les menaces sur la vie privée ou la dépendance sociale par rapport aux plates-formes ou aux géants de la Tech. L’économiste Cédric Durand va jusqu’à parler de techno-féodalisme pour caractériser la domination numérique des GAFAM.[3]

Nous voudrions davantage nous appesantir sur les problèmes qui se posent d’un point de vue pédagogique.

Des machines à penser ou à halluciner ?

L’usage des technologies dans l’éducation a une histoire assez longue maintenant. Dès les années 1960-1970, on se posait la question de l’utilisation de l’IA comme tuteur idéal. Mais les résultats s’avérèrent décevants, les systèmes n’arrivant pas à prendre en compte simultanément trois aspects essentiels : le domaine à enseigner, l’enseignement lui-même et les compétences des élèves.     

A notre avis, la question décisive aujourd’hui reste l’utilité pédagogique de l’IA générative. Mais il y a des aspects autrement plus complexes, bien pointés par Eric Sadin, qui distinguent ces systèmes de toutes les autres technologies. Le rôle de l’IA générative n’est plus en effet de gérer nos tâches mais de produire à notre place des contenus. Nos facultés pourraient ainsi être déléguées à des machines, entraînant un risque réel d’ « humanité superflue ».[4]

Les IA étant adaptatives, les risques d’enfermement dans des « bulles narcissiques » sont réels. Anne Alombert souligne en outre l’écueil de la passivité et le risque de captation de l’attention. Elle parle à ce propos de crise de l’esprit.[5] Eric Sadin redoute quant à lui une altération de l’altérité qui conduirait à un oubli de l’ « Autre ». Nombre de spécialistes mettent enfin en garde contre les réponses trompeuses ou fausses renvoyées par les systèmes. Une confiance aveugle dans ces technologies peut conduire à ce qu’il est convenu d’appeler des « hallucinations ». C’est un danger d’autant plus grand que les IA génératives sont fortement persuasives et qu’elles donnent l’illusion de la pensée humaine.

IA et pédagogie : la nécessité d’une évaluation

Plusieurs méthodes ont été proposées pour évaluer les Environnements Informatiques pour l’Apprentissage Humain (EIAH) et toutes insistent sur la nécessaire diversité d’approches. On peut distinguer trois dimensions : l’utilisabilité, l’utilité et l’acceptabilité.[6] La première concerne la facilité d’utilisation d’un système. Ce n’est sans doute pas l’aspect qui pose le plus de problèmes s’agissant de l’Intelligence artificielle générative. Des nouvelles compétences vont néanmoins être sollicitées. L’art du prompt, la capacité à donner les bonnes instructions à l’IA, à formuler des requêtes claires efficaces et complètes pour obtenir des réponses pertinentes, est souvent citée. La méthode par l’utilité pédagogique est autrement plus complexe : l’IA générative peut-elle permettre d’apprendre, d’acquérir des connaissances autres que la simple manipulation du système, d’apprendre quoi, à quel niveau et dans quel contexte ? Seules des expérimentations pédagogiques variées et suffisamment nombreuses pourraient nous renseigner ici.  Mais c’est bien à nous, professionnel-les de l’éducation, de le déterminer. Ne laissons personne trancher au-dessus de nos têtes.

La dernière dimension de l’évaluation est l’acceptabilité.  Le système est-il compatible avec les valeurs et la culture de l’organisation dans laquelle on veut l’introduire ? C’est un point important pour nous dans la mesure ou les IA grand public n’ont pas a priori été développées dans un souci pédagogique. Sans parler des nombreux biais dont bien des études font état, le problème de l’alignement de ces systèmes sur des objectifs d’apprentissage reste entier. Les technologies ne sont jamais neutres : elles renferment toujours les représentations du monde de celles et ceux qui les ont conçues. Les IA comportent des biais multiples : historiques, algorithmiques, de confirmation, des biais liés à la sélection ou l’agrégation des données d’entraînement des machines. On sait par exemple que les données utilisées sont le plus souvent d’origine anglo-saxonne et qu’elles ne reflètent que de manière limitée la diversité culturelle. En fait de monde augmenté, il est à craindre un appauvrissement de l’expérience humaine.

Quoi que l’on pense de l‘IA, il va bien falloir faire avec pour la simple raison qu’elle est déjà là. Mais cela ne doit pas nous empêcher de nous interroger sur son utilité pédagogique, ni d’ailleurs sur les menaces plus larges qu’elle fait peser sur l’humanité. Le doute méthodologique doit prévaloir sur la simple rationalité instrumentale. Il nous semble que si l’IA générative doit être expérimentée à des fins pédagogiques, c’est dans un cadre pluri et transdisciplinaire : en éducation aux médias et à l’information (EMI), en technologie, en sciences économiques et sociales, en philosophie par exemple. En EMI, la « translittératie » pourrait être une porte d’entrée. Le terme désigne l’habileté à écrire et interagir par l’entremise d’une variété d’outils, de plate-formes et de moyens de communication.

L’irruption de l’IA dans notre quotidien nous fait ressentir avec force la discordance de deux temporalités qu’il devient de plus en plus difficile de déjouer : l’évolution extrêmement rapide de l’innovation technologique d’un côté, l’appropriation de connaissances et de manières de penser, nécessairement plus lente, de l’autre. Pour le moins, l’IA nous pousse à nous questionner sur ce que veut dire éduquer et enseigner. A l’avenir, cela consistera peut-être aussi à apprendre à se passer de l’Intelligence Artificielle.


[1] Gunther Anders, L’obsolescence de l’homme. Tome II, Sur la destruction de la vie à l’époque de la troisième révolution industrielle, Editions Fario, 2011.

[2] Nastasia Hadjadji, L’insoutenable coût écologique du boom de l’IA, Reporterre, 5 juillet 2024, disponible sur https://reporterre.net/L-insoutenable-cout-ecologique-du-boom-de-l-IA

[3] Techno-féodalisme. Critique de l’économie numérique, La Découverte, 2020.

[4] Eric Sadin, La vie spectrale. Penser l’ère du Métavers et des IA génératives, Grasset, 2023.

[5] Anne Alombert, Schizophrénie numérique, Allia, 2023.

[6] André Tricot, Fabienne Plégat-Soutjis, Jean-François Camps, Alban Amiel, Gladys Lutz, et al., Utilité, utilisabilité, acceptabilité : interpréter les relations entre trois dimensions de l’évaluation des EIAH. Environnements Informatiques pour l’Apprentissage Humain 2003, Apr 2003, Strasbourg, France.

2 Comments

  1. anne querrien

    Il est vraisemblable que l’accès à l’intelligence artificielle sera plus pratiqué dans les familles qui en ont les moyens que dans l’espace de l’école. Il risque d’en résulter un accroissement des inégalités liées aux conditions socioéconomiques dans lesquelles vivent les parents. Coomment penser une pédagogie qui résiste à cette inégalité potntiellement accrue?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *