Retour sur le midi-pédagogique du 12 mars 2026
« Quelles attitudes, comportements, règles adopter pour survivre à la rupture qui se profile, donc à la crise académique qui suivra ? ». Cette question, posée en 2006 face à l’émergence d’Internet, reste la même 20 ans plus tard. Le 12 mars dernier, les professeurs Bergadaà (Université de Genève, Suisse) et Peixoto (Université de Coimbra, Portugal) ont ainsi animé une conférence-débat portant sur l’intégrité académique à l’ère de l’intelligence artificielle. De nombreux membres de la communauté universitaire étaient ainsi réunis, en présence et à distance, pour réfléchir à ce sujet brûlant d’actualité.

L’IA et l’université : une relation complexe
Dans un monde qui tourne de plus en plus vite, un danger guette : celui de l’estompement de la qualité, au profit de la productivité. L’université, haut-lieu de la création et de la transmission de connaissances, est au cœur de la problématique. Alors que l’IA générative permet de produire quantité massive de contenus en un clic, le risque est de transformer l’étudiant en un simple « fabriquant » d’objets (textes, codes, analyses, images…) plutôt que d’apprendre à créer de la connaissance originale.
Lorsqu’on rédige un travail de session, une thèse doctorat ou quand on écrit un livre, on ne « fait » pas la recherche : on est un.e chercheur.se. Si l’IA permet aujourd’hui à tous de produire un texte qui semble authentique, elle ne possèdera pas la puissance de création de l’homme. La création de l’esprit, originale et unique, doit ainsi rester au centre des travaux universitaires, sans quoi nous n’apprendrons pas à donner du sens à nos création et nous serions contraints de devenir ou de rester des « délinquants de la connaissance ».
Les 4 visages de la dérive : lequel peut vous guetter ?
L’intégrité n’est bien sûr pas radicale : chacun.e peut commettre un jour une transgression. Seule la répétition incontrôlée de ces transgressions conduit à la délinquance académique. La conférence a donc mis en lumière quatre profils distincts de « délinquants de la connaissance » dans lesquels n’importe quel.le étudiant.e peut glisser, même inconsciemment, par simple paresse intellectuelle ou par pression de performance :
- Le « tricheur » : Il ne cherche pas à mal, il s’adapte au comportement de ses proches. Si son groupe d’amis ou son labo utilise l’IA sans précaution, il suivra le mouvement par peur d’être moins efficace. Son risque ? Payer pour les autres quand le système décide de serrer la vis.
- Le « fraudeur » : C’est un solitaire, il joue avec les limites du système comme il jouerait au casino. Il est capable de copier une thèse entière ou de générer un travail sans en lire une ligne. Il mise sur le fait que la masse de données le fera passer sous le radar. Mais plus il parie gros et plus il a des chances d’être surpris.
- Le « manipulateur » : Très social et très habile, il prétend être de bonne foi tout en utilisant l’IA pour masquer ses lacunes. Il adapte son discours et finit par croire à ses propres mensonges, en ne reconnaissant jamais ses torts.
- Le « bricoleur » : C’est le profil le plus courant sur nos campus car c’est un créatif. Il prend des informations ici et ailleurs, et assemble le tout comme un jeu de LEGO. Le danger ? Il veut trop en faire et cet hyperactif perd inconsciemment sa capacité créative et devient un simple assembleur de pièces déjà fabriquées.

Le choix du doute face à la « certitude » à l’ère de l’IA
Face aux risques de dérives, un remède existe: le doute. En effet, contrairement aux IA génératives qui produisent des certitudes, régulièrement erronées, les chercheur.se.s et les étudiant.e.s intègres cultivent le doute. C’est celui-ci qui force la vérification, exige la transparence des données et encourage les démarches tâtonnantes qui mèneront à la vraie connaissance.
Les conférenciers ont ainsi soulevé une question importante : l’IA nous rendra-t-elle plus intelligents ou plus bêtes ? La réponse réside dans la posture que chacun.e choisit d’adopter. Pour un.e étudiant.e au baccalauréat comme pour un.e chercheur.se au doctorat, l’identité intellectuel se construit non pas par le résultat final, mais par le processus de réflexion qui y mène. En déléguant ce processus à la machine sans recul critique, c’est en fait notre propre capacité à créer qui s’étiole. Dans ce contexte, Michelle Bergadaà l’affirme : « L’IA rendra beaucoup plus intelligents les gens intelligents… et beaucoup plus bêtes ceux qui ne sont pas très malins ».
A chacun.e, désormais, de choisir habilement son camp.
Pour celles et ceux qui souhaitent approfondir le sujet, l’ouvrage L’intégrité académique : Du concept à l’action, de Michelle Bergadaà, Collection Questions de société, EMS 2026, est disponible à l’achat ou à la bibiothèque. https://editions-ems.fr/boutique/lintegrite-academique-du-concept-a-laction/.




