Skip to main content
Go back to /bulletin-acppu Retour
Reportage spécial

Ériger des garde-fous à l'ère de l'IA : le rôle des syndicats de personnel académique

Par Hannah Johnston

Lorsqu'on évoque l'IA, la plupart des éducatrices et des éducateurs des établissements postsecondaires pensent d'abord aux technologies d'IA générative. Ces deux dernières années, bon nombre de nos conversations ont centré sur l’utilisation par les étudiantes et étudiants d’outils comme ChatGPT et Copilot. Tandis que mes collègues techno-optimistes accueillent favorablement l'IA en salle de classe, beaucoup d'autres se résignent à préparer la population étudiante à un monde où l'IA est inévitable.

Ceux et celles parmi nous qui étudient les répercussions sociales et économiques des systèmes d'IA continuent de résister, citant des recherches sur les biais, les fausses informations et les « hallucinations » de l'IA, les coûts environnementaux de ces technologies et les récentes découvertes sur le déclin cognitif chez les personnes qui utilisent l'IA générative.

Pendant que se poursuit le débat sur les possibilités, les risques et les conséquences de cette nouvelle vague de technologies, une chose, au moins, fait l’unanimité chez ses partisans et détracteurs  : l'IA a un effet, souvent perturbateur, sur les établissements postsecondaires.

Quelles que soient nos orientations, l'IA a rendu futiles un grand nombre de nos évaluations traditionnelles de l'apprentissage. Il est plus fastidieux de lire dix travaux de fin de session rédigés par un robot conversationnel que d'en lire un seul, et plus épuisant encore de remplir toute la paperasserie nécessaire pour signaler une violation de la politique d'intégrité académique de l'établissement.

Les établissements postsecondaires ne tiennent toujours pas compte de la charge de travail supplémentaire liée à l'utilisation non autorisée de l'IA et ont omis de considérer les répercussions possibles de la surveillance de l'utilisation de l'IA sur les évaluations de l’enseignement par les étudiantes et étudiants. Cela ne les intéresse peut-être pas. Après tout, beaucoup d’établissements offrent à leur population étudiante un accès gratuit ou à prix réduit à ces outils.

Si l'essor de l'IA et l'IA générative ont captivé l'imagination de nombreuses personnes (et colonisé les cauchemars de bien d'autres), l’IA générative n'est que la plus récente tendance d'une transition numérique beaucoup plus vaste touchant tous les aspects de notre vie. Cette tendance à la numérisation est alimentée par la collecte à grande échelle de données sur nos activités personnelles et professionnelles, qui sont ensuite analysées par des algorithmes à des fins multiples. Les algorithmes organisent notre temps passé sur les réseaux sociaux en ligne et fixent le prix de nos billets de concert, de nos billets d'avion et, de plus en plus, des aliments que nous nous procurons en ligne. En milieu de travail, les algorithmes sont utilisés pour tout, de l'évaluation des candidatures à un poste à la surveillance des réseaux informatiques, en passant par la localisation des employés, l'évaluation du rendement du personnel et autres.

En notre qualité d’éducatrices et d’éducateurs, nous semblons prêts à réfléchir aux répercussions qu’auront ces technologies sur notre métier d’enseignante, d’enseignant, de chercheuse ou de chercheur, mais nous nous interrogeons rarement sur leur effet sur nous en tant que travailleuses et travailleurs, ou employées et employés du secteur public. Quelles données nos établissements d'enseignement recueillent-ils sur nous? Comment les utilisent-ils? Et comment pouvons-nous assurer la protection de nos droits et de nos intérêts à l'ère de la gestion algorithmique?

Pourquoi les droits relatifs aux données sont-ils un enjeu syndical? 

Dans le cadre de mes recherches, je mène des entretiens sur la façon dont les gens perçoivent leur vie privée et leurs droits relatifs aux données. Des entrepôts aux hôpitaux, des travailleuses et des travailleurs me disent que le fait de se faire surveiller ne les dérange pas, car ils n'ont rien à cacher. Cette position fait toutefois fi du problème et sous-estime les risques.

Des arguments convaincants en faveur de l’adoption du principe général de protection de la vie privée à l’échelle individuelle ont été mis de l’avant. Mais il existe également des raisons cruciales de traiter collectivement de la confidentialité et des droits relatifs aux données. La puissance des données des travailleuses et des travailleurs ne réside pas uniquement dans les actions ou activités d'une seule personne, mais dans les modèles et tendances pouvant être dégagés du traitement des données de chacun de nous.

Prenons quelques exemples : vous souhaitez savoir quelle chercheuse ou quel chercheur est productif? Vous devez connaître le nombre moyen d’articles publiés par an et le classement des revues dans lesquelles ils figurent. Vous voulez savoir qui passe le plus de temps dans un laboratoire? Vous devez savoir à quelle fréquence les gens y sont présents. Vous voulez savoir si le bureau d'éthique a besoin d'une personne supplémentaire pour traiter les demandes dans un délai prédéterminé? Vous devez connaître le taux moyen de travail accompli.

À l’Université York, où j'enseigne, un groupe de travail sur l'IA a été créé à l'échelle du campus. Ce groupe de travail a récemment lancé un nouveau module sur le recours à l'IA pour la planification des cours qu’il utilise pour « automatiser les flux de travail complexes » et « réorienter le personnel vers des tâches plus importantes ». Or, ce travail s'inscrit dans un contexte de sous-financement chronique de l'enseignement supérieur.

Les établissements comme le mien ne font pas de recrutement pour pourvoir les postes laissés vacants par les départs à la retraite; ces emplois sont remplacés par des robots algorithmiques. Vous avez besoin de l'aide d'une personne en chair et en os? Vous allez peiner à en trouver une et devrez ensuite patienter, car les êtres humains sont une espèce en voie de disparition en cette période d'austérité et ceux qui restent sont débordés. C’est un problème de qualité du travail qui touche aussi bien le personnel académique que les autres employées et employés.

Les droits relatifs aux données sont également un enjeu syndical parce que nous devons garantir que nos droits ne seront pas érodés dans les années à venir. Contrairement à d'autres ressources, les données à notre sujet recueillies aujourd'hui pourraient être utilisées dans l'avenir à des fins que nous n’imaginons même pas. Les clés métalliques ont été remplacées par des cartes-clés numériques. Ces outils ne se contentent plus de donner accès au bâtiment; ils fournissent désormais des informations sur la fréquence à laquelle nous nous rendons au bureau, les secteurs du campus que nous fréquentons et la fréquence à laquelle nous accédons aux ressources de la bibliothèque.

Ces données pourraient fournir à l'administration de nombreux arguments en faveur de la suppression de bureaux, de l’élimination de places de stationnement ou de la réduction d’abonnements de bibliothèque. Si on y ajoute la surveillance des courriels, du stockage des données, des imprimantes, des bons de travail, des caméras de vidéosurveillance, des cartes d'accès, des dispositifs de localisation, des fonctions de clavardage et des logiciels, on comprend clairement que les données ne manquent pas et que leurs applications potentielles sont sans limites.

La nécessité de négocier de meilleurs droits relatifs aux données 

Généralement, l’administration a des droits très vastes que seules la loi et les conventions collectives que nous négocions limitent. Le Canada ne dispose pas de régime puissant de protection des données personnelles, mais les syndicats de l’ensemble du pays peuvent contribuer à combler cette lacune en négociant de meilleurs droits relatifs à la protection des données de leurs membres.

Les droits négociés par les syndicats devraient toucher toutes les étapes du cycle de vie des données, de leur collecte à leur élimination. Cela comprend :

  1. Comment et dans quelles circonstances sont recueillies les données sur les travailleuses et travailleurs
  2. Comment sont traitées et stockées les données
  3. Comment peuvent être traitées les données et quelles restrictions en matière de traitement des données sont en vigueur
  4. Comment sont stockées et supprimées ou éliminées les données des travailleuses et des travailleurs

Surtout, les syndicats devraient négocier des droits de consultation continue et de co-gouvernance en matière de sélection et de mise en œuvre des technologies numériques en milieu de travail.

Des ressources publiques pour le bien public 

Des enquêtes récentes montrent que malgré les sommes importantes investies par de nombreuses organisations dans les technologies numériques et les « solutions » d'IA, la plupart de ces organisations n'ont pas réalisé les gains d'efficacité promis. Si vous observez les marchés, vous savez que cela n'a pas ralenti les investissements.

Au contraire, on pourrait apparenter cette tendance au sein de nos établissements d'enseignement au fait de prendre l'argent public et les données publiques — sur les travailleuses, travailleurs, étudiantes et étudiants — pour les verser dans les coffres d'entreprises privées qui sont basées, pour la plupart, aux États-Unis et qui s'affairent à développer la prochaine innovation algorithmique à laquelle nous serons soumis.

Il est temps d’ériger des garde-fous. Pendant que les syndicats se dirigent vers la table des négociations, rappelons-nous qu'une alternative est possible : une alternative qui donne aux travailleuses et aux travailleurs des droits et un accès aux données qu'ils produisent, où les fonds publics sont dépensés pour le bien public et où les établissements postsecondaires publics sont financés de manière adéquate parce qu'ils constituent un bien public.

Hannah Johnston est professeure adjointe à l'école de gestion des ressources humaines de l'Université York, où ses recherches portent sur la numérisation du travail.