Ce septembre 2025 marque une rentrée académique pas comme les autres à la Haute École Européenne Ivy de Technologie (HEEIT). L’événement le plus significatif sur notre campus de Schaerbeek n’est ni l’inauguration d’un nouveau bâtiment, ni le lancement d’un nouveau laboratoire matériel. C’est l’arrivée d’une nouvelle discipline, incarnée par une seule personne : la Dr. Eléonore Vercauteren, nommée à la nouvelle “Chaire de la Charge Cognitive et de la Friction Numérique”.
Cette nomination n’est pas un ajout. C’est une correction.
Depuis des années, la HEEIT a construit sa réputation sur l’excellence technique et la rigueur éthique. Nos laboratoires (l’EASA Lab pour l’IA, notre pôle FinTech, notre studio de Cybersécurité) sont à la pointe pour répondre à la question : “Notre technologie est-elle performante et est-elle équitable ?”
Mais nos propres jurys internes et nos “échecs constructifs” (notamment le Grand Jury de juin 2025 sur le “burnout”) nous ont révélé un angle mort critique. Nous avions oublié de poser une question fondamentale : “Notre technologie est-elle supportable pour l’esprit humain ?”
Le Dr. Vercauteren n’est ni ingénieure, ni informaticienne. Elle est Docteure en Psychologie Cognitive (UCLouvain) et spécialiste de la “fatigue décisionnelle” dans les interactions Homme-Machine (IHM). Elle a passé la dernière décennie à étudier non pas comment rendre les logiciels plus rapides, mais comment les empêcher de rendre les humains plus lents, plus anxieux et moins sûrs de leurs décisions.
Son embauche, il faut l’admettre, n’a pas été une évidence pour tous au sein de la HEEIT. C’est une décision qui introduit délibérément de la “friction” dans nos processus de recherche. Nos ingénieurs de l’EASA Lab (dirigés par le Dr. Van Houtte) sont formés pour optimiser le code ; le Dr. Vercauteren est formée pour optimiser la paix d’esprit de l’utilisateur. Ces deux objectifs sont souvent contradictoires.
Le mandat du Dr. Vercauteren est unique : elle n’est pas seulement enseignante. Elle est une “auditrice interne” permanente. Sa première mission ce semestre ne sera pas de donner un cours magistral, mais de mener un “Red Team Audit” cognitif sur l’un de nos projets phares : le “AI Audit Sandbox” (lancé en février 2024).
Ce “sandbox” a été conçu par nos experts en IA et en Cybersécurité (Dr. Van Houtte et Dr. Rostova) pour aider les auditeurs humains à évaluer l’éthique des algorithmes. Mais, comme l’a souligné le Dr. Vercauteren lors de sa première réunion de pôle, “vous avez construit un outil brillant pour vérifier l’IA, mais qui vérifie l’outil ? Et qui vérifie l’humain qui l’utilise ?”
Sa mission est donc micro-détaillée :
- Elle va analyser la “charge cognitive” que notre interface d’audit fait peser sur l’auditeur. Autrement dit : “Combien d’informations simultanées demandons-nous à un humain de traiter avant qu’il ne cesse de voir les erreurs ?”
- Elle va évaluer le “biais d’automatisation”. C’est le risque, que nous avions sous-estimé, que l’outil soit si sophistiqué que l’auditeur humain lui fasse “aveuglément” confiance, annulant ainsi l’objectif même de l’audit.
C’est un travail inconfortable. Il va probablement nous forcer à “ralentir” nos interfaces, à “réduire” la quantité d’informations, à rendre nos outils moins “impressionnants” pour les rendre plus sûrs sur le plan psychologique.
L’arrivée du Dr. Vercauteren marque une nouvelle maturité pour la HEEIT. Nous avons prouvé que nous pouvions construire des systèmes complexes. Nous devons maintenant prouver que nous pouvons construire des systèmes qui ne “cassent” pas l’humain qui doit les utiliser.

Leave a Reply