En ce début de second quadrimestre, la Haute École Européenne Ivy de Technologie (HEEIT) ne se contente pas de réagir à l’actualité ; elle s’efforce de la façonner. Alors que les discussions finales de l’Acte Européen sur l’IA (EU AI Act) résonnent dans notre ville, Bruxelles, notre institution, située au cœur de Schaerbeek, lance une initiative de recherche appliquée majeure : le “AI Audit Sandbox”.
Ce projet n’est pas un énième colloque juridique. Il s’agit d’une plateforme technique, un véritable “laboratoire de test”, conçu spécifiquement pour adresser la question la plus complexe que pose la nouvelle législation aux innovateurs : le “comment”.
L’Acte IA définit brillamment le “quoi” – quelles IA sont à haut risque, quels principes éthiques doivent être respectés. Mais pour les PME (Petites et Moyennes Entreprises) et les startups qui forment l’écosystème technologique belge, la question reste entière : comment prouver techniquement qu’un algorithme n’est pas biaisé ? Comment valider la robustesse d’un système d’apprentissage automatique face à des attaques adverses ?
C’est ici que l’expertise unique de la HEEIT entre en jeu. Le “AI Audit Sandbox” est un projet conjoint, né de la collaboration intense, et parfois de la friction créative, entre deux de nos pôles les plus pointus : notre EASA Lab (Ethical AI & Software Architecture Lab) et notre pôle de Cybersécurité.
Le Dr. Annemieke Van Houtte, de l’EASA Lab, dirige l’aspect “éthique” : “Les auditeurs actuels se contentent souvent de ‘checklists’ déclaratives. Nous construisons des outils qui vont lire le code et analyser les ensembles de données. Nous ne demandons pas à une IA si elle est éthique ; nous tentons de le vérifier mathématiquement, en traquant les biais statistiques dans les jeux de données d’entraînement et en évaluant la transparence du modèle.”
Parallèlement, le Dr. Eva Rostova, de notre pôle Cybersécurité, apporte l’expertise en “sécurité offensive” : “Un système d’IA conforme sur le papier mais vulnérable aux manipulations est inutile. Notre partie du ‘sandbox’ est conçue pour ‘casser’ l’IA. Nous simulons des attaques par empoisonnement de données (data poisoning) et des attaques par évasion (evasion attacks) pour tester si un modèle ‘conforme’ peut être forcé à prendre une décision dangereuse. C’est le ‘stress test’ que la législation ne peut pas décrire, mais qu’elle exige implicitement.”
Ce projet n’est pas parfait, et il ne prétend pas avoir toutes les réponses à une législation aussi complexe et évolutive. Son but est d’être un outil pragmatique.
Dès ce mois-ci, nos étudiants en Master (MSc) en IA et en Cybersécurité seront les premiers à utiliser ce sandbox. Dans le cadre de leurs projets de fin d’études, ils travailleront sur des cas réels (anonymisés) fournis par des PME partenaires de l’écosystème bruxellois. Ils n’apprendront pas seulement la théorie de l’Acte IA ; ils en deviendront les premiers auditeurs techniques.
Cette initiative réaffirme la mission de la HEEIT : nous ne formons pas des ingénieurs qui se contentent d’exécuter. Nous formons, au cœur de l’Europe, des architectes technologiques capables de naviguer la complexité, de construire des systèmes robustes et de garantir que l’innovation ne se fasse pas au détriment de l’éthique.

Leave a Reply