Cet article est tiré de la rubrique "Expert" du magazine Omalius #36 (mars 2025).

Début février 2025, l’IA Act, la première législation générale au monde sur l’IA qui encadre son utilisation et son développement entrait en vigueur en Europe. En tant que spécialiste des interactions humain-machine, ce nouveau cadre vous rassure-t-il ?

À l’UNamur, au sein de mon groupe de recherche, nous axons nos travaux du côté de l’utilisateur et de son interaction avec la technologie. En matière d’IA, nous sommes plus particulièrement focalisés sur cette notion de transparence, que l’on retrouve dans le principe de l’IA Act.  Comment l’IA prend-elle ses décisions ?  Sur quelles données se base-t-elle ? Quels sont ses processus de fonctionnement ? Est-elle capable de les expliquer ? Ce besoin de transparence de l’IA est primordial pour l’utilisateur. Or, pour l’instant, cela bloque d’un point de vue purement technique, essentiellement à cause de la quantité gargantuesque de données que l’IA utilise pour fonctionner, pour s’entrainer. Actuellement, seuls les experts sont vraiment capables de comprendre le fonctionnement de l’IA. Or, dans la mesure où elle est souvent un outil pour le citoyen, le besoin de transparence doit aussi et surtout être accessible pour lui. À l’UNamur, de nombreuses recherches sont ainsi menées dans ce sens.

Vous travaillez par exemple avec des médecins sur le degré de confiance envers l’IA dans le cadre de leur métier : de quoi s’agit-il ?

Cela porte sur un système d’IA qui doit notamment permettre aux médecins de les aider dans l’identification de tumeurs sur les images médicales. Le défi ? Que le médecin puisse savoir si la réponse fournie par l’IA est fiable et quel est ce degré de fiabilité. Nous développons et testons ce processus avec des médecins. Processus qui va permettre à l’IA de leur donner son degré de certitude. Les premiers retours montrent que cette transparence sera fondamentale. 

Image
Portrait professeur Bruno Dumas

Avec ce principe de transparence, l’IA n’est plus juste une machine qui donne une solution, mais une technologie qui en évalue le degré de certitude et qui explique son processus de prise de décision. On se trouve alors dans une véritable démarche de collaboration entre le médecin et l’IA.  

Bruno Dumas Faculté d'informatique, co-président de l'Institut NaDI

Aujourd’hui, vous êtes confiant dans la manière dont le citoyen s’approprie l’IA ?

Je suis fasciné par ces utilisations émergentes et multiples. Maintenant, que ce soit pour écrire une carte de vœux, résumer un texte, organiser une réunion, faire une recette de gâteau ou rédiger un mail, on s’adresse à l’IA. Je ne pense pas que nous ayons de mauvais usages, mais je suis plus inquiet par le manque de prise de conscience des enjeux de transparence du fonctionnement de l’IA. Là, il y a un besoin d’information, de sensibilisation et d’éducation. Nous y travaillons, y compris à l’UNamur. C’est aussi dans cet esprit qu’avec 24 collègues, nous avons lancé un cours sur les enjeux et les opportunités de l’IA accessible à tous les étudiants de l’Université, quelle que soit leur discipline. Mais c’est très clairement un axe à renforcer et à accélérer pour qu’il progresse au même rythme que le développement de la technologie.

Une autre technologie qui progresse dans le quotidien du citoyen, et que vous étudiez de près, c’est la réalité augmentée : où en est-on ? 

Est-ce qu’on va échanger nos smartphones pour des lunettes intelligentes ? La réponse est très probablement oui, et dans un futur relativement proche ! J’étudie donc ce qui va se passer pour l’utilisateur lorsqu’il y aura une couche numérique supplémentaire qui viendra se greffer à son environnement, à ce qu’il voit. Nous ne devons pas laisser ce contrôle-là exclusivement aux géants de la tech qui ont tous de tels prototypes dans leurs cartons. Mon travail consiste à savoir comment, d’un point de vue technologique, on peut donner davantage de contrôle à l’utilisateur. Comment peut-il filtrer ce qu’il voit ? Comment peut-il définir quelles informations il veut voir, combien, etc.  Notre objectif est de lui donner des outils pour garder le contrôle sur ces futurs systèmes de réalité augmentée. 

Quels genres d’outils ? 

Par exemple, nous développons des techniques permettant à l’utilisateur de filtrer en temps réel les éléments qu’il souhaite y voir. À l’heure actuelle, les outils de réalité augmentée existants donnent très peu de pouvoir à l’utilisateur. Nous travaillons donc à renverser cette tendance. Nous veillons aussi à ce que cette présence de la réalité augmentée se fasse au profit de l’utilisateur pour lui permettre de mieux comprendre son environnement. 

Plus globalement, la technologie s’adapte-t-elle suffisamment aux besoins de l’utilisateur ? 

Non, trop souvent l’utilisateur doit juste subir ces développements technologiques. Mon approche de chercheur fait l’inverse : c’est au système à s’adapter aux besoins des utilisateurs. Chaque développement doit se faire dans le dialogue avec l’utilisateur. C’est pourquoi notre travail s’inscrit à la croisée de la recherche en informatique et de principes hérités de la psychologie appliquée. Car nous devons, avant tout, comprendre le fonctionnement de l’utilisateur avant de développer des technologies plus pertinentes, plus efficaces, plus légitimes et mieux adaptées. 

L'initiative TRAIL4Wallonia

En prenant part à l’initiative TRAIL (Trusted AI Labs) lancée fin 2020, l’UNamur participe activement avec nombre de ses chercheurs et professeurs, au programme régional DigitalWallonia 4.AI.

TRAIL regroupe les cinq universités francophones et quatre centres de recherche agréés wallons (CRA). Son ambition est de mutualiser les recherches en intelligence artificielle en Fédération Wallonie-Bruxelles. Bruno Dumas fait ainsi partie du groupe de recherche travaillant sur la thématique Interaction humain-IA, avec une dizaine de ses collègues namurois.

Cet article est tiré de la rubrique "Expert" du magazine Omalius #36 (Mars 2025).

cover-omalius-mars-2025