
D’habitude, on peut essayer de voir pourquoi une source nous dit telle ou telle chose, mais ici ce n’est pas le cas puisque le propos n’a pas d’auteur. Il devient donc impossible de contextualiser le propos. Tout au plus sait-on, suite à une enquête du Time, qu'OpenAI a travaillé, par l’intermédiaire de la société Sama, avec des travailleurs kenyans pour éliminer les contenus racistes, sexistes, haineux dont ChatGPT aurait pu se nourrir... Ces travailleurs étaient rémunérés deux dollars de l’heure pour se confronter à la lie de l’humanité. Cela pose évidemment question...
Bruno Dumas, Expert en interaction humain-machine, Faculté d'informatique, co-président de l’Institut NaDI (Namur Digital Institut)
Extrait de notre article "CHatGPT : une opportunité pour l'enseignement"
En plaçant son prisme de recherche du côté de l’utilisateur, Bruno Dumas est en quelque sorte « un psychologue de l’informatique ». Il défend l'idée d'une utilisation raisonnée et éclairée des technologies émergentes.
Nous testons actuellement un système d’IA qui doit notamment permettre aux médecins de les aider dans l’identification de tumeurs sur les images médicales. Le défi ? Que le médecin puisse savoir si la réponse fournie par l’IA est fiable et quel est ce degré de fiabilité. Nous développons et testons ce processus avec des médecins. Processus qui va permettre à l’IA de leur donner son degré de certitude. Les premiers retours montrent que cette transparence sera fondamentale. Avec ce principe de transparence, l’IA n’est plus juste une machine qui donne une solution, mais une technologie qui en évalue le degré de certitude et qui explique son processus de prise de décision. On se trouve alors dans une véritable démarche de collaboration entre le médecin et l’IA.
Bruno Dumas, Expert en interaction humain-machine, Faculté d'informatique, co-président de l’Institut NaDI (Namur Digital Institut)
Extrait de notre article "Expert" du magazine Omalius #36 (mars 2025)