Image

"Les enfants apprennent leur langue maternelle en communiquant avec les personnes de leur environnement. En jouant et en expérimentant avec le langage, ils essaient d'interpréter les intentions de leurs interlocuteurs. Ainsi, ils apprennent progressivement à comprendre et à utiliser les constructions linguistiques. Ce processus, dans lequel le langage est acquis par l'interaction et un contexte significatif, constitue le cœur de l'acquisition du langage humain

Katrien Beuls Professeure à la Faculté d'informatique de l'UNamur

"La génération actuelle de grands modèles linguistiques (LLMs), comme ChatGPT, apprend le langage d'une manière très différente", poursuit Paul Van Eecke. "En observant dans d'énormes quantités de texte quels mots apparaissent souvent à proximité les uns des autres, ils apprennent à générer des textes qui sont souvent indiscernables des textes humains. Cela conduit à des modèles extrêmement puissants dans de nombreuses formes de génération de texte, de la synthèse ou la traduction de textes à la réponse à des questions, mais qui présentent en même temps un certain nombre de limitations inhérentes. Ils sont ainsi sujets à des hallucinations et des biais, ont souvent du mal avec les formes de raisonnement humain, et nécessitent d'énormes quantités de données et d'énergie pour être construits et utilisés." 

Les chercheurs proposent un modèle alternatif dans lequel des agents artificiels apprennent le langage comme le font les humains : en participant à des interactions communicatives significatives dans leur environnement. Dans une série d'expériences, ils montrent comment ces agents développent des constructions linguistiques directement liées à leur environnement et à leurs perceptions sensorielles. Cela conduit à des modèles linguistiques qui : 

  • Sont moins sujets aux hallucinations et aux biais car leur compréhension du langage est basée sur une interaction directe avec le monde. 
  • Gèrent plus efficacement les données et l'énergie, laissant ainsi une empreinte écologique plus petite. 
  • Sont plus ancrés dans la signification et l'intention, ce qui leur permet de comprendre le langage et le contexte de manière plus humaine. 

"L'intégration des interactions communicatives et situées dans les modèles d'IA est une étape cruciale dans le développement de la prochaine génération de modèles linguistiques. Cette recherche offre une voie prometteuse vers des technologies linguistiques qui se rapprochent de la manière dont les humains comprennent et utilisent le langage", concluent les chercheurs. 

Source : Katrien Beuls, Paul Van Eecke; Humans Learn Language from Situated Communicative Interactions. What about Machines?. Computational Linguistics 2024; 50 (4): 1277–1311. doi: https://doi.org/10.1162/coli_a_00534