Le dernier colloque du RESER s’intéressait aux « transformations majeures associées à la révolution numérique ». Une des thématiques de la conférence étant spécifiquement consacrée à : « l'impact des systèmes d'auto-apprentissage basés sur l'IA et de l'analyse des données sur l'innovation des services, le comportement des utilisateurs et l'économie des services : explorer les opportunités et les défis pour la société » (https://reser-net.translate.goog/2023-sierre-33rd-reser-international-conference/?_x_tr_sl=en&_x_tr_tl=fr&_x_tr_hl=fr&_x_tr_pto=tc)
Ce programme, finalisé en même temps que les IA dites génératives se répandaient à grand pas ne pouvait pas intégrer cette question. Et d’ailleurs, la recherche n’a-t-elle pas besoin de temps long pour aborder cette question complexe ?
Et bien, signe peut-être de l’accélération, nous avons eu quelques présentations qui ont abordé ce sujet lors de la conférence et je laisserai volontiers la main à ma-coauteure Sylvie Mercier pour en présenter certaines (un peu trop technique pour moi).
Je vais cependant faire état ici de ce qui s’est dit lors de la session 4.3 dans laquelle nous avons présenté notre article, que ce soit lors de la présentation des communications ou lors des échanges, qui furent nourris car il y avait de vrais points de convergences entre les différentes présentations (merci encore aux organisateurs pour ce programme).
Ainsi, Vincent Grèzes nous présenta-t-il une expérience d’utilisation de Chat GPT afin d’analyser des données qu’il avait déjà collecté, dans le cadre d’une approche de Grounded theory.
Vincent Grèzes nous a présenté l’ensemble des étapes d’analyse (et les prompts associés) soulignant que l’aspect technique (nourrir l’IA – en l’occurrence Chat GPT 4, version payante) avec les données restituées avaient été un processus long car pour que l’ensemble des données soient prises en compte, il devait les télécharger par « petit paquet » (bon, excusez moi, cela ne doit pas être les bons termes).
Au final, le résultat est mitigé. Le point de vue de Vincent Grézes est que le temps passé à faire travailler Chat GPT et à vérifier son travail aurait probablement été mieux exploiter à faire l’analyse. Mais cependant, il reconnaît deux points dans la méthode qui méritent d’être utilisé :
- Faire le lien entre des données issues d’une analyse et les connaissances existantes (avec une discussion sur la plus-value de la solution d’IA qui aura accès au plus d’articles scientifiques )
- Générer des implications théoriques et pratiques à ces résultats.
La présentation de Jean-Christophe Loubier et sa bonne connaissance des possibilités numériques (en tant que « géographe computationnel) a permis un réel échange sur la question du codage et de la transformation des données.
Sylvie Mercier et moi-même avions présenté nos choix de codage, non seulement dans la détermination des catégories de codage mais également dans le choix des unités de codage. Et, ce second point est moins souvent discuté or il semble bien que les choix à ce niveau soient déterminant dans les résultats qui pourront ressortir des différents traitements, qu’ils soient statistiques (ACP) ou généré par l’IA.
Ainsi un nuage de mots fait bien ressortir des thèmes saillants mais laisse peut-être dans l’ombre des proximités sémantiques. Les graphiques de co-occurrence de Jean-Christophe Loubier étaient sujets à des interprétations différentes selon l’unité de découpage du discours, certaines occurrences pouvant être générée par le format même des documents utilisés pour comprendre le phénomène.
Pour le dire simplement, l’IA générative, malgré son côté « magique » n’est pas encore prête à faire disparaître le métier de chercheurs. En revanche, elle bousculera peut-être la hiérarchisation entre articles basés sur des analyses quantitatives « presse-boutons » et recherche ancrée, basée sur le temps long et la recherche action.
Bon, je rêve peut-être. Ou pas. Et si j’ai raison, cela serait définitivement une excellente nouvelle pour la recher
Comments