Comparaison du logiciel avec d'autres solutions

Après examen attentif de la façon dont fonctionnent à ce jour les logiciels d’aide à l’analyse qualitative des données textuelles, nous dirons sans hésitation, qu’on ne parle pas du tout du même outil.

En effet, que ce soit des logiciels comme ceux du Sphinx, Invivo, Alceste, Iramuteq, TXM, Lexico 3… et quelques autres, ce sont tous des bons outils de lexicométrie. Très performants dans les calculs statistiques, et dans la qualité des tableaux et des impressions, à l’ergonomie parfaite, ils n’en restent pas moins limités du fait qu’ils restent au niveau des mots. Je ferai une exception pour l’excellent Modalisa qui est le seul à ma connaissance, à tenter une analyse multi-niveaux, par ses fonctions dites de recodage, qui sont des regroupements de mots que l’on peut pratiquer à l’infini. C’est le logiciel dont nous nous sommes servis pendant la longue période, où ANACIP ne fonctionnait plus, par faute de l’obsolescence du langage utilisé pour programmer la version 1.

Tous ces outils, parfois de grande qualité, et certains très anciens, partent de l’idée qu’un langage est d’abord un ensemble de mots. Ce qui est vrai bien sûr, mais très insuffisant.
D’ailleurs, tous ceux qui ont tenté d’apprendre une langue étrangère, se sont bien rendu compte qu’il ne suffisait pas d’apprendre des listes de mots, mais d’apprendre à les utiliser pour faire des phrases correctes et être compris des interlocuteurs. Un langage est un ensemble de mots, dits dans des phrases précises, dans un but précis, et dans un environnement particulier.

Ce qui manque à la lexicométrie c’est la recherche du sens. L’analyse d’un texte, et encore plus d’un texte commercial, se doit d’aller vers la découverte du sens des données recueillies. Ce qui manque à la lexicométrie c’est de se préoccuper des besoins de nos clients, c’est de savoir restituer en langage clair le sens du langage analysé, c’est la sémantique.

Ces outils actuels ne satisfont pas totalement les utilisateurs, beaucoup nous l’ont dit, et cela parce que les résultats auxquels ils aboutissent ne peuvent être remis tels quels aux clients, car ils sont souvent plus beaux qu’utilisables. Peut-être que trop de statistiques, pas toujours utiles, finissent par cacher les découvertes sous-jacentes ?


La démarche que j’ai adoptée d’emblée illustre bien ces propos : je suis parti dès la première demande de mon premier client qui était : que dois-je dire pour que mon futur produit soit perçu comme efficace et excellent aux prospects à qui nous allons le présenter ? Question cachant à peine la vraie question en dessous : comment gagner plus et mieux ?

Or, en aucun cas, mes clients n’auraient pu se satisfaire de jolis tableaux et graphiques de mots ! Tout simplement parce que nos cerveaux sont construits pour percevoir, comprendre et utiliser des concepts, des idées, et non pas des mots. Quand nous parlons, nous savons ce que nous avons dit, ou plutôt ce que nous avons voulu dire, mais pas quels mots nous avons utilisés.
Bref, d’emblée la démarche fut évidente : partir des mots pour aller vers les concepts, la découverte des significations, puis reconstituer la structure des langages analysés pour la remettre à nos clients et prête à l’emploi en quelque sorte, pour atteindre l’objectif visé par l’utilisateur final.

D’où la construction d’ANACIP, en tant que modèle d’analyse nouveau à 4 étages :
LEXICAL vs THÉMATIQUE vs SYNTAXIQUE vs PRAGMATIQUE. Un logiciel qui fait le pont entre la réalité observée et analysée, et la situation de nos clients.
Maintenant à la question : peut-on construire des passerelles entre ces logiciels et ANACIP, je réponds NON car pour pouvoir utiliser ANACIP rien ne sert d’avoir des calculs lexicométriques, mais, toutefois, il doit être possible d’aller d’ANACIP vers un autre outil, mieux équipé en statistique, et plus ergonomique, à condition toutefois qu’on puisse traiter les thèmes découverts par ANACIP comme des MOTS ! Le débat reste ouvert.

Aucune note. Soyez le premier à attribuer une note !

Ajouter un commentaire