Lorsque nous lisons un texte, quels que soient les efforts d’objectivité que nous faisons, notre interprétation est intrinsèquement liée à nos convictions préalables et à notre vécu. Nous n’y voyons que ce que nous voulons y voir, ou ce que nous sommes capables d’y voir. A cause de cela, certains messages cachés, voire le sens véritable du texte, peuvent nous échapper. Comment dépasser cette difficulté et réussir à objectiver notre approche des textes?

C’est le défi que se propose de relever la lexicométrie, jeune discipline dont le développement a commencé il y a une vingtaine d’années. La lexicométrie consiste à aborder un texte avec un prisme quantitatif, en comptant l’occurrence des mots, leurs proportions, leurs usages, leurs emplacements, etc. Toutes ces données sont comparées par rapport à une base de textes constituant un corpus. Cette méthodologie de recherche permet de visualiser les différentes articulations de chaque texte pris individuellement et par rapport au corpus auquel il appartient. Grâce à cela, il est possible d’établir des relations sémantiques et des classements, et in fine d’en tirer des enseignements.

La pierre angulaire de toute démarche lexicométrique est le corpus de textes. Homogène et contrasté, il doit regrouper des textes similaires dans la forme, mais relativement différents par le contenu. En effet, il s’agit de comparer ce qui est comparable. Constituer un corpus demande de choisir les textes selon une logique qui peut être par exemple chronologique, stylistique ou linguistique. Ensuite, pour être étudié, le corpus se voit découpé selon des balises informatiques, indispensables à la lecture des textes par les logiciels (tels que Lexico3 et Hyperbase). C’est ce qu’on appelle le balisage du corpus, autrement dit le découpage de ce dernier en différentes parties.

Analyse factorielle des correspondances (AFC) sur un corpus de textes de Rimbaud, Baudelaire et Verlaine.

Il s’agit d’un classement des textes qui matérialise plusieurs partitions définies par le chercheur, selon ses choix d’analyse. Par exemple, le corpus peut être découpé par auteurs, par genres, par dates… Pourquoi fractionner le corpus? Tout simplement parce qu’il s’agit d’analyser les textes dans une perspective comparative. La lexicométrie compare les textes entre eux pour mieux établir les contrastes et les cohérences.

Ainsi, il est possible par une étude chronologique de mettre en évidence l’évolution d’un discours ou d’un genre. Jean Marc Leblanc, maître de conférence en Sciences du Langage, spécialiste du discours politique, étudie depuis plusieurs années l’évolution linguistique des voeux présidentiels sous la Vème République. Il cherche à mettre en évidence des phénomènes tendanciels et examine l’évolution du langage dans une démarche expérimentale, en mobilisant différents outils statistiques.

Largement utilisée dans les sciences du langage et plus particulièrement dans l’analyse des discours, la lexicométrie permet aussi une approche moins conventionnelle de la littérature. Jean-Marie Viprey enseignant en langue et littérature, analyse par exemple les Fleurs du mal grâce à la précision de l’outil informatique. Il propose à ses lecteurs une vue différente du recueil, fondée sur «la primauté du texte, l’articulation des niveaux linguistiques et l’explication rigoureuse des idées invoquées».

La lexicométrie, comme toutes les disciplines soumises à interprétation, doit être utilisée avec précaution. En effet, dans ce domaine il est facile pour les profanes, comme pour les spécialistes, de soutenir des thèses contradictoires. Pour exemple, Dominique Labbé, statisticien et chercheur au CNRS, soutient et argumente la thèse proposée en 1919 par le romancier Pierre Louys. Ce dernier, remettant en cause la paternité des œuvres de Molière, affirmait alors que plusieurs d’entre elles étaient en réalité de la main de Corneille. Paradoxalement, grâce aux même outils, Charles Bernet, linguiste et lexicographe, remet en question cette théorie et tend à prouver son incohérence.

La lexicométrie est donc une discipline qui fournit des données exactes sur des textes, mais leur interprétation, elle, n’est pas une science exacte. De plus en plus exploitée dans l’analyse des discours sociopolitiques, elle se développe plus particulièrement dans le monde de la recherche universitaire. Cette nouvelle vision de l’analyse textuelle ne doit pas remettre en cause l’étude classique des textes ; bien au contraire, il faut considérer cette discipline comme un nouvel outil, capable d’enrichir la vision traditionnelle que nous avons des textes.