Aller au contenu principal
Il y a présentement des items dans votre panier d'achat.
Jean-Guy Prévost, Université du Québec à Montréal
On est passé d’un mode d’appréhension de la réalité qui s’exprimait par la description littéraire et se fondait sur l’appel à l’autorité, à un mode d’appréhension où la quantification, la mesure, les nombres faisaient office de langage descriptif et constituaient aussi une source d’autorité épistémologique.

Johanne Lebel : Pr Prévost, pouvez-vous nous présenter brièvement le domaine de recherche que l’on désigne parfois comme la sociohistoire de la quantification?

Jean-Guy Prévost : Trois ordres de questions reviennent régulièrement dans ce domaine de recherche qui s’est développé progressivement depuis la fin des années 1970, et qui a vraiment pris son essor, je dirais, dans les années 1990.

Le premier, c’est la dimension proprement historique : c’est-à-dire comment, progressivement, on est passé d’un mode d’appréhension de la réalité qui s’exprimait par la description littéraire et se fondait sur l’appel à l’autorité, à un mode d’appréhension où la quantification, la mesure, les nombres faisaient office de langage descriptif et constituaient aussi une source d’autorité épistémologique.

On pourrait remonter très loin dans le temps (il y a eu des recensements dans l’Antiquité), mais il est assez clair qu’à partir du 18e siècle, les États mettent en place de plus en plus de ressources pour, entre autres, compter leurs sujets. Au 19e siècle, ces pratiques de mesure connaissent un essor important avec la mise sur pied des recensements modernes, nominatifs, et des bureaux de statistique qui recueillent des nombres sur une variété de sujets (production, travail, commerce, etc.). L’unification des systèmes de poids et mesures à l’intérieur des pays d’abord, puis la standardisation à l’échelle internationale sont également des tournants majeurs.

Un volet important, que je connais moins, c’est le développement de l’assurance qui, évidemment, repose sur des estimations chiffrées. L’assurance est une pratique assez ancienne, mais avec l’accumulation de données sur les individus (leur durée de vie, notamment), ce domaine passera de raisonnements probabilistes sans trop de contenu empirique à des exercices actuariels s’appuyant sur des données réelles

Ainsi, le développement de la quantification s’étend peu à peu à tous les domaines de la vie, et l’on n’oublie évidemment pas les sciences où l’usage de mesures, puis de la probabilité, est rapidement devenu central – la physique ou la chimie, et un peu plus tard les sciences sociales qui voudront se revendiquer de la rigueur mathématique.

Un deuxième ordre de questions, plus spécifique, concerne le développement de la mesure dans la pratique administrative et l’exercice du gouvernement par les États. Le statisticien et sociologue français Alain Desrosières a lancé à partir des années 1970 un véritable chantier portant sur l’étude des formes d’intervention gouvernementales en lien avec les types spécifiques de statistiques mis en œuvre selon les périodes ou les types d’États.

Dans plusieurs pays, États-Unis, Angleterre, Pays-Bas et Canada, on a posé des questions similaires à celles formulées par Desrosières pour essayer de voir, comment l’État s’est mis à recourir de plus en plus aux nombres pour structurer son intervention, pour connaître la population sur laquelle il avait autorité, pour éventuellement imprimer des changements, surveiller et modeler les comportements, etc.

L’État s’est mis à recourir de plus en plus aux nombres pour structurer son intervention, pour connaître la population sur laquelle il avait autorité, pour éventuellement imprimer des changements, surveiller et modeler les comportements, etc.

Il y a enfin un troisième volet qui, je dirais, est un peu le pendant symétrique du précédent : comment les individus et les populations réagissent-ils à ces opérations de mesure? Qu’est-ce qui change dans nos comportements à partir du moment où l’on nous classe dans une catégorie, où l’on nous dit « voici ce qu’on attend de vous ». On observera ici aussi bien des résistances que des adaptations.

Johanne Lebel : Et que peut-on dire de la quantification dans les sciences sociales aujourd’hui?

Jean-Guy Prévost : En science politique, par exemple, il y a une impulsion vers la quantification – qui n’est pas complète, parce qu’il se fait encore beaucoup de recherche qualitative. Mais, il y a une discipline qui, elle, est très fortement quantifiée, c’est la science économique. Là, les quantificateurs l’emportent haut la main, si on veut, c’est vraiment devenu la science sociale la plus quantifiée.

Johanne Lebel : Trop, à votre avis?

Jean-Guy Prévost : Je laisse ce débat aux économistes. Mais il est certain qu’au sein même de cette discipline, il y a des conflits entre une quantification de type mathématique, fondée sur des modèles théoriques et peu confrontée aux données, et une quantification plutôt fondée sur des statistiques, des données empiriques. Il y a un tournant, chez les économistes, vers l’étude des institutions; c’est clair que là ils veulent suppléer à l’analyse quantitative en amenant des éléments plus historiques, plus qualitatifs.

Johanne Lebel : Puis dans votre domaine, la science politique, avez-vous l’impression que les démarches qualitatives ou quantitatives s’équilibrent?

Jean-Guy Prévost : La science politique s’est quantifiée dans certains secteurs, en empruntant aux économistes. Particulièrement dans l’étude du comportement électoral où abondent les données empiriques. Et de par cette capacité à le quantifier, l’objet « comportement électoral » est devenu quelque chose d’important en science politique, surtout aux États-Unis.

La science politique s’est quantifiée dans certains secteurs, en empruntant aux économistes. Particulièrement dans l’étude du comportement électoral où abondent les données empiriques.

Johanne Lebel : Les chiffres ont donc un effet de puissance

Jean-Guy Prévost : Effectivement. Quand on peut produire des chiffres, on se trouve à imiter le modèle des sciences de la nature, qui est particulièrement prestigieux en raison de sa capacité à transformer le monde. Sans chiffres, on est plus proche du modèle des humanités. On peut avoir de la rigueur dans les humanités bien sûr, mais elle ne sera pas du même type.

Il y a eu une crise au sein de la science politique américaine autour de 2000, et on a reproché aux quantitativistes – ainsi qu’aux tenants du choix rationnel et de la théorie des jeux – d’être hégémoniques et d’empêcher les autres courants de s’exprimer. Ce fut un long débat. Le procès était en partie fondé, peut-être un peu exagéré, mais il y avait et il y a encore dans la science politique un biais favorable aux études quantitatives. Ce débat  s’est terminé sur des positions de compromis. La situation de la science politique au Canada et en Grande-Bretagne ressemble un peu à celle des États-Unis, mais d’une manière moins prononcée.

Johanne Lebel : Dans l’introduction de l’ouvrage collectif que vous avez codirigé avec Jean-Pierre Beaud, L’ère du chiffre : systèmes statistiques et traditions nationales, vous amenez cette question  « que font sur nous et de nous les classements statistiques? », qu'en est-il?

Jean-Guy Prévost : Je vais vous répondre en donnant un exemple. Au Québec, on parle beaucoup des francophones, des anglophones et des allophones. Ces catégories, développées plus ou moins à partir des statistiques de recensement, sont devenues des catégories identitaires.

En réalité, le recensement n’utilise pas exactement ces catégories. Il nous questionne sur nos comportements linguistiques, mais de manière extrêmement précise : par exemple, quelle est la première langue que vous avez apprise et comprenez encore, ou quelle est celle que vous parlez le plus souvent à la maison?

Des analystes construisent, à partir des réponses fournies, des catégories comme francophones ou anglophones. Et ces catégories prennent de l’autonomie, rétroagissent sur notre identité, et dans un effet un peu pervers, la diversité des réalités que recouvre chaque catégorie se fond en un tout homogène. Chez les francophones de Montréal, il y a des gens nés à Paris et arrivés il y a six mois, des Haïtiens installés depuis des années, peut-être quelques Syriens qui débarquent et parlent déjà le français ou ayant des parents d’origine mixte.

Pour les anglophones, c’est un peu la même chose. Les allophones? Là, c’est pire, mais je ne suis pas certain que le terme soit repris par ceux qu’on désigne ainsi. Les allophones ne forment pas un groupe, ils sont « tout le reste ». Le seul point commun est négatif : leur première langue n’est ni le français ni l’anglais.

Mais ces catégories ont structuré la sociologie électorale au Québec où la variable indépendante la plus utilisée est la langue. On voit surgir des notions, comme à l’époque des référendums, à propos de « minorité de blocage », ou des interrogations sur  « comment va voter tel ou tel groupe». Alors que c’est loin d’être clair qu’on a un bien ici un groupe ou que le vote de ce prétendu groupe soit homogène.

Dans d’autres domaines, il y a par exemple des catégories comme « assistés sociaux », où les personnes ainsi désignées ont pu parfois intégrer le classement auquel on les soumet, au point que cela induit parfois chez certains un sentiment de défaitisme.

Pour quantifier, on a besoin de nommer les objets à mesurer, et en les nommant, on les simplifie, voire on les transforme. Chiffrer ce n’est jamais neutre.

Pour quantifier, on a besoin de nommer les objets à mesurer, et en les nommant, on les simplifie, voire on les transforme. Chiffrer ce n’est jamais neutre.

Johanne Lebel : Côté recensement, pouvez-vous nous dire quelques mots de cette crise de 2010. Est-ce que les chercheurs avaient raison de s’inquiéter?

Jean-Guy Prévost : Je pense que les chercheurs avaient raison de s’inquiéter, car la validité de données pour des petites unités géographiques était menacée. Et l’examen des résultats a montré des variations telles que, pour plusieurs zones, les données de 2011 ne répondaient pas aux standards de qualité – pourtant revus à la baisse! – de Statistique Canada. On ne les a donc pas rendues publiques.

Quand on prend de petites unités géographiques, la marge d’erreur augmente, et là c’était vraiment sérieux, parce qu’on n’avait pas une bonne couverture de la population. On ne pouvait, par exemple, obtenir une mesure fiable de certaines caractéristiques dans des quartiers particuliers; plein de phénomènes devenaient invisibles. Le problème était particulièrement aigu dans les régions rurales.

Cette parenthèse étant refermée, ce serait bien peut-être de revenir plus globalement sur le problème de la qualité des données de recensement. D’un côté, on a un très fort taux de réponse quand le questionnaire long est obligatoire comme ce sera le cas en 2016 – un taux de plus de 95 %, à partir duquel on peut tirer des renseignements statistiquement représentatifs. De l’autre, on sait qu’au Canada, il y a de sérieux problèmes de littératie, relevés notamment par des enquêtes de Statistique Canada. Cela ne pose-t-il pas des problèmes – non pas de représentativité de l’échantillon –, mais de mesure : les répondants comprennent-ils bien les questions et y répondent-ils correctement? Cette question n’a pas été beaucoup creusée, je pense.

Johanne Lebel : Selon Dominique Cardon, l’auteur de À quoi rêvent les algorithmes?, on assisterait depuis les politiques néolibérales des années 1980 « à une généralisation de la calculabilité et à une systématisation de la politique des indicateurs »; ces baromètres, indices et palmarès qui chiffrent « des activités qui jusqu’alors n’étaient pas mesurées ». Que doit-on penser de ces indicateurs? D’autant que, toujours selon Cardon, le « tournant politique des indicateurs » amènerait les statistiques à descendre dans le monde social, étendant « les dispositifs de commensuration à un nombre toujours plus important de secteurs d’activités ». Une forme de reddition de compte qui descend sans doute au sein des institutions publiques, telles les universités.

Jean-Guy Prévost : Dans la littérature sociologique, le mot indicateur est utilisé dans un sens plus méthodologique, ce qui n’est pas exactement celui auquel vous faites référence. Là, on parle des indicateurs de performance et de classement.

Cela procède évidemment d’une logique autre que celle de l’enquête traditionnelle, où l’on sélectionne un échantillon pour ensuite poser des questions. Ici, on recueille a posteriori des informations produites dans le cours même des activités d’une organisation. C’est ainsi qu’on produit le palmarès des écoles par exemple, en comparant les résultats des examens. Il n’y a pas d’enquête statistique au sens sociologique du terme, mais une cueillette de données qui n’ont pas été produites pour faire de la statistique. Et de là, on classe et on évalue la performance des écoles.

On peut raffiner l’analyse des indicateurs en tenant compte du revenu des parents, en montrant que telle école avait progressé même si ses résultats n’étaient pas faramineux, etc. Ce n’est pas nécessairement mal fait, mais cela pose le problème, souligné par plusieurs, de la rétroaction (que l’on avait souligné à l’époque de la « planification soviétique ») : à partir du moment où un indicateur possède une fonction de gestion, les agents sont incités à se comporter de façon à obtenir de bons résultats.

À partir du moment où un indicateur possède une fonction de gestion, les agents sont incités à se comporter de façon à obtenir de bons résultats.

Dans le cas du palmarès des écoles, on a observé que les directeurs de certaines écoles présentant des scores extraordinaires invitaient les jeunes dont on s’attendait à ce qu’ils échouent à ne pas se présenter à l’examen. La moyenne remontait automatiquement. L’école s’était adaptée à la mesure.

Quand on fait une enquête statistique, c’est bien la dernière chose que l’on veut : des gens qui nous disent ce qu’ils pensent qu’on veut qu’ils nous disent. La loi de Goodhart nous dit : « Lorsqu’une mesure devient un objectif, elle cesse d’être une mesure ».

Johanne Lebel : Ainsi face aux indicateurs, globalement, il y a un besoin de prudence.

Jean-Guy Prévost : Devant tout nombre, il faut faire attention et se demander comment il a été fait. Un des problèmes des indicateurs de performance, c’est qu’ils donnent lieu à des classements où on n’a souvent  que les rangs sans avoir accès facilement aux quantités originales, c’est un peu embêtant. C’est le problème de l’indicateur de développement humain (IDH), qu’on présente souvent sous la forme d’un classement; et quand on dit que le Canada a gagné ou perdu deux rangs, ce n’est peut-être que sur des centièmes de pourcentage que la différence s’opère.

Cette manière de procéder peut introduire de drôles de raisonnements. Si l’on dit que la principale cause de décès, c’est le cancer, que dit-on? En fait, qu’il y a eu beaucoup de progrès dans le traitement des maladies du cœur étant donné que c’était la cause principale précédente. L’attention portée au rang cache les aspects les plus importants.

On dit aussi – et c’est vrai – que la première cause de décès chez les jeunes est les accidents d’automobile. Mais cela peut-il être autre chose? Le suicide? Ce fut déjà le cas. Il est certain cependant que la première cause de décès sera toujours violente. Or, sur environ 30 ans, on a divisé par 4 le nombre d’accidents, et le nombre de jeunes conducteurs a été multiplié par 2. Donc c’est comme si on les avait diminués par huit... N’est-ce pas cela dont on devrait parler? Dire que les accidents d’automobile sont la première cause de décès porte à croire que les campagnes de sensibilisation ne portent pas fruit : alors que c’est le contraire qui est vrai.

On voit ici clairement que l’usage du seul rang pour parler de ces choses-là produit de très sérieux biais de perception.

Johanne Lebel : Plus une science approfondit son objet, plus on semble avancer vers la mesure.

Jean-Guy Prévost :  En effet. Et en même temps, je pense que s’il y a des dimensions qu’on arrive à mesurer assez bien, le fait que l’on en mesure certaines peut nous amener à négliger la mesure d’autres aspects, plus difficile à réaliser. 

S’il y a des dimensions qu’on arrive à mesurer assez bien, le fait que l’on en mesure certaines peut nous amener à négliger la mesure d’autres aspects, plus difficile à réaliser.

Johanne Lebel : Le danger est de mettre dans l’ombre les dimensions moins chiffrables.

Jean-Guy Prévost : Ce n’est pas seulement un danger, car cela arrive inévitablement. Le péril c’est de ne pas s’en rendre compte.

Je m’intéresse, entre autres, aux effets de perspective produits par les nombres. La manière dont on regarde un phénomène peut nous amener à des conclusions erronées. Par exemple, qu’arrive-t-il quand on utilise seulement des pourcentages sans remonter aux données brutes? J’ai analysé le cas des statistiques de la langue au Québec.On observe de 1951 à aujourd’hui une légère diminution de la proportion des francophones au Québec : ils étaient un peu au-dessus de la barre des 80 %, ils sont passés maintenant un peu en dessous. On note aussi une légère diminution des anglophones, mais une très nette augmentation du groupe des allophones. Et cela a inquiété pas mal de gens, cette question de la diminution du poids des francophones au Québec.

Maintenant, si on regarde les chiffres bruts, on se rend compte que le nombre de francophones, d’un recensement à l’autre, a crû régulièrement et qu’au total ce nombre est beaucoup plus grand que le celui des immigrants arrivés ici depuis 1950.

Il est certain qu’en termes de pourcentage, il y a eu une petite diminution des francophones, et qu’il y a eu une augmentation spectaculaire chez les allophones. Mais quand on revient aux données brutes, on note qu’il y a de plus en plus de francophones en nombres absolus. On peut bien dire, ah! Mais le nombre absolu n’est pas important, ce qui compte c’est le nombre relatif. Oui, mais tout de même, quand on parle de plus de six millions sur une population de quelque huit millions, c’est assez costaud. On ne parle pas d’une « petite » population.

Quand on calcule en pourcentages, on est dans ce qu’on appelle un jeu à somme nulle : c’est-à-dire que tout ce qu’une catégorie gagne, une autre doit le perdre. Mais la réalité n’est pas dans un à somme nulle; dans la réalité, tous les groupes croissent – on n’est pas une population en décroissance nette, comme les Japonais par exemple –, mais ils ne croissent pas au même rythme, et le groupe le plus petit souvent croît à un rythme plus rapide, c’est un effet arithmétique. On pourrait dire qu’au Québec, une bonne partie de nos débats linguistiques sont liés à l’usage que l’on fait des pourcentages en perdant de vue les chiffres bruts.

Et on voit bien, encore une fois, qu’il y a dans la quantification et les chiffres une dimension qui n’est justement pas quantitative : il est important de toujours maintenir une attitude critique à cet égard, c’est-à-dire de rester conscient des fondements et des limites de la quantification.

Il y a dans les chiffres une dimension qui n’est pas quantitative : il est important de toujours maintenir une attitude critique à cet égard, c’est-à-dire de rester conscient des fondements et des limites de la quantification.

  • Jean-Guy Prévost
    Université du Québec à Montréal

    Jean-Guy Prévost est professeur au Département de science politique de l’Université du Québec à Montréal. Il enseigne et poursuit des recherches dans les domaines de la socio-politique des sciences et de la méthodologie de la recherche. Il s’intéresse tout particulièrement à l’histoire et à la sociologie de la statistique. Jean-Guy Prévost est membre du Centre interuniversitaire de recherche sur les sciences et la technologie (CIRST).

Vous aimez cet article?

Soutenez l’importance de la recherche en devenant membre de l’Acfas.

Devenir membre Logo de l'Acfas stylisé

Commentaires