Pour comprendre que ce qui divise la communauté scientifique n’est pas aussi fondamental qu’il y paraît, il nous faut faire un saut en arrière, à la naissance de cette question. Nous voici à l’aube du vingtième siècle, un peu avant que le psychologue anglais Charles Spearman publie un article intitulé « L’intelligence générale objectivement déterminée et mesurée ». Le facteur g

Avant Spearman, une bonne partie des psychologues scientifiques considéraient comme impensable de s’occuper de mesurer autre chose que la perception sensorielle (seuils de détection, vitesse de discrimination…). Le reste, les activités mentales « de haut niveau », comme le raisonnement ou le calcul, était considéré comme trop flou, et les mesures aléatoires. Spearman, un peu à part de ce point de vue, était convaincu qu’il existait un facteur général d’intelligence, qui influençait à la fois les tâches sensorielles et des tâches de plus haut niveau.

Pour mettre son hypothèse à l’épreuve, il fit passer des épreuves sensorielles 2 à des élèves, dont il releva aussi les résultats scolaires et à qui il fit passer des épreuves de raisonnement. L’analyse des résultats obtenus ne fait aucun doute : les épreuves sont liées positivement à un même facteur (le facteur g), qui rend donc compte du lien (modéré mais bien réel) entre toutes les valeurs initiales. Le facteur g comme moyenne

Les différentes épreuves que Spearman a fait passer aux élèves donnent, chacune, une note. Chaque élève reçoit donc une série de notes. La moyenne (bien pondérée) des valeurs est le facteur g.

Toutes les notes initiales sont liées positivement au facteur g, ce qui signifie que, globalement — ça peut être totalement faux pour tel ou tel élève, mais c’est vrai dans l’ensemble — ceux qui ont de bons « g » ont de meilleures notes que les autres à toutes les épreuves : ils distinguent mieux deux sons, ils ont une meilleure mémoire, ils calculent plus vite, etc.

La conclusion évidente est que cette note g, qui a une existence au moins mathématique, mesure bien quelque chose… mais peut-être seulement une construction abstraite.

Le travail de Spearman n’est pas discutable, et n’est pas discuté, sur le plan mathématique. Tous les psychologues admettent qu’il existe un score, que l’on peut mesurer, qui s’appelle g, et qui permet de prédire, entre autres choses, les résultats à tous les tests de perception et de raisonnement imaginés jusqu’ici.

Pourtant, la conclusion que l’intelligence est unidimensionnelle, est critiquée. Cela tient à un ensemble de limites bien réelles du facteur g… Quelques défauts bien embêtants

D’abord, lorsqu’on dit que g permet de prédire les valeurs des différents tests, on veut dire par là qu’en tenant compte de g, on arrive à deviner les différentes valeurs un peu mieux qu’en répondant au hasard. Mais ce mieux n’est pas la perfection. Malgré l’indubitable intérêt de connaître g, vous ne pourrez pas dire avec certitude si tel ou tel élève a eu de bons ou de mauvais résultats, par exemple en calcul, en vous fondant sur le seul g. Le pouvoir prédictif ou explicatif de g est limité. Cela signifie que la description de l’intelligence qui ne tient compte que de g est assez grossière. Elle ne permet qu’un classement à l’emporte-pièce.

Ensuite, le fait que tous les tests soient liés à g ne signifie pas qu’ils sont tous liés entre eux. Il existe des tests dont le lien et ténu, comme, par exemple, des tests de vocabulaire et de mémoire des chiffres, pourtant assez fortement liés à g. Est-il alors préférable de conserver g ou de dire que les deux compétences vocabulaire et mémoire des chiffres sont des composantes indépendantes de l’intelligence ? Le débat est ouvert. L’interprétation problématique d’un g moyen

Le fait que des facteurs peu liés entre eux puissent toutefois être liés, tous, à leur moyenne, peut sembler peu naturel. On comprend mieux ce qui se passe avec un exemple simple :

Imaginons qu’on mesure, par des notes sur 10, la créativité artistique d’une part et la mémoire d’autre part. Les deux notes sont indépendantes ou presque : le fait d’être très créatif prédispose peu à avoir une mémoire élevée ou basse. Ou pour le dire autrement : les « créatifs » et les « non créatifs » ont le même type de mémoire, globalement.

Posons maintenant une note globale, qui est la moyenne des deux premières : (créativité + mémoire) /2.

Une personne gratifiée d’une note globale de 9 ou 10 a nécessairement de « bons scores » à la fois en créativité et en mémoire. À l’inverse, un score global très faible permet de déduire que les deux scores de départ le sont.

Ainsi, bien que la créativité et la mémoire soient indépendantes, il est possible de calculer un score qui permet de prédire à la fois les valeurs de créativité et de mémoire… surtout pour les valeurs extrêmes. Cela ne signifie pas qu’il soit facile de donner une interprétation simple et compréhensible de cette note globale. Néanmoins, elle existe et elle est bien liée à la créativité, permettant donc des prévisions.

Que conclure maintenant d’une note globale moyenne (disons 5) ? Pas grand chose, car cela peut correspondre à des cas très différents : une personne ayant deux scores moyens, une personne ayant une excellente mémoire et très peu de créativité… ou l’inverse.

Le même problème se pose avec le facteur g : un facteur g moyen recouvre des réalités très différentes, et on ne peut pas dire que quelqu’un au g moyen qu’il est « moyen » : il peut tout à fait être hors norme sur certaines sous-dimensions…

Enfin, s’il ne fait aucun doute que g n’est pas totalement sans lien avec ce qu’on appelle couramment l’intelligence — puisqu’il est lié à toutes les questions de raisonnement — cela ne prouve pas, et même pas du tout, que g puisse légitimement porter le nom « d’intelligence ». Après tout, rien n’empêche que g soit une mesure d’attention, de vitesse, ou encore « d’énergie mentale » (l’inverse de la fatigue, en quelque sorte). C’est d’ailleurs sous ce nom d’énergie mentale que Spearman finit par désigner g. Variation expliquée

Les psychologues qui utilisent les statistiques raisonnent souvent en termes de « variation ». L’idée générale est la suivante :

On constate que les différents sujets (élèves par exemple) ne donnent pas tous les mêmes valeurs pour les différentes notes : il existe donc de la variation entre les scores des sujets. Cette variation se mesure mathématiquement par une valeur numérique. Imaginons que, dans une expérience, on trouve qu’elle est de 10 (le sens précis du nombre est toujours obscur et n’a pas d’importance pour nous).

La question suivante qu’on se pose est : « que se passerait-il si les différents scores ne dépendaient tous que de g » ? Pour y répondre, on calcule la meilleure estimation possible des différents scores à partir de g. On obtient ainsi une nouvelle série de scores, les scores estimés. Si les scores ne dépendaient que de g, alors les scores estimés seraient égaux aux scores réels.

Les scores estimés ne sont pas tous égaux : il y a des variations. Supposons que la mesure des variations des scores estimés donne une valeur de 4.

Que peut-on en conclure ? Ceci : si on ne prend en compte que g, et donc si on considère les variations dues à g, alors on obtient 40% (4/10) de la variation totale, ce qu’on traduit par la phrase « g explique 40% des variations des scores ».

Ces trois limites ont conduit certains psychologues a remettre en cause l’interprétation de Spearman, sans nier la réalité de g, mais en considérant que ce seul facteur n’était pas suffisant ; soit parce qu’il n’explique qu’une petite partie des variations de scores (on dépasse rarement 50%) ; soit parce qu’il amalgame des capacités indépendantes les unes des autres ; soit enfin parce que l’interprétation de g comme un facteur d’intelligence générale est douteux. D’autres analyses

Dans les années 30, Louis Thurstone fit passer à quelques centaines d’étudiants une série de 56 tests. Il analysa les résultats par une méthode différente de celle de Spearman, en cherchant non pas un facteur qui explique au moins grossièrement les scores, mais une série de facteurs dont chacun explique une petite liste de scores fortement liés entre eux. Il trouve à l’époque une douzaine d’« aptitudes primaires », dont certaines sont assez faciles à interpréter. On trouve par exemple une aptitude de déduction, une de mémoire, une regroupant les compétences spatiales…

Bien que les deux approches débouchent sur des conceptions de l’intelligence tout à fait différentes, on voit que c’est la manière d’analyser les résultats, et non les résultats eux-mêmes, qui sont à la source des écarts.

Pour réconcilier les deux approches, on eut alors l’idée de procéder à une analyse à plusieurs niveaux. Mais là encore, plusieurs options peuvent être choisies, qui donnent des résultats différents.

Une première option possible est de partir de la méthode de Thurstone, puis de considérer les différentes « aptitudes primaires » comme des scores à part entière, sur lesquels on peut à nouveau appliquer la méthode. Cela donne des scores de « strate 2 », plus généraux. En procédant de la sorte, Cattell et Horn concluent que la bonne analyse de l’intelligence comporte deux strates, dont la deuxième regroupe un certain de nombre de compétences générales. À l’heure actuelle, on considère qu’il en existe 8 ou 9. 3 Ces facteurs généraux sont trop différents pour être résumés par un facteur g unique et facilement interprétable, selon les auteurs.

Une autre option est de partir du facteur g. On considère ensuite la partie des variations des scores que g n’explique pas, et on extrait à nouveau des facteurs de cette variation résiduelle. En procédant de la sorte, Burt et Vernon arrivent à un modèle en trois strates. La troisième est le facteur g, la seconde regroupe deux grandes compétences, et la première correspond à peu près aux aptitudes primaires de Thurstone.

L’opposition n’est hélas pas résolue, puisque ces modèles hiérarchiques ne débouchent pas toujours sur un facteur g. Comment expliquer ce mystère ? Le modèle CHC et le mystère du g

Les strates 2 (rectangles) et 3 (ellipse) du modèle CHC. La première strate regroupe une trentaine de capacités spécifiques. La rapidité cognitive est la vitesse à laquelle on effectue une tâche automatisée. La vitesse de traitement mesure la vitesse à laquelle on détecte un stimulus simple (par exemple lorsqu’on doit dire le plus vite possible si un point apparaît sur un écran).

En 1993, John Carroll réanalyse 460 études précédentes, et construit le modèle aujourd’hui nommé CHC (pour Carroll-Horn-Cattell), quasiment identique à celui de Horn-Cattell, mais contenant une strate 3 avec le seul facteur g.

Dans ce modèle, le facteur g apparaît notamment parce que Carroll a voulu aller jusqu’au bout de l’analyse, et surtout synthétiser les divers modèles. Dans le modèle de Horn-Cattell, le facteur g n’apparaît pas à cause d’un choix des auteurs, tout à fait légitime d’après les données statistiques. Les raisons invoquées pour ne pas conserver le facteur g sont les suivantes :

Il est possible que l’existence mathématique incontestable de g ne soit que le résultat du fait que les divers tests sont impurs, et font intervenir les mêmes compétences particulières à divers niveaux (par exemple, la compréhension de la langue apparaît partout).

D’autre part, le facteur g est quasiment identique (pas tout à fait tout de même) au facteur d’intelligence fluide Gf (qui mesure la capacité à résoudre des problèmes nouveaux ne nécessitant aucune connaissance particulière). Cette idée est largement étayée par une étude de Gustaffson datant de 1984, et explique aussi pourquoi une analyse « par en bas » à la façon de Cattell et Horn ne fait pas apparaître g : g est déjà contenu dans la strate 2 sous la forme de l’intelligence fluide ! Dans le modèle de Vernon et Burt au contraire, puisqu’on part de g, il n’y a plus dans la strate 2 de facteur Gf, car il est déjà pris en compte par g… Conclusion

Le modèle CHC fait aujourd’hui à peu près consensus 4. La plupart des chercheurs admettent donc que l’intelligence peut être pensée à plusieurs niveaux : au niveau 1, des aptitudes primaires, on a une description précise mais qui nécessite une trentaine de scores. Au niveau 2, on obtient en 9 scores un panorama relativement fiable des capacités intellectuelles. Il est possible de calculer enfin un facteur g, qui donne une idée grossière des compétences générales.

Ce qui ne fait pas consensus est la légitimité du facteur g. Parce qu’il se ramène peut-être, au fond, à un des aspects de l’intelligence seulement (l’intelligence fluide), parce qu’il est d’interprétation douteuse, et parce qu’il pourrait provenir de l’impureté des épreuves, il est d’une interprétation délicate.

La possibilité de calculer g, sa valeur prédictive, donc sa réalité, ne font pourtant aucun doute. Si on décide d’appeler ce facteur « intelligence », il faut seulement se souvenir que cette « intelligence » n’a peut-être que peu à voir avec le sens usuel (flou) du mot…

1 La théorie triarchique de l’intelligence de Sternberg, et la théorie des 7 types d’intelligence de Gardner. Le « QI » ne mesure, selon Gardner, qu’un type d’intelligence particulier.

2 Par exemple, il peut s’agir de dire d’où vient un bruit très faible (droite ou gauche).

3 Au départ il n’y avait que les deux facteurs célèbres « intelligence crystalisée » (en gros : la culture) et « intelligence fluide » (en gros : la capacité à se débrouiller dans les situations nouvelles). Vinrent ensuite la visualisation, la récupération en mémoire, la vitesse…

4 Les modèles de Sternberg et de Gardner peuvent être compris comme des spécifications ou des extensions du CHC.

Nicolas Gauvrit : ''Après des classes préparatoires au lycée Stanislas à Paris, Nicolas Gauvrit intègre l’Ecole Normale Supérieure de Lyon en 1992. En parallèle de ces études mathématiques, il commence un cursus de psychologie à l’université Paris VIII.

Un bref passage dans un lycée parisien comme professeur agrégé le convint rapidement qu’il n’est pas fait pour enseigner les arcanes des mathématiques à des adolescents. Il trouve en 1998 un poste à l’université de Metz, au département de Psychologie, où il enseigne jusqu’en 2005 les statistiques et la psychologie cognitive.

Ses deux centres d’intérêt que sont les mathématiques et la psychologie le conduisent à s’inscrire à l’Ecole des Hautes Etudes en Sciences Sociales en 1997, où il obtient un doctorat de science cognitive en 2001 sur le thème du raisonnement naturel et des logiques non classiques.

Les mystères du système universitaire étant ce qu’ils sont, il n’obtint jamais la « qualification » (permettant de postuler en tant que maître de conférences) en mathématiques, ni en psychologie. En revanche, il fut rapidement qualifié en sciences de l’éducation et en linguistique, deux disciplines pour lesquelles il ne revendique aucune compétence dépassant la culture générale.

Muni de cette double qualification surréaliste, il trouve un poste de maître de conférences en mathématiques pures à l’Université d’Artois où il enseigne depuis 2005.

Il fait partie du groupe européen de psychologie mathématique (EMPG), un groupe international de chercheurs qui tentent de développer la modélisation mathématique pour la psychologie. Il est membre du comité de rédaction de Science et Pseudo-sciences, une revue dont l’objectif est d’informer sur les sciences et de mettre en garde contre ses utilisations abusives et les pseudosciences.''