lundi 18 juillet 2016

Du théorème de Condorcet aux décisions absurdes

La plupart d'entre nous, démocrates, considérons que la démocratie et le suffrage universel font partie des meilleurs systèmes de prise de décision.

Le théorème de Condorcet semble être une bonne raison pour que les démocraties aient adopté le suffrage universel. Ce théorème dit la chose suivante: "Si chaque votant a une probabilité supérieur à 50% de prendre une bonne décision, plus l'assemblée est grande, et plus la probabilité est grande qu'une décision collective, prise à la majorité, tende vers une conclusion optimale et rationnelle" (1).

Ce théorème a pu être vérifié expérimentalement par une expérience de Kate Gordon en 1920. Elle demanda à ses 200 étudiants de classer un certain nombre d'objets hétéroclites par poids croissants. Les étudiants n'avaient pas de compétences particulières pour le faire. Les résultats montrent que l'évaluation du groupe fût exacte dans 94% des cas.
Elle fût plus élevée que toutes les évaluations individuelles sauf 5.

Cette expérience a depuis été reproduite plusieurs fois en psychologie expérimentale, l'exemple le plus souvent cité est l'évaluation du nombre de bonbons dans un bocal.

On pourrait donc penser avoir quasiment trouvé la panacée universelle en matière de prise de décision. L'expérience démontre que la réponse collective est supérieure, en moyenne, à la réponse des individus.

Il y a un bémol tout de même: elle n'est pas supérieure à la réponse des meilleurs. (Le problème étant de savoir qui sont les meilleurs?)

Le problème de ce théorème est qu'il marche uniquement sous la condition que les individus ont une probabilité supérieure à 50% de prendre la bonne décision, car il s'appuie sur la compensation statistique des erreurs individuelles.
Mais il ne fonctionne pas du tout si toutes les erreurs vont dans le même sens.
Or, nous avons tous un cerveau (au moins la plupart d'entre nous) et ce cerveau nous conduit, par le hasard d'une longue évolution, à adopter des comportements parfois irrationnels.

Supposons qu'un biais de la pensée, c'est à dire une tendance systématique à l'erreur de raisonnement (1), a une probabilité de 60% de se manifester chez tous les votants, plus le nombre de votants est important et plus cette erreur aura de chances d'être majoritaire.
Alors que si le nombre de votant est de un, il reste encore 40% de chances que la bonne décision soit prise.
Dans ce dernier cas, le nombre de votants optimal est donc : un.

La liste des biais de la pensée, partagés par nous tous, qui avons un cerveau, est très longue. J'en ai détaillé un certain nombre dans la saison 2 de ce blog. En voici une liste non exhaustive d'une dizaine pour nous rafraîchir la mémoire:
  1. Le biais d'ancrage illustré par une expérience de psychologie expérimentale d'Amos Tversky et Daniel Kahneman: lors de cette expérience, on tourne devant les sujets une roue de la fortune numérotée de 1 à 100, puis on leur demande quel est le pourcentage de pays africains au Nations Unies. Bien que les sujets soient avertis et conscients que le résultat de la roue est totalement aléatoire, plus le chiffre sur lequel s'arrête la roue est élevé et plus la réponse à la question est grande. 
  2. L'aversion au risque. Une expérience de psychologie amusante consiste à demander à des sujets combien ils sont prêts à payer pour réduire leur risque de maladie de 1% ? Si on pose la question : "Combien êtes-vous prêt à payer pour réduire votre risque de maladie de 1% à 0%", la réponse est en moyenne de 12177€. Mais si on pose la question: "Combien êtes-vous prêts à payer pour réduire votre risque de maladie de 4% à 3%", la réponse est en moyenne de 3805 €. Un autre exemple amusant d'aversion au risque est décrit dans cet article. (voir exemple des assurances) 
  3. L'aversion à la perte: ce qu'on perd nous importe plus que ce qu'on gagne, c'est pourquoi les investisseurs néophytes sont réticents à vendre une action à un prix inférieur à celui auquel ils l'ont achetée. 
  4. L'avarice cognitive : imaginez que vous partez en pique-nique avec 2 amis, Eric et Bernard et vous n'avez pas eu le temps d'acheter des pizzas, mais Eric en a apporté 5 et Bernard en a apporté 3. Vous versez votre contrepartie financière qui s'élève à 8 euros. Comment doit se répartir votre argent entre Eric et Bernard pour que la dépense soit équitable? Si vous pensez, au premier abord, que vous devez donner 5 euros à Eric et 3 à Bernard, vous avez un cerveau tout à fait normal. Tout à fait normal, donc biaisé: refaites les calculs! 
  5. Le biais de confirmation. Notre cerveau est conçu pour la confirmation et non pour l'infirmation. Une certaine dose de confiance et la croyance en une certaine régularité nous est nécessaire pour vivre quotidiennement. A chaque fois que nous constatons que le soleil se lève, une connexion neuronale se renforce et confirme notre croyance intuitive que le soleil se lève, c'est pourquoi la plupart d'entre nous répondons plus lentement à la question "la terre tourne autour du soleil?" qu'à la question "la lune tourne autour de la terre?". Cela explique que la démarche la plus féconde en Science soit la tentative de réfutation d'une théorie (2) et non sa confirmation (3). Cependant, si l'infirmation est rationnelle quand on recherche la vérité, elle est irrationnelle dans la vie courante (4). La confiance est fondamentale pour avancer: si nous n'avions pas confiance que les autres ne grilleront pas les feux rouges par exemple, on ralentirait à chaque intersection, et tout le traffic serait grippé. Notre cerveau s'est donc adapté pour éviter la lenteur et la paralysie. Il n'en reste pas moins que la confirmation est irrationnelle lorsqu'on recherche la vérité: voir l'expérience de Wason ou le piège cognitif de l'induction. Ainsi, une grande majorité des gens consultent les blogs ou les journaux de leur propre sensibilité politique, y cherchant la confirmation de ce qu'ils croient déjà. 
  6. La négligence de la taille de l'échantillon: voir gématrie ou la fausse vague de suicides chez France Telecom
  7. L'effet râteau qui nous fait considérer qu'une répartition hasardeuse doit être régulière et qu'une trop grande irrégularité ne peut être due au hasard. 
  8. La tendance exagérée à préférer les explications mono-causales. Le principe du rasoir d'Ockham qui vise à préférer les explications les plus simples, mène parfois à des erreurs d'interprétation et à confondre causalité et corrélation. Ainsi, en biologie, les expériences de knock-out sont parfois surprenantes (voir cet article
  9. La difficulté à concevoir la simultanéité: La loi d'entropie, qui est à l'origine de la création de ce blog, affirme que, à pression constante, le volume et la température d'un gaz varient simultanément. Or nous avons du mal à nous représenter la simultanéité, et nous ne pouvons que nous imaginer des transformations séquentielles... C'est pourquoi, en présence de deux événements simultanés, nous cherchons lequel est la cause de l'autre. 
  10. Le fractionnement du réel : une expérience montre que lorsqu'on demande à des étudiants de donner, tour à tour, en pourcentage, des estimations des chances de gagner de plusieurs équipes de football, la somme de leurs estimations est souvent supérieure à 100%. De même, énormément de gens veulent l'arrêt du nucléaire, la réduction de la consommation des énergies fossiles (charbon, pétrole etc.) et ne souhaitent pas d'éolienne ou de panneau solaires près de chez eux, afin d'éviter la pollution visuelle...
Vous allez me dire que l'objection est évidente: ce raisonnement ne prend pas en compte que les participants à la délibération peuvent discuter et débusquer l'erreur cognitive.
Mais, dans l'esprit de Condorcet, les votants ne devaient pas délibérer afin d'éviter d'autre biais, les biais sociaux.

Le fait qu'une délibération de groupe puisse résoudre le problème est tout sauf acquis, comme le montrent plusieurs expériences de psychologie expérimentale d'Amos Tversky et Daniel Kahneman.

Voici une petite liste de biais sociaux qu'on peut constater soi-même à tout moment, dans n'importe quel groupe:
  1. L'effet de polarisation: Ce biais désigne le fait qu'un groupe social a tendance à prendre des opinions plus extrêmes que l'opinion initiale de ses membres avant toute discussion (il n'y a qu'à voir les médias et les réseaux sociaux en ce moment) 
  2. L'effet de halo: une perception sélective des informations allant dans le sens de la première impression. 
  3. Le dilemme du prisonnier fait qu'une rationalité individuelle peut conduire à une irrationalité collective. 
  4. Le paradoxe d'Olson: "Les grands groupes peuvent rester inorganisés et ne jamais passer à l'action même si un consensus sur les objectifs et les moyens existe". Paradoxe qui pose également la question de la prise de décision par consultation dans les grands groupes (voir cet article de Nicolas
  5. Le paradoxe de Condorcet: "Il est possible, lors d'un vote où l'on demande aux votants de classer trois propositions (A, B et C) par ordre de préférence, qu'une majorité de votants préfère A à B, qu'une autre préfère B à C et qu'une autre préfère C à A. Les décisions prises à une majorité populaire par ce mode de scrutin ne seraient donc pas cohérentes avec celles que prendrait un individu rationnel." (Wikipedia) 
  6. Le conformisme: les individus ont tendance à se rallier à l'avis majoritaire
Je vais m'arrêter là car la liste est encore longue.
Le risque sociologique associé à ces biais cognitifs et sociaux en démocratie est bien évidemment le populisme cognitif dont on peut voir des démonstrations tous les jours.

Comme on le voit, l'idée de "la sagesse de foules" dont s'inspire la démocratie n'est vraie que conditionnellement. Or, adopter inconditionnellement une idée qui n'est vraie que conditionnellement est une attitude illustrant, une fois de plus, une parfaite cécité théorique (ou une volonté de manipulation).

Sources:
(1) La démocratie des crédules - Gérald Bronner (livre dont s'inspire la plupart de cet article)
(2) Utilisation du "Système 2", voir Kahneman, Voir aussi Karl Popper.
(3) La structure des révolutions scientifiques - Thomas Samuel Kuhn
(4) L'erreur de Descartes - Antonio Damasio
(5) Voir cet article et les articles de la saison 2
(6) Les décisions absurdes I - Christian Morel
(7) Les décisions absurdes II - Christian Morel

Aucun commentaire:

Enregistrer un commentaire