L’impression que notre contribution est insignifiante n’est pas seulement intuitive ; elle est documentée par la psychologie cognitive.
Les travaux de Daniel Kahneman et Amos Tversky [7] ont montré que notre jugement repose largement sur des heuristiques, des règles mentales simplificatrices, qui fonctionnent bien dans des contextes ordinaires mais deviennent inadaptées face à des grandeurs extrêmes. Lorsqu’un problème est exprimé en millions ou en milliards, notre esprit peine à traiter proportionnellement l’information. Nous comparons spontanément notre action à la totalité du phénomène, au lieu de la comparer à son effet différentiel.
Ce biais peut être rapproché de ce que l’on appelle parfois l’insensibilité à l’échelle : au-delà d’un certain seuil, une augmentation quantitative massive ne génère pas une augmentation proportionnelle de notre perception de gravité ou d’utilité. Dans le contexte du don, cela conduit à une erreur de cadrage : nous évaluons notre contribution relativement au problème total plutôt que relativement à ce qu’elle rend possible.
Ce biais d’échelle ne perturbe pas seulement notre manière d’évaluer l’efficacité d’un don ; il affaiblit aussi le sentiment de responsabilité personnelle. À cette difficulté cognitive s’ajoute en effet un mécanisme social bien identifié : la diffusion de responsabilité. Les expériences de Darley et Latané [8], menées à la suite de l’affaire Kitty Genovese, ont montré que plus le nombre de témoins potentiels est élevé, moins chacun se sent personnellement responsable d’intervenir. Lorsque la responsabilité est perçue comme collective, elle tend à se diluer.
Transposé aux causes globales, pauvreté mondiale, santé internationale, climat — ce mécanisme peut réduire le sentiment d’obligation individuelle : l’ampleur du problème, loin de mobiliser, peut paradoxalement désengager.
Au contraire : l’exemple peut entraîner
On résume souvent “l’effet du témoin” ainsi : plus il y a de monde, moins on agit. En réalité, c’est plus subtil. Oui, la responsabilité peut se diluer… mais dans beaucoup de situations, nous faisons aussi l’inverse : nous nous calons sur le comportement des autres.
Autrement dit, ce qui compte n’est pas seulement combien de personnes pourraient agir, mais le signal social : est-ce que les autres agissent, ou restent passifs ? Quand l’action est visible, elle devient une norme, et la norme peut déclencher l’action.
C’est particulièrement vrai pour le don : savoir que donner est courant peut encourager à donner à son tour, bien plus que si l’on pense (à tort) que “presque personne” ne le fait.
Enfin, les recherches de Paul Slovic sur la “psychic numbing”, la paralysie psychique par les nombres [9] apportent un éclairage complémentaire. Elles montrent que notre réponse émotionnelle n’augmente pas linéairement avec le nombre de victimes. Une vie identifiable suscite une réaction affective forte ; mille vies abstraites ne suscitent pas mille fois plus d’émotion. À mesure que les chiffres augmentent, notre empathie tend à se stabiliser, voire à diminuer.
Ce phénomène crée un décalage entre la gravité objective d’une situation et la perception subjective que nous en avons. Un don qui augmente marginalement la probabilité qu’un enfant évite une maladie grave produit un effet réel dans le monde. Mais cet effet, parce qu’il est statistique et non narratif, ne déclenche pas nécessairement une réaction émotionnelle proportionnelle.
Pris ensemble, ces mécanismes cognitifs et sociaux expliquent pourquoi nous avons tendance à sous-estimer l’impact marginal d’un don. Ce n’est pas que l’effet soit nul ; c’est que notre architecture psychologique est mal équipée pour évaluer des variations probabilistes à grande échelle.
Comprendre ces biais ne garantit pas une décision parfaite. Mais cela permet au moins de distinguer l’impression d’inutilité, psychologiquement explicable, de l’évaluation rationnelle de l’impact, économiquement mesurable.