Le biais de normalité
1. Le biais de normalité est un biais cognitif qui nous conduit à sous-estimer la possibilité d'une catastrophe ainsi que ses effets, et à croire que la vie continuera normalement, même lorsque la menace ou la crise est importante.
2. Cette “attente de normalité” peut nous empêcher de nous préparer et de réagir de manière adéquate à des changements que nous percevons comme peu probables ou simplement dérangeants, car nous voulons croire que tout restera tel que “ça a toujours été” ou que tout rentrera dans l’ordre naturellement.
A titre collectif, il peut s’agir de ne pas préparer les protocoles et matériels permettant de réagir à une crise telle qu’une pandémie (“on n’est plus au moyen-âge”), une canicule (“normal qu’il fasse beau en été”), un tsunami (“un mur de protection de 6 mètres de haut, ça suffit”), etc. La liste est longue…
A titre individuel, nous avons du mal à souscrire à des assurances décès, à consulter sans attendre lorsque nous avons un doute lié à notre santé, à évaluer objectivement l’évolution de nos placements financiers, etc.
3. Ce biais est également à l'œuvre lorsque nous mettons trop de temps à réagir face à une catastrophe à venir ou déjà en cours. A posteriori, on ne comprend pas comment des victimes de catastrophe ont pu autant tarder à évacuer. Par exemple, lors des attaques du 11 septembre, les occupants des tours jumelles ont mis en moyenne 6 minutes avant de se décider à évacuer, certains jusqu’à 30 minutes, prenant le temps de finir les tâches en cours et de bien fermer leurs ordinateurs. Idem en cas de tempêtes ou d’inondations.
4. Le biais de normalité opère également dans le monde de l’entreprise et de l’innovation au sens large. Il est difficile de comprendre et d’accepter qu’un changement est durable et irréversible, et qu’il faut vite s’adapter sous peine de disparaître. Combien d’entreprises, même les mieux établies, ont fait faillite pour ne pas avoir cru au développement du commerce en ligne ? On peut supposer que la même chose risque de se produire avec l’adoption de l’IA.
5. Plusieurs processus cognitifs sont à la source de ce biais :
Nous accordons davantage de crédit à ce que nous expérimentons nous-mêmes “dans la vraie vie” qu’à une évaluation abstraite d’un risque.
Nous sommes sommés d’être po-si-tifs en toutes circonstances, sous peine d’être traités d’oiseaux de mauvaise augure. Pourtant, prévenir une catastrophe ne la fait pas arriver.
Nous souffrons du biais de confirmation : nous avons tendance à nous concentrer sur les informations conformes à nos croyances.
Nous prenons le temps de consulter plusieurs sources (proches, médias, autorités…) avant de prendre une décision.
Nous minimisons les risques afin de ne pas remettre en cause nos croyances et certitudes.
Enfin, il nous est plus difficile de croire en un risque donné lorsque nous avons précédemment expérimenté de fausses alertes. C’est exactement ce que nous vivons lorsque retentit une alarme incendie : est-ce un exercice (dans ce cas-là je ne bouge pas ou mollement) ou une vraie alerte (je laisse tout en plan et je me sauve) ?
6. Comment lutter ? Selon Jack Soll et John Payne, professeurs à Duke University, et Katherine Milkman, professeure à la Wharton School of Business, auteurs de A User's Guide to Debiasing, nous pouvons mettre en oeuvre une stratégie en quatre points :
Toujours faire trois hypothèses : basse, moyenne et haute.
Remettre en question nos prévisions initiales : considérer que nos premières prévisions sont erronées, et recommencer… En étudiant un même problème sous deux angles différents, nous aboutissons à un meilleur résultat.
Faire un pre-mortem : envisager tout ce qui pourrait mal se passer et identifier les causes.
Adopter un point de vue extérieur : lorsque nous avons pris une décision, réfléchissons à ce qu'une personne extérieure pourrait en penser.
7. Enfin, il est possible de mettre en place des plans d’action, sur le modèle des 5 P :
Prioriser (Prioritize)
Planifier (Plan)
Préparer (Prepare)
S’entraîner (Practice)
Dormir tranquille (Peace of mind)
Et couler des jours heureux…
Le leçon à retenir
« Ils ne savaient pas que c’était impossible, alors ils l’ont fait. » – Mark Twain
“ Ils croyaient que c’était impossible alors ils ne l’ont pas fait (prévoir).” – 7about
Le fléau des “data voids”
1. Un data void désigne un sujet sur lequel peu d’informations sont disponibles sur les moteurs de recherche Internet. Ce manque de contenu ne demande qu’à être comblé par des informations… fausses, controversées ou malveillantes.
2. C’est en 2018 que deux chercheurs, Michael Golebiewski et Danah Boyd, employés par Microsoft, ont commencé à nous alerter sur les risques de manipulation et de désinformation que représentent les “data voids”.
3. Un exemple… En juillet 2021, plusieurs médias chinois se sont fait l’écho des travaux de Wilson Edwards, biologiste suisse, qui remettaient en question les origines chinoises du Covid-19. Sur son compte Facebook, Wilson Edwards n’hésitait pas à affirmer que «l’enquête de l’OMS sur les origines du coronavirus a été récupérée politiquement par les Etats-Unis.» Problème : Wilson Edwards n’existait pas et n’a jamais existé. Ce biologiste fictif avait été fabriqué de toutes pièces, ainsi que les nombreux articles disponibles sur Google. Après enquête, l’ambassade de Suisse en Chine a dénoncé en août 2021 l’invention de ce biologiste qui ne figurait aucunement parmi les ressortissants de la Confédération Helvétique. Les articles et le compte Facebook ont alors commencé à disparaître aussi mystérieusement qu’ils étaient apparus. En attendant, le message était passé…
4. Quelques techniques de manipulation via les data voids :
Les Breaking news (éditions spéciales) - Des faits d’actualité peuvent générer de façon soudaine un grand nombre de recherches sur Internet, qui n’aboutiront pas à grand-chose, les termes, concepts ou événements évoqués étant par définition nouveaux. Il est alors facile de combler ce vide en mettant en ligne des contenus non vérifiés, faux, biaisés, etc. qui apparaîtront en tête des résultats. Il faut juste être plus rapide que les autres.
La création de nouveaux termes - Première étape : vous créez un nouveau terme et mettez en ligne les contenus correspondants, optimisés pour les moteurs de recherche et les réseaux sociaux. Seconde étape : vous diffusez ce terme auprès des médias, ce qui générera des recherches qui aboutiront au contenu que vous avez préalablement créé de toutes pièces, et voilà, la boucle est bouclée !
Le recyclage de termes obsolètes - Même technique avec des mots dont l’usage s’est réduit. Vous créez de nouveaux contenus qui apparaîtront en tête des résultats des moteurs de recherche. Vous n’avez plus qu’à remettre le terme au goût du jour, et le tour est joué.
5. La manipulation peut ensuite être amplifiée par plusieurs procédés :
L’auto-complétion des requêtes (remplissage automatique) dans les moteurs de recherche, qui permet d’orienter vers des requêtes types.
L’automatisation des partages et des likes artificiels sur les réseaux sociaux et moteurs de recherche, afin de figurer dans les sujets tendances.
6. Selon une étude publiée par Nature en 2023, les recherches sur Internet sont considérées comme plus fiables que les médias traditionnels (journaux, radio, télévision…) où pourtant l'information fait l’objet de nombreux recoupements et vérifications. C’est le piège ultime : le manipulateur identifie un vide informationnel sur Internet, pré-fabrique des contenus faux et optimisés, considérés comme dignes de confiance, puis incite à la consultation de ces contenus. Un cercle vicieux parfait.
7. Les sujets peu documentés représentent des failles d’autant plus dangereuses que les moteurs de recherche et les réseaux sociaux constituent désormais notre principal accès à l’information. Pour combattre ce type de manipulation, les grandes plateformes comme Google ou Facebook se sont dotées d’équipes de fact-checking. Par ailleurs, de nombreuses organisations se sont spécialisées dans la lutte contre la désinformation : International Fact-Checking Network, Newsguard, Snopes, FirstDraft, TheTrustProject, etc.
La leçon à tirer
Il va au moins nous falloir un deuxième cerveau pour réussir à nous informer correctement…
Pour aller plus loin
Le rapport de Michael Golebiewski et Danah Boyd (2018) - Data Voids: Where Missing Data Can Easily Be Exploited - Data & Society
Participer à l’International Factchecking Day - Poynter
Processus de notation et critères de desinformation - Newsguard
Wilson Edwards, le biologiste suisse qui défend Pékin, mais qui n'existe pas - Le Temps