Le mouvement “Time Well spent” et l'effet de vérité
Pour finir la pause vacances, retour sur deux articles essentiels pour protéger nos pauvres cerveaux fatigués, hackés en permanence...
Le mouvement “Time Well spent”
1. Le mouvement Time Well spent a été initié en 2013 par Tristan Harris, l’un des principaux lanceurs d’alerte de la Silicon Valley. Son objectif ? Aider décideurs et citoyens à prendre conscience des effets délétères des “technologies” - en clair de nos smartphones et autres ordinateurs - sur nos cerveaux et nos esprits.
2. Tristan Harris est un pur produit de la Tech : il est né et a grandi à San Francisco. Diplômé de Stanford, il a travaillé pour Apple, puis a créé sa propre startup - Apture - rachetée par Google en 2011. Après l’acquisition, Harris devient Design Ethicist et Product Philosopher chez Google. Eh oui, ça existe… Il commence alors à s'intéresser aux vulnérabilités du cerveau humain, que cherchent à exploiter les entreprises de la tech. Sa présentation "A Call to Minimize Distraction & Respect Users' Attention" devient virale auprès des employés de Google.
3. En 2015, Harris saute le pas et crée l’organisation à but non lucratif Time Well Spent qui deviendra par la suite le Center for Humane Technology. Fini le parcours idéal du “winner” de la Silicon Valley ! Harris va devenir l’un des lanceurs d’alerte les plus connus du monde de la tech.
4. Harris dénonce le design de ces services qui nous rendent accros (hijack) de façon intentionnelle. Le meilleur exemple est bien sûr Instagram, YouTube ou TikTok et leurs vidéos déversées sans fin en fonction de vos préférences inconscientes. Vous vous “réveillez” soudain pour vous rendre compte que vous avez passé plus d’une heure à regarder des vidéos de chats débiles alors que vous ne pensiez n’en regarder qu’une seule… et encore ! Comme si “on” avait pris possession de votre cerveau. Ce n'est pas de la magie, c’est de l’“attention engineering”.
5. Le Center for Humane Technology de Tristan Harris répond à trois objectifs principaux :
Informer le grand public pour favoriser sa prise de conscience, via des films, des présentations, des podcasts…
Agir auprès du personnel politique, des leaders, des législateurs, des organisations internationales…
Lutter contre l’accoutumance aux écrans via des ateliers, des cours en ligne, des documents…
6. Les travaux menés pour les générations futures - enfants et ados - sont particulièrement intéressants, notamment le Youth toolkit, un ensemble de guides, de présentations, destinés aux jeunes, aux parents, aux enseignants et éducateurs.
Quelques exemples de sujet :
How does the race for attention distort how we see the world?
C’est vrai, c’est en anglais, mais ça en vaut vraiment la peine (en plus, ça leur fera faire des progrès…).
7. Enfin, pour ceux qui n’ont pas le temps, Tristan Harris a lancé le podcast Your Undivided Attention (sélection TED Audio Collective) consacré au pouvoir des nouvelles technologies, Intelligence Artificielle incluse.
La leçon à retenir
Le temps perdu ne se rattrape guère. Il vaudrait mieux se réveiller avant que notre vie ne soit passée sans qu’on ait levé le nez de nos écrans.
Pour aller plus loin
How a handful of tech companies control billions of minds every day | Tristan Harris
Le docufiction The Social Dilemma
L'effet de vérité
1. L'effet de vérité illusoire (ou effet de vérité) est notre tendance à croire qu'une information est vraie dès lors qu’elle nous a été répétée plusieurs fois. Important en ces temps de désinformation universelle…
2. Cet effet serait dû à la familiarité induite par la répétition : notre cerveau - paresseux - traite plus rapidement une information qu’il a déjà “rencontrée” et interprète cette “fluidité de traitement” comme un signal de vérité.
3. La puissance de la répétition a été démontrée pour la première fois en 1977 par une étude de Lynn Hasher, David Goldstein et Thomas Toppino, chercheurs en psychologie : au fur et à mesure des séances, les étudiants participants considéraient de plus en plus comme exacts les énoncés (toujours les mêmes) qui leur étaient présentés, qu’ils soient vrais ou faux.
4. L'effet de vérité se vérifie même lorsque nous savons qu’une information est fausse et que nous connaissons le fait exact. Ce phénomène - le knowledge neglect - intervient notamment lorsque nous sommes distraits par un élément “perturbateur” : une information connexe sensationnaliste, le comportement de la personne communiquant cette information ou… le nombre de répétitions.
5. Nous en avons tous des exemples réels, fruits de stratégies délibérées : du responsable politique répétant mensonges sur mensonges, au fanfaron qui nous assomme par des déclarations que tout le monde sait fausses... La répétition rend leurs mensonges familiers, et nous conduit à finalement les accepter comme des vérités. Pensez à ces personnages martelant d’une manière forcée, parfois ridicule, les mêmes mots ou les mêmes phrases… Non, ils ne sont pas fous.
6. Difficile de résister… Notre meilleure arme est notre esprit critique que nous devons dégainer vite, très vite, à savoir dès que nous rencontrons pour la première fois une nouvelle info. A la deuxième, troisième répétition, notre cerveau commencera à la reconnaître et prendra des raccourcis : “je connais cette info donc elle est vraie”.
7. Enfin, les choses se compliquent lorsqu’on veut rétablir la vérité : en dénonçant une fausse information, on la propage, on la répète, on lui donne corps. Et ceux qui nous entendent risquent bien de ce fait de la considérer comme vraie. Le comble !
Calomniez, calomniez, il en restera toujours quelque chose.
Francis Bacon (philosophe anglais, 1561 - 1626)
La leçon à retenir
On devrait décidément apprendre aux enfants, dès leur plus jeune âge, à repérer les “trucs bizarres” et à avoir le réflexe de vérifier auprès de sources fiables. Des cours de rattrapage ne nous feraient pas de mal non plus…
Pour aller plus loin
L’étude initiale Frequency and the conference of referential validity - ScienceDirect - Lynn Hasher, David Goldstein, Thomas Toppino
L’article Fact or Fake? The role of knowledge neglect in misinformation | Vanderbilt University