Développer son esprit critique face au monde de la désinformation – cycle de conférences de Gerald Bronner

Publié le :

Mis à jour le :

Conférence 1

Aujourd’hui, l’humanité fait face à un défi majeur : naviguer dans un océan d’informations où se mêlent vérités et mensonges. Alors que nous n’avons jamais eu autant d’accès à l’information, cette abondance s’accompagne d’un paradoxe : le risque accru de désinformation et de mésinformation est reconnu comme une menace majeure dans le Global Risk Report 2024.

Description textuelle du graphique montrant les différents risques auxquels l'humain est exposé sur les deux ans à venir
  1. La désinformation et la désinformation
  2. Les catastrophes naturelles
  3. Polarisation sociale
  4. Les cyber insécurités
  5. Les conflits d'états
  6. Le manque d'opportunités politiques
  7. L'inflation
  8. La migration involontaire 
  9. Le ralentissement économique
  10. La pollution

L’infobésité et le paradoxe de l’information

Avec plus de 5 milliards d’internautes en 2023, Internet devait incarner une « société de la connaissance ». Pourtant, l’augmentation de la production d’information a conduit à une concurrence sans précédent sur le « marché des idées » et à un paradoxe de l’information. En effet, plus il y a de l’information en ligne, plus nous allons trouver des données qui vont dans notre sens et qui vont induire des biais de confirmation

Chaque individu est libre de publier en ligne, cependant la visibilité est souvent donnée aux opinions extrêmes ou biaisées : 1 % des comptes sur les réseaux sociaux produisent 33 % de l’information disponible. Les débats publics sont ainsi envahis par des récits polarisants où la rapidité de diffusion des fausses informations leur donne une longueur d’avance sur la vérité.

C’est ce que l’on appelle l’effet de primauté : l’impression est durable même quand on a des preuves que l’information est fausse.

Pourquoi tombons-nous dans le piège ?

La désinformation prospère grâce à plusieurs mécanismes psychologiques, notamment la paresse cognitive. Ce phénomène, souvent lié à la surcharge mentale, nous pousse à accepter des récits simplifiés sans les remettre en question. De plus, la « loi de Brandolini » illustre bien la difficulté du combat contre les fake news : réfuter une fausse information demande bien plus d’efforts que de la produire.

De plus, les arguments nombreux des désinformateurs, souvent complexes, exploitent nos failles cognitives et renforcent un double effet : l’impression que tout n’est pas faux et une intimidation intellectuelle qui nous désarme.

Graphique qui montre l'évolution du nombre d'arguments jour par jour en faveur de la théorie du complot

Description textuelle du graphique montrant l'évolution du nombre d'arguments journaliers en faveur de la théorie du complot

Ce graphique montre l'évolution du nombre d'arguments jour par jour en faveur de la théorie du complot. Le 7 janvier, ce nombre était de 26, le 16 janvier il était de 113, soit 86 en plus.

Que faire face à cette crise ?

Les solutions traditionnelles, comme la modération algorithmique, montrent leurs limites. Les plateformes elles-mêmes, motivées par des intérêts économiques, participent à la polarisation en transformant notre attention en capital. 

Alors, que nous reste-t-il ?

En réalité, nous sommes les véritables régulateurs. En prenant conscience de nos propres biais cognitifs, nous pouvons apprendre à identifier les situations où il est essentiel de vérifier les informations. Développer son esprit critique devient alors une urgence. Par exemple, sur cette image, ces deux filles ont la même couleur de peau, même si nos biais cognitifs nous poussent à penser le contraire :

Cet exemple montre la limite de notre rationalité et nos biais cognitifs.

Agir pour résister

Lutter contre la désinformation commence par une introspection : comprendre notre propre manière de penser et accepter que nous sommes tous vulnérables. Notre vigilance doit être collective et notre effort individuel pour contrer les récits mensongers.

Pour lutter contre les théories complotistes, il faut avant tout se rappeler que corrélation ne veut pas dire causalité. C’est-à-dire associer deux événements qui arrivent au même moment et de conclure que l’un est la cause de l’autre.

Exemple : le canard sur la photo passe en courant et le portail semble tordu. On pourrait associer ces deux évènements en disant que le canard est la cause du défaut de portail. Hors, nous avons bien compris que cela n’est pas possible. Corrélation ne veut pas dire causalité.

Conférence 2 : Les limites de notre propre rationalité

Le paradoxe de la connaissance : savoir, c’est croire avant tout 

Plus nos connaissances collectives augmentent, plus la part individuelle de ce que nous savons diminue. Ce paradoxe souligne un point essentiel : nous fonctionnons par délégation. La plupart de ce que nous pensons savoir repose sur un système de crédulité rationnelle. Nous faisons confiance aux institutions, aux experts et à ceux qui nous transmettent l’information.
Cependant, cette confiance est aujourd’hui fragilisée, mettant en péril notre rapport à la connaissance.

Les limites de notre rationalité 

La rationalité humaine est encadrée par plusieurs types de limites. Ces contraintes influencent directement notre capacité à appréhender la réalité.

  1. Les limites dimensionnelles
  • Spatiales : nous percevons le monde grâce à nos cinq sens, mais cette perception reste partielle. Des sons que nous n’entendons pas, aux réalités invisibles à l’œil nu, nous n’accédons qu’à une version amputée du réel. Nos positions sociales, géographiques et même notre point de vue personnel colorent notre interprétation de la réalité.

Cette image montre une sphère en 3D, selon le point de vue, l'ombre peut soit représenter un cercle, soit un carré.

Cette image image montre qu’en fonction de notre point de vu, nous obtenons deux vérités différentes.

  • Temporelles : ancrés dans le présent, nous reconstruisons le passé via notre mémoire et anticipons l’avenir. Nous utilisons des anticipations : la prédiction à l’identique, demain sera à peu près semblable à aujourd’hui : une routine qui aboutit nos anticipations prédites. Mais comme le souligne Bertrand Russell, cette prédiction à l’identique peut échouer à tout moment, nous rappelant que nos anticipations sont souvent déconnectées de la réalité.

2. Les limites culturelles

Nos habitudes et réflexes culturels façonnent notre compréhension. Ces "catégories culturelles" nous poussent à interpréter rapidement, parfois au détriment d’une analyse approfondie. Suspendre son jugement devient alors un exercice précieux pour déconstruire nos biais culturels.

Photo avant / après d'un homme : en seulement 2 semaines, Robert a perdu ses lunettes.

Cette photo illustre notre anticipation culturelle par habitude : nous nous attendons à voir un avant / après du poids du personnage sur l’image, hors on ne parle ici que de ces lunettes. Cette image humoristique nous expose à nos limites culturelles.

3. Les limites cognitives

Même avec des informations pertinentes, notre cerveau peut trébucher. Prenons l'exemple des biais cognitifs : "Les femmes très intelligentes ont tendance à épouser des hommes moins intelligents qu'elles", certains stéréotypes nous viennent à l’esprit, qui ne seraient pas les mêmes si le sujet de la phrase était les hommes ("Les hommes très intelligents ont tendance à épouser des femmes moins intelligents qu’eux"). On parle ici de rareté statistique car les femmes et les hommes très intelligents sont une rareté statistique : il s’agit d’une négligence de la régression vers la moyenne. Une bonne prise de recul nécessite de recontextualiser et de travailler avec des échantillons de données adaptés.

Réconcilier confiance et rationalité

La rationalité humaine n’est ni parfaite, ni exhaustive. Elle dépend d’une capacité à déléguer, à faire confiance et à questionner nos propres cadres de pensée. Dans un monde où la confiance semble érodée, renouer avec cette dernière devient un défi collectif.

Conférence 3

Le croire contaminé par le désir

Dans notre quotidien, nous protégeons souvent nos systèmes de croyance contre les contradictions. Nous croyons certaines choses, car elles vont dans le sens de ce que l’on a envie de croire. Ce phénomène trouve ses racines dans nos désirs, nos peurs et nos besoins de validation.

L’évènement de San Francisco : rumeur et comparaison 

Un exemple marquant : le tremblement de terre qui a ravagé San Francisco au début du XXème siècle. Peu après, des rumeurs ont circulé affirmant que New York et Washington avaient également été détruits. Elles répondaient à un besoin psychologique : en croyant au malheur des autres, les habitants de San Francisco pouvaient relativiser leur propre tragédie. Ce mécanisme repose sur notre tendance à évaluer notre bonheur en le comparant à celui des autres.

Photo en noir en blanc : San Francisco ravagé après un tremblement de terre

Peut-on décider de croire ?

La question de la volonté dans nos croyances soulève des enjeux importants :

  • Croyons-nous par intérêt ?
  • Nos croyances sont-elles sincères ?

Des recherches, comme celles de Dunning et Balcetis, montrent que notre esprit peut manipuler le réel pour éviter l’indésirable. Par exemple, face à une image ambiguë représentant un “B” ou le chiffre “13”, nos interprétations sont influencées par les associations négatives ou positives que nous leur attribuons.

Expérience de Dunning et Balcetis : image sur laquelle on peut soit lire la lettre B soit le nombre 13

La résistance aux contradictions

Lorsque nos croyances sont remises en question, cela peut menacer notre identité. Il s’agit de la théorie de la dissonance cognitive. Pour nous défendre, nous utilisons différentes stratégies :

  • Ignorer le message : nous désactivons le porteur de la contradiction.
  • Convaincre les autres : en affirmant nos croyances, nous nous rassurons nous-mêmes.
  • Reformuler le réel : notre pensée manipule la réalité grâce à la plasticité de nos croyances.

Les différents types de biais

  • Biais motivationnel : il repose sur nos intérêts ; il est souvent implanté par la socialisation. Par exemple, les croyances politiques, religieuses ou morales sont renforcées par notre environnement et nous amènent à éviter les contradictions.
  • Biais de confirmation : ce biais, quant à lui, est indépendant de la socialisation. Il découle de notre préférence pour les affirmations positives plutôt que négatives. Nous cherchons à confirmer ce que nous croyons déjà, même face à des preuves contraires.
  • Effet nocebo : imaginer une situation négative peut provoquer des symptômes physiques, comme le fait de penser aux punaises de lit et de commencer à se gratter.
  • Effet Barnum : nous reconnaissons des caractéristiques génériques comme étant spécifiques à nous-mêmes, renforçant nos croyances (exemple de l’horoscope).
  • Biais de disponibilité : nous mémorisons des éléments qui confirment nos croyances tout en oubliant ceux qui les contredisent.

Astuces pour lutter contre ces biais : 

  1. Contre le biais de disponibilité : s’exercer à donner de multiples exemples sur un sujet (par exemple, citer 12 actions courageuses au lieu de 6, êtes-vous vraiment courageux ?)
  2. S’interroger sur ses désirs : se poser la question de ce que vous souhaitez voir comme étant vrai.
  3. Distinguer les faits des opinions : prendre l’habitude de différencier les deux pour mieux appréhender la réalité.
  4. Sortir des « oligopoles cognitifs » : rechercher des sources variées pour éviter le biais de confirmation.

Conférence 4 : Quelques pièges et quelques solutions

Une étude montre que la diffusion et la croyance en de fausses informations sont fortement corrélées au niveau d’études :

  • Moins de diplômes = plus de risques de croire ou de partager des informations erronées.
  • Plus de diplômes = excès de confiance : paradoxalement, les personnes très diplômées font parfois preuve d’une confiance excessive dans leur évaluation, ce qui peut fermer la porte à l’esprit critique.

Notre cerveau : un mécanisme prédictible mais trompeur

Image qui montre quelle phrase nous allons lire en premier en fonction de la taille

Bien que nous ayons l’impression de liberté dans nos pensées, notre cerveau suit des schémas prédictibles. Ce qui le rend vulnérable à plusieurs illusions :

  • Illusions d’optique : métaphores des biais cognitifs qui affectent aussi nos jugements et nos croyances.
  • Effet Thatcher : une démonstration frappante des failles de notre perception, sur la photo à l'envers, nous attendons à ce que les personnes sourient, or lorsque la photo est à l'endroit, ce n'est pas le cas :

Picture 10

Esprit critique ≠ doute hyperbolique

Développer un esprit critique, ce n’est pas tout remettre en question. Ce n’est pas non plus une mesure d’intelligence mais une capacité à questionner et à dépasser nos biais.

Les biais du quotidien

Nos cerveaux, bien que sophistiqués, ne sont pas toujours équipés pour :

  • Calculer des probabilités : nous surestimons les risques faibles, ce qui alimente des peurs irrationnelles (exemple : jouer au loto).
  • Analyser les médias : la surmédiatisation d’événements rares (comme des catastrophes naturelles) amplifie notre perception de leur fréquence.
  • Effectuer un échantillonnage objectif : dès l’enfance, nous inférons des statistiques biaisées.

Quatre techniques pour déjouer les biais cognitifs

  1. La pédagogie de l’erreur
  • Apprendre à reconnaître les limites de notre rationalité.
  • Comprendre comment le désir peut contaminer le croire.
  • Éviter la moquerie envers les croyances d’autrui pour mieux reconstruire une rationalité partagée.

    2. L’effet de cadrage

  • Adapter la présentation des informations pour réduire les biais (ex. : reformuler "2% de chance" au lieu de "98% de risque").
  • Considérer les taux de base pour nuancer nos jugements.

    3. Le contre-feu

  • Préparer les esprits face aux extrémismes ou aux théories du complot via une "inoculation intellectuelle".
  • Illustrer l'escalade de la radicalité : des petites étapes logiques mènent à des croyances extrêmes si elles ne sont pas questionnées.

     4. Le rétro-jugement

  • Revisiter un raisonnement en changeant les conditions initiales pour encourager une réflexion rétrospective et nuancée.

En résumé : le cerveau, un allié à apprivoiser

Notre cerveau peut être un terrain fertile pour les erreurs de jugement, mais ces biais ne sont pas une fatalité. Avec des outils comme la pédagogie de l’erreur, l’effet de cadrage, ou encore la technique du contre-feu, il est possible d’aiguiser notre esprit critique et de renforcer notre immunité intellectuelle face aux illusions et manipulations.

Cultiver l’esprit critique, c’est apprendre à naviguer dans un monde complexe avec discernement et humilité. Après tout, comprendre nos propres limites, c’est déjà un grand pas vers la sagesse.