Publié par ERASME
A propos des tensions entre liberté d’expression, responsabilité médiatique et régulation de l’information
En droit européen, la liberté d’expression (art. 10 de la CEDH) est un pilier, mais elle n’est pas absolue : elle peut être limitée pour protéger d’autres droits (ordre public, santé, réputation, etc.). Cependant, aucune législation n’impose une "obligation de dire le vrai" au sens philosophique ou moral. Le système judiciaire sanctionne plutôt :
- La diffamation (allégation fausse portant atteinte à l’honneur).
- La désinformation délibérée (si elle cause un préjudice, comme en période électorale ou sanitaire).
- L’incitation à la haine ou à la violence.
Exemple concret : Pendant la pandémie, des plateformes et États ont sanctionné des discours manifestement faux et dangereux (comme les théories du complot sur les vaccins), mais toujours dans le cadre de lois existantes (pas d’obligation positive de vérité).
Les médias (publics ou privés) sont soumis à des codes déontologiques (ex. : Conseil supérieur de l’audiovisuel en France, directives européennes sur les services de médias). Ces codes encouragent la rigueur informationnelle, mais ne créent pas d’obligation juridique de vérité. La critique porte souvent sur :
- L’asymétrie de traitement : Certains sujets (climat, santé) sont scrutés à l’aune de la "vérité scientifique", tandis que d’autres (économie, politique) tolèrent des opinions divergentes.
- L’expertise médiatique : La pandémie a révélé des biais de sélection d’experts (certains surreprésentés, d’autres ignorés), posant la question de qui détient l’autorité pour définir le "vrai" ?
Plusieurs textes récents cristallisent ces tensions :
- Digital Services Act (DSA, 2024) : Oblige les plateformes à lutter contre la désinformation, mais sans définir une "vérité officielle".
- Projets de loi sur la "liberté de la presse" : Certains États membres (Hongrie, Pologne) ont tenté de restreindre les médias sous couvert de "protection contre la désinformation", suscitant des recours devant la CJUE.
- Règlement sur l’IA (AI Act, 2025) : Encadre les systèmes d’IA générant du contenu, mais sans imposer une vérité unique.
Problème : Ces textes renforcent la responsabilité des diffuseurs (médias, réseaux sociaux), mais ne tranchent pas la question philosophique : qui décide de ce qui est "vrai" ou "juste" ?
Le droit ne peut exiger une adhésion à la vérité pour deux raisons :
- Épistémologique : La vérité est souvent contextuelle (ex. : débats scientifiques en évolution).
- Démocratique : Imposer une vérité reviendrait à étouffer le pluralisme, base des sociétés libérales.
Alternative : Les législations visent plutôt à :
- Protéger les citoyens contre les manipulations délibérées et dommageables.
- Encadrer les processus (transparence des sources, droit de réponse, modération des plateformes).
- Distinguer "erreur" et "mensonge" : Sanctionner la mauvaise foi, pas l’erreur de bonne foi.
- Renforcer l’éducation aux médias : Outiller les citoyens pour qu’ils évaluent eux-mêmes l’information.
- Clarifier les rôles : Médias (informer), États (réguler sans censurer), citoyens (débattre).
Renforcer l’éducation aux médias en outillant les citoyens pour qu’ils évaluent eux-mêmes l’information parait odieusement illusoire et surtout totalement irréaliste.
Reconnaissons le caractère incantatoire — voire hypocrite — de cette proposition, souvent brandie comme une solution miracle alors qu’elle se heurte à des réalités sociales, économiques et politiques bien plus complexes.
Décortiquons pourquoi cette idée, bien que séduisante en théorie, est effectivement illusoire, voire contre-productive dans les faits.
- Fracture cognitive : L’éducation aux médias suppose un niveau de base en lecture critique, en logique, et en culture générale que tout le monde n’a pas. Or, les systèmes éducatifs (en France comme ailleurs) reproduisent les inégalités : ceux qui en ont le plus besoin en bénéficient le moins.
- Temps et attention : Évaluer une information demande du temps, de l’énergie mentale et un accès à des sources diversifiées. Dans un monde où l’information est surabondante, polarisée et algorithmiquement biaisée, la plupart des gens n’ont ni les moyens ni l’envie de jouer les fact-checkers à temps plein.
- Qui éduque les éducateurs ? Les programmes d’éducation aux médias sont souvent conçus par des institutions (Éducation nationale, ONG, médias traditionnels) qui ont leurs propres biais. Exemple : en France, le CLEMI (Centre pour l’éducation aux médias) dépend du ministère de l’Éducation nationale, lui-même soumis à des pressions politiques.
- Biais de confirmation : Même bien outillés, les individus recherchent spontanément les informations qui confirment leurs croyances. L’éducation aux médias ne suffit pas à contrer ce mécanisme psychologique profond.
- Les plateformes numériques (Google, Meta, TikTok) promettent des outils de "littératie médiatique" (labels, alertes, sources vérifiées). Mais :
- Ces outils sont opaques (qui décide des labels ? selon quels critères ?).
- Ils renforcent les bulles informationnelles en classant les contenus selon des logiques commerciales, pas citoyennes.
- Ils délèguent la responsabilité aux utilisateurs : "À vous de vérifier !", alors que les algorithmes ciblent délibérément les émotions (colère, peur) pour maximiser l’engagement.
- La désinformation n’est plus l’œuvre de quelques marginaux, mais de réseaux organisés (États, lobbies, usines à trolls) qui inondent l’espace public avec des contenus sophistiqués (deepfakes, faux comptes, études bidonnées).
- Exemple : Pendant la pandémie, des campagnes coordonnées ont diffusé des théories complotistes via des milliers de comptes automatiques, rendant toute vérification individuelle dérisoire.
Si l’éducation aux médias est insuffisante, que faire ?
- Transparence algorithmique : Obliger les GAFAM à révéler comment ils classent et diffusent l’information (comme le DSA le prévoit, mais de manière trop limitée).
- Responsabiliser les diffuseurs : Sanctionner les plateformes qui amplifient délibérément la désinformation (ex. : YouTube recommandant des vidéos conspirationnistes).
- Limiter la viralité : Ralentir la diffusion des contenus non vérifiés (comme Twitter l’a testé avec des avertissements sur les tweets viraux non sourcés).
- Soutenir les médias indépendants : Subventionner des structures sans conflits d’intérêts (ni actionnaires, ni publicité ciblée).
- Démocratiser l’accès à l’information : Créer des médias publics vraiment pluralistes, avec des formats adaptés aux publics populaires (pas seulement des débats entre experts parisiens).
- Encadrer l’expertise : Rendre transparents les liens d’intérêts des "experts" médiatiques (comme le fait le site Disclose pour les lobbies).
- La désinformation prospère parce qu’elle touche aux peurs et aux identités. Une éducation aux médias efficace devrait inclure :
- L’analyse des mécanismes de manipulation affective (comment on nous fait peur, comment on nous flatte).
- Des ateliers de débat contradictoire pour apprendre à gérer les désaccords sans tomber dans le rejet de l’autre.
En insistant sur l’éducation, les pouvoirs publics et les médias se dédouanent :
- Les États évitent de réguler les géants du numérique (par peur des représailles économiques ou diplomatiques).
- Les plateformes reportent la faute sur les utilisateurs ("Soyez responsables !") tout en maximisant leurs profits grâce à l’engagement émotionnel.
- Les médias traditionnels préservent leur monopole symbolique sur la "vérité", sans remettre en cause leurs propres biais.
Si l’éducation aux médias est une impasse, faut-il accepter un certain niveau de désinformation comme prix à payer pour la liberté d’expression ? Ou au contraire, imposer des garde-fous radicaux (comme la nationalisation des réseaux sociaux ou l’interdiction pure et simple de la publicité ciblée) — quitte à risquer une dérive autoritaire ? Où placer le curseur entre liberté, responsabilité et protection ?
- Une société qui exigerait une adhésion permanente à la "vérité officielle" (quelle qu’elle soit) serait une société totalitaire. L’histoire nous l’a montré : les régimes qui ont prétendu détenir la vérité absolue (qu’elle soit religieuse, scientifique ou idéologique) ont toujours écrasé les dissidences au nom du "bien commun".
- Exemple : Les débats scientifiques (comme ceux sur le climat ou les vaccins) sont sains tant qu’ils restent ouverts. La science elle-même avance par essais, erreurs et révisions — pas par dogmes.
- Les récits alternatifs, les théories marginales, voire les canulars ont souvent joué un rôle subversif face aux pouvoirs établis. Pensons aux faux de l’art (comme ceux d’Orson Welles) ou aux utopies littéraires (de Thomas More à Philip K. Dick), qui ont permis de critiquer les normes en les détournant.
- La désinformation "créative" (satire, parodie, art) peut être un outil de libération — à condition qu’elle soit assumée comme telle (et non présentée comme une vérité).
- Vivre, c’est prendre des risques : choisir un métier, aimer, voyager, croire (ou ne pas croire). Une société qui supprimerait tout risque supprimerait aussi la possibilité de l’inattendu, de l’innovation, de la rébellion.
- Exemple : Les mouvements sociaux (comme les Gilets jaunes ou les printemps arabes) naissent souvent de narratifs contestataires, parfois exagérés ou inexacts. Mais ils forcent le débat et révèlent des injustices réelles.
- La "vérité" n’est pas un dogme figé, mais un débat permanent. Une démocratie saine est celle où plusieurs vérités s’affrontent, où les minorités peuvent contester les majorités, où les fous du roi (journalistes, artistes, lanceurs d’alerte) ont leur place.
- Problème : Aujourd’hui, la polarisation algorithmique et la marchandisation de l’attention transforment ce débat en guerre de tranchées, où chaque camp vit dans sa propre réalité. Mais la solution n’est pas d’imposer une vérité unique — ce serait pire.
Si la désinformation est le prix de la liberté, faut-il tout accepter ? Non. Mais il faut distinguier :
Critère clé : L’intention et l’effet.
- Une théorie farfelue partagée entre amis ? Peu dangereux.
- Une campagne coordonnée pour discréditer la science ou diviser la société ? Là, il faut agir.
Plutôt que de rêver d’un monde sans désinformation, comment vivre avec sans sombrer dans le chaos ou l’autoritarisme ?
- Accepter l’incertitude : Apprendre à vivre avec des vérités multiples, sans chercher à tout prix à les réconcilier. C’est le cœur de la démocratie pluraliste.
- Renforcer les contre-pouvoirs :
- Médias indépendants (pas seulement "objectifs", mais transparents sur leurs biais).
- Éducation critique (pas une "éducation aux médias" moralisatrice, mais un apprentissage du débat et de l’enquête).
- Droit à la contradiction : Garantir que les plateformes numériques ne censurent pas arbitrairement, mais donnent la parole aux contradicteurs.
- Protéger les espaces de liberté :
- L’art, la littérature, la philosophie comme lieux où tout peut se dire, y compris l’absurde.
- Les lanceurs d’alerte et les médias alternatifs, même gênants.
Une vie sans risque, sans fantaisie, sans écart n’est pas une vie. Mais une société où n’importe quel mensonge peut prospérer sans limite n’est pas non plus viable. Le défi n’est pas d’éradiquer la désinformation, mais de créer les conditions pour qu’elle ne devienne pas hégémonique — tout en préservant l’espace où l’imaginaire, le doute et la rébellion peuvent respirer.
- La science ne révèle pas la vérité : elle modélise le monde à travers des hypothèses falsifiables (Karl Popper). Une théorie scientifique n’est jamais "vraie" — elle est provisoirement validée jusqu’à ce qu’une autre la remplace ou l’affine.
- Exemple : La physique newtonienne a été "vraie" pendant des siècles... jusqu’à ce qu’Einstein propose la relativité. Aujourd’hui, même la relativité est questionnée par la physique quantique.
- La science est sociale : Les "vérités scientifiques" émergent de communautés (laboratoires, revues, conférences) où pouvoirs, financements et idéologies jouent un rôle. Un résultat peut être marginalisé s’il dérange (ex. : les travaux sur le tabac ou le climat, initialement niés par des lobbies).
- Biais de confirmation : Les chercheurs, comme tout le monde, préfèrent les résultats qui confirment leurs hypothèses.
- Effet Matthieu : Les scientifiques célèbres voient leurs travaux surdimensionnés, tandis que les inconnus peinent à être entendus.
- Science et pouvoir : Historiquement, la science a souvent servi à justifier des oppressions (eugénisme, colonialisme, sexisme). Ex. : les théories raciales du XIXe siècle, présentées comme "scientifiques".
→ La science n’est pas la vérité, mais un outil pour s’en approcher — avec humilité et scepticisme.
- Le droit ne découvre pas la justice : il l’institue à travers des négociations politiques, historiques et culturelles.
- Exemple : L’esclavage était légal pendant des siècles. Son abolition n’est pas venue d’une "vérité juridique", mais de luttes sociales qui ont forcé le droit à évoluer.
- Le droit est interprétatif : Une même loi peut être lue différemment selon les époques, les juges, les contextes. Aux États-Unis, le deuxième amendement (sur les armes) est interprété de manière radicalement opposée selon qu’on est progressiste ou conservateur.
- L’arbitraire des normes : Ce qui est "juste" dans une société peut être injuste dans une autre. Ex. : Les lois sur le blasphème en Arabie saoudite vs. la liberté d’expression en France.
- Le droit comme instrument : Les puissants (États, entreprises) modelent le droit à leur avantage. Ex. : Les traités commerciaux (comme le CETA) sont écrits pour protéger les investisseurs, pas les citoyens.
- L’illusion de la neutralité : Le droit prétend être "objectif", mais il est toujours politique. Ex. : En France, la loi sur la laïcité est appliquée de manière inégale selon les religions (voile musulman vs. kippa juive).
→ Le droit n’est pas la justice, mais un cadre pour gérer les conflits — souvent au profit de ceux qui ont le pouvoir.
- Les humains craignent l’incertitude. La science et le droit offrent une illusion de stabilité dans un monde complexe.
- Exemple : Pendant la pandémie, beaucoup ont exigé des réponses claires ("Le masque marche-t-il ?") alors que la science évoluait en temps réel.
- Les États, les médias, les élites ont intérêt à présenter la science et le droit comme des autorités indiscutables.
- Exemple : Les gouvernements invoquent la "science" pour justifier des politiques impopulaires (confinements, vaccins obligatoires), alors que les débats scientifiques étaient (et sont encore) ouverts.
- Effet pervers : Cela crée une défiance quand les institutions sont prises en flagrant délit de contradiction ou de manipulation.
- On confond souvent :
- "C’est scientifique" = "C’est vrai" → Faux : C’est "validé par une méthode, à un instant T".
- "C’est légal" = "C’est juste" → Faux : C’est "conforme à une règle, elle-même contestable".
- Pour la science :
- Demander qui finance les études (un laboratoire indépendant ? Un lobby ?).
- Vérifier les débats en cours (une théorie est-elle consensuelle ou controversée ?).
- Accepter l’incertitude : La science ne donne pas de réponses définitives, mais des pistes pour agir.
- Pour le droit :
- Comprendre son histoire : Une loi est le résultat de luttes, pas d’une révélation divine.
- Exiger la transparence : Qui a écrit cette loi ? Qui en profite ?
- Utiliser les marges de manœuvre : Le droit peut être détourné (ex. : les ZAD, les désobéissances civiles).
- La vérité (scientifique ou juridique) n’avance que par confrontation d’idées.
- Exemple : Les droits des femmes ou des minorités n’ont pas été "découverts" — ils ont été arrachés par des luttes.
- Problème actuel : Les réseaux sociaux et les algorithmes polarisent les débats au lieu de les enrichir. Il faut réapprendre à discuter sans chercher à écraser l’autre.
- Oui, tout est relatif (les faits sont interprétés, les lois sont négociées).
- Mais non, tout ne se vaut pas :
- Une théorie scientifique étayée par des preuves > une opinion sans fondement.
- Une loi débattue démocratiquement > un décret autoritaire.
- Critère : La méthode compte plus que le résultat. Une "vérité" imposée sans débat est toujours suspecte.
Voici quelques pistes, inspirées par des expériences concrètes et des théories critiques, pour incarner cette idée :
Exemples : Convention citoyenne pour le climat (France), G1000 (Belgique), assemblées islandaises post-crise financière. Pourquoi ça marche ?
- Représentativité : Le tirage au sort évite les biais des élites politiques et médiatique. Les participants reflètent la diversité sociale (âge, genre, origine, opinion).
- Délibération approfondie : Contrairement aux débats politiques traditionnels (où le temps est limité et le spectacle prime), ces assemblées permettent un temps long pour confronter les arguments, écouter des experts pluralistes, et changer d’avis.
- Légitimité du conflit : Les désaccords ne sont pas gommés, mais exposés et travaillés. Le rapport final reflète souvent les tensions et les compromis, pas une "vérité" unique. Limites :
- Risque de récupération : Si les pouvoirs publics ignorent les conclusions (comme pour la Convention climat en France), cela renforce la défiance.
- Complexité des sujets : Certains enjeux (nucléaire, IA) demandent une expertise technique difficile à acquérir en quelques mois.
→ À améliorer : Coupler ces assemblées avec des comités d’experts indépendants (tirés au sort aussi ?) et des mécanismes de suivi contraignants.
Exemples : Jurys d’assises (France), tribunaux de vérité et réconciliation (Afrique du Sud, Colombie), jurys citoyens sur des enjeux locaux (ex. : urbanisme à Porto Alegre). Pourquoi ça marche ?
- Justice comme processus : Dans les tribunaux de vérité, l’objectif n’est pas de "trouver la vérité", mais de donner la parole à toutes les parties, y compris les victimes et les bourreaux, pour construire une mémoire collective.
- Décision par les pairs : Les jurys d’assises montrent que des citoyens sans formation juridique peuvent rendre des verdicts nuancés et légitimes, car issus d’un débat contradictoire. Limites :
- Émotion vs. raison : Les débats peuvent être détournés par des récits victimaires ou populistes.
- Lenteur : Ces processus demandent du temps, ce qui les rend difficiles à généraliser.
→ À explorer : Étendre ce modèle à des enjeux scientifiques ou technologiques (ex. : un jury citoyen sur l’usage des données génétiques).
Exemples : Conférences de consensus (Danemark), forums hybrides sur les OGM ou le nucléaire. Pourquoi ça marche ?
- Science en débat : Des citoyens non-experts interrogent des scientifiques, puis rédigent des recommandations. Cela force les experts à sortir de leur jargon et à confronter leurs certitudes aux questions profanes.
- Légitimation des savoirs locaux : Les connaissances des habitants (ex. : sur la pollution ou la biodiversité) sont prises au sérieux, au même titre que les données scientifiques. Limites :
- Asymétrie de pouvoir : Les experts gardent souvent le dernier mot.
- Instrumentalisation : Certains forums sont organisés pour valider des décisions déjà prises.
→ À radicaliser : Imaginer des laboratoires citoyens où les protocoles de recherche seraient co-construits avec les concernés (ex. : patients pour les essais cliniques).
Exemples : Médias coopératifs (comme Mediapart ou The Intercept), plateformes comme Loomio (décision collective en ligne), ou Wikipedia (où les conflits éditoriaux sont visibles et négociés). Pourquoi ça marche ?
- Transparence des conflits : Sur Wikipedia, les désaccords sur une page sont archivés et discutés, ce qui rend le processus de construction de la "vérité" visible.
- Démocratie éditoriale : Les médias coopératifs permettent aux lecteurs de participer aux choix éditoriaux, limitant le pouvoir des actionnaires ou des annonceurs. Limites :
- Bulles idéologiques : Ces médias peuvent aussi renfermer leurs publics dans des certitudes.
- Modération coûteuse : Gérer les conflits demande des ressources (humaines, techniques).
→ À inventer : Des réseaux sociaux délibératifs, où les algorithmes mettraient en avant les désaccords plutôt que les contenus consensuels.
Exemples : Théâtre forum (Augusto Boal), romans d’anticipation collective (comme ceux de La Volte), ou projets comme The Thing (art participatif). Pourquoi ça marche ?
- L’art comme laboratoire : Le théâtre forum permet de jouer des conflits sociaux et d’expérimenter des résolutions collectives.
- Fictions pour penser l’avenir : Des ateliers d’écriture spéculative (ex. : "Et si on abolissait la police ?") libèrent l’imagination politique sans l’enfermer dans des débats binaires. Limites :
- Difficile à institutionnaliser : Ces pratiques restent souvent marginales.
- Effet cathartique sans suite : Le débat reste symbolique si rien ne change concrètement.
→ À généraliser : Intégrer ces méthodes dans les processus de décision publique (ex. : ateliers de science-fiction pour imaginer des politiques urbaines).
Exemples : ZAD de Notre-Dame-des-Landes, municipalismes libertaires (Rojava, Chiapas), éco-villages. Pourquoi ça marche ?
- Auto-gouvernance : Ces espaces expérimentent des règles locales, où les conflits se règlent par assemblées et rotation des tâches, sans recourir à l’État ou au droit traditionnel.
- Vérité comme pratique : La "vérité" y est ce qui émerge des besoins concrets (ex. : gérer l’eau, construire des logements), pas d’un dogme. Limites :
- Fragilité : Ces modèles sont souvent réprimés (ex. : évacuation des ZAD) ou récupérés (ex. : greenwashing).
- Difficile à étendre : Ils fonctionnent à petite échelle, mais peinent à changer les systèmes dominants.
→ À défendre : Créer des réseaux de communes autonomes pour peser sur les décisions régionales ou nationales.
Exemples : Tribunaux autochtones (Canada, Nouvelle-Zélande), juridictions paysannes (via La Via Campesina). Pourquoi ça marche ?
- Droit vivant : Ces systèmes intègrent les conflits comme partie du processus, sans chercher à les éliminer. Ex. : En Nouvelle-Zélande, les traités avec les Maoris reconnaissent un droit à la contradiction entre visions occidentale et autochtone de la terre.
- Pluralisme juridique : La "vérité" y est négociée entre plusieurs systèmes de normes. Limites :
- Reconnaissance limitée : Ces droits sont souvent ignorés par les États.
- Risque d’essentialisation : Certains coutumes peuvent figer des rapports de pouvoir internes (ex. : patriarcat).
→ À étendre : Reconnaître ces juridictions dans les constitutions nationales (comme en Bolivie ou en Équateur).
Pour institutionnaliser une vérité dynamique et contradictoire, il faudrait :
- Multiplier les espaces de débat : Assemblées tirées au sort, jurys citoyens, arènes hybrides.
- Rendre les conflits visibles : Comme sur Wikipedia ou dans les tribunaux de vérité, exposer les désaccords plutôt que de les cacher.
- Démocratiser l’expertise : Permettre aux non-spécialistes de questionner les savoirs dominants (science, droit, économie).
- Protéger les marges : Soutenir les communes autonomes, les médias alternatifs, les arts participatifs comme laboratoires de nouvelles normes.
- Accepter l’incertitude : Abandonner l’illusion d’une vérité unique au profit d’un processus permanent de négociation.
#Vérités, post-vérités et manipulations des opinions, #La vérité en question, #Informer dans une démocratie libérale, #La liberté d'expression en question, #La liberté d'opinion en question, #Les libertés publiques en question, #Et la liberté dans tout çà ?, #Démocratie, autorité et autoritarisme, #Le droit en question, #Les médias en question