Sclérose en plaques : quand le cerveau est influencé par l’intestin

Source: The Conversation – in French – By Vito Ricigliano, Neurologue et chercheur en neurologie, Université Paris-Saclay; Commissariat à l’énergie atomique et aux énergies alternatives (CEA)

Mieux comprendre comment le microbiote de l’intestin agit sur le cerveau pourrait ouvrir de nouvelles perspectives pour ralentir la progression de la sclérose en plaques, favoriser la réparation des cellules nerveuses et améliorer la qualité de vie des patients.


Et si l’un des moyens de lutter contre la sclérose en plaques se trouvait du côté de l’intestin ? Depuis quelques années, les scientifiques qui travaillent à mieux comprendre cette maladie – qui se caractérise par la destruction de la myéline, la gaine protectrice des neurones – manifestent un grand intérêt pour cet organe, généralement plus connu pour son rôle dans la digestion.

Il a en effet été découvert que le microbiote intestinal – l’ensemble des milliards de bactéries qui colonisent notre intestin – joue un rôle clé dans l’inflammation et la réparation neuronale. Ces microbes produisent des molécules qui interviennent à différents niveaux dans l’organisme : elles régulent les cellules immunitaires, telles que les lymphocytes T, soutiennent les cellules responsables de la formation de la gaine de myéline ou encore influencent le rythme circadien (cycle veille-sommeil) et le drainage des déchets cérébraux, lesquels doivent être éliminés pour maintenir un environnement sain dans le cerveau.

Ces diverses interactions permettent notamment de limiter les réactions auto-immunes, qui sont à la racine de la sclérose en plaques.

Les causes de la sclérose en plaques toujours en cours d’investigation

La sclérose en plaques est une maladie chronique du système nerveux central (cerveau et moelle épinière) au cours de laquelle le système immunitaire attaque la myéline, la gaine protectrice des neurones, ce qui génère des lésions en forme de plaques, d’où le nom de la maladie. Cette destruction entraîne des symptômes variés : fatigue, troubles moteurs, sensoriels, cognitifs, sphinctériens ou visuels.

La maladie peut évoluer par poussées (on parle alors de forme rémittente récurrente, qui représente 85 % des cas au début de la maladie) ou de manière progressive.

Historiquement, la sclérose en plaques est considérée comme résultant d’interactions complexes entre le système immunitaire et le système nerveux. Étant une maladie multifactorielle, elle est le résultat de la conjonction entre une prédisposition génétique individuelle et des facteurs environnementaux, comme le virus d’Epstein-Barr (responsable de la mononucléose), une carence de vitamine D, l’obésité, la consommation de tabac ainsi que l’inflammation intestinale. Ces dernières années, un intérêt majeur a été porté sur la contribution de l’intestin au développement de cette maladie.

Le microbiote, régulateur de l’immunité

L’intestin humain abrite plus de 100 000 milliards de bactéries réparties sur une surface de 250 à 400 mètres carrés, soit jusqu’à 10 fois plus que toutes les cellules qui constituent notre corps. Ces microbes assument plusieurs fonctions. Entre autres, ils :

  • protègent l’intestin contre les infections ;

  • aident à digérer certains aliments ;

  • produisent vitamines et molécules utiles (vitamine K, vitamines du groupe B, acides gras à chaîne courte…) ;

  • régulent le système immunitaire.

Le microbiote intestinal interagit par exemple avec les lymphocytes, des cellules qui jouent un rôle central dans l’immunité. Certains profils de bactéries promeuvent la maturation de lymphocytes favorisant l’inflammation (tels que les lymphocytes T helper 17), tandis que d’autres induisent une tolérance immunologique (en promouvant l’expansion de lymphocytes T régulateurs).

Ces interactions permettent de limiter les réactions auto-immunes (des réactions au cours desquelles le système immunitaire s’attaque au corps qu’il est censé défendre) et de protéger le cerveau.

Le microbiote intestinal module aussi l’activité de la microglie, des astrocytes et des oligodendrocytes, des familles de cellules qui jouent un rôle clé dans la défense et la réparation du cerveau.

Déséquilibre du microbiote et sclérose en plaques

Chez les patients atteints de sclérose en plaques (SEP), dans sa forme rémittente ou progressive, le microbiote est déséquilibré. On parle de « dysbiose ». On constate en particulier une diminution des populations de bactéries bénéfiques (Firmicutes, Bifidobacterium, Coprococcus, Roseburia…) et une augmentation des bactéries pro-inflammatoires (Bacteroidetes, Akkermansia, Ruminococcus…).

Cette dysbiose entraîne une baisse de la production d’acides gras à chaîne courte. Or, ces molécules sont essentielles pour équilibrer les divers sous-types de lymphocytes du système immunitaire. En effet, certains acides gras à chaîne courte produits par le microbiote traversent la barrière sanguine et atteignent le système nerveux central. Là, ils limitent l’inflammation en favorisant les lymphocytes T régulateurs et en freinant les lymphocytes T helper 17, responsables de la production de cytokines pro-inflammatoires. Ils contribuent ainsi à l’intégrité de la barrière de protection du cerveau.

Ces métabolites sont également importants pour le bon développement et le bon fonctionnement des cellules qui fabriquent la myéline (les oligodendrocytes nécessaires à la réparation de la gaine qui entoure les neurones). Une étude récente a montré qu’en cas de déséquilibre dans ces molécules, la différentiation et la maturation des cellules productrices de myéline sont bloquées, ce qui empêche donc la remyélinisation.

Certains métabolites régulent aussi l’activité de cellules « support » du cerveau essentielles à son bon fonctionnement (les astrocytes et la microglie). Ce faisant, ils réduisent la production de molécules inflammatoires et limitent les dégâts neuronaux.

À l’inverse, certaines molécules produites par des bactéries pro-inflammatoires accélèrent la destruction de la myéline et perpétuent l’inflammation chronique.

Des recherches ont aussi montré que la composition du microbiote a un impact sur la régulation du rythme circadien, l’horloge interne du corps. Les patients possédant un microbiote plus diversifié ont souvent un meilleur sommeil. Par ailleurs, la bonne régulation de cette horloge interne et la restructuration des rythmes immunologiques et métaboliques pourraient contribuer à contrecarrer la progression de la maladie.

En définitive, l’intestin agit donc comme un véritable chef d’orchestre, modulant immunité, inflammation et réparation nerveuse, et influençant la sévérité et l’évolution de la sclérose en plaques.

Alimentation : régime méditerranéen et vitamine D

L’alimentation façonne le microbiote et l’état inflammatoire de l’organisme. Adopter un régime méditerranéen – riche en fruits, légumes, légumineuses, céréales complètes, poissons, huiles végétales et pauvre en graisses saturées –, anti-inflammatoire, est bénéfique pour les personnes souffrant de sclérose en plaques.

Cette alimentation apporte en effet des fibres et des antioxydants qui nourrissent les « bonnes » bactéries et favorisent la production d’acides gras à courte chaîne, limitant l’inflammation et apportant un soutien aux cellules remyélinisantes. Ce type de régime est associé à moins de fatigue, une meilleure qualité de vie et une possible réduction des poussées.

La vitamine D complète ces effets : elle régule les lymphocytes T, limite l’inflammation et ralentit l’activité de la maladie. À ce sujet, l’étude française « D Lay MS » a montré qu’une supplémentation à haute dose de vitamine D diminue l’apparition de nouvelles lésions et prolonge le temps avant réapparition des symptômes de la sclérose en plaques, tout en restant bien tolérée.

Alimentation et vitamine D constituent donc des leviers concrets pour agir sur le microbiote, l’équilibre immunitaire et la réparation du système nerveux central dans le contexte de la sclérose en plaques. À ces interventions s’ajoutent en outre diverses pistes thérapeutiques basées sur la modulation du microbiote.

L’évaluation des bénéfices potentiels de la modulation du microbiote en complément aux traitements classiques de la sclérose en plaques font notamment l’objet de divers travaux. À titre d’exemple, la supplémentation en propionate (500 mg deux fois par jour) a été associée à moins de poussées et à une stabilisation du handicap.

Au-delà de la restauration du microbiote via l’alimentation, des approches comme l’emploi de prébiotiques, de probiotiques ou la restauration du microbiote sont aussi étudiées. Son impact direct sur la stimulation de la remyélinisation est actuellement étudié.

Des effets qui jouent aussi sur la qualité de vie

Le microbiote influence le quotidien des patients, en jouant sur leur niveau de fatigue, sur leur sommeil, sur leur digestion et sur leur récupération après les poussées. En consultation, nous discutons systématiquement de ce sujet dès le diagnostic de la maladie afin de fournir une prise en charge globale aux patients. Parmi les conseils pratiques à retenir :

  • adopter une alimentation riche en fibres et proche du modèle méditerranéen ;

  • baisser la consommation des aliments pro-inflammatoires, autrement dit les aliments riches en graisses saturées d’origine animale, très transformés, très sucrés ou très pimentés : charcuterie, fromages, crèmes… ;

  • maintenir un sommeil régulier et pratiquer une activité physique adaptée ;

  • limiter le stress et éviter le tabac ou l’excès d’alcool.

Certes, ces mesures ne remplacent pas les traitements médicaux, mais elles améliorent le bien-être, rééquilibrent l’immunité et peuvent contribuer à ralentir la progression de la maladie.

En définitive, un faisceau croissant d’indices montre qu’en matière de sclérose en plaques, intestin et cerveau sont étroitement liés. Favoriser l’installation et le maintien d’un microbiote diversifié permet de moduler l’inflammation, la survie des cellules productrices de myéline et le bon équilibre du système immunitaire, tout en ayant une influence positive sur le sommeil, la récupération et l’énergie quotidienne disponible.

Cette approche, intégrée aux traitements classiques, constitue pour les cliniciens un moyen de ralentir la progression de la maladie, de diminuer les handicaps qui en résultent, et d’améliorer la qualité de vie des patients atteints de sclérose en plaques.


Cet article est publié dans le cadre de la Semaine du cerveau, qui se tiendra du 16 au 22 mars 2026.

The Conversation

Vito Ricigliano ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sclérose en plaques : quand le cerveau est influencé par l’intestin – https://theconversation.com/sclerose-en-plaques-quand-le-cerveau-est-influence-par-lintestin-276457

Lignes du front : les soldats poètes qui défendent l’Ukraine

Source: The Conversation – France (in French) – By Hugh Roberts, Professor of Languages, Cultures and Visual Studies, University of Exeter

En Ukraine, dans le contexte de la guerre lancée par la Russie en février 2022, la poésie joue un rôle essentiel dans le traitement des traumatismes subis par la population, tout en renforçant sa capacité de résistance.


Selon des experts occidentaux du renseignement – et sans doute aussi les forces russes –, Kiev était censée tomber dans les jours qui ont suivi le début de l’invasion à grande échelle le 24 février 2022. Ils n’avaient pas pris en compte la résilience d’une société qui défend depuis longtemps sa langue et sa culture, et dans laquelle les poètes ont pendant des siècles résisté aux tentatives russes d’effacer l’identité ukrainienne.

Dire qu’il y a eu une renaissance de la poésie en Ukraine est un euphémisme. Depuis la Première Guerre mondiale, on n’avait plus vu d’œuvres d’une telle qualité et en telle quantité, écrites par des poètes qui sont également des combattants. La société civile a répondu à cet élan par des séances de lecture de poésie qui ont fait salle comble dans les abris anti-bombes des villes situées en première ligne, mais aussi par des initiatives telles que le portail Poetry of the Free (« Poésie des gens libres ») du ministère ukrainien de la culture, qui a reçu plus de 43 500 contributions depuis février 2022.

Un jeune soldat ukrainien avec des fleurs dans les cheveux
Maksym Kryvtsov, soldat et poète mort au front en 2024.
Wikicommons, CC BY

La poésie de guerre ukrainienne n’est pas d’un abord facile. En effet, elle s’exprime actuellement sous des formes anciennes et primitives : prière, témoignage, cri de ralliement et de malédiction. Au milieu du bruit des actualités géopolitiques, des commentaires, de la désinformation et du brouhaha des réseaux sociaux, elle revient avec insistance sur l’élément le plus important de tous : les gens.

Comme l’écrivait le célèbre poète Maksym Kryvtsov (1990-2024) dans son recueil Poèmes des tranchées (2024) :

« Quand on me demande ce qu’est la guerre, je réponds sans hésiter : des noms. »

Kryvtsov était lui-même mitrailleur et défendait l’Ukraine bien avant l’invasion à grande échelle. Il a été tué par un obus russe en janvier 2024, quelques jours seulement après la publication de son premier et dernier livre.

Les poètes de la résistance

Il y a trop de poètes ukrainiens importants pour tous les citer, mais pour l’heure deux noms se distinguent tout particulièrement dans le mouvement de renaissance poétique ukrainienne : Yaryna Chornohouz et Artur Dron.

Ces deux poètes ont servi leur pays. Chornohouz est toujours opératrice de drone au sein du Corps des Marines ukrainiens dans la ville de Kherson, située en première ligne. Dron s’est engagé en février 2022, quatre ans avant d’atteindre l’âge de la conscription, et est aujourd’hui un vétéran après avoir été gravement blessé. Tous deux ont vu leurs poèmes publiés en anglais, en français et dans d’autres langues, et ont remporté d’importants prix littéraires en Ukraine.

La poésie et la vie de Chornohouz sont étroitement liées à la défense de l’Ukraine contre la menace existentielle que représente la Russie. Ses écrits sont également empreints de lamentations et de témoignages.

« L’art ukrainien en temps de guerre : résister par la culture » (France Culture, 20 avril 2025).

Son poème « Les fruits de la guerre » s’inspire de son expérience en tant que secouriste depuis 2019. C’est un cri pour que les vies d’une valeur inestimable perdues sur le champ de bataille ne tombent pas dans l’oubli, malgré tout.

Dron parle de ces pertes invisibles et oubliées dans son recueil Hemigway ne sait rien en 2025. Sa poésie et celle de Chornohouz et d’autres poètes de guerre ukrainiens offrent une forme puissante de commémoration qui peut être d’autant plus universelle qu’elle est intensément personnelle. « La première lettre aux Corinthiens », dernier poème du recueil de Dron intitulé We Were Here (Nous étions là, 2024), évoque l’amour qui anime son choix de défendre l’Ukraine.

Les jeunes hommes de la compagnie de Dron étaient très proches d’un soldat plus âgé qu’eux, leur médecin, Oleksandr « Doc » Kobernyk, qu’ils considéraient comme leur professeur.

Dans Hemingway ne sait rien, Dron revient à plusieurs reprises sur une histoire qui s’est déroulée lorsque leur position dans une forêt a été soumise à des bombardements russes soutenus. Désorienté par une lésion cérébrale, il part à la recherche de Doc, mais apprend par son commandant qu’il a été tué. Chargé d’évacuer son corps et ne disposant pas de civière, il l’enveloppe dans un sac de couchage. Alors que le corps de Doc est encore chaud, le poète ressent l’amour qui émane de son professeur.

« La poésie face à la guerre : le récit d’un capitaine de l’armée ukrainienne » (Le Figaro, 10 janvier 2026).

Le jour où Olena, la femme de Doc, a appris sa mort, elle a écrit un poème. Sa lecture a déclenché l’écriture de Dron que la guerre avait bloquée.

Si nous y prêtons attention, la poésie de guerre ukrainienne peut nous transmettre au moins une partie de l’amour et du souvenir de ce qui compte vraiment. La poésie, la langue, la culture et l’identité sont des questions essentielles pour la sécurité de l’Ukraine. Pour ceux qui se trouvent dans une relative sécurité au-delà des frontières ukrainiennes, mais qui sont néanmoins confrontés à la menace russe, le moment est peut-être venu, comme pour l’Ukraine, de s’inspirer des traditions poétiques.

Même si, comme l’a écrit le poète britannique Alfred Tennyson, nous sommes « affaiblis par le temps et le destin », nous pouvons encore trouver en nous

« la volonté
De chercher, lutter, trouver et ne rien céder ».


En France, les éditions du Tripode ont publié C’est ainsi que nous demeurons libres, de Yaryna Chornohouz. Les poèmes d’Artur Dron ont été publiés par les éditions Bleu et Jaune.

The Conversation

Hugh Roberts bénéficie d’un financement provenant d’une bourse Curiosity Award du Conseil de recherche en arts et sciences humaines (numéro de subvention UKRI3524), d’une bourse Talent Development Award de la British Academy (référence de subvention TDA25250282) et d’une subvention Connections through Culture du British Council (numéro de subvention 5143).

ref. Lignes du front : les soldats poètes qui défendent l’Ukraine – https://theconversation.com/lignes-du-front-les-soldats-poetes-qui-defendent-lukraine-276903

Les fausses publications scientifiques menacent de submerger la recherche contre le cancer

Source: The Conversation – in French – By Baptiste Scancar, Scientifique spécialisé en intégrité scientifique, Institut Agro Rennes-Angers

La vague des fausses publications va-t-elle faire vaciller la recherche contre le cancer ? (_La Grande Vague de Kanagawa_ (1831), d’Hokusai.) Hokusai/Art institute of Chicago, CC BY-SA

Une étude récente pointe un chiffre alarmant : plus de 250 000 articles scientifiques liés au cancer pourraient avoir été fabriqués de toutes pièces entre 1999 et 2024. Cette production s’accélère et menace la production scientifique honnête.


Produire de la connaissance par la recherche scientifique donne lieu à une forte compétition entre équipes et individus, dans laquelle une publication dans une revue prestigieuse peut changer la trajectoire d’une carrière. Même si beaucoup remettent en cause les règles actuelles de cette compétition, l’évaluation de la qualité d’un chercheur repose essentiellement sur le nombre de ses publications, sur leur impact – mesuré par le volume des citations qu’elles génèrent – et sur le prestige des revues dans lesquelles elles sont publiées. L’importance de ces indicateurs dans l’obtention de rares financements et la progression des carrières individuelles contribue à encourager des comportements contraires à l’intégrité scientifique, tels que le recours à des pratiques frauduleuses.

Ce contexte a notamment favorisé l’émergence et la forte croissance d’organisations spécialisées dans la vente de faux articles scientifiques, les « paper mills » ou « fabriques à articles ». Ces dernières sont suspectées d’avoir produit des milliers d’articles au cours des dix dernières années, compromettant des pans entiers de la littérature scientifique. Dans notre étude, publiée dans le British Medical Journal (BMJ) en janvier 2026, nous estimons que plus de 250 000 articles scientifiques liés au cancer pourraient avoir été fabriqués de toutes pièces entre 1999 et 2024.

Alors que ces articles représentaient moins de 1 % des publications scientifiques annuelles en 1999, leur taux s’élève désormais à 15 % du contenu produit chaque année. La recherche contre le cancer est en danger : les fausses publications se répandent, et une intensification de ce problème est à prévoir.

Une production à échelle industrielle

Les « fabriques à articles scientifiques » produisent et vendent en quantités quasi industrielles de faux articles scientifiques. Elles adoptent même des techniques de marketing classique, en faisant de la publicité en ligne et en proposant à leurs clients de sélectionner leur place dans la liste des auteurs d’un article préfabriqué (la première et la dernière position étant souvent perçues comme plus prestigieuses) ainsi que le niveau de réputation du journal dans lequel l’article sera publié. Des recherches ont montré que le coût de ce service pouvait varier de quelques centaines à plusieurs milliers d’euros, et d’aucuns suspectent que certaines « fabriques à articles » pourraient même fournir un « service après-vente », par exemple apporter des corrections ou des réponses aux commentaires des lecteurs après publication, sur les sites des éditeurs ou sur les plateformes collaboratives, comme PubPeer.

Exemple de publicité de fabrique d’article publiée sur Facebook.com le 19 février 2026. Les informations sensibles ont été masquées
Exemple de publicité de « fabrique à articles », publiée sur Facebook, le 19 février 2026. Les informations sensibles ont été masquées.
Fourni par l’auteur

Le nombre de publications attribuées aux « fabriques à articles » a explosé au début des années 2010, attestant l’existence d’un système frauduleux à grande échelle. L’essor de ces organisations est souvent présenté comme une conséquence de la culture dite du « Publish or Perish » (« Publier ou périr »), qui séduit une clientèle, composée de doctorants, de chercheurs et de cliniciens en difficulté, pour laquelle la publication est devenue une condition d’accès à un diplôme, un emploi ou une promotion.

Ce phénomène est d’ailleurs amplifié par l’existence d’agents intermédiaires et de réseaux organisés qui dépassent la simple production de manuscrits et interviennent en contournant et en accélérant les processus éditoriaux et de publication (les articles frauduleux peuvent être acceptés et publiés beaucoup plus rapidement que les articles authentiques). Cette collusion entre fabricants et éditeurs peu scrupuleux contribue à augmenter fortement la cadence de publication d’articles frauduleux, au point qu’elle peut largement dépasser celle des articles authentiques.

Les fabriques tirent leur productivité de modèles de rédaction prédéfinis, qui réutilisent souvent des fragments de texte et d’images issus de leurs productions précédentes. Cette méthode a favorisé la publication d’articles présentant des similarités de forme, comportant les mêmes tournures de phrases, les mêmes schémas expérimentaux ainsi que les mêmes erreurs méthodologiques ou stylistiques dans la littérature biomédicale, et notamment dans la recherche contre le cancer.

Ces indices permettent de suivre leur piste et d’identifier systématiquement leurs productions, comme dans le cas des images manipulées ou des « phrases torturées » (des reformulations hasardeuses de termes techniques, par exemple « péril de la poitrine » à la place de « cancer du sein »).

Une méthode de détection simple mais efficace

Notre combat contre la fraude scientifique débute en 2024 lorsque Baptiste Scancar, auteur de cet article, alors étudiant en master de science des données, part en Australie pour travailler sur la fraude scientifique avec Jennifer A  Byrne (professeure de cancérologie à l’Université de Sydney) et Adrian Barnett (professeur de statistiques à la Queensland University of Technology). Jennifer avait constaté depuis des années le dévoiement de sa discipline, l’oncologie moléculaire, contaminée à grande échelle par les fausses publications, sans prise de conscience des communautés ni des institutions de recherche. L’objectif de cette collaboration était de créer une méthode généralisable à de grandes quantités d’articles pour détecter les productions des « fabriques à articles » dans le domaine du cancer, afin d’en mesurer l’ampleur et d’alerter sur le problème sous-jacent.

L’observation de fortes ressemblances stylistiques dans le titre et le résumé des articles frauduleux a conduit l’équipe à s’orienter vers des méthodes d’analyse centrées sur ces sections des articles, par ailleurs librement accessibles sur des plateformes de diffusion scientifique en ligne, comme PubMed. L’objectif est alors d’utiliser un algorithme d’intelligence artificielle pour différencier les articles authentiques des articles frauduleux, en identifiant des motifs communs à une liste d’articles identifiés comme frauduleux par l’observatoire Retraction Watch. Cette approche est finalement couronnée de succès, atteignant des performances d’identification très élevées (9 articles sur 10 sont bien classés par l’algorithme).

Après cette première étape, le projet se poursuit en France depuis 2025. L’équipe est complétée par David Causeur, également auteur de cet article. L’outil est amélioré par une analyse fine des erreurs d’identification et la méthodologie est affinée. Le modèle est alors utilisé pour analyser l’ensemble des publications liées au cancer depuis 1999, soit plus de 2,5 millions d’articles accessibles dans la base de données de PubMed, et les résultats sont alarmants. Environ 250 000 articles, quasiment 10 % des études, sont signalés comme textuellement similaires à des productions de fabriques à articles. Leur nombre est passé de 238 en 1999 à plus de 26 000 en 2020. Cette progression n’épargne pas les revues les plus prestigieuses (top 10 des journaux), où la proportion d’articles signalés dépasse également 10 % en 2022.

La répartition géographique des auteurs met en évidence une prédominance marquée de la Chine, avec près de 180 000 articles recensés, loin devant les États-Unis (10 500 articles) et le Japon (6 500 articles). Les publications suspectes sont retrouvées dans des revues de nombreux éditeurs, couvrant l’ensemble des types de cancer et la plupart des thématiques de recherche.

Un moment crucial pour la recherche scientifique

La présence massive d’articles frauduleux dans le domaine du cancer pose plusieurs problèmes majeurs.

Tout d’abord, le partage des connaissances scientifiques est aujourd’hui pollué massivement par les fausses informations, et les acteurs de la recherche peinent à mettre en place des actions correctives. L’ampleur de ces infractions majeures à l’intégrité scientifique doit aussi conduire à une réflexion sur le poids donné au volume des publications dans l’évaluation des projets de recherche et des équipes de chercheurs elles-mêmes. La validation implicite de connaissances scientifiques frauduleuses par leur publication, parfois dans des revues prestigieuses, compromet les processus d’attribution de financements et ouvre la voie à leur propagation en cascade par citation.

Par ailleurs, la recherche fondamentale sur le cancer, qui constitue la cible privilégiée des « fabriques à articles », précède le développement de traitements thérapeutiques, dont l’efficacité est menacée par la fraude à grande échelle, au détriment des patients.

Le développement récent des modèles de langage génératif, tels que ChatGPT, menace de rendre la détection des contenus frauduleux plus difficile et pourrait décupler la productivité de ces organisations. Par analogie avec le dopage dans le sport, il est à craindre que ce jeu du chat et de la souris entre détecteurs et fraudeurs ne débouche pas sur une éradication du problème, mais sur une escalade des stratégies de fraude.

En revanche, les politiques publiques d’évaluation de la recherche peuvent y remédier, en réduisant la pression à la publication que subissent les chercheurs. Il est urgent de redonner à la qualité intrinsèque des productions scientifiques plus de place dans leur évaluation, avant que la distinction entre contenu authentique et fabriqué devienne impossible.

The Conversation

Baptiste Scancar a reçu des financements du National Health and Medical Research Council (NHMRC), organisme Australien de financement de la recherche médicale.

David Causeur a reçu des financements de l’ANR.

ref. Les fausses publications scientifiques menacent de submerger la recherche contre le cancer – https://theconversation.com/les-fausses-publications-scientifiques-menacent-de-submerger-la-recherche-contre-le-cancer-276465

Toutes pour une, une pour toutes, les coopératives agricoles françaises s’unissent

Source: The Conversation – in French – By Maryline Filippi, Professeure d’économie Bordeaux Sciences Agro – Université de Bordeaux, Chercheuse associée INRAE à AgroParisTech, Université de Paris Saclay., AgroParisTech – Université Paris-Saclay

Le groupe Tipiak, détenu par le groupe coopératif Terrena. Ses produits s’exportent dans le monde entier, comme ici dans un rayon de supermarché en Allemagne. Defotoberg/Shutterstock

En 2025, les 2  100 coopératives agricoles françaises sont dans la tourmente. Résultat, entre la guerre tarifaire de Donald Trump, le conflit en Ukraine et les accords du Mercosur, elles s’unissent en groupes coopératifs pour affronter les mastodontes mondiaux de l’agroalimentaire. Mais, concrètement, comment ces entreprises singulières peuvent-elles conserver leurs principes coopératifs dans des structures aussi gigantesques ?


Le Salon international de l’agriculture de Paris est l’occasion ici de vous demander si vous savez quelles sont les entreprises qui représentent trois agriculteurs sur quatre, une marque alimentaire sur trois et 70 % de la production agricole française ? Réponse : les coopératives agricoles.

Ces derniers mois, des projets de rapprochement d’envergure conduisent à envisager la création de groupes coopératifs pesant plusieurs milliards d’euros de chiffres d’affaires. À titre d’exemple, le montant évoqué pour la fusion de la coopérative normande Agrial avec son homologue des Pays de la Loire Terrena est estimé à 12 milliards d’euros. Ce groupe regrouperait un portefeuille de marques iconiques, comme Florette, Soignon, Tipiak ou Père Dodu.

Ces processus de rapprochement concernent également des coopératives de taille plus modeste comme les coopératives viticoles de Vinay et de Mancy, à Épernay (Marne).

Derrière ces montants qui peuvent sembler stratosphériques, ces groupes conservent un statut coopératif, défini comme « une association autonome de personnes volontairement réunies pour satisfaire leurs aspirations et besoins économiques, sociaux et culturels communs au moyen d’une entreprise dont la propriété est collective et où le pouvoir est exercé démocratiquement ».

Alors, peut-on considérer que ces concentrations restent compatibles avec le modèle coopératif ? La taille économique rime-t-elle avec l’intérêt des associés coopérateurs ?

3ᵉ secteur industriel français

En France, les coopératives sont régies par la loi de 1947, déclinée pour les coopératives agricoles dans le Code rural de la pêche maritime. Peu de modifications législatives sont intervenues depuis. Cependant, les lois n°91-005 du 3 janvier 1991 et celle n°92-643 du 13 juillet 1992 ont ajouté des dispositifs conduisant à leur développement conséquent sous forme de groupe coopératif et impactant leur gouvernance démocratique.

  • Plus de 2  100 coopératives agricoles dont 93 % en TPE-PME
  • 10 400 coopératives d’utilisation de matériel agricole
  • Plus de 200 000 emplois incluant les filiales
  • 3ᵉ secteur industriel français
  • 34 milliards d’euros de capital détenu par les agriculteurs
  • 75 % des exploitations adhérentes

Ces groupes coopératifs sont devenus des acteurs économiques de premier plan. Ils concentrent plus de 90 % du chiffre d’affaires de la coopération agricole. Le premier groupe coopératif français InVivo, union de 187 coopératives mères, dirige plus de 200 filiales pour un chiffre d’affaires consolidé de 11,7 milliards d’euros. En parallèle, quatre groupes sont dans le top 10 des entreprises de l’agroalimentaire en France : le groupe Agrial en 4e position, Sodiaal en 7e, Terrena en 9e et Cooperl Arc Atlantique en 10e.

Taille critique

Derrière ces montants impressionnants, la situation financière de certaines coopératives, y compris céréalières, s’est dégradée. Le ratio dettes financières nettes sur fonds propres de ces dernières est passé de 74,88 % en 2018-2019 à 93,88 % en 2023-2024. Côté rentabilité, la marge est restée relativement stable, passant de 3,28 % en 2018-2019 à 3,31 % en 2023-2024.

C’est pourquoi les récents rapprochements entre coopératives, comme Agrial et Terrena, sont liés à la recherche de l’amélioration de la rentabilité économique, sur des marchés de plus en plus concurrentiels et dans un contexte géopolitique instable. Ils concernent tous les secteurs d’activité, céréales, lait ou vin, etc.

L’obtention d’une taille critique – taille minimale du marché nécessaire pour que l’entreprise puisse être viable – s’avère indispensable en raison des capacités financières limitées des coopératives agricoles classiques. L’objectif : structurer une offre commerciale, consolider les filières et aborder des marchés qui se mondialisent.

Les coopératives cherchent ainsi à partager des risques, à mutualiser des coûts d’investissement et d’innovation incontournables pour procéder aux transitions – agro-écologique, énergétique, numérique – dans tous les secteurs et les territoires.

Acquisition de sociétés de droit commercial

Ces dernières années, les groupes coopératifs multiplient les créations et les acquisitions de sociétés de droit commercial, les imbriquant dans des consortiums d’activités complexes. Derrière cette tendance de fond, il est question de rechercher de nouveaux financements, tout en garantissant aux associés coopérateurs, ou agriculteurs-adhérents, de garder leur pouvoir de décision.

Ces groupes coopératifs sont structurés entre une maison mère de statut coopératif (coopérative ou union de coopératives) et des filiales majoritairement de droit commercial. Ces coopératives agricoles françaises sont considérées au niveau international comme des coopératives traditionnelles au regard des principes premiers établis par les équitables pionniers de Rochedale (Angleterre, XIXᵉ siècle). Concrètement, la propriété capitalistique de la tête du groupe coopératif reste aux seules mains des agriculteurs-adhérents et de leurs représentants, régie par un pouvoir démocratique selon le principe « une personne = une voix ».

Modèle coopératif d’Agrial.
Agrial, CC BY

En effet, l’ouverture du capital des coopératives à des associés non coopérateurs est restreinte, voire impossible. Le contrôle de la société reste le droit premier des associés coopérateurs, propriétaires de la société grâce à la détention de parts sociales. Ces derniers sont les principaux financeurs des fonds propres de la coopérative.

En créant des partenariats avec des investisseurs au niveau des filiales de droit commercial, et non via la tête de groupe sous un statut de coopérative, la difficulté d’attirer des capitaux extérieurs est ainsi contournée.

Pas d’associés hors de France

Les coopératives agricoles sont des entreprises ancrées territorialement. Elles ont une caractéristique juridique unique au monde : la circonscription territoriale, un périmètre géographique associé à leur activité économique et validé par le Haut Conseil de la coopération agricole (HCCA). Cette dernière définit la zone d’adhésion dans laquelle il est possible pour les producteurs y résidant d’adhérer à la coopérative. Comment ? En prenant des parts sociales, contrepartie de leur engagement via l’apport de ressources ou l’utilisation de services de la coopérative.

Hors de cette « circonscription territoriale » ou de la non-adhésion, la coopérative a une dérogation pour réaliser des opérations limitées à 20 % de son chiffre d’affaires avec des « tiers non associés », pour s’approvisionner en matières ou délivrer un service. Évidemment, elle peut librement vendre les productions de ses associés sans aucune restriction de chiffres d’affaires et de zone géographique. Cet assouplissement autorisé par le ministère de l’agriculture a pour objectif de compenser les éventuelles pertes liées à de mauvaises récoltes, susceptibles de remettre en cause l’équilibre économique de la coopérative. Cette règle ne concerne évidemment pas les filiales de droit commercial.

Le statut d’associé ne peut non plus être obtenu pour des producteurs qui résideraient hors de France contrairement à la pratique dans d’autres pays. Par exemple, les 12 000 producteurs laitiers de la coopérative laitière Arla Foods résident dans sept pays : Royaume-Uni, Belgique, Pays-Bas, Luxembourg, Danemark, Suède et Allemagne.

Le cas du développement de coopératives polyvalentes, comme Agrial ou Terrena, reste une caractéristique des coopératives agricoles françaises, non délocalisables et actrices clés de la souveraineté alimentaire. Avec in fine, un objectif de mettre en œuvre une gouvernance leur permettant à la fois de conserver une proximité avec leurs associés coopérateurs et garantir leur place dans la prise de décision.

The Conversation

Maryline Filippi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Toutes pour une, une pour toutes, les coopératives agricoles françaises s’unissent – https://theconversation.com/toutes-pour-une-une-pour-toutes-les-cooperatives-agricoles-francaises-sunissent-273660

Municipales 2026 : l’extinction nocturne de l’éclairage augmente-t-elle vraiment la délinquance ?

Source: The Conversation – in French – By Chloé Beaudet, Doctorante en économie de l’environnement, AgroParisTech – Université Paris-Saclay

À l’approche des élections municipales de mars prochain, l’extinction nocturne de l’éclairage public, qui s’est généralisée ces dernières années sur fond d’augmentation des coûts de l’énergie et de prise de conscience des dangers pour la biodiversité, cristallise les inquiétudes en matière de sécurité. Pourtant, la première étude nationale menée en France montre que cette politique n’entraîne pas d’augmentation générale des faits de délinquance. Elle n’a qu’un effet limité sur les cambriolages, qui reste très faible : un cambriolage supplémentaire par tranche de 3 000 logements.


De nombreuses communes françaises ont choisi, ces dernières années, d’éteindre partiellement ou totalement leur éclairage public la nuit. Cette tendance s’est fortement accélérée à l’automne 2022, dans un contexte de flambée des prix de l’électricité. Une cartographie des extinctions nocturnes, publiée par le Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) à l’été 2025, montre ainsi que 62 % des communes (sur les 19 262 étudiées) ont mis en place une politique d’extinction nocturne de l’éclairage public.

Ces décisions permettent aux collectivités de réaliser des économies d’énergie et de réduire leurs dépenses, tout en limitant les effets néfastes de la pollution lumineuse sur la biodiversité et la santé humaine, en forte augmentation ces dernières années.

À l’approche des élections municipales des 15 et 22 mars 2026, ces mesures sont toutefois de plus en plus contestées dans certaines villes en raison du sentiment d’insécurité qu’elles suscitent chez une partie de la population.

Jusqu’à présent, aucune étude scientifique en France n’avait analysé le lien entre l’extinction de l’éclairage public et la délinquance. À l’international, les travaux sur cette question sont rares et ont, jusqu’à présent, abouti à des résultats contrastés.

C’est pour combler ce manque que je me suis intéressée à cette problématique dans le cadre de ma thèse, soutenue en décembre 2025, en menant la première étude empirique évaluant l’impact de l’extinction de l’éclairage public sur la délinquance, à l’échelle nationale. Ses résultats montrent qu’éteindre l’éclairage la nuit n’a pas d’effet sur la plupart des faits de délinquance étudiés. Elle a toutefois un impact léger sur les cambriolages, qui reste très limité et s’applique surtout aux contextes urbains.

Pas d’effet sur la majorité des faits de délinquance

L’étude, qui a passé au crible les statistiques de délinquance entre 2017 et 2023 des communes de plus de 1 500 habitants, montre que l’extinction de l’éclairage public n’a aucun effet pour la grande majorité des faits de délinquance étudiés : dégradations et destructions volontaires, violences sexuelles, vols non violents, vols de véhicules et d’accessoires ainsi que trafic et usage de stupéfiants.

Un faible effet positif a toutefois été mis en évidence pour les cambriolages. Celui-ci est statistiquement significatif, mais reste limité : on parle ici d’une augmentation de 0,35 cambriolage pour 1 000 logements (soit environ 1 cambriolage supplémentaire par tranche de 3 000 logements). Autrement dit cet impact correspond à environ 3,4 % du nombre de cambriolages observés en moyenne par an dans les communes ayant recours à l’extinction nocturne.

Des analyses plus fines montrent que cet effet est concentré dans les communes à forte densité de population, que l’Insee considère comme « grands centres urbains » et « centres urbains intermédiaires ». Aucun impact n’est observé dans les communes à plus faible densité, telles que les ceintures urbaines et les petites villes.

Pour les faits de délinquance, tels que la violence physique, les vols violents avec ou sans arme et les vols dans les véhicules, le modèle utilisé dans l’étude n’était pas applicable. Il n’est donc pas possible de conclure, pour ces faits, à la présence ou à l’absence d’un effet de l’extinction de l’éclairage public.




À lire aussi :
Éclairer la ville ou protéger la biodiversité : faux dilemme


Délinquance et éclairage nocturne, des données inédites

Pour parvenir à ces résultats, j’ai croisé deux sources de données.

La première est une base inédite qui identifie, pour chaque commune, si et depuis quand l’éclairage public est éteint. Elle s’appuie sur les travaux du Cerema, qui a eu recours à des images satellites nocturnes pour détecter des ruptures soudaines dans les séries temporelles de radiance – c’est-à-dire la lumière visible depuis l’espace – susceptibles de correspondre à des extinctions de l’éclairage public.

J’ai ainsi adapté cette méthodologie pour améliorer les performances de l’algorithme de détection et mieux distinguer les extinctions des autres changements de l’éclairage public, comme le passage à des lampes LED. La performance du modèle a ensuite été vérifiée à partir d’une base de données regroupant plusieurs centaines de communes dont les pratiques d’extinction étaient connues, notamment grâce à un partenariat avec le programme ACTEE, ce qui a permis de valider empiriquement la robustesse de l’algorithme.

Cette base de données a ensuite été croisée avec les données administratives du ministère de l’intérieur, qui recensent, pour chaque commune et chaque année, le nombre de faits de délinquance sur la période 2017-2023.

Une fois les données croisées, l’enjeu était d’identifier un lien de causalité – et non d’établir une simple corrélation – entre extinction de l’éclairage public et la délinquance. Pour cela, l’étude s’est appuyée sur la méthode des « doubles différences », couramment utilisée en économie.

Concrètement, cette approche consiste à comparer l’évolution de la délinquance dans les communes qui ont éteint leur éclairage public, avant et après la mise en place de la mesure, à celle observée dans des communes comparables n’ayant pas procédé à une extinction.

Le principe est d’isoler l’effet propre de l’extinction nocturne, en neutralisant les tendances temporelles et les différences structurelles entre les deux groupes. De plus, les autres facteurs susceptibles d’influencer la délinquance, (par exemple, la taille de l’unité urbaine, la couleur politique du maire, ou la distance de la ville au quartier prioritaire de la ville le plus proche), ont ainsi été pris en compte.

Les cambriolages ont-ils été déplacés vers les communes éclairées ?

Des analyses complémentaires suggèrent que, s’agissant des cambriolages, il n’y a pas, a priori, de phénomène de déplacement vers les communes voisines restées éclairées lorsque certaines communes pratiquent l’extinction nocturne. En revanche, il serait pertinent de mener des travaux supplémentaires pour déterminer si de tels effets de report existent à une échelle plus fine, au sein même des communes, entre des quartiers éteints et des quartiers adjacents restés éclairés.

Une étude menée en Angleterre et publiée en 2023 apporte à cet égard des éléments intéressants : elle met en évidence une baisse des vols dans les véhicules dans les rues éteintes, accompagnée d’une hausse de ces faits dans les rues voisines demeurées éclairées. En France, la granularité des données actuellement disponibles ne permet pas d’analyser ces phénomènes à une échelle infracommunale.

Plus largement, malgré l’absence d’effets ou les effets très limités observés, de futures recherches pourraient permettre de mieux comprendre les mécanismes à l’œuvre derrière ces résultats pour l’ensemble des faits de délinquance étudiés. Il serait notamment utile d’examiner si les effets – lorsqu’ils existent – varient selon le moment de la journée ou de l’année, selon certaines caractéristiques du tissu urbain, ou encore si l’extinction de l’éclairage modifie les comportements, comme la vigilance des riverains ou la fréquentation de l’espace public. Ces approfondissements contribueraient à concevoir des politiques publiques adaptées.

Ce que les collectivités locales peuvent en retenir

Les résultats de cette étude ne permettent pas de conclure à une augmentation massive de la délinquance liée à l’extinction de l’éclairage public. Pour les communes qui souhaitent mettre en place ces politiques afin de réduire la pollution lumineuse ou maîtriser leurs dépenses énergétiques, ce constat est rassurant. Pour autant, ces mesures peuvent susciter un sentiment d’insécurité chez une partie de la population, qui ne doit pas être négligé.

Image satellitaire de l’agglomération de Montpellier (Hérault), de nuit.
Image acquise le 26 août 2020 par Jilin-1 de CGsatellite et distribuée par La TeleScop, Fourni par l’auteur

Dans une autre étude, nous avons montré qu’il est possible de concevoir des politiques d’éclairage à la fois socialement acceptables et bénéfiques pour la biodiversité. Les résultats soulignent qu’une approche uniforme est peu efficace : les politiques d’éclairage nocturne doivent être pensées localement, à une échelle fine, au lampadaire près, afin d’être efficaces.

Enfin, il est important de rappeler que la lutte contre la pollution lumineuse ne se limite pas à l’extinction de l’éclairage public. De nombreuses mesures de réduction – comme l’adaptation de l’intensité ou de la température de couleur – sont largement mieux accueillies par la population, comme l’illustrent notamment les retours observés à Montpellier (Hérault).




À lire aussi :
Éclairage public : les Français sont-ils prêts à éteindre la lumière ?


The Conversation

Chloé Beaudet est membre du GDR 2202 Lumière & environnement nocturne (LUMEN) et de l’Observatoire de l’Environnement Nocturne du CNRS. Elle a reçu des financements de l’INRAE et AgroParisTech en tant que chercheuse à l’UMR Paris-Saclay Applied Economics (PSAE).

ref. Municipales 2026 : l’extinction nocturne de l’éclairage augmente-t-elle vraiment la délinquance ? – https://theconversation.com/municipales-2026-lextinction-nocturne-de-leclairage-augmente-t-elle-vraiment-la-delinquance-275601

Google, Amazon et Circle redessinent la concurrence dans l’univers des crypto-actifs

Source: The Conversation – in French – By Françoise Vasselin, Maîtresse de conférences en Sciences Economiques – Université Paris-Est Créteil (UPEC), Université Paris-Est Créteil Val de Marne (UPEC)

Aux États-Unis, l’absence de dollar numérique laisse place au développement d’infrastructures privées de paiement adossées au dollar. JosephKelly/Shutterstock

Les stablecoins, ces cryptomonnaies adossées à une monnaie de référence comme le dollar, pèsent environ 300 milliards de dollars, soit plus de 254,7 milliards d’euros, en décembre 2025. En parallèle de l’entrée en application du règlement Mica dans l’Union européenne (2024) et de l’adoption du Genius Act aux États-Unis (2025), de nouvelles infrastructures privées de paiement numérique ont émergé pour accueillir ces cryptoactifs régulés. Portées par des acteurs aussi divers que Google, Circle ou Stripe, elles pourraient redessiner les règlements des paiements numériques. Avec quel avenir ?


Alors que le bitcoin a connu son « Jeudi noir », en passant sous les 70 000 dollars (plus de 59 000 euros) début février 2026, les regards se tournent vers les stablecoins. Ces cryptoactifs sont conçus pour maintenir une valeur relativement stable, généralement indexée sur une monnaie officielle comme le dollar états-unien. Ils remplissent des fonctions monétaires explicites – paiements, transferts et réserve de valeur – et sont le plus souvent émis par des acteurs privés, comme Tether.

Le Fonds monétaire international souligne leur rôle croissant dans les paiements transfrontaliers, en particulier dans des économies confrontées à une forte inflation comme la Turquie ou le Liban. Dans ces pays, les stablecoins permettent des transferts rapides et à moindre coût, utilisés comme instruments de transaction et de préservation du pouvoir d’achat.

Longtemps, ces usages se sont développés dans un environnement dépourvu de cadre juridique spécifique. L’adoption de réglementations a ciblé prioritairement les stablecoins : d’un côté, Mica en Europe, entré en vigueur fin 2024, de l’autre, le Genius Act aux États-Unis, adopté en juillet 2025.

À ce stade, cet encadrement n’a pas (encore) déclenché l’émergence de nouveaux stablecoins majeurs. Depuis 2024, la régulation a surtout réorienté les incitations vers la construction d’infrastructures privées de paiement compatibles avec les nouveaux cadres juridiques. Si aux États-Unis, l’absence de dollar numérique laisse un espace stratégique propice au développement de ces infrastructures privées, dans l’Union européenne, la perspective d’un euro numérique pourrait réduire les incitations à l’investissement.

Alors, l’enjeu central du marché des cryptoactifs ne se situerait pas uniquement au niveau des actifs eux-mêmes, mais au niveau de leurs infrastructures ?

Mica et Genius Act : même logique, contextes différents

En Europe, le règlement Mica instaure un cadre harmonisé pour l’émission de certains cryptoactifs, avec un encadrement strict des stablecoins, notamment les e-money tokens. Cet encadrement, combiné au projet d’euro numérique, pourrait réduire les incitations des acteurs privés à investir dans des infrastructures de paiement privées. Ces dernières seraient susceptibles d’entrer en concurrence avec l’infrastructure publique de paiement développée par la Banque centrale européenne.




À lire aussi :
Stabilité affichée, risques cachés : le paradoxe des (cryptoactifs) « stablecoins »


Aux États-Unis, le Genius Act adopte une logique comparable sur le fond. Il encadre les payment stablecoins autour d’une promesse de rachat à valeur fixe, portée par des émetteurs autorisés. Cependant, le cadre institutionnel du dollar numérique des États-Unis diffère sensiblement de celui de l’Union européenne. Le CBDC Anti-Surveillance State Act, adopté par la Chambre des représentants en 2024, subordonne toute émission d’un dollar numérique par la Réserve fédérale à une autorisation explicite du Congrès. Un dispositif qui rend plus incertaine la mise en place d’un dollar numérique.

Si Mica et le Genius Act reposent sur une logique commune de responsabilisation des émetteurs de stablecoins, ils génèrent des incitations économiques différentes. En Europe, la régulation va de pair avec le développement d’une monnaie numérique de banque centrale, tandis qu’aux États-Unis elle oriente les investissements vers des infrastructures privées de paiement et de règlement.

Infrastructures privées de paiement numérique

Depuis 2024, plusieurs grandes entreprises états-uniennes développent des infrastructures privées de paiement numérique destinées aux institutions financières. L’objectif est clair : proposer des systèmes intégrant traçabilité, contrôles d’accès et prévisibilité des coûts, dans un cadre compatible avec les exigences réglementaires. Cette stratégie est cohérente avec les orientations du rapport « Blueprint for the future monetary system » de la Banque des règlements internationaux qui appelle au développement d’infrastructures monétaires plus interopérables et programmables.

Google développe le Google Cloud Universal Ledger (GCUL), une infrastructure numérique destinée aux banques et aux grandes institutions financières. Testée dans des programmes pilotes, elle implique plusieurs acteurs financiers, notamment Amina Bank, Crypto Finance Group en Suisse, le groupe CME et des banques du Moyen-Orient.

De son côté, Circle, l’émetteur de l’USDC, développe Arc, une infrastructure de règlement reposant sur une technologie de registre distribué. Déployée en phase de test à partir de l’automne 2025, Arc est expérimentée par plusieurs institutions financières et grandes entreprises technologiques, dont BlackRock, Visa, HSBC, Deutsche Bank et AWS.

Ces projets ne se contentent pas de reproduire les infrastructures bancaires existantes. Traditionnellement, le paiement (par exemple le débit d’un compte), la compensation (le calcul des positions entre banques) et le règlement final (via des systèmes des banques centrales comme Target2 en Europe) sont assurés par des systèmes distincts qui interviennent successivement dans le traitement d’une transaction.

De facto, l’enjeu de ces nouveaux projets est de regrouper ces fonctions au sein d’un même système technique, dans lequel le transfert d’un actif numérique peut valoir simultanément à la fois paiement et règlement. GCUL et Arc pourront offrir davantage de prévisibilité en matière de coûts, de délais de règlement et de conformité réglementaire.

Amazon et Walmart en embuscade

En contraste, les initiatives de stablecoins portées par les grands acteurs du commerce de détail restent, à ce stade, exploratoires. Selon des informations rapportées par le Wall Street Journal, Amazon et Walmart envisageraient l’émission d’un stablecoin. L’objectif : réduire les coûts et les délais de paiement, notamment en limitant leur dépendance aux réseaux de cartes bancaires. Aucun projet de stablecoin de détail opérationnel n’a toutefois été confirmé à ce jour par ces entreprises.

Cette prudence s’explique par une contrainte opérationnelle. Avant de lancer un stablecoin destiné à des paiements de détail à grande échelle, il est indispensable de disposer d’infrastructures de paiement conformes aux exigences réglementaires et capables de traiter des volumes très élevés de transactions.

Réduire les commissions et sécuriser les paiements

Ces infrastructures privées de paiement émergent parce qu’elles peuvent être avantageuses pour leurs développeurs comme pour leurs utilisateurs. En réduisant le nombre d’intermédiaires dans le traitement d’une transaction, les fournisseurs d’infrastructure peuvent diminuer certains coûts et capter une part plus importante des revenus liés aux paiements. Les institutions financières, de leur côté, bénéficient de règlements plus rapides, de frais plus prévisibles et d’un cadre sécurisé compatible avec les exigences des autorités.

Ces infrastructures privées de paiement numérique déplacent la concurrence vers le contrôle des canaux de règlement compatibles avec les cadres juridiques existants.

La valeur d’usage des stablecoins repose désormais sur la combinaison de deux composantes distinctes : l’actif lui-même, défini par une promesse monétaire et un émetteur identifiable, et l’infrastructure sur laquelle il est émis et circule. Cette dissociation ouvre un espace nouveau de régulation et d’investissement, portant à la fois sur les actifs et sur les infrastructures qui en conditionnent l’usage à grande échelle.

The Conversation

Françoise Vasselin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Google, Amazon et Circle redessinent la concurrence dans l’univers des crypto-actifs – https://theconversation.com/google-amazon-et-circle-redessinent-la-concurrence-dans-lunivers-des-crypto-actifs-265142

Municipales 2026 : le Parti socialiste peut-il tenir bon ?

Source: The Conversation – in French – By Pierre-Nicolas Baudot, Docteur en science politique, Université Paris-Panthéon-Assas

L’échelon municipal a toujours constitué un espace clé pour le Parti socialiste (PS). Devenu largement un parti d’élus locaux, son déclin national a renforcé encore l’importance de ses municipalités. Ces dernières décennies, son assise s’y est largement construite sur une technicisation et une dépolitisation de l’action locale. Le contexte actuel devrait, pourtant, conduire à une nationalisation et à une politisation des élections de mars prochain. À quel défi le PS doit-il s’attendre ?


La municipalisation est décisive dans l’histoire du socialisme dès la fin du XIXᵉ siècle. L’action municipale est un lieu de formation pour les cadres du parti et un laboratoire pour l’ensemble du pays. Elle lui a aussi permis de constituer ses principaux réseaux, d’entretenir ses relations avec les associations, de constituer ses clientèles électorales et de rétribuer ses militants.

Lorsque, dans les années 1970, le Parti socialiste (PS) redéfinit les rapports de force à gauche et se rapproche de l’exercice du pouvoir national, l’échelon local joue toujours un rôle clé. Les années 1980 accroissent encore la municipalisation du parti : les réformes de décentralisation augmentent les budgets et le personnel à la disposition des élus locaux et renforcent la place des carrières professionnelles liées à la politique.

Progressivement, le « socialisme municipal » ne renvoie plus à une identité singulière, tant l’action locale socialiste s’est banalisée. Pour autant, cet échelon structure toujours le PS. La place des élus locaux a continuellement crû au sein du parti et les mandats locaux demeurent un enjeu central dans le fonctionnement socialiste. C’est vrai pour les élus, mais aussi pour le personnel municipal ou les collaborateurs politiques qui dépendent directement des élections.

L’effondrement du parti au niveau national dans les années 2010 a modifié l’ancrage du socialisme sur le territoire, mais il n’a pas contredit cette observation. Certes, en 2014, le PS enregistre son plus mauvais résultat lors d’un scrutin local sous la Vᵉ République. Il revient à un niveau qu’il n’avait plus connu depuis trente-cinq ans. Il perd 49 des villes de plus de 30 000 habitants qu’il dirigeait (près de la moitié), 27 villes de plus de 50 000 habitants et plusieurs villes de plus de 100 000 habitants. En 2020, il peine à se relever de cette défaite historique.

Cependant, son effondrement à l’élection présidentielle de 2017 ne l’empêche pas de conserver toutes ses métropoles, et d’en gagner même de nouvelles (Nancy, Saint-Denis, Périgueux, Bourges ou Marseille, par exemple). Il continue de dominer, à gauche, les scrutins municipaux. Alors que ses positions électorales nationales se sont largement réduites, l’échelon municipal constitue un espace de résistance – sinon de résilience – pour le PS. L’affaiblissement militant du parti amplifie ce constat, en rendant le parti plus dépendant encore de ses ressources institutionnelles.

Une hégémonie en recomposition

Les coordonnées du problème socialiste ont cependant évolué. Les scores réalisés dans certaines métropoles ne doivent pas masquer l’érosion profonde de ses ancrages dans de nombreux territoires et la perte de villes, comme Metz, ou de certains bastions. Comme l’indiquait le cas de Nevers en 2014, le socialisme des villes moyennes s’est par endroit largement essoufflé, sur fond de déclin urbain (baisse démographique, crise économique, croissance de la précarité…) et de mobilité des catégories sociales qui lui étaient le plus favorables. Comme l’observe le géographe Achille Warnant :

« Alors qu’en 1977 la “vague rose” était d’abord l’affaire des villes moyennes, la “vague rose et verte” de 2020 est davantage l’affaire des métropoles. »

L’affaiblissement du PS l’a, de plus, rendu plus dépendant encore de ses partenaires, écologistes en particulier. Dès 2014, s’il domine encore la gauche, son hégémonie tend à se réduire : 69,3 % des mairies de gauche sortantes étaient contrôlées par le PS avant l’élection, contre 60,2 % après. En 2020, dans les villes de plus de 30 000 habitants, les scores de la gauche au premier tour se stabilisent par rapport à 2014, mais ceux du PS continuent de décliner : 36 % en 2008, 25,4 % en 2014 et 16,5 % en 2020. Le PS conserve ses principales zones de force au second tour, mais il le doit essentiellement à un renforcement de son alliance avec les écologistes auxquels il concède de plus en plus de place dans les accords.

Une gauche divisée

Le PS aborde les élections municipales de 2026 après avoir refusé de censurer le gouvernement Lecornu – contrairement aux autres partis de gauche. Il a acté les désaccords stratégiques au sein de son camp, espérant cultiver l’image d’un parti « responsable ». L’importance prise dans le débat public par ces désaccords et les tensions afférentes sont de nature à se répliquer sur le jeu municipal.

Cela vaut d’autant plus que, contrairement aux derniers scrutins, LFI investit l’élection en présentant des candidats dans de nombreuses villes. Le mouvement mène campagne sur la « rupture », y compris avec les édiles socialistes. Ceux-ci rejettent majoritairement, en retour, toute idée d’alliance avec LFI. La proximité de l’échéance présidentielle, en 2027, ne peut qu’attiser cette rivalité.

Dans les villes gérées par les socialistes, cette situation pourrait accentuer la politisation de l’élection et cliver l’électorat de gauche. Cela devrait en particulier s’observer dans les villes de petites couronnes métropolitaines et dans les grandes villes. LFI y obtient ses meilleurs scores et peut espérer puiser dans le réservoir électoral socialiste. Le PS pourrait perdre à cette occasion certaines des grandes villes qu’il dirige – comme Lille, Paris ou Rennes – où des listes insoumises pourraient se maintenir au second tour. Outre les municipalités, c’est également la présidence de certaines de ses métropoles que le PS pourrait être contraint d’abandonner.

La capacité du PS à nouer des alliances, avec les écologistes en premier lieu, sera donc décisive. En retour, le parti pourrait être contraint de concéder plus de places encore à ces alliés.

2026 : une tension entre nationalisation et dépolitisation ?

Les politistes Jean-Yves Dormagen et Stéphane Fournier accréditent la thèse d’une politisation du scrutin municipal dans les grandes villes. Ils font l’hypothèse d’une « polarisation “écologico-identitaire” ». Elle serait appuyée par les politiques progressistes et écologiques des municipalités de gauche et par le « backlash culturel anti-écologiste et sécuritaire » qu’oppose la droite. Elle se manifesterait par la critique des rénovations urbaines destinées à adapter davantage les villes au changement climatique et par des attitudes conservatrices et identitaires. Certes, les grandes villes, où les jeunes et les diplômés favorables à la gauche sont très présents, sont portées à gauche. Mais, la politisation de ces thématiques pourrait mobiliser l’électorat de droite – pour qui elle s’articule à un sentiment décliniste.

Elle pourrait également cliver l’électorat de gauche. La réaction face au changement climatique suscite par exemple certains désaccords, comme sur les zones à faibles émissions (ZFE) que LFI propose de suspendre pour ne pas faire porter aux classes populaires le poids des politiques environnementales. Il en va de même des modalités de lutte contre les discriminations, dont LFI a fait l’un de ses thèmes de campagne. L’électorat de gauche pourrait ainsi se diviser sur ces thèmes, en particulier entre les offres politiques du PS, des écologistes et de LFI.

L’enjeu est donc sans doute moins de savoir si les grandes villes continueront de voter à gauche que de savoir si les socialistes seront en mesure d’en bénéficier. De même, dans les villes qu’il ne dirige pas, rien n’indique que le PS puisse tirer un profit mécanique de cette politisation : soit parce que, comme à Lyon ou à Caen, les écologistes semblent mieux placés pour le faire ; soit parce que, comme à Toulouse, la droite a investi la question de l’adaptation des villes au changement climatique. C’est d’autant plus vrai que, dans l’opposition, le PS peine à fidéliser des électeurs. En témoigne le fait que les villes de plus de 100 000 habitants perdues en 2014 au profit de l’UMP n’ont pas, depuis, été reconquises.

Si le scrutin venait à être nationalisé dans les grandes villes, il pourrait contrevenir à la trajectoire des municipalités socialistes. Celles-ci se sont épanouies autour d’un brouillage politique produit par la technicisation et la dépolitisation du discours municipal. Si les élus socialistes nationaux peuvent espérer tirer profit de leur attitude à l’égard du gouvernement, les élus locaux sont peu impliqués dans la vie politique nationale. Pour minimiser l’empreinte du débat national, ils pourraient être incités à prolonger ces attitudes passées : valoriser leur enracinement local et mettre à distance leur affiliation partisane.

Pour autant, la question du leadership à gauche restant ouverte et l’élection présidentielle de 2027 se profilant, les résultats des grandes villes feront inévitablement l’objet d’une extrapolation nationale. Quoi qu’il en soit, les répercussions de la vie politique nationale sur les élections municipales risquent de prolonger encore la marginalisation des enjeux locaux observée lors des scrutins précédents.

The Conversation

Pierre-Nicolas Baudot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Municipales 2026 : le Parti socialiste peut-il tenir bon ? – https://theconversation.com/municipales-2026-le-parti-socialiste-peut-il-tenir-bon-274889

One Health : un label parfois flou, mais une approche scientifique éprouvée

Source: The Conversation – in French – By Marisa Peyre, Deputy head of ASTRE research unit, epidemiologist, Cirad

Du fait de l’urbanisation croissante, de plus en plus d’habitats sont désormais partagés entre humains et animaux sauvages. Aditya Sahoo/Bhubaneswar (OD, Inde).

La pandémie de Covid-19 a révélé l’urgence de repenser notre approche de la santé. Aujourd’hui, « One Health », qui relie la santé humaine, animale et environnementale, s’est imposée dans les discours, mais fait parfois l’objet de confusion, voire de détournements. Bien mise en œuvre, elle constitue pourtant une conception éprouvée pour renforcer la prévention sanitaire mondiale.


Pandémies, résistance antimicrobienne, maladies vectorielles, effondrement de la biodiversité, dégradation des sols, pollutions chimiques, crises alimentaires… nous avons aujourd’hui une conscience aiguë des liens étroits entre enjeux de santé humaine, animale et environnementale. Face à la multiplication des crises sanitaires, environnementales et climatiques, le concept « One Health » est devenu central pour les analyser et y répondre.

Issues de réflexions anciennes, ses bases fondatrices actuelles ont été posées par les principes de Manhattan, formulés en 2004 lors de la conférence « One World, One Health » organisée par la Wildlife Conservation Society. Ils reconnaissent l’interdépendance étroite entre la santé humaine, la santé animale et la santé des écosystèmes, et appellent à une approche intégrée pour prévenir les crises sanitaires, environnementales et sociales. Cette vision, qui dépasse la seule gestion des risques sanitaires, invite à repenser les modes de production, de consommation et de gouvernance. L’enjeu ? Préserver durablement les socioécosystèmes et les communautés qui en dépendent.

Malgré l’intérêt croissant que le One Health suscite, son utilisation en recherche et ses applications restent floues et souvent mal comprises. Trop souvent, il est réduit à un slogan politique ou à une gestion biomédicale des zoonoses, sans prendre en compte l’interdépendance des facteurs écologiques, sociaux et économiques. Ces derniers conditionnent pourtant la santé globale et la dynamique des crises sanitaires.

Un cadre opérationnel de prévention

Depuis plus de vingt ans, des initiatives portées par la science se développent pour mettre en œuvre de façon concrète l’approche « One Health ». Au Cirad, des travaux sur les maladies animales émergentes, les interfaces faune-élevage-humains et les systèmes agricoles tropicaux ont mis en évidence, dès les années 2000, les liens étroits entre santé, biodiversité et usages des territoires.

Nos recherches ont peu à peu intégré les dimensions environnementales, sociales et alimentaires. L’enjeu est de passer d’une logique de gestion des crises à une approche de prévention des risques d’émergence. En 2021, une coalition internationale portée par la recherche et baptisée PREZODE a été créée pour mener des opérations de prévention fondée sur l’approche One Health.

Elle intervient en Afrique, en Asie, en Amérique latine et dans les Caraïbes pour comprendre, réduire et détecter de façon précoce les risques en santé et éviter les épidémies.

Gestion des écosystèmes, agroécologie et surveillance sanitaire

En Guinée, ses équipes ont ainsi observé comment les pratiques agricoles intensives affectant la ressource forestière favorisaient l’intensification des contacts humains-faune. Ces contacts favorisent la transmission entre humains et animaux sauvages de maladies zoonotiques, comme les fièvres hémorragiques (Ebola, Lassa, Marburg).

Avec les communautés locales, des stratégies de prévention basées sur la gestion des écosystèmes ont été mises en place pour limiter le risque d’émergence de nouvelles épidémies.

À Madagascar, des scientifiques du Cirad, en partenariat avec l’ONG Pivot et l’Institut de recherche et de développement (IRD), ont développé une méthode de surveillance intégrée des risques sanitaires. Elle combine les données vétérinaires, humaines et environnementales, pour mieux anticiper les épidémies émergentes.

Au Gabon, dans le cadre d’un projet qui soutient les associations de chasseurs dans leur gestion des ressources forestières – y compris la biodiversité – nous avons mis en place un système de surveillance communautaire pour détecter très rapidement les évènements sanitaires suspects. Ceci a été mené en collaboration, avec le Centre interdisciplinaire de recherche médicale de Franceville (CIRMF).

En Asie du Sud-Est, les actions s’inscrivent dans une approche agroécologique qui articule les enjeux de santé et de gouvernance territoriale. Elles visent à accompagner des transitions agricoles et à réduire les pressions sur les écosystèmes (déforestation, usage des intrants, artificialisation). L’enjeu est d’améliorer la résilience des systèmes alimentaires locaux et la prévention des risques sanitaires, à l’interface entre humains, animaux et environnement.

Ces démarches reposent sur des diagnostics territoriaux participatifs, le croisement de données agricoles, écologiques et sanitaires et le soutien à des pratiques agroécologiques adaptées aux contextes locaux (diversification des cultures, gestion intégrée des élevages, restauration des paysages). L’objectif est de faire de l’agroécologie un levier pour prévenir les émergences infectieuses, améliorer la sécurité alimentaire et permettre un développement territorial durable, en cohérence avec l’approche One Health.

Une gouvernance fragmentée

Ces exemples illustrent l’efficacité d’une prévention alliant une vision systémique des enjeux sanitaires et une gouvernance partagée entre acteurs locaux, scientifiques et autorités gouvernementales. Malgré tout, de nombreux obstacles subsistent.

La fragmentation institutionnelle reste l’un des plus grands défis. À toutes les échelles, les secteurs de la santé, de l’agriculture et de l’environnement ne communiquent pas assez, ce qui freine la mise en œuvre d’une gouvernance efficace. La voix des communautés est rarement sollicitée. Les projets One Health sont, en outre, souvent financés à court terme et souvent fléchés sur les zoonoses uniquement. Cela alimente le flou autour du concept et n’encourage pas son appropriation par les pays qui en auraient pourtant le plus besoin.

Les acteurs de terrain soulignent que l’accès en temps utile à des données locales et nationales – depuis leur collecte jusqu’à leur partage et leur analyse – est central. Ce sont elles qui permettent de renforcer la surveillance et la prévention des maladies zoonotiques et construire des systèmes plus résilients, capables d’anticiper et d’atténuer en temps réel les menaces sanitaires actuelles et futures. Il est nécessaire, pour cela, d’être doté d’infrastructures de données solides et partagées entre les secteurs concernés, et de les mobiliser pour développer des outils de modélisation prédictive pertinents. Mais pas seulement : une réponse rapide, adaptée et coordonnée au niveau local peut suffire à prévenir les risques d’émergence.

Risque de « One Health washing »

Sans une collaboration efficace entre les secteurs, le risque est de voir se développer un « One Health washing ». Il existe de nombreux projets qui se revendiquent du concept, mais sans mettre en place de travaux ou d’actions réellement intégrées.

C’est le cas de publications traitant de pathogènes zoonotiques, mais uniquement focalisées sur la santé humaine. Idem pour certaines initiatives agricoles qui utilisent le terme abusivement. Toujours dans ce cadre, certaines études se réclament de l’approche One Health principalement au titre d’une mobilisation interprofessionnelle – par exemple via l’implication de réseaux vétérinaires dans le diagnostic humain – sans pour autant mettre en œuvre un véritable design d’étude intégrant conjointement des données humaines, animales et environnementales, ni analyser les effets d’une action spécifique sur les différents secteurs.

Pour autant, ces projets sont importants. Ils peuvent contribuer à renforcer des approches plus intégrées de la santé. À ce titre, ils constituent des étapes intermédiaires vers un One Health plus abouti. Le principal risque réside plutôt dans l’usage extensif et peu exigeant du terme One Health, qui, en devenant un label fourre-tout, finit par en affaiblir la portée scientifique, opérationnelle et politique.

Dans ce contexte, clarifier les fondements et les modalités d’application du One Health est essentiel. C’est l’objectif de l’Atlas One Health, qui propose une lecture de cette approche articulant santé humaine, animale, des écosystèmes, mais aussi agricultures et systèmes alimentaires, dynamiques sociales, gouvernance et territoires. Avec des études de cas, des cadres analytiques et des outils issus du terrain, cet ouvrage vise à faire du One Health un véritable cadre d’action collective et de prévention.

L’un des défis les plus importants est d’intégrer la dimension sociale et de genre pour garantir des solutions inclusives et efficaces. Ceci évitera des interventions mal adaptées qui risqueraient de creuser davantage les inégalités. En milieu rural notamment, les femmes jouent un rôle clé dans l’alimentation, l’approvisionnement en eau et la gestion des ressources naturelles. Elles restent pourtant souvent invisibles dans les politiques de santé publique et de prévention.

Un investissement plus qu’un coût

Le financement de la prévention One Health doit être considéré comme un investissement stratégique, et non comme un coût. Moins spectaculaires que la gestion des crises sanitaires, les approches préventives sont largement plus rentables et engendrent des co-bénéfices majeurs : adaptation et atténuation du changement climatique, systèmes agricoles plus durables, réduction des intrants chimiques, protection de la biodiversité et amélioration de la qualité de l’alimentation.

Les travaux menés par le Cirad, l’initiative PREZODE et toute la communauté internationale en faveur de ces principes s’accordent sur le constat que ces actions renforcent simultanément la santé, les moyens de subsistance et la résilience des territoires. Or, la prévention demeure trop dépendante de financements internationaux ponctuels : elle doit être inscrite dans des budgets nationaux pluriannuels intégrés aux politiques agricoles, sanitaires, environnementales et alimentaires, afin de soutenir des transformations structurelles durables.

Anticiper les crises demande de repenser fondamentalement nos systèmes. Une approche « One Health » transformatrice nécessite un engagement politique durable, de la coopération internationale et une volonté commune d’intégrer les dimensions sociales et écologiques dans la gestion des risques sanitaires. Un travail de longue haleine qui est déjà en marche. Ces messages seront portés au cours des évènements organisés par PREZODE lors du Sommet One Health, qui se tiendra à Lyon (Rhône), le 7 avril 2026 sous la présidence française du G7.

The Conversation

Marisa Peyre est membre de PREZODE

François Roger est affilié au CIRAD, partenaire du programme PREZODE mentionné dans cet article.

ref. One Health : un label parfois flou, mais une approche scientifique éprouvée – https://theconversation.com/one-health-un-label-parfois-flou-mais-une-approche-scientifique-eprouvee-273540

Rire du malaise : la « cringe comedy », nouveau manuel de savoir-vivre ?

Source: The Conversation – in French – By Carine Farias, Associate Professor in Entrepreneurship and Business Ethics, IÉSEG School of Management

_The Office_ (NBC, États-Unis), saison 3, épisode 10 « A Benihana Christmas » (2006).

Tant sur les réseaux sociaux que dans les séries télévisées, le contenu « cringe », visant à provoquer le rire par le malaise, est devenu un phénomène culturel. Preuve de son foisonnement, le dictionnaire Robert a fait admis en 2019 le mot « malaisant » utilisé par le public français en référence à ce type de contenus. Mais pourquoi la « cringe comedy », genre cinématographique fondé sur un comique ambivalent imprégné de gêne et frôlant la moquerie, est-il si populaire aujourd’hui ?


Le terme anglais « cringe » évoque un mouvement de recul, ce réflexe de se recroqueviller face à une situation embarrassante. C’est justement sur cette réaction physique et émotionnelle ambivalente mêlant l’embarras, la gêne et la répulsion, que repose la cringe comedy.

La cringe comedy est un genre hybride mêlant drame et humour, qui mise sur le malaise pour provoquer le rire. Depuis deux décennies, il s’est imposé sur nos écrans avec la diffusion de séries comme The Office, Curb Your Enthusiasm, ou encore The Curse. Il s’appuie sur des procédés filmiques donnant une impression de moments pris sur le vif, pour mettre en scène des maladresses sociales.

Si certains chercheurs voient les prémices de la cringe comedy dans l’émission « Saturday Night Live » diffusée dès 1975 aux États-Unis, c’est la série britannique The Office (2001) qui fixe les codes esthétiques du genre. Sous couvert d’un faux reportage de la BBC, cette série montre le quotidien des employés d’une petite usine de fabrication de papier dont le patron, protagoniste central, est persuadé d’être drôle et sympathique, alors qu’il génère l’embarras de ses employés. Forte de son succès, cette série réalisée par Ricky Gervais et Stephen Merchant a été adaptée dans 16 pays, dont les États-Unis par NBC.

De nombreuses productions repoussant les limites du supportable ont suivi. Par exemple, le comédien, scénariste et producteur canadien Nathan Fielder a fait du malaise le ressort principal de ses productions audiovisuelles. De Nathan For You à The Rehearsal en passant par The Curse, il brouille volontairement les frontières entre réalité et mise en scène. Ses formats alambiqués et dérangeants placent les spectateurs dans une position inconfortable où ils ne savent plus s’ils doivent rire ou détourner le regard.

Cet essor est indissociable de la multiplication des vidéos virales qualifiées de malaisantes sur les réseaux sociaux. Imprégnées de la culture railleuse voire haineuse des trolls, ces vidéos capturant des faux pas ou des comportements décalés ont participé à faire de la cringe comedy un phénomène culturel de masse.

L’esthétique du malaise

La cringe comedy repose sur une grammaire audiovisuelle et narrative bien précise, qui rompt avec les codes classiques de la fiction. L’esthétique du malaise repose d’abord sur des protagonistes à la moralité complexe et nuancée, tel que l’égocentrique et misanthrope Larry, dans Curb Your Enthusiasm. Loin des héros inspirants, ces personnages ont des comportements souvent discutables, enchaînant les maladresses sociales en abordant régulièrement des sujets tabous. On les déteste autant qu’on les plaint : bien que pitoyables, leur vulnérabilité les rend étrangement attachants.

Le malaise est amplifié par des filtres éditoriaux qui injectent du réalisme dans la temporalité des interactions sociales scriptées. Les interactions traînent ainsi en longueur, incluant souvent de longs et troublants silences ainsi que des dialogues superflus. L’absence quasi systématique de musique de fond renforce ce réalisme. Dénué d’effets sonores, ce format n’offre pas de guide à l’interprétation des scènes, laissant les spectateurs dans une ambiguïté émotionnelle. Tout cela laisse à la gêne le temps de s’installer.

Enfin, l’esthétique de la cringe comedy repose souvent sur une caméra volontairement imparfaite. En feignant l’amateurisme – plans tremblants, zooms brusques et cadrages serrés sur les visages – la réalisation donne l’impression d’enregistrements pris sur le vif, accentuant l’impression de réalisme et d’authenticité des maladresses sociales mises en spectacle.

La cringe comedy : un outil normatif ?

Si nous éprouvons une telle fascination pour le malaise, c’est certainement à cause de sa portée normative. En observant et en qualifiant les agissements des autres comme des faux pas, nous identifions et (re)définissons collectivement les frontières de l’acceptable, de l’audace et du ridicule.

Les travaux du sociologue Erving Goffman peuvent éclairer cette dynamique. Selon lui, nous jouons tous des rôles en société, qui dépendent du contexte dans lequel on se trouve. Afin que les interactions sociales soient fluides, nous adaptons sans cesse notre comportement aux attentes codifiées des autres et de notre environnement. Les maladresses sociales émergent lorsque nous ne parvenons pas à décrypter ces attentes.

La cringe comedy se nourrit de ces transgressions aux codes du savoir-vivre. En mettant en scène des maladresses sociales, la cringe comedy nous rappelle à l’ordre. Le malaise renforce les normes sociales en nous (ré)apprenant, par un rire ambivalent, les règles de la bienséance. Cela nous amène à désapprouver ensemble les comportements condamnables.

Loin d’une leçon de morale rationalisée, ce processus normatif est avant tout une réaction viscérale qui intervient directement dans notre corps. Pour Johnathan Logan Smilges, chercheur en langue et littérature anglaise, le malaise est un réflexe émotionnel culturellement conditionné qui témoigne de notre lien viscéral et affectif aux normes sociales. En d’autres termes, c’est l’expérience du politique exprimée dans et par le corps. D’autres expériences artistiques font appel à cette viscéralité du politique. C’est ce qui se joue lorsque Lionel Richie se dit « mortifié » devant la prestation musicale décalée et dérangeante de Sophie Powers dans l’émission American Idol. Dans l’art contemporain, un nombre croissant d’artistes génèrent le malaise, perçu comme émotion phare de notre époque, pour questionner nos pratiques socioculturelles à l’ère des réseaux sociaux.

Dans ce contexte, le rire provoqué par le malaise est ambivalent, à mi-chemin entre embarras et répugnance. Il s’apparente à un rire nerveux qui libère des émotions négatives liées à la gêne que l’on ressent par procuration pour autrui. Oscillant entre mépris et empathie, on finit par ressentir un certain confort à observer l’inconfort des autres : tant que nous restons spectateurs distants, on se rassure sur notre capacité à ne pas commettre de tels impairs.

Le potentiel politique du malaise

Malgré sa portée normative, la cringe comedy peut néanmoins ouvrir des espaces réflexifs, de par ses codes audiovisuels particuliers. La gêne surgit souvent lorsque des sujets et comportements tabous sont abordés sans tact ni nuances, dans une atmosphère brute et minimaliste (absence de musique, silences prolongés, etc.). En nous privant des filtres éditoriaux qui guident habituellement notre interprétation, la cringe comedy déstabilise et nous pousse à une participation active. C’est seul que le spectateur doit interroger ses propres limites morales en se demandant : « Dois-je rire, me moquer ou me révolter ? »

D’autre part, les séries de cringe comedy déconstruisent les idéaux de la perfection en célébrant des antihéros ordinaires et imparfaits. Ils nous rappellent avec une sincérité désarmante que l’erreur est humaine. Loin des standards de la perfection, la mise en avant de la vulnérabilité peut libérer les spectateurs d’une certaine pression sociale. Représenter des hommes vulnérables et maladroits dans The Office ou The Curse par exemple, peut bousculer les attentes genrées d’assurance et de performance souvent imposées aux hommes. De même, les protagonistes féminines de Fleabag ou Girls enfreignent continuellement des tabous sociaux. Ces séries sont vues comme des outils de réflexions politiques qui questionnent les attentes traditionnelles de la féminité. Aujourd’hui, revendiquer notre vulnérabilité, nos imperfections et même une esthétique « cringe » peut devenir un acte politique : en s’autorisant à créer le malaise, on remet en question la rigidité des normes sociales.

Mais attention, le « cringe » oscille toujours entre empathie et mépris : nous ne ressentons pas toujours le malaise avec les personnages, mais souvent à leur dépens. Il est donc crucial de se demander qui s’autorise à rire de qui ? Si la cringe comedy reste produite par et pour les groupes dominants, elle risque de renforcer les stéréotypes et les rapports de force existants, au lieu de les subvertir.

Le potentiel subversif de la cringe comedy s’exprime pleinement lorsque les minorités façonnent le script afin que l’on ressente le malaise de leur point de vue, face aux normes des groupes dominants. Les performances de l’humoriste britannique Laurence Clark illustrent bien cette dynamique. Dans ses sketchs en caméra caché, il montre les réactions malaisantes des passants face à son handicap. En commentant ces scènes lors de ses spectacles, il pousse le public à réfléchir de manière critique à leurs propres réactions, pour les amener à questionner les représentations normées des handicaps.

Entre outil normatif et levier subversif, la cringe comedy nous prouve qu’en riant du malaise nous dessinons, un silence gênant après l’autre, les contours de notre vivre-ensemble.

The Conversation

Carine Farias ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Rire du malaise : la « cringe comedy », nouveau manuel de savoir-vivre ? – https://theconversation.com/rire-du-malaise-la-cringe-comedy-nouveau-manuel-de-savoir-vivre-276127

Realpolitik et fiabilité : le dilemme des négociations avec la République islamique d’Iran

Source: The Conversation – in French – By Djamchid Assadi, Professeur associé au département « Digital Management », Burgundy School of Business

Négocier avec l’Iran sur son programme nucléaire est possible, mais il convient, pour obtenir des résultats tangibles, de s’appuyer sur les leçons du passé et sur les réflexions théoriques conduites par divers politologues majeurs des dernières décennies.


Le dilemme est ancien et pourtant intact : négocier est parfois nécessaire pour éviter le pire. Mais les démocraties peuvent-elles, sans affaiblir les principes mêmes qu’elles prétendent défendre, négocier avec des régimes régulièrement mis en cause par des organisations internationales pour violations des droits fondamentaux de la même façon qu’elles négocient entre elles ?

Des compromis signés seront-ils respectés ?

Le régime auquel nous pensons ici en premier lieu est la République islamique d’Iran, et les mises en cause évoquées ci-dessus ne relèvent pas d’une appréciation polémique : elles sont régulièrement documentées par des organisations indépendantes comme Amnesty International ou Reporters sans frontières, par des think tanks comme Freedom House, ainsi que par divers indicateurs internationaux sur la démocratie et l’État de droit.

Chez Raymond Aron, la tension entre valeurs démocratiques et possibilité de négocier avec des régimes autoritaires n’oppose pas naïvement morale et intérêt, mais deux exigences constitutives de la politique étrangère : la prudence stratégique – éviter la guerre dans un monde anarchique – et la fidélité à des normes sans lesquelles l’ordre international ne serait qu’un rapport de forces dépourvu de légitimité.

La question n’est donc pas de savoir s’il faut dialoguer avec des régimes à faible redevabilité institutionnelle et à structure décisionnelle opaque. Mais si l’on admet que la négociation peut être nécessaire pour prévenir des risques majeurs, encore faut-il s’interroger sur les conditions de fiabilité des engagements qui en résultent. Comment s’assurer que les compromis conclus ne restent pas des promesses réversibles ?

L’histoire offre des illustrations concrètes de ce risque de réversibilité. En 1938, la France et le Royaume-Uni négocient avec l’Allemagne nazie d’Adolf Hitler les accords de Munich, acceptant l’annexion des Sudètes – région frontalière de la Tchécoslovaquie majoritairement peuplée d’Allemands – dans l’espoir de préserver la paix européenne. Faute de mécanismes contraignants de mise en œuvre et de garanties crédibles, les accords offrent simplement un répit stratégique à Hitler, qu’il exploite pour consolider son réarmement et poursuivre son expansion territoriale, avant d’envahir la Pologne en 1939.

Dans les années 1990, les Nations unies, l’Union européenne (UE) et les États-Unis négocient avec le président serbe Slobodan Milosevic plusieurs cessez-le-feu destinés à mettre fin aux opérations coercitives en Bosnie. Ces engagements restent seulement partiellement appliqués tant qu’ils ne sont pas adossés à un dispositif contraignant, celui des accords de Dayton de 1995, soutenus par une présence militaire de l’Otan chargée d’en garantir l’exécution. Dans les deux cas, la leçon est claire : sans dispositifs de vérification et de contrainte capables de rendre la défection coûteuse, la négociation risque de demeurer un levier tactique plutôt qu’un instrument de stabilisation durable.

La question centrale devient alors celle de la crédibilité des engagements issus d’une négociation destinée à prévenir un risque stratégique majeur : comment s’assurer que les promesses formulées ne demeurent pas réversibles ? Les penseurs libéraux des relations internationales ont précisément analysé cette question.

L’éclairage de la science politique

Dans After Hegemony (1984, sorti en français en 2015 aux éditions de l’Université de Bruxelles sous le titre Après l’hégémonie, Coopération et désaccord dans l’économie politique internationale), Robert Keohane n’aborde pas directement la négociation, mais les conditions institutionnelles qui rendent des engagements internationaux crédibles dans un système anarchique, dépourvu d’autorité centrale. Il montre qu’un accord ne devient fiable que lorsque des mécanismes institutionnels rendent observable et coûteuse la défection des engagements pris. Transparence, inspections, répétition des interactions : ces dispositifs permettent de vérifier le respect des engagements et de transformer un compromis politique en obligation crédible. Keohane prolonge cette réflexion dans Power and Governance in a Partially Globalized World (2002), confirmant le rôle central des institutions dans la fiabilité des engagements internationaux.

Andrew Moravcsik, dans The Choice for Europe (1998), met l’accent sur l’ancrage domestique des engagements. Selon son approche libérale intergouvernementale, un accord international ne devient solide que s’il est soutenu, à l’intérieur même du régime signataire, par des acteurs ayant intérêt à son maintien. Lorsque le coût politique interne d’un abandon des engagements augmente, la crédibilité externe de ces engagements s’en trouve renforcée.

Anne-Marie Slaughter, dans A New World Order (2004), insiste pour sa part sur la mise en œuvre transgouvernementale des engagements. Un compromis ne devient robuste que s’il s’inscrit dans des réseaux d’autorités administratives, de régulateurs et d’agences spécialisées capables d’en assurer l’application concrète et la continuité au-delà des alternances politiques. À défaut de tels relais institutionnels, un engagement obtenu au sommet demeure fragile.

Il ressort de ces analyses qu’un engagement issu de négociations internationales n’est crédible que s’il réunit plusieurs conditions complémentaires : être vérifiable par des mécanismes de transparence et d’inspection ; s’inscrire dans des interactions répétées qui rendent la défection stratégiquement coûteuse ; être soutenu à l’intérieur du régime signataire par des acteurs ayant intérêt à son maintien ; et être relayé par des réseaux transgouvernementaux – administratifs, régulatoires ou judiciaires – capables d’en assurer l’application et la continuité au-delà des alternances politiques.

Hannah Arendt apporte un éclairage complémentaire. Dans les Origines du totalitarisme (1951), elle montre que dans certains systèmes politiques, la responsabilité décisionnelle se dilue dans des structures bureaucratiques et idéologiques peu transparentes. Lorsque les centres effectifs de décision sont difficiles à identifier et que les mécanismes de redevabilité sont limités, la logique même de l’engagement politique s’en trouve fragilisée. La question n’est plus seulement celle de la volonté déclarée, mais celle de la capacité institutionnelle à garantir la continuité et l’imputabilité des décisions prises.

Les négociations sur le nucléaire iranien et leurs faiblesses

Le dossier du programme nucléaire de la République islamique d’Iran peut être relu à l’aune de ces critères. En novembre 2004, sous la présidence de Mohammad Khatami, présenté comme modéré par rapport aux radicaux du régime, l’accord de Paris formalise une suspension volontaire d’activités sensibles sous vérification internationale. Le dispositif répond partiellement à l’exigence de vérifiabilité. Toutefois, l’élection en 2005 d’un président nettement plus radical, Mahmoud Ahmadinejad, modifie la trajectoire : certaines activités reprennent dès 2005, puis l’enrichissement est relancé en 2006. L’épisode suggère que l’engagement n’est pas suffisamment soutenu par des acteurs internes capables d’en garantir la continuité, et que le coût politique domestique d’une révision apparaît limité.

La dynamique se rejoue avec le Joint Comprehensive Plan of Action (JCPoA) de 2015, dit Accord de Vienne. L’accord prévoit des mécanismes de contrôle détaillés sous supervision de l’Agence internationale de l’énergie atomique et s’inscrit dans un cadre multilatéral. Jusqu’en 2018, l’AIEA certifie à plusieurs reprises que la République islamique respecte les obligations techniques prévues par le texte. En mai 2018, lors du premier mandat de Donald Trump, les États-Unis annoncent pourtant leur retrait unilatéral, l’administration estimant que l’accord ne traitait ni du programme balistique iranien ni des clauses dites « sunset » – dispositions prévoyant l’expiration progressive de certaines limitations nucléaires après un délai déterminé. À la suite de ce retrait, Téhéran engage des dépassements progressifs des seuils d’enrichissement fixés par le JCPOA. La réversibilité apparaît alors des deux côtés : retrait américain d’un engagement multilatéral d’une part, non-respect graduel de certaines clauses par Téhéran d’autre part.

Cette fragilité tient aussi au faible ancrage institutionnel transversal de l’accord : contesté par une partie du Congrès américain et par des acteurs influents au sein du système politico-stratégique iranien, il ne créait pas de coûts domestiques suffisamment élevés pour rendre la défection politiquement dissuasive.

Le dossier des arrestations de ressortissants binationaux éclaire plus spécifiquement le cas de la République islamique d’Iran. Ces dernières années, plusieurs binationaux – notamment Nazanin Zaghari-Ratcliffe (britannique-iranienne) ou Fariba Adelkhah (franco-iranienne) – ont été arrêtés et détenus en Iran dans des contextes de tension diplomatique. Parallèlement, des échanges de prisonniers ont eu lieu, comme celui impliquant le chercheur américain Xiyue Wang en 2019 ou l’accord d’échange conclu avec Washington en 2023. Cette coexistence d’un dialogue diplomatique et de mesures coercitives suggère que les interactions ne sont pas pleinement encadrées par des mécanismes stabilisés et réciproques comparables à ceux existant entre États liés par des accords formalisés d’extradition. Dans ces différents domaines – nucléaire et détentions – la négociation demeure exposée aux variations du rapport de forces plutôt qu’inscrite dans une architecture institutionnelle consolidée.

La question n’est donc pas de qualifier moralement ces séquences, mais d’évaluer si les engagements pris répondent aux critères de crédibilité précédemment établis.

Les conditions d’une négociation fiable

Si l’on souhaite maintenir la négociation tout en renforçant sa fiabilité, plusieurs pistes peuvent être envisagées dans le cadre théorique esquissé plus haut.

Premièrement, renforcer les dispositifs de vérification et inscrire les engagements dans des interactions réellement répétées et conditionnelles, de manière à accroître le coût stratégique d’une défection.

Deuxièmement, structurer les accords de manière à créer des incitations internes à leur continuité. Il ne faut pas se leurrer : les négociateurs occidentaux ne peuvent « fabriquer » des relais domestiques au sein de la République islamique d’Iran. En revanche, ils peuvent concevoir des engagements qui s’inscrivent dans des lignes de différenciation déjà présentes au sein du système politico-institutionnel. Les séquences nucléaires conduites sous la présidence de Mohammad Khatami (1997-2005), puis lors de la négociation du JCPOA en 2013-2015, ont reposé sur l’existence de sensibilités plus favorables à l’ouverture internationale.

Lorsque des bénéfices économiques, scientifiques ou techniques sont clairement identifiables, ils tendent à renforcer ces segments administratifs et économiques ayant intérêt à la stabilité des engagements. Des dynamiques comparables ont été observées ailleurs : les accords d’Helsinki de 1975 ont offert des points d’appui normatifs aux réformateurs d’Europe de l’Est dans les années 1980 ; l’ouverture économique de la Chine à partir de 1978, puis son accession à l’OMC en 2001 ont consolidé des coalitions technocratiques favorables à l’intégration internationale ; la normalisation américano-vietnamienne engagée en 1995 a accompagné des réformes économiques internes. Toutefois, plus les fractions conservatrices et radicales deviennent prédominantes, plus cette condition devient difficile à satisfaire : la crédibilité d’un accord dépend alors de sa capacité à produire des coûts politiques internes suffisants pour dissuader les radicaux de le remettre en cause.

Troisièmement, élargir les réseaux transgouvernementaux au-delà du seul niveau exécutif. Certes, des mécanismes existent déjà : l’Agence internationale de l’énergie atomique (AIEA) assure un contrôle technique central. Mais l’expérience montre que ces dispositifs ne suffisent pas toujours à dissiper durablement la défiance. La révélation tardive de certains sites nucléaires non déclarés – comme Natanz en 2002 ou Fordow en 2009 – a illustré les limites d’un système reposant principalement sur la déclaration et l’inspection encadrée.

En outre, la robustesse d’un accord nucléaire dépend aussi de son articulation avec d’autres préoccupations stratégiques, notamment les capacités balistiques ou le soutien logistique et financier à certains groupes armés désignés comme terroristes par plusieurs États. Lorsque ces dimensions restent en dehors du cadre négocié, elles alimentent la contestation politique de l’accord. D’où l’intérêt d’une architecture plus dense associant autorités de régulation, réseaux techniques et canaux académiques – y compris au sein de la diaspora iranienne – afin de renforcer l’environnement institutionnel dans lequel les engagements sont appliqués.

Une telle approche ne relève ni du contournement ni de l’ingérence. Elle vise à inscrire la négociation dans une profondeur institutionnelle susceptible d’en réduire la fragilité.

La realpolitik, chez Aron, n’est pas l’abandon des principes ; elle est l’acceptation lucide des contraintes. Mais lorsqu’elle se limite à des arrangements temporaires sans architecture institutionnelle capable d’en garantir la continuité, elle risque d’affaiblir la crédibilité normative qu’elle cherche précisément à préserver.

La question n’est donc pas de savoir s’il faut négocier avec la République islamique d’Iran. Elle est de déterminer si la négociation peut être structurée de manière à rendre les engagements vérifiables, coûteux à violer et institutionnellement consolidés – condition pour que la prudence stratégique ne se transforme pas, malgré elle, en normalisation fragile.

The Conversation

Djamchid Assadi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Realpolitik et fiabilité : le dilemme des négociations avec la République islamique d’Iran – https://theconversation.com/realpolitik-et-fiabilite-le-dilemme-des-negociations-avec-la-republique-islamique-diran-276452