Lever le voile sur les microbiotes inconnus des coraux du Pacifique à bord de Tara

Source: The Conversation – France in French (2) – By Shinichi Sunagawa, Associate Professor at the Department of Biology, Swiss Federal Institute of Technology Zurich

Les récifs coralliens sont des structures qui abritent une variété de microbiomes formant un réservoir de diversité taxonomique (c’est-à-dire d’espèces, genres et familles), génétique et chimique. Shinichi Sunagawa, Fourni par l’auteur

Depuis des décennies, nous voyons les récifs coralliens comme les « forêts tropicales aquatiques » : des écosystèmes colorés et complexes regorgeant de poissons, d’éponges et de coraux. Cependant, nos recherches récentes suggèrent que cette vision passe sous silence un aspect crucial des récifs coralliens. Au-delà de leurs couleurs si vivaces, ils abritent tout un monde microscopique. Cet univers caché se compose de nombreux ingénieurs chimistes, qui pourraient détenir les clés d’une prochaine génération de médicaments vitaux.

Nos travaux, publiés aujourd’hui dans Nature, fruit d’une collaboration internationale entre mon laboratoire et ceux des professeurs Paoli et Piel avec la Fondation Tara Océan, montrent que les coraux ne sont pas de « simples » animaux individuels, mais plutôt des « super-organismes ». On pourrait les imaginer comme des villes animées où le récif corallien fournit un habitat vivant à des milliards de microbes qui y accomplissent des fonctions vitales.

Ce que nous avons découvert au sein de ces communautés microscopiques nous a stupéfiés : en analysant 820 échantillons provenant de 99 récifs coralliens à travers le Pacifique, nous avons reconstitué le génome de 645 espèces microbiennes vivant dans les coraux… dont plus de 99 % étaient totalement inconnues.

Qui plus est, nos études génétiques montrent que ces minuscules résidents ne sont pas passifs, mais des ingénieurs chimistes prolifiques : ils abritent dans leur ADN une immense variété de « plans » biosynthétiques (qui visent la formation de composés chimiques par des êtres vivants, des bactéries par exemple). Cette variété est plus grande que ce qui a été documenté jusqu’à présent dans l’ensemble des océans du monde.

Comment avons-nous fait cette découverte ?

Notre découverte a commencé à bord de la goélette de recherche Tara, longue de 36 mètres et conçue pour résister à la glace arctique. Après avoir mené une exploration approfondie du plancton dans les océans du globe, Tara nous a servi de laboratoire flottant pour la mission Tara Pacific. Pendant plusieurs années, notre équipe a visité 99 récifs à travers le Pacifique. La vie à bord de Tara, c’est l’unique combinaison d’une navigation pas toujours paisible et d’une biologie high tech : tandis que l’équipage gérait le navire, des équipes de plongeurs collectaient des échantillons de coraux dans des archipels éloignés de plusieurs milliers de kilomètres.

carte
Le trajet de l’expédition Tara et sa collecte d’échantillons.
tara, Fourni par l’auteur

De retour à terre, un vrai travail de détective a commencé. Le séquençage de l’ADN au Centre National de Séquençage français (Genoscope) et la reconstruction des génomes à l’aide des supercalculateurs de l’ETH Zurich nous ont permis de décoder les informations génétiques des microbes coralliens.

Ainsi est apparue une carte des microbiomes coralliens du Pacifique, à une échelle inédite. Nous avons découvert que les microbes sont très spécifiques à leurs hôtes coralliens ; chaque espèce de corail possède sa propre empreinte microbienne façonnée au cours de millions d’années d’évolution.

En quoi cette découverte est-elle importante ?

La plupart des médicaments actuels ont été découverts dans la nature, le plus souvent à partir de bactéries du sol. Mais aujourd’hui, les bactéries résistantes aux antibiotiques constituent une menace mondiale croissante et nous sommes à court de nouvelles pistes dans le sol.




À lire aussi :
De la médecine traditionnelle au traitement du cancer : le fabuleux destin de la pervenche de Madagascar


C’est là que les minuscules mais puissants « ingénieurs chimistes » des récifs coralliens prennent toute leur importance en termes d’applications potentielles. Dans leur ADN, ces microbes codent des ensembles de gènes biosynthétiques : des manuels d’instructions pour construire diverses molécules biochimiques, y compris des antibiotiques.

En effet, comme les microbes associés aux coraux vivent dans l’environnement hautement compétitif des récifs, ils ont développé des armes chimiques sophistiquées pour défendre leurs hôtes ou combattre leurs rivaux. En identifiant ces ensembles de gènes biosynthétiques, nous avons donc découvert une « bibliothèque moléculaire » écrite dans un langage que nous commençons seulement à traduire. Ces substances chimiques pourraient peut-être apporter des solutions aux défis biotechnologiques et aux maladies humaines.

Quelle est la prochaine étape ?

Notre découverte de nouvelles espèces microbiennes et de la diversité biochimique des coraux n’est qu’un début. L’expédition Tara Pacific n’a étudié qu’une poignée d’espèces de coraux, alors qu’au moins 1500 ont été décrites dans le monde entier, ce qui suggère un énorme potentiel de percées scientifiques.

Mais une tragédie est en train de se dérouler : à mesure que le changement climatique réchauffe les océans, les récifs coralliens meurent. Lorsqu’un récif disparaît, nous ne perdons pas seulement un magnifique écosystème, nous assistons à la « combustion » de cette bibliothèque, avant même d’avoir eu la chance d’en lire les livres.

Le voyage qui a commencé sur Tara est désormais une course contre la montre pour percer les secrets contenus dans les microbiomes des coraux et autres organismes récifaux avant qu’ils ne disparaissent à jamais. Il est essentiel de protéger les récifs, non seulement pour l’environnement et les millions de personnes qui en dépendent directement, mais aussi pour préserver la pharmacie biologique qui pourrait protéger la santé humaine pour les générations à venir.

The Conversation

Shinichi Sunagawa a reçu des financements de la Swiss National Science Foundation.

Chris Bowler ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Lever le voile sur les microbiotes inconnus des coraux du Pacifique à bord de Tara – https://theconversation.com/lever-le-voile-sur-les-microbiotes-inconnus-des-coraux-du-pacifique-a-bord-de-tara-276891

Les lésions cérébrales sont près de 10 fois plus fréquentes chez les personnes sans-abri. Il faut en tenir compte pour faire face à l’itinérance

Source: The Conversation – in French – By Mauricio A. Garcia-Barrera, Professor of Psychology, University of Victoria

Au Canada, 60 000 personnes n’ont pas d’endroit où dormir chaque nuit. Selon les estimations, plus de la moitié d’entre elles ont subi une lésion cérébrale au cours de leur vie, la plupart avant de vivre en situation d’itinérance. On évalue que 22,5 % d’entre elles ont une lésion cérébrale modérée ou grave, soit un taux près de dix fois supérieur à celui de la population générale.


De nombreux facteurs peuvent conduire une personne à ne plus avoir de domicile, notamment la maltraitance, la criminalité ou d’autres événements difficiles, qui peuvent tous être corrélés avec une lésion cérébrale. Celle-ci peut entraîner un trouble mental, la toxicomanie, de l’impulsivité ou de l’agressivité. Ces troubles peuvent à leur tour conduire au chômage, à une dislocation de la famille ou à d’autres causes connues de l’itinérance.

Le terme « lésion cérébrale acquise » désigne une lésion cérébrale survenue après la naissance, provoquée par une force physique externe (traumatisme crânien) ou par des problèmes internes, comme un accident vasculaire cérébral ou une infection (non traumatique). Plus la lésion est grave, plus l’atteinte est importante et plus les capacités cognitives risquent d’être affectées.

Déficit cognitif et itinérance

Au laboratoire CORTEX de l’Université de Victoria, nous effectuons des recherches sur les répercussions des lésions cérébrales.

Celles-ci entraînent souvent une série de troubles cognitifs, tels qu’un brouillard mental, de la fatigue, des difficultés de concentration et des problèmes de mémoire, qui perturbent l’apprentissage et le fonctionnement quotidien. Les fonctions exécutives, notamment les processus de prise de décision et de résolution de problèmes, peuvent être particulièrement affectées.

Si ces troubles ne sont pas diagnostiqués ni pris en charge, ils ont des répercussions sur tous les aspects de la vie : baisse des performances professionnelles et scolaires, détérioration des relations et érosion des mécanismes d’adaptation sains.

Garder un emploi, poursuivre des études ou gérer des responsabilités familiales peuvent alors constituer d’importants défis. Prendre ses médicaments, se rendre à ses rendez-vous ou accomplir des tâches telles que remplir un formulaire peuvent devenir des tâches presque impossibles. Les difficultés financières, les pertes interpersonnelles et le stress chronique ne font qu’aggraver ces difficultés.

Sans soutien adéquat, ces facteurs convergent, augmentant les risques de se retrouver en situation d’itinérance et de subir d’autres lésions cérébrales.

Lacunes systémiques dans les mesures de soutien

Nos recherches ont permis d’identifier plusieurs obstacles systémiques qui empêchent les personnes atteintes de lésions cérébrales de sortir du cycle de l’instabilité résidentielle et de l’itinérance.

La stigmatisation est omniprésente et peut nuire à la qualité des soins. Certains, ayant perdu confiance dans les systèmes et les prestataires de services, peuvent renoncer à demander de l’aide.

Les systèmes de santé et d’hébergement fonctionnent en vase clos. Les longues listes d’attente, les procédures administratives complexes et la faible coordination entre les organismes rendent l’accès aux services difficile, en particulier pour les personnes atteintes de lésions cérébrales qui peuvent avoir besoin de soutien pour remplir des documents, aller à des rendez-vous et exprimer leurs besoins.

De nombreuses personnes atteintes de lésions cérébrales comptent sur des programmes d’aide au revenu. La disparité entre les montants accordés et la hausse du coût de la vie suscite de plus en plus d’inquiétudes. Sur le marché locatif actuel, les logements « abordables » sont inaccessibles pour les personnes qui dépendent de tels programmes. Lorsqu’elles trouvent un logement, elles ne disposent plus que de ressources minimales pour subvenir à leurs besoins fondamentaux, une fois le loyer payé. Cette situation, conjuguée au sous-investissement dans les logements supervisés et de transition existants, réduit encore davantage l’offre de logements adéquats.

Que pouvons-nous faire ? Voici cinq solutions

Les observations de nos partenaires communautaires ont donné lieu aux recommandations suivantes visant à améliorer la santé et le bien-être des personnes en situation d’itinérance et atteintes de lésions cérébrales. Elles sont classées ci-dessous par ordre de priorité :

1. Fournir des logements accessibles et abordables

Les personnes atteintes d’une lésion cérébrale ont besoin de logements abordables et accessibles, assortis de soutien adéquat, tels que des modes de transport alternatifs, des environnements adaptés à leur âge et des options de vie flexibles. Une approche axée sur le logement, accompagnée d’une aide financière adéquate, leur apporte la stabilité nécessaire pour réussir leur intégration dans la collectivité.

2. Améliorer les ressources pour les prestataires de services

Une formation destinée aux professionnels de santé et aux employés des services publics en contact régulier avec des personnes sans-abri, comme les intervenants communautaires et les policiers, peut contribuer à améliorer la qualité des soins. Il est également essentiel d’étendre les services de santé liés aux lésions cérébrales aux personnes en situation d’itinérance, en mettant l’accent sur les services de dépistage et de diagnostic, qui permettent de les orienter vers des soins spécialisés.

3. Concevoir des services adaptés aux besoins

Les services de santé doivent prendre en compte les besoins fondamentaux qui sont souvent négligés. Par exemple, les prestataires devraient proposer des espaces de rangement, sans exiger de pièce d’identité, pour permettre aux patients sans domicile de ranger leurs effets personnels en toute sécurité pendant leurs rendez-vous, souvent nombreux après une lésion cérébrale.

4. Améliorer la collaboration et adopter une approche intégrée à long terme

En améliorant la communication entre les autorités sanitaires et les prestataires de services de logement, on peut faciliter la transition entre l’hôpital (après une lésion cérébrale) et le logement, et éviter ainsi que des patients se retrouvent à la rue après leur sortie. Le concept de prise en charge spécialisée est essentiel, car une équipe multidisciplinaire de professionnels de santé est nécessaire pour comprendre les besoins particuliers liés aux lésions cérébrales, aux troubles psychiatriques ou physiques, ainsi que la manière dont ces difficultés se combinent chez les personnes en situation d’itinérance. La continuité des soins est également cruciale, car les lésions cérébrales peuvent nécessiter un soutien à vie.

5. Réduire la stigmatisation grâce à l’éducation publique

Les campagnes d’éducation en santé publique apparaissent comme un moyen prometteur de sensibiliser le public et de réduire la stigmatisation. Sensibiliser à la corrélation entre les lésions cérébrales et l’itinérance pourrait nourrir la compassion.

Soutenir une stratégie nationale : projet de loi C-206

Le lourd fardeau que représentent les lésions cérébrales pour les personnes sans-abri est indéniable. Le projet de loi C-206, qui vise à mettre en place une stratégie nationale pour les lésions cérébrales, marque une étape importante dans la prise en charge de ces lésions au Canada, et par le fait même, dans la lutte contre l’itinérance.


Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.


La législation vise à améliorer la prévention, le traitement et le soutien à la réadaptation de millions de Canadiens victimes de lésions cérébrales. Le projet de loi met l’accent sur la collaboration, l’éducation du public et la fourniture de soins aux personnes et à leurs familles qui doivent apprendre à vivre avec les conséquences d’une lésion cérébrale. Une stratégie nationale aura une incidence visible pour les personnes touchées, ainsi que pour l’ensemble de nos collectivités.

La Conversation Canada

Mauricio A. Garcia-Barrera reçoit des fonds de recherche liés aux travaux mentionnés dans cet article de l’ancien ministère de la Santé mentale et des Dépendances de la Colombie-Britannique, de la Vancouver Foundation, de Michael Smith Health Research BC et de Mitacs.

Cole J. Kennedy reçoit des fonds pour les recherches mentionnées dans cet article du ministère de la Santé mentale et des Dépendances de la Colombie-Britannique, de la Vancouver Foundation, de Michael Smith Health Research BC, de Mitacs et de la BC Brain Injury Association. Il bénéficie également du soutien d’Island Health et des Instituts de recherche en santé du Canada.

Grace C. Warren reçoit des fonds du Conseil de recherches en sciences humaines du Canada dans le cadre d’une bourse d’études supérieures de maîtrise.

ref. Les lésions cérébrales sont près de 10 fois plus fréquentes chez les personnes sans-abri. Il faut en tenir compte pour faire face à l’itinérance – https://theconversation.com/les-lesions-cerebrales-sont-pres-de-10-fois-plus-frequentes-chez-les-personnes-sans-abri-il-faut-en-tenir-compte-pour-faire-face-a-litinerance-276555

Corruption des élus locaux, anatomie d’un phénomène français

Source: The Conversation – in French – By Bertrand Venard, Professeur / Professor, Audencia

Contrairement à ce que l’on peut voir dans d’autres pays européens, les atteintes à la probité font rarement figure d’enjeu majeur lors des élections en France. Le pays connaît pourtant bien un problème de corruption et de mauvaise gestion des deniers publics, notamment à l’échelon local.

La corruption municipale en France constitue un enjeu essentiel pour la démocratie. Selon le Baromètre 2025 de la confiance politique du Cevipof, 46 % des Français expriment une défiance envers les élus locaux et, plus grave, 79 % ont un sentiment négatif à l’égard de la politique en général. De même, selon une étude européenne, 69 % des Français pensent que les institutions publiques locales et régionales sont corrompues.

Cette défiance s’explique en partie par la récurrence des affaires de fraudes révélées ces dernières années, comme l’illustrent les condamnations de Patrick Balkany, longtemps maire de Levallois-Perret (Hauts-de-Seine), ou de Jean-Noël Guérini, ancien président du Conseil général des Bouches-du-Rhône, poursuivi pour avoir truqué l’attribution de marchés publics. Ces pratiques criminelles peuvent fragiliser les finances des communes, comme le montre le cas de corruption au sein du village d’Eringhem, dans le Nord.

Ces affaires sont survenues dans un contexte d’augmentation régulière de la corruption constatée : la France a ainsi connu une croissance de 50 % des atteintes à la probité entre 2016 et 2024. Le pays s’est doté en 2016 d’une autorité administrative indépendante pour lutter contre ce phénomène : l’Agence française anticorruption (AFA). Parmi les 235 signalements reçus en 2024, 61 % concernaient des affaires de corruption des collectivités territoriales.

Même si les élus locaux font le plus souvent leur travail avec rigueur et probité, ce constat interroge sur l’efficacité des dispositifs de prévention et sur la capacité des institutions à garantir l’intégrité des élus. Comment expliquer la surreprésentation des responsables locaux dans les affaires de corruption ?

Des occasions multiples de corruption

Pour commencer, de nombreuses occasions de corruption se rencontrent dans la vie locale, notamment dans les achats publics, l’attribution de subventions, la gestion des ressources humaines locales ou l’octroi d’autorisations en tous genres, notamment liées à l’urbanisme. Un rapport publié par l’Association des maires de France (AMF) rappelle ainsi que les communes gèrent annuellement plus de 100 milliards d’euros de dépenses publiques.

Ces flux financiers considérables peuvent être plus ou moins bien gérés. En prenant l’exemple des achats de prestations de conseil, un rapport de la Cour des comptes de 2025 mentionne différents manquements : une définition insuffisante des besoins, une mise en concurrence des prestataires loin d’être systématique (contrairement à ce que prévoient les règles en vigueur), des règles de sélection pas toujours claires ou encore l’absence d’évaluation formelle des prestations réalisées.

La permanence des élus et l’enracinement des réseaux d’influence

Par ailleurs, la longévité des mandats locaux peut favoriser l’émergence de pratiques clientélistes et de conflits d’intérêts. En France, 45 % des maires en exercice effectuent un deuxième mandat ou plus. Et la longévité des maires est encore davantage marquée dans les plus petites communes. Ainsi, la mairie de Nantes (Loire-Atlantique) est gérée par la gauche depuis 1989, alors que celle de Nice (Alpes-Maritimes) est aux mains de la droite depuis 1947. La multiplication des mandats consécutifs peut renforcer la professionnalisation des maires, mais aussi augmenter la concentration de leur pouvoir, voire l’emprise de réseaux d’influence.

Les magistrats de la Cour des comptes notent ainsi que « dans le cadre de la reconduction de marchés conclus par les communes de Béziers et de Marseille ainsi que par la région Occitanie, les offres des prestataires en place, présents depuis plusieurs années, ont été retenues, au motif, notamment, que la qualité de leur travail avait donné pleine satisfaction à ces collectivités ». Cette pratique ne permet pas à la concurrence de s’exercer pleinement et constitue une opportunité de favoritisme.

Au contraire, l’alternance politique apparaît comme un puissant antidote à l’enracinement de la corruption. Une étude menée sur les gouvernements locaux au Brésil a ainsi démontré que le simple fait de changer l’exécutif en place par une alternance du parti au pouvoir suffisait à perturber les liens établis entre politiciens, fonctionnaires et hommes d’affaires locaux, assainissant ainsi la gestion municipale.

Il existe de plus un effet de contagion. Quand une municipalité est touchée par la corruption, les communes avoisinantes présentent un risque accru d’être également concernées. La limitation des mandats et le renouvellement des équipes dirigeantes sont donc des impératifs démocratiques, pour prévenir l’enkystement des pratiques illicites.

L’audit interne : un contrôle sous influence ?

Les mécanismes de contrôle interne (audits, inspections) sont censés garantir la probité des élus. Cependant, des limites existent à leur efficacité. Ainsi, les directeurs financiers (DAF) et les services d’audit des mairies dépendent hiérarchiquement de l’exécutif municipal. Une étude suédoise a montré que les auditeurs internes minimisent régulièrement les irrégularités graves pour éviter les conflits avec leur employeur. En pratique, l’efficacité des dispositifs dépend donc de leur indépendance réelle. Un système de contrôle interne, s’il est conçu par ceux-là mêmes qu’il est censé surveiller, devient une chambre d’enregistrement.

Les contrôles externes, quant à eux, peuvent être marqués par une certaine faiblesse. Par exemple, les chambres régionales des comptes sont seulement en mesure de contrôler une infime partie des collectivités, notamment en raison de moyens humains et financiers limités. Les rapports officiels mettant en lumière des manquements à la probité ne sont par ailleurs pas toujours suivis d’effets. Par exemple, la Cour des comptes a fait part de ses doutes sur la gestion de la ville de Marseille dès 2013, mais les condamnations ne sont intervenues qu’une dizaine d’années plus tard.

Les audits peuvent pourtant être efficaces. Il existe une corrélation négative observable entre la qualité des audits et le niveau de corruption – plus les contrôles sont rigoureux et indépendants, moins la corruption est importante.

D’autres outils de contrôle peu efficaces

Face à la défiance citoyenne, les collectivités locales ont multiplié les dispositifs de contrôle et de transparence. Par exemple, depuis 2013, les maires doivent faire une déclaration de patrimoine auprès de la Haute Autorité pour la transparence de la vie publique (HATVP). Cependant la HATVP considère que seulement 52,8% des déclarations initiales seraient entièrement conformes aux exigences d’exhaustivité, d’exactitude et de sincérité. Près de la moitié d’entre elles nécessiteraient ainsi des déclarations modificatives ultérieures.

Les mairies se sont également pourvues de comités d’éthique. Mais un risque significatif existe que ces comités soient composés de proches de l’exécutif et se limitent à des avis consultatifs. Par exemple, après de retentissantes affaires de corruption, la mairie de Bobigny (Seine-Saint-Denis) a créé une commission éthique en 2020, qui n’a qu’un rôle consultatif.

Une autre mesure du même type est le recours à un déontologue ou la mise en place d’une charte déontologique. Même adoptée par une mairie, une charte n’a pas de valeur contraignante, et semble davantage s’inscrire dans le registre de la communication que de l’action.

En effet, la lutte contre la corruption peut désormais s’intégrer pour les maires dans le cadre de stratégies visant à accroître leur légitimité auprès de parties prenantes : l’électorat, les médias ou, directement, les représentants de la République, notamment ceux garants des contrôles. Dans ce cadre, comme dans toutes les organisations, les dirigeants d’une municipalité peuvent adopter le vocabulaire et les symboles de la bonne gouvernance, sans pour autant modifier en profondeur leurs pratiques.

Ces stratégies d’évitement constituent des exemples de ce que l’on qualifie de « découplage organisationnel », c’est-à-dire des situations où les institutions adoptent des normes formelles pour légitimer leur action, sans modifier leurs pratiques réelles.

Loyauté et impunité, des valeurs municipales qui s’opposent à l’éthique

Une autre explication de la corruption au niveau local peut résider dans une certaine culture de la loyauté, susceptible de primer sur les impératifs éthiques. Dans le microcosme de l’hôtel de ville, la première des vertus n’est en effet pas la probité, mais la fidélité au chef.

L’affaire Guérini illustre un tel système clientéliste. Celui-ci s’était établi à Marseille, avec des procédures d’attribution des marchés publics méthodiquement détournées au profit de proches de Jean-Noël Guérini comme de son frère, Alexandre. Ce cas de corruption illustre comment une culture politique fondée sur l’allégeance personnelle peut anéantir tous les garde-fous éthiques et légaux.

Enfin, la corruption locale s’explique par la faiblesse des sanctions. La Cour des comptes, dans une analyse récente de la politique de lutte contre la corruption en France, dresse un constat alarmant :

« Les atteintes à la probité donnent lieu à peu de sanctions en France. […] S’agissant des mesures administratives, les poursuites disciplinaires dans la fonction publique sont mal répertoriées, peu fréquentes et inégalement appliquées. »

Selon elle, 53 % des dossiers transmis aux parquets ne font pas l’objet de poursuites. Quand les fraudeurs ne sont pas punis, la corruption devient progressivement un « phénomène normal ».

Corruption locale en France : un défi démocratique à relever

Des élections municipales sont toujours un test pour la démocratie locale. Associer mairie et corruption dans l’esprit des citoyens risque d’augmenter encore l’abstention lors du prochain scrutin, alors que celui de 2020 avait déjà été marqué par une forte baisse de la participation.

Cette année-là, l’ONG Transparency International avait demandé aux élus de se prendre position sur l’enjeu de la corruption, avec un certain succès puisque 190 listes candidates avaient souscrit aux engagements proposés.

Si les candidats ne se saisissent pas sérieusement du sujet, nous pourrions assister à une augmentation du désengagement citoyen et, par ricochet, à l’émergence de candidats opportunistes, promettant une « rupture » avec des élites traditionnelles jugées corrompues.

À l’inverse, un véritable intérêt pour le sujet, une transparence accrue et le renouvellement des équipes municipales pourraient restaurer la confiance – à condition que les promesses ne restent pas, cette fois encore, lettre morte.

The Conversation

Bertrand Venard ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Corruption des élus locaux, anatomie d’un phénomène français – https://theconversation.com/corruption-des-elus-locaux-anatomie-dun-phenomene-francais-273730

Sclérose en plaques : quand le cerveau est influencé par l’intestin

Source: The Conversation – in French – By Vito Ricigliano, Neurologue et chercheur en neurologie, Université Paris-Saclay; Commissariat à l’énergie atomique et aux énergies alternatives (CEA)

Mieux comprendre comment le microbiote de l’intestin agit sur le cerveau pourrait ouvrir de nouvelles perspectives pour ralentir la progression de la sclérose en plaques, favoriser la réparation des cellules nerveuses et améliorer la qualité de vie des patients.


Et si l’un des moyens de lutter contre la sclérose en plaques se trouvait du côté de l’intestin ? Depuis quelques années, les scientifiques qui travaillent à mieux comprendre cette maladie – qui se caractérise par la destruction de la myéline, la gaine protectrice des neurones – manifestent un grand intérêt pour cet organe, généralement plus connu pour son rôle dans la digestion.

Il a en effet été découvert que le microbiote intestinal – l’ensemble des milliards de bactéries qui colonisent notre intestin – joue un rôle clé dans l’inflammation et la réparation neuronale. Ces microbes produisent des molécules qui interviennent à différents niveaux dans l’organisme : elles régulent les cellules immunitaires, telles que les lymphocytes T, soutiennent les cellules responsables de la formation de la gaine de myéline ou encore influencent le rythme circadien (cycle veille-sommeil) et le drainage des déchets cérébraux, lesquels doivent être éliminés pour maintenir un environnement sain dans le cerveau.

Ces diverses interactions permettent notamment de limiter les réactions auto-immunes, qui sont à la racine de la sclérose en plaques.

Les causes de la sclérose en plaques toujours en cours d’investigation

La sclérose en plaques est une maladie chronique du système nerveux central (cerveau et moelle épinière) au cours de laquelle le système immunitaire attaque la myéline, la gaine protectrice des neurones, ce qui génère des lésions en forme de plaques, d’où le nom de la maladie. Cette destruction entraîne des symptômes variés : fatigue, troubles moteurs, sensoriels, cognitifs, sphinctériens ou visuels.

La maladie peut évoluer par poussées (on parle alors de forme rémittente récurrente, qui représente 85 % des cas au début de la maladie) ou de manière progressive.

Historiquement, la sclérose en plaques est considérée comme résultant d’interactions complexes entre le système immunitaire et le système nerveux. Étant une maladie multifactorielle, elle est le résultat de la conjonction entre une prédisposition génétique individuelle et des facteurs environnementaux, comme le virus d’Epstein-Barr (responsable de la mononucléose), une carence de vitamine D, l’obésité, la consommation de tabac ainsi que l’inflammation intestinale. Ces dernières années, un intérêt majeur a été porté sur la contribution de l’intestin au développement de cette maladie.

Le microbiote, régulateur de l’immunité

L’intestin humain abrite plus de 100 000 milliards de bactéries réparties sur une surface de 250 à 400 mètres carrés, soit jusqu’à 10 fois plus que toutes les cellules qui constituent notre corps. Ces microbes assument plusieurs fonctions. Entre autres, ils :

  • protègent l’intestin contre les infections ;

  • aident à digérer certains aliments ;

  • produisent vitamines et molécules utiles (vitamine K, vitamines du groupe B, acides gras à chaîne courte…) ;

  • régulent le système immunitaire.

Le microbiote intestinal interagit par exemple avec les lymphocytes, des cellules qui jouent un rôle central dans l’immunité. Certains profils de bactéries promeuvent la maturation de lymphocytes favorisant l’inflammation (tels que les lymphocytes T helper 17), tandis que d’autres induisent une tolérance immunologique (en promouvant l’expansion de lymphocytes T régulateurs).

Ces interactions permettent de limiter les réactions auto-immunes (des réactions au cours desquelles le système immunitaire s’attaque au corps qu’il est censé défendre) et de protéger le cerveau.

Le microbiote intestinal module aussi l’activité de la microglie, des astrocytes et des oligodendrocytes, des familles de cellules qui jouent un rôle clé dans la défense et la réparation du cerveau.

Déséquilibre du microbiote et sclérose en plaques

Chez les patients atteints de sclérose en plaques (SEP), dans sa forme rémittente ou progressive, le microbiote est déséquilibré. On parle de « dysbiose ». On constate en particulier une diminution des populations de bactéries bénéfiques (Firmicutes, Bifidobacterium, Coprococcus, Roseburia…) et une augmentation des bactéries pro-inflammatoires (Bacteroidetes, Akkermansia, Ruminococcus…).

Cette dysbiose entraîne une baisse de la production d’acides gras à chaîne courte. Or, ces molécules sont essentielles pour équilibrer les divers sous-types de lymphocytes du système immunitaire. En effet, certains acides gras à chaîne courte produits par le microbiote traversent la barrière sanguine et atteignent le système nerveux central. Là, ils limitent l’inflammation en favorisant les lymphocytes T régulateurs et en freinant les lymphocytes T helper 17, responsables de la production de cytokines pro-inflammatoires. Ils contribuent ainsi à l’intégrité de la barrière de protection du cerveau.

Ces métabolites sont également importants pour le bon développement et le bon fonctionnement des cellules qui fabriquent la myéline (les oligodendrocytes nécessaires à la réparation de la gaine qui entoure les neurones). Une étude récente a montré qu’en cas de déséquilibre dans ces molécules, la différentiation et la maturation des cellules productrices de myéline sont bloquées, ce qui empêche donc la remyélinisation.

Certains métabolites régulent aussi l’activité de cellules « support » du cerveau essentielles à son bon fonctionnement (les astrocytes et la microglie). Ce faisant, ils réduisent la production de molécules inflammatoires et limitent les dégâts neuronaux.

À l’inverse, certaines molécules produites par des bactéries pro-inflammatoires accélèrent la destruction de la myéline et perpétuent l’inflammation chronique.

Des recherches ont aussi montré que la composition du microbiote a un impact sur la régulation du rythme circadien, l’horloge interne du corps. Les patients possédant un microbiote plus diversifié ont souvent un meilleur sommeil. Par ailleurs, la bonne régulation de cette horloge interne et la restructuration des rythmes immunologiques et métaboliques pourraient contribuer à contrecarrer la progression de la maladie.

En définitive, l’intestin agit donc comme un véritable chef d’orchestre, modulant immunité, inflammation et réparation nerveuse, et influençant la sévérité et l’évolution de la sclérose en plaques.

Alimentation : régime méditerranéen et vitamine D

L’alimentation façonne le microbiote et l’état inflammatoire de l’organisme. Adopter un régime méditerranéen – riche en fruits, légumes, légumineuses, céréales complètes, poissons, huiles végétales et pauvre en graisses saturées –, anti-inflammatoire, est bénéfique pour les personnes souffrant de sclérose en plaques.

Cette alimentation apporte en effet des fibres et des antioxydants qui nourrissent les « bonnes » bactéries et favorisent la production d’acides gras à courte chaîne, limitant l’inflammation et apportant un soutien aux cellules remyélinisantes. Ce type de régime est associé à moins de fatigue, une meilleure qualité de vie et une possible réduction des poussées.

La vitamine D complète ces effets : elle régule les lymphocytes T, limite l’inflammation et ralentit l’activité de la maladie. À ce sujet, l’étude française « D Lay MS » a montré qu’une supplémentation à haute dose de vitamine D diminue l’apparition de nouvelles lésions et prolonge le temps avant réapparition des symptômes de la sclérose en plaques, tout en restant bien tolérée.

Alimentation et vitamine D constituent donc des leviers concrets pour agir sur le microbiote, l’équilibre immunitaire et la réparation du système nerveux central dans le contexte de la sclérose en plaques. À ces interventions s’ajoutent en outre diverses pistes thérapeutiques basées sur la modulation du microbiote.

L’évaluation des bénéfices potentiels de la modulation du microbiote en complément aux traitements classiques de la sclérose en plaques font notamment l’objet de divers travaux. À titre d’exemple, la supplémentation en propionate (500 mg deux fois par jour) a été associée à moins de poussées et à une stabilisation du handicap.

Au-delà de la restauration du microbiote via l’alimentation, des approches comme l’emploi de prébiotiques, de probiotiques ou la restauration du microbiote sont aussi étudiées. Son impact direct sur la stimulation de la remyélinisation est actuellement étudié.

Des effets qui jouent aussi sur la qualité de vie

Le microbiote influence le quotidien des patients, en jouant sur leur niveau de fatigue, sur leur sommeil, sur leur digestion et sur leur récupération après les poussées. En consultation, nous discutons systématiquement de ce sujet dès le diagnostic de la maladie afin de fournir une prise en charge globale aux patients. Parmi les conseils pratiques à retenir :

  • adopter une alimentation riche en fibres et proche du modèle méditerranéen ;

  • baisser la consommation des aliments pro-inflammatoires, autrement dit les aliments riches en graisses saturées d’origine animale, très transformés, très sucrés ou très pimentés : charcuterie, fromages, crèmes… ;

  • maintenir un sommeil régulier et pratiquer une activité physique adaptée ;

  • limiter le stress et éviter le tabac ou l’excès d’alcool.

Certes, ces mesures ne remplacent pas les traitements médicaux, mais elles améliorent le bien-être, rééquilibrent l’immunité et peuvent contribuer à ralentir la progression de la maladie.

En définitive, un faisceau croissant d’indices montre qu’en matière de sclérose en plaques, intestin et cerveau sont étroitement liés. Favoriser l’installation et le maintien d’un microbiote diversifié permet de moduler l’inflammation, la survie des cellules productrices de myéline et le bon équilibre du système immunitaire, tout en ayant une influence positive sur le sommeil, la récupération et l’énergie quotidienne disponible.

Cette approche, intégrée aux traitements classiques, constitue pour les cliniciens un moyen de ralentir la progression de la maladie, de diminuer les handicaps qui en résultent, et d’améliorer la qualité de vie des patients atteints de sclérose en plaques.


Cet article est publié dans le cadre de la Semaine du cerveau, qui se tiendra du 16 au 22 mars 2026.

The Conversation

Vito Ricigliano ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Sclérose en plaques : quand le cerveau est influencé par l’intestin – https://theconversation.com/sclerose-en-plaques-quand-le-cerveau-est-influence-par-lintestin-276457

Lignes du front : les soldats poètes qui défendent l’Ukraine

Source: The Conversation – France (in French) – By Hugh Roberts, Professor of Languages, Cultures and Visual Studies, University of Exeter

En Ukraine, dans le contexte de la guerre lancée par la Russie en février 2022, la poésie joue un rôle essentiel dans le traitement des traumatismes subis par la population, tout en renforçant sa capacité de résistance.


Selon des experts occidentaux du renseignement – et sans doute aussi les forces russes –, Kiev était censée tomber dans les jours qui ont suivi le début de l’invasion à grande échelle le 24 février 2022. Ils n’avaient pas pris en compte la résilience d’une société qui défend depuis longtemps sa langue et sa culture, et dans laquelle les poètes ont pendant des siècles résisté aux tentatives russes d’effacer l’identité ukrainienne.

Dire qu’il y a eu une renaissance de la poésie en Ukraine est un euphémisme. Depuis la Première Guerre mondiale, on n’avait plus vu d’œuvres d’une telle qualité et en telle quantité, écrites par des poètes qui sont également des combattants. La société civile a répondu à cet élan par des séances de lecture de poésie qui ont fait salle comble dans les abris anti-bombes des villes situées en première ligne, mais aussi par des initiatives telles que le portail Poetry of the Free (« Poésie des gens libres ») du ministère ukrainien de la culture, qui a reçu plus de 43 500 contributions depuis février 2022.

Un jeune soldat ukrainien avec des fleurs dans les cheveux
Maksym Kryvtsov, soldat et poète mort au front en 2024.
Wikicommons, CC BY

La poésie de guerre ukrainienne n’est pas d’un abord facile. En effet, elle s’exprime actuellement sous des formes anciennes et primitives : prière, témoignage, cri de ralliement et de malédiction. Au milieu du bruit des actualités géopolitiques, des commentaires, de la désinformation et du brouhaha des réseaux sociaux, elle revient avec insistance sur l’élément le plus important de tous : les gens.

Comme l’écrivait le célèbre poète Maksym Kryvtsov (1990-2024) dans son recueil Poèmes des tranchées (2024) :

« Quand on me demande ce qu’est la guerre, je réponds sans hésiter : des noms. »

Kryvtsov était lui-même mitrailleur et défendait l’Ukraine bien avant l’invasion à grande échelle. Il a été tué par un obus russe en janvier 2024, quelques jours seulement après la publication de son premier et dernier livre.

Les poètes de la résistance

Il y a trop de poètes ukrainiens importants pour tous les citer, mais pour l’heure deux noms se distinguent tout particulièrement dans le mouvement de renaissance poétique ukrainienne : Yaryna Chornohouz et Artur Dron.

Ces deux poètes ont servi leur pays. Chornohouz est toujours opératrice de drone au sein du Corps des Marines ukrainiens dans la ville de Kherson, située en première ligne. Dron s’est engagé en février 2022, quatre ans avant d’atteindre l’âge de la conscription, et est aujourd’hui un vétéran après avoir été gravement blessé. Tous deux ont vu leurs poèmes publiés en anglais, en français et dans d’autres langues, et ont remporté d’importants prix littéraires en Ukraine.

La poésie et la vie de Chornohouz sont étroitement liées à la défense de l’Ukraine contre la menace existentielle que représente la Russie. Ses écrits sont également empreints de lamentations et de témoignages.

« L’art ukrainien en temps de guerre : résister par la culture » (France Culture, 20 avril 2025).

Son poème « Les fruits de la guerre » s’inspire de son expérience en tant que secouriste depuis 2019. C’est un cri pour que les vies d’une valeur inestimable perdues sur le champ de bataille ne tombent pas dans l’oubli, malgré tout.

Dron parle de ces pertes invisibles et oubliées dans son recueil Hemigway ne sait rien en 2025. Sa poésie et celle de Chornohouz et d’autres poètes de guerre ukrainiens offrent une forme puissante de commémoration qui peut être d’autant plus universelle qu’elle est intensément personnelle. « La première lettre aux Corinthiens », dernier poème du recueil de Dron intitulé We Were Here (Nous étions là, 2024), évoque l’amour qui anime son choix de défendre l’Ukraine.

Les jeunes hommes de la compagnie de Dron étaient très proches d’un soldat plus âgé qu’eux, leur médecin, Oleksandr « Doc » Kobernyk, qu’ils considéraient comme leur professeur.

Dans Hemingway ne sait rien, Dron revient à plusieurs reprises sur une histoire qui s’est déroulée lorsque leur position dans une forêt a été soumise à des bombardements russes soutenus. Désorienté par une lésion cérébrale, il part à la recherche de Doc, mais apprend par son commandant qu’il a été tué. Chargé d’évacuer son corps et ne disposant pas de civière, il l’enveloppe dans un sac de couchage. Alors que le corps de Doc est encore chaud, le poète ressent l’amour qui émane de son professeur.

« La poésie face à la guerre : le récit d’un capitaine de l’armée ukrainienne » (Le Figaro, 10 janvier 2026).

Le jour où Olena, la femme de Doc, a appris sa mort, elle a écrit un poème. Sa lecture a déclenché l’écriture de Dron que la guerre avait bloquée.

Si nous y prêtons attention, la poésie de guerre ukrainienne peut nous transmettre au moins une partie de l’amour et du souvenir de ce qui compte vraiment. La poésie, la langue, la culture et l’identité sont des questions essentielles pour la sécurité de l’Ukraine. Pour ceux qui se trouvent dans une relative sécurité au-delà des frontières ukrainiennes, mais qui sont néanmoins confrontés à la menace russe, le moment est peut-être venu, comme pour l’Ukraine, de s’inspirer des traditions poétiques.

Même si, comme l’a écrit le poète britannique Alfred Tennyson, nous sommes « affaiblis par le temps et le destin », nous pouvons encore trouver en nous

« la volonté
De chercher, lutter, trouver et ne rien céder ».


En France, les éditions du Tripode ont publié C’est ainsi que nous demeurons libres, de Yaryna Chornohouz. Les poèmes d’Artur Dron ont été publiés par les éditions Bleu et Jaune.

The Conversation

Hugh Roberts bénéficie d’un financement provenant d’une bourse Curiosity Award du Conseil de recherche en arts et sciences humaines (numéro de subvention UKRI3524), d’une bourse Talent Development Award de la British Academy (référence de subvention TDA25250282) et d’une subvention Connections through Culture du British Council (numéro de subvention 5143).

ref. Lignes du front : les soldats poètes qui défendent l’Ukraine – https://theconversation.com/lignes-du-front-les-soldats-poetes-qui-defendent-lukraine-276903

Les fausses publications scientifiques menacent de submerger la recherche contre le cancer

Source: The Conversation – in French – By Baptiste Scancar, Scientifique spécialisé en intégrité scientifique, Institut Agro Rennes-Angers

La vague des fausses publications va-t-elle faire vaciller la recherche contre le cancer ? (_La Grande Vague de Kanagawa_ (1831), d’Hokusai.) Hokusai/Art institute of Chicago, CC BY-SA

Une étude récente pointe un chiffre alarmant : plus de 250 000 articles scientifiques liés au cancer pourraient avoir été fabriqués de toutes pièces entre 1999 et 2024. Cette production s’accélère et menace la production scientifique honnête.


Produire de la connaissance par la recherche scientifique donne lieu à une forte compétition entre équipes et individus, dans laquelle une publication dans une revue prestigieuse peut changer la trajectoire d’une carrière. Même si beaucoup remettent en cause les règles actuelles de cette compétition, l’évaluation de la qualité d’un chercheur repose essentiellement sur le nombre de ses publications, sur leur impact – mesuré par le volume des citations qu’elles génèrent – et sur le prestige des revues dans lesquelles elles sont publiées. L’importance de ces indicateurs dans l’obtention de rares financements et la progression des carrières individuelles contribue à encourager des comportements contraires à l’intégrité scientifique, tels que le recours à des pratiques frauduleuses.

Ce contexte a notamment favorisé l’émergence et la forte croissance d’organisations spécialisées dans la vente de faux articles scientifiques, les « paper mills » ou « fabriques à articles ». Ces dernières sont suspectées d’avoir produit des milliers d’articles au cours des dix dernières années, compromettant des pans entiers de la littérature scientifique. Dans notre étude, publiée dans le British Medical Journal (BMJ) en janvier 2026, nous estimons que plus de 250 000 articles scientifiques liés au cancer pourraient avoir été fabriqués de toutes pièces entre 1999 et 2024.

Alors que ces articles représentaient moins de 1 % des publications scientifiques annuelles en 1999, leur taux s’élève désormais à 15 % du contenu produit chaque année. La recherche contre le cancer est en danger : les fausses publications se répandent, et une intensification de ce problème est à prévoir.

Une production à échelle industrielle

Les « fabriques à articles scientifiques » produisent et vendent en quantités quasi industrielles de faux articles scientifiques. Elles adoptent même des techniques de marketing classique, en faisant de la publicité en ligne et en proposant à leurs clients de sélectionner leur place dans la liste des auteurs d’un article préfabriqué (la première et la dernière position étant souvent perçues comme plus prestigieuses) ainsi que le niveau de réputation du journal dans lequel l’article sera publié. Des recherches ont montré que le coût de ce service pouvait varier de quelques centaines à plusieurs milliers d’euros, et d’aucuns suspectent que certaines « fabriques à articles » pourraient même fournir un « service après-vente », par exemple apporter des corrections ou des réponses aux commentaires des lecteurs après publication, sur les sites des éditeurs ou sur les plateformes collaboratives, comme PubPeer.

Exemple de publicité de fabrique d’article publiée sur Facebook.com le 19 février 2026. Les informations sensibles ont été masquées
Exemple de publicité de « fabrique à articles », publiée sur Facebook, le 19 février 2026. Les informations sensibles ont été masquées.
Fourni par l’auteur

Le nombre de publications attribuées aux « fabriques à articles » a explosé au début des années 2010, attestant l’existence d’un système frauduleux à grande échelle. L’essor de ces organisations est souvent présenté comme une conséquence de la culture dite du « Publish or Perish » (« Publier ou périr »), qui séduit une clientèle, composée de doctorants, de chercheurs et de cliniciens en difficulté, pour laquelle la publication est devenue une condition d’accès à un diplôme, un emploi ou une promotion.

Ce phénomène est d’ailleurs amplifié par l’existence d’agents intermédiaires et de réseaux organisés qui dépassent la simple production de manuscrits et interviennent en contournant et en accélérant les processus éditoriaux et de publication (les articles frauduleux peuvent être acceptés et publiés beaucoup plus rapidement que les articles authentiques). Cette collusion entre fabricants et éditeurs peu scrupuleux contribue à augmenter fortement la cadence de publication d’articles frauduleux, au point qu’elle peut largement dépasser celle des articles authentiques.

Les fabriques tirent leur productivité de modèles de rédaction prédéfinis, qui réutilisent souvent des fragments de texte et d’images issus de leurs productions précédentes. Cette méthode a favorisé la publication d’articles présentant des similarités de forme, comportant les mêmes tournures de phrases, les mêmes schémas expérimentaux ainsi que les mêmes erreurs méthodologiques ou stylistiques dans la littérature biomédicale, et notamment dans la recherche contre le cancer.

Ces indices permettent de suivre leur piste et d’identifier systématiquement leurs productions, comme dans le cas des images manipulées ou des « phrases torturées » (des reformulations hasardeuses de termes techniques, par exemple « péril de la poitrine » à la place de « cancer du sein »).

Une méthode de détection simple mais efficace

Notre combat contre la fraude scientifique débute en 2024 lorsque Baptiste Scancar, auteur de cet article, alors étudiant en master de science des données, part en Australie pour travailler sur la fraude scientifique avec Jennifer A  Byrne (professeure de cancérologie à l’Université de Sydney) et Adrian Barnett (professeur de statistiques à la Queensland University of Technology). Jennifer avait constaté depuis des années le dévoiement de sa discipline, l’oncologie moléculaire, contaminée à grande échelle par les fausses publications, sans prise de conscience des communautés ni des institutions de recherche. L’objectif de cette collaboration était de créer une méthode généralisable à de grandes quantités d’articles pour détecter les productions des « fabriques à articles » dans le domaine du cancer, afin d’en mesurer l’ampleur et d’alerter sur le problème sous-jacent.

L’observation de fortes ressemblances stylistiques dans le titre et le résumé des articles frauduleux a conduit l’équipe à s’orienter vers des méthodes d’analyse centrées sur ces sections des articles, par ailleurs librement accessibles sur des plateformes de diffusion scientifique en ligne, comme PubMed. L’objectif est alors d’utiliser un algorithme d’intelligence artificielle pour différencier les articles authentiques des articles frauduleux, en identifiant des motifs communs à une liste d’articles identifiés comme frauduleux par l’observatoire Retraction Watch. Cette approche est finalement couronnée de succès, atteignant des performances d’identification très élevées (9 articles sur 10 sont bien classés par l’algorithme).

Après cette première étape, le projet se poursuit en France depuis 2025. L’équipe est complétée par David Causeur, également auteur de cet article. L’outil est amélioré par une analyse fine des erreurs d’identification et la méthodologie est affinée. Le modèle est alors utilisé pour analyser l’ensemble des publications liées au cancer depuis 1999, soit plus de 2,5 millions d’articles accessibles dans la base de données de PubMed, et les résultats sont alarmants. Environ 250 000 articles, quasiment 10 % des études, sont signalés comme textuellement similaires à des productions de fabriques à articles. Leur nombre est passé de 238 en 1999 à plus de 26 000 en 2020. Cette progression n’épargne pas les revues les plus prestigieuses (top 10 des journaux), où la proportion d’articles signalés dépasse également 10 % en 2022.

La répartition géographique des auteurs met en évidence une prédominance marquée de la Chine, avec près de 180 000 articles recensés, loin devant les États-Unis (10 500 articles) et le Japon (6 500 articles). Les publications suspectes sont retrouvées dans des revues de nombreux éditeurs, couvrant l’ensemble des types de cancer et la plupart des thématiques de recherche.

Un moment crucial pour la recherche scientifique

La présence massive d’articles frauduleux dans le domaine du cancer pose plusieurs problèmes majeurs.

Tout d’abord, le partage des connaissances scientifiques est aujourd’hui pollué massivement par les fausses informations, et les acteurs de la recherche peinent à mettre en place des actions correctives. L’ampleur de ces infractions majeures à l’intégrité scientifique doit aussi conduire à une réflexion sur le poids donné au volume des publications dans l’évaluation des projets de recherche et des équipes de chercheurs elles-mêmes. La validation implicite de connaissances scientifiques frauduleuses par leur publication, parfois dans des revues prestigieuses, compromet les processus d’attribution de financements et ouvre la voie à leur propagation en cascade par citation.

Par ailleurs, la recherche fondamentale sur le cancer, qui constitue la cible privilégiée des « fabriques à articles », précède le développement de traitements thérapeutiques, dont l’efficacité est menacée par la fraude à grande échelle, au détriment des patients.

Le développement récent des modèles de langage génératif, tels que ChatGPT, menace de rendre la détection des contenus frauduleux plus difficile et pourrait décupler la productivité de ces organisations. Par analogie avec le dopage dans le sport, il est à craindre que ce jeu du chat et de la souris entre détecteurs et fraudeurs ne débouche pas sur une éradication du problème, mais sur une escalade des stratégies de fraude.

En revanche, les politiques publiques d’évaluation de la recherche peuvent y remédier, en réduisant la pression à la publication que subissent les chercheurs. Il est urgent de redonner à la qualité intrinsèque des productions scientifiques plus de place dans leur évaluation, avant que la distinction entre contenu authentique et fabriqué devienne impossible.

The Conversation

Baptiste Scancar a reçu des financements du National Health and Medical Research Council (NHMRC), organisme Australien de financement de la recherche médicale.

David Causeur a reçu des financements de l’ANR.

ref. Les fausses publications scientifiques menacent de submerger la recherche contre le cancer – https://theconversation.com/les-fausses-publications-scientifiques-menacent-de-submerger-la-recherche-contre-le-cancer-276465

Toutes pour une, une pour toutes, les coopératives agricoles françaises s’unissent

Source: The Conversation – in French – By Maryline Filippi, Professeure d’économie Bordeaux Sciences Agro – Université de Bordeaux, Chercheuse associée INRAE à AgroParisTech, Université de Paris Saclay., AgroParisTech – Université Paris-Saclay

Le groupe Tipiak, détenu par le groupe coopératif Terrena. Ses produits s’exportent dans le monde entier, comme ici dans un rayon de supermarché en Allemagne. Defotoberg/Shutterstock

En 2025, les 2  100 coopératives agricoles françaises sont dans la tourmente. Résultat, entre la guerre tarifaire de Donald Trump, le conflit en Ukraine et les accords du Mercosur, elles s’unissent en groupes coopératifs pour affronter les mastodontes mondiaux de l’agroalimentaire. Mais, concrètement, comment ces entreprises singulières peuvent-elles conserver leurs principes coopératifs dans des structures aussi gigantesques ?


Le Salon international de l’agriculture de Paris est l’occasion ici de vous demander si vous savez quelles sont les entreprises qui représentent trois agriculteurs sur quatre, une marque alimentaire sur trois et 70 % de la production agricole française ? Réponse : les coopératives agricoles.

Ces derniers mois, des projets de rapprochement d’envergure conduisent à envisager la création de groupes coopératifs pesant plusieurs milliards d’euros de chiffres d’affaires. À titre d’exemple, le montant évoqué pour la fusion de la coopérative normande Agrial avec son homologue des Pays de la Loire Terrena est estimé à 12 milliards d’euros. Ce groupe regrouperait un portefeuille de marques iconiques, comme Florette, Soignon, Tipiak ou Père Dodu.

Ces processus de rapprochement concernent également des coopératives de taille plus modeste comme les coopératives viticoles de Vinay et de Mancy, à Épernay (Marne).

Derrière ces montants qui peuvent sembler stratosphériques, ces groupes conservent un statut coopératif, défini comme « une association autonome de personnes volontairement réunies pour satisfaire leurs aspirations et besoins économiques, sociaux et culturels communs au moyen d’une entreprise dont la propriété est collective et où le pouvoir est exercé démocratiquement ».

Alors, peut-on considérer que ces concentrations restent compatibles avec le modèle coopératif ? La taille économique rime-t-elle avec l’intérêt des associés coopérateurs ?

3ᵉ secteur industriel français

En France, les coopératives sont régies par la loi de 1947, déclinée pour les coopératives agricoles dans le Code rural de la pêche maritime. Peu de modifications législatives sont intervenues depuis. Cependant, les lois n°91-005 du 3 janvier 1991 et celle n°92-643 du 13 juillet 1992 ont ajouté des dispositifs conduisant à leur développement conséquent sous forme de groupe coopératif et impactant leur gouvernance démocratique.

  • Plus de 2  100 coopératives agricoles dont 93 % en TPE-PME
  • 10 400 coopératives d’utilisation de matériel agricole
  • Plus de 200 000 emplois incluant les filiales
  • 3ᵉ secteur industriel français
  • 34 milliards d’euros de capital détenu par les agriculteurs
  • 75 % des exploitations adhérentes

Ces groupes coopératifs sont devenus des acteurs économiques de premier plan. Ils concentrent plus de 90 % du chiffre d’affaires de la coopération agricole. Le premier groupe coopératif français InVivo, union de 187 coopératives mères, dirige plus de 200 filiales pour un chiffre d’affaires consolidé de 11,7 milliards d’euros. En parallèle, quatre groupes sont dans le top 10 des entreprises de l’agroalimentaire en France : le groupe Agrial en 4e position, Sodiaal en 7e, Terrena en 9e et Cooperl Arc Atlantique en 10e.

Taille critique

Derrière ces montants impressionnants, la situation financière de certaines coopératives, y compris céréalières, s’est dégradée. Le ratio dettes financières nettes sur fonds propres de ces dernières est passé de 74,88 % en 2018-2019 à 93,88 % en 2023-2024. Côté rentabilité, la marge est restée relativement stable, passant de 3,28 % en 2018-2019 à 3,31 % en 2023-2024.

C’est pourquoi les récents rapprochements entre coopératives, comme Agrial et Terrena, sont liés à la recherche de l’amélioration de la rentabilité économique, sur des marchés de plus en plus concurrentiels et dans un contexte géopolitique instable. Ils concernent tous les secteurs d’activité, céréales, lait ou vin, etc.

L’obtention d’une taille critique – taille minimale du marché nécessaire pour que l’entreprise puisse être viable – s’avère indispensable en raison des capacités financières limitées des coopératives agricoles classiques. L’objectif : structurer une offre commerciale, consolider les filières et aborder des marchés qui se mondialisent.

Les coopératives cherchent ainsi à partager des risques, à mutualiser des coûts d’investissement et d’innovation incontournables pour procéder aux transitions – agro-écologique, énergétique, numérique – dans tous les secteurs et les territoires.

Acquisition de sociétés de droit commercial

Ces dernières années, les groupes coopératifs multiplient les créations et les acquisitions de sociétés de droit commercial, les imbriquant dans des consortiums d’activités complexes. Derrière cette tendance de fond, il est question de rechercher de nouveaux financements, tout en garantissant aux associés coopérateurs, ou agriculteurs-adhérents, de garder leur pouvoir de décision.

Ces groupes coopératifs sont structurés entre une maison mère de statut coopératif (coopérative ou union de coopératives) et des filiales majoritairement de droit commercial. Ces coopératives agricoles françaises sont considérées au niveau international comme des coopératives traditionnelles au regard des principes premiers établis par les équitables pionniers de Rochedale (Angleterre, XIXᵉ siècle). Concrètement, la propriété capitalistique de la tête du groupe coopératif reste aux seules mains des agriculteurs-adhérents et de leurs représentants, régie par un pouvoir démocratique selon le principe « une personne = une voix ».

Modèle coopératif d’Agrial.
Agrial, CC BY

En effet, l’ouverture du capital des coopératives à des associés non coopérateurs est restreinte, voire impossible. Le contrôle de la société reste le droit premier des associés coopérateurs, propriétaires de la société grâce à la détention de parts sociales. Ces derniers sont les principaux financeurs des fonds propres de la coopérative.

En créant des partenariats avec des investisseurs au niveau des filiales de droit commercial, et non via la tête de groupe sous un statut de coopérative, la difficulté d’attirer des capitaux extérieurs est ainsi contournée.

Pas d’associés hors de France

Les coopératives agricoles sont des entreprises ancrées territorialement. Elles ont une caractéristique juridique unique au monde : la circonscription territoriale, un périmètre géographique associé à leur activité économique et validé par le Haut Conseil de la coopération agricole (HCCA). Cette dernière définit la zone d’adhésion dans laquelle il est possible pour les producteurs y résidant d’adhérer à la coopérative. Comment ? En prenant des parts sociales, contrepartie de leur engagement via l’apport de ressources ou l’utilisation de services de la coopérative.

Hors de cette « circonscription territoriale » ou de la non-adhésion, la coopérative a une dérogation pour réaliser des opérations limitées à 20 % de son chiffre d’affaires avec des « tiers non associés », pour s’approvisionner en matières ou délivrer un service. Évidemment, elle peut librement vendre les productions de ses associés sans aucune restriction de chiffres d’affaires et de zone géographique. Cet assouplissement autorisé par le ministère de l’agriculture a pour objectif de compenser les éventuelles pertes liées à de mauvaises récoltes, susceptibles de remettre en cause l’équilibre économique de la coopérative. Cette règle ne concerne évidemment pas les filiales de droit commercial.

Le statut d’associé ne peut non plus être obtenu pour des producteurs qui résideraient hors de France contrairement à la pratique dans d’autres pays. Par exemple, les 12 000 producteurs laitiers de la coopérative laitière Arla Foods résident dans sept pays : Royaume-Uni, Belgique, Pays-Bas, Luxembourg, Danemark, Suède et Allemagne.

Le cas du développement de coopératives polyvalentes, comme Agrial ou Terrena, reste une caractéristique des coopératives agricoles françaises, non délocalisables et actrices clés de la souveraineté alimentaire. Avec in fine, un objectif de mettre en œuvre une gouvernance leur permettant à la fois de conserver une proximité avec leurs associés coopérateurs et garantir leur place dans la prise de décision.

The Conversation

Maryline Filippi ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Toutes pour une, une pour toutes, les coopératives agricoles françaises s’unissent – https://theconversation.com/toutes-pour-une-une-pour-toutes-les-cooperatives-agricoles-francaises-sunissent-273660

Municipales 2026 : l’extinction nocturne de l’éclairage augmente-t-elle vraiment la délinquance ?

Source: The Conversation – in French – By Chloé Beaudet, Doctorante en économie de l’environnement, AgroParisTech – Université Paris-Saclay

À l’approche des élections municipales de mars prochain, l’extinction nocturne de l’éclairage public, qui s’est généralisée ces dernières années sur fond d’augmentation des coûts de l’énergie et de prise de conscience des dangers pour la biodiversité, cristallise les inquiétudes en matière de sécurité. Pourtant, la première étude nationale menée en France montre que cette politique n’entraîne pas d’augmentation générale des faits de délinquance. Elle n’a qu’un effet limité sur les cambriolages, qui reste très faible : un cambriolage supplémentaire par tranche de 3 000 logements.


De nombreuses communes françaises ont choisi, ces dernières années, d’éteindre partiellement ou totalement leur éclairage public la nuit. Cette tendance s’est fortement accélérée à l’automne 2022, dans un contexte de flambée des prix de l’électricité. Une cartographie des extinctions nocturnes, publiée par le Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) à l’été 2025, montre ainsi que 62 % des communes (sur les 19 262 étudiées) ont mis en place une politique d’extinction nocturne de l’éclairage public.

Ces décisions permettent aux collectivités de réaliser des économies d’énergie et de réduire leurs dépenses, tout en limitant les effets néfastes de la pollution lumineuse sur la biodiversité et la santé humaine, en forte augmentation ces dernières années.

À l’approche des élections municipales des 15 et 22 mars 2026, ces mesures sont toutefois de plus en plus contestées dans certaines villes en raison du sentiment d’insécurité qu’elles suscitent chez une partie de la population.

Jusqu’à présent, aucune étude scientifique en France n’avait analysé le lien entre l’extinction de l’éclairage public et la délinquance. À l’international, les travaux sur cette question sont rares et ont, jusqu’à présent, abouti à des résultats contrastés.

C’est pour combler ce manque que je me suis intéressée à cette problématique dans le cadre de ma thèse, soutenue en décembre 2025, en menant la première étude empirique évaluant l’impact de l’extinction de l’éclairage public sur la délinquance, à l’échelle nationale. Ses résultats montrent qu’éteindre l’éclairage la nuit n’a pas d’effet sur la plupart des faits de délinquance étudiés. Elle a toutefois un impact léger sur les cambriolages, qui reste très limité et s’applique surtout aux contextes urbains.

Pas d’effet sur la majorité des faits de délinquance

L’étude, qui a passé au crible les statistiques de délinquance entre 2017 et 2023 des communes de plus de 1 500 habitants, montre que l’extinction de l’éclairage public n’a aucun effet pour la grande majorité des faits de délinquance étudiés : dégradations et destructions volontaires, violences sexuelles, vols non violents, vols de véhicules et d’accessoires ainsi que trafic et usage de stupéfiants.

Un faible effet positif a toutefois été mis en évidence pour les cambriolages. Celui-ci est statistiquement significatif, mais reste limité : on parle ici d’une augmentation de 0,35 cambriolage pour 1 000 logements (soit environ 1 cambriolage supplémentaire par tranche de 3 000 logements). Autrement dit cet impact correspond à environ 3,4 % du nombre de cambriolages observés en moyenne par an dans les communes ayant recours à l’extinction nocturne.

Des analyses plus fines montrent que cet effet est concentré dans les communes à forte densité de population, que l’Insee considère comme « grands centres urbains » et « centres urbains intermédiaires ». Aucun impact n’est observé dans les communes à plus faible densité, telles que les ceintures urbaines et les petites villes.

Pour les faits de délinquance, tels que la violence physique, les vols violents avec ou sans arme et les vols dans les véhicules, le modèle utilisé dans l’étude n’était pas applicable. Il n’est donc pas possible de conclure, pour ces faits, à la présence ou à l’absence d’un effet de l’extinction de l’éclairage public.




À lire aussi :
Éclairer la ville ou protéger la biodiversité : faux dilemme


Délinquance et éclairage nocturne, des données inédites

Pour parvenir à ces résultats, j’ai croisé deux sources de données.

La première est une base inédite qui identifie, pour chaque commune, si et depuis quand l’éclairage public est éteint. Elle s’appuie sur les travaux du Cerema, qui a eu recours à des images satellites nocturnes pour détecter des ruptures soudaines dans les séries temporelles de radiance – c’est-à-dire la lumière visible depuis l’espace – susceptibles de correspondre à des extinctions de l’éclairage public.

J’ai ainsi adapté cette méthodologie pour améliorer les performances de l’algorithme de détection et mieux distinguer les extinctions des autres changements de l’éclairage public, comme le passage à des lampes LED. La performance du modèle a ensuite été vérifiée à partir d’une base de données regroupant plusieurs centaines de communes dont les pratiques d’extinction étaient connues, notamment grâce à un partenariat avec le programme ACTEE, ce qui a permis de valider empiriquement la robustesse de l’algorithme.

Cette base de données a ensuite été croisée avec les données administratives du ministère de l’intérieur, qui recensent, pour chaque commune et chaque année, le nombre de faits de délinquance sur la période 2017-2023.

Une fois les données croisées, l’enjeu était d’identifier un lien de causalité – et non d’établir une simple corrélation – entre extinction de l’éclairage public et la délinquance. Pour cela, l’étude s’est appuyée sur la méthode des « doubles différences », couramment utilisée en économie.

Concrètement, cette approche consiste à comparer l’évolution de la délinquance dans les communes qui ont éteint leur éclairage public, avant et après la mise en place de la mesure, à celle observée dans des communes comparables n’ayant pas procédé à une extinction.

Le principe est d’isoler l’effet propre de l’extinction nocturne, en neutralisant les tendances temporelles et les différences structurelles entre les deux groupes. De plus, les autres facteurs susceptibles d’influencer la délinquance, (par exemple, la taille de l’unité urbaine, la couleur politique du maire, ou la distance de la ville au quartier prioritaire de la ville le plus proche), ont ainsi été pris en compte.

Les cambriolages ont-ils été déplacés vers les communes éclairées ?

Des analyses complémentaires suggèrent que, s’agissant des cambriolages, il n’y a pas, a priori, de phénomène de déplacement vers les communes voisines restées éclairées lorsque certaines communes pratiquent l’extinction nocturne. En revanche, il serait pertinent de mener des travaux supplémentaires pour déterminer si de tels effets de report existent à une échelle plus fine, au sein même des communes, entre des quartiers éteints et des quartiers adjacents restés éclairés.

Une étude menée en Angleterre et publiée en 2023 apporte à cet égard des éléments intéressants : elle met en évidence une baisse des vols dans les véhicules dans les rues éteintes, accompagnée d’une hausse de ces faits dans les rues voisines demeurées éclairées. En France, la granularité des données actuellement disponibles ne permet pas d’analyser ces phénomènes à une échelle infracommunale.

Plus largement, malgré l’absence d’effets ou les effets très limités observés, de futures recherches pourraient permettre de mieux comprendre les mécanismes à l’œuvre derrière ces résultats pour l’ensemble des faits de délinquance étudiés. Il serait notamment utile d’examiner si les effets – lorsqu’ils existent – varient selon le moment de la journée ou de l’année, selon certaines caractéristiques du tissu urbain, ou encore si l’extinction de l’éclairage modifie les comportements, comme la vigilance des riverains ou la fréquentation de l’espace public. Ces approfondissements contribueraient à concevoir des politiques publiques adaptées.

Ce que les collectivités locales peuvent en retenir

Les résultats de cette étude ne permettent pas de conclure à une augmentation massive de la délinquance liée à l’extinction de l’éclairage public. Pour les communes qui souhaitent mettre en place ces politiques afin de réduire la pollution lumineuse ou maîtriser leurs dépenses énergétiques, ce constat est rassurant. Pour autant, ces mesures peuvent susciter un sentiment d’insécurité chez une partie de la population, qui ne doit pas être négligé.

Image satellitaire de l’agglomération de Montpellier (Hérault), de nuit.
Image acquise le 26 août 2020 par Jilin-1 de CGsatellite et distribuée par La TeleScop, Fourni par l’auteur

Dans une autre étude, nous avons montré qu’il est possible de concevoir des politiques d’éclairage à la fois socialement acceptables et bénéfiques pour la biodiversité. Les résultats soulignent qu’une approche uniforme est peu efficace : les politiques d’éclairage nocturne doivent être pensées localement, à une échelle fine, au lampadaire près, afin d’être efficaces.

Enfin, il est important de rappeler que la lutte contre la pollution lumineuse ne se limite pas à l’extinction de l’éclairage public. De nombreuses mesures de réduction – comme l’adaptation de l’intensité ou de la température de couleur – sont largement mieux accueillies par la population, comme l’illustrent notamment les retours observés à Montpellier (Hérault).




À lire aussi :
Éclairage public : les Français sont-ils prêts à éteindre la lumière ?


The Conversation

Chloé Beaudet est membre du GDR 2202 Lumière & environnement nocturne (LUMEN) et de l’Observatoire de l’Environnement Nocturne du CNRS. Elle a reçu des financements de l’INRAE et AgroParisTech en tant que chercheuse à l’UMR Paris-Saclay Applied Economics (PSAE).

ref. Municipales 2026 : l’extinction nocturne de l’éclairage augmente-t-elle vraiment la délinquance ? – https://theconversation.com/municipales-2026-lextinction-nocturne-de-leclairage-augmente-t-elle-vraiment-la-delinquance-275601

Google, Amazon et Circle redessinent la concurrence dans l’univers des crypto-actifs

Source: The Conversation – in French – By Françoise Vasselin, Maîtresse de conférences en Sciences Economiques – Université Paris-Est Créteil (UPEC), Université Paris-Est Créteil Val de Marne (UPEC)

Aux États-Unis, l’absence de dollar numérique laisse place au développement d’infrastructures privées de paiement adossées au dollar. JosephKelly/Shutterstock

Les stablecoins, ces cryptomonnaies adossées à une monnaie de référence comme le dollar, pèsent environ 300 milliards de dollars, soit plus de 254,7 milliards d’euros, en décembre 2025. En parallèle de l’entrée en application du règlement Mica dans l’Union européenne (2024) et de l’adoption du Genius Act aux États-Unis (2025), de nouvelles infrastructures privées de paiement numérique ont émergé pour accueillir ces cryptoactifs régulés. Portées par des acteurs aussi divers que Google, Circle ou Stripe, elles pourraient redessiner les règlements des paiements numériques. Avec quel avenir ?


Alors que le bitcoin a connu son « Jeudi noir », en passant sous les 70 000 dollars (plus de 59 000 euros) début février 2026, les regards se tournent vers les stablecoins. Ces cryptoactifs sont conçus pour maintenir une valeur relativement stable, généralement indexée sur une monnaie officielle comme le dollar états-unien. Ils remplissent des fonctions monétaires explicites – paiements, transferts et réserve de valeur – et sont le plus souvent émis par des acteurs privés, comme Tether.

Le Fonds monétaire international souligne leur rôle croissant dans les paiements transfrontaliers, en particulier dans des économies confrontées à une forte inflation comme la Turquie ou le Liban. Dans ces pays, les stablecoins permettent des transferts rapides et à moindre coût, utilisés comme instruments de transaction et de préservation du pouvoir d’achat.

Longtemps, ces usages se sont développés dans un environnement dépourvu de cadre juridique spécifique. L’adoption de réglementations a ciblé prioritairement les stablecoins : d’un côté, Mica en Europe, entré en vigueur fin 2024, de l’autre, le Genius Act aux États-Unis, adopté en juillet 2025.

À ce stade, cet encadrement n’a pas (encore) déclenché l’émergence de nouveaux stablecoins majeurs. Depuis 2024, la régulation a surtout réorienté les incitations vers la construction d’infrastructures privées de paiement compatibles avec les nouveaux cadres juridiques. Si aux États-Unis, l’absence de dollar numérique laisse un espace stratégique propice au développement de ces infrastructures privées, dans l’Union européenne, la perspective d’un euro numérique pourrait réduire les incitations à l’investissement.

Alors, l’enjeu central du marché des cryptoactifs ne se situerait pas uniquement au niveau des actifs eux-mêmes, mais au niveau de leurs infrastructures ?

Mica et Genius Act : même logique, contextes différents

En Europe, le règlement Mica instaure un cadre harmonisé pour l’émission de certains cryptoactifs, avec un encadrement strict des stablecoins, notamment les e-money tokens. Cet encadrement, combiné au projet d’euro numérique, pourrait réduire les incitations des acteurs privés à investir dans des infrastructures de paiement privées. Ces dernières seraient susceptibles d’entrer en concurrence avec l’infrastructure publique de paiement développée par la Banque centrale européenne.




À lire aussi :
Stabilité affichée, risques cachés : le paradoxe des (cryptoactifs) « stablecoins »


Aux États-Unis, le Genius Act adopte une logique comparable sur le fond. Il encadre les payment stablecoins autour d’une promesse de rachat à valeur fixe, portée par des émetteurs autorisés. Cependant, le cadre institutionnel du dollar numérique des États-Unis diffère sensiblement de celui de l’Union européenne. Le CBDC Anti-Surveillance State Act, adopté par la Chambre des représentants en 2024, subordonne toute émission d’un dollar numérique par la Réserve fédérale à une autorisation explicite du Congrès. Un dispositif qui rend plus incertaine la mise en place d’un dollar numérique.

Si Mica et le Genius Act reposent sur une logique commune de responsabilisation des émetteurs de stablecoins, ils génèrent des incitations économiques différentes. En Europe, la régulation va de pair avec le développement d’une monnaie numérique de banque centrale, tandis qu’aux États-Unis elle oriente les investissements vers des infrastructures privées de paiement et de règlement.

Infrastructures privées de paiement numérique

Depuis 2024, plusieurs grandes entreprises états-uniennes développent des infrastructures privées de paiement numérique destinées aux institutions financières. L’objectif est clair : proposer des systèmes intégrant traçabilité, contrôles d’accès et prévisibilité des coûts, dans un cadre compatible avec les exigences réglementaires. Cette stratégie est cohérente avec les orientations du rapport « Blueprint for the future monetary system » de la Banque des règlements internationaux qui appelle au développement d’infrastructures monétaires plus interopérables et programmables.

Google développe le Google Cloud Universal Ledger (GCUL), une infrastructure numérique destinée aux banques et aux grandes institutions financières. Testée dans des programmes pilotes, elle implique plusieurs acteurs financiers, notamment Amina Bank, Crypto Finance Group en Suisse, le groupe CME et des banques du Moyen-Orient.

De son côté, Circle, l’émetteur de l’USDC, développe Arc, une infrastructure de règlement reposant sur une technologie de registre distribué. Déployée en phase de test à partir de l’automne 2025, Arc est expérimentée par plusieurs institutions financières et grandes entreprises technologiques, dont BlackRock, Visa, HSBC, Deutsche Bank et AWS.

Ces projets ne se contentent pas de reproduire les infrastructures bancaires existantes. Traditionnellement, le paiement (par exemple le débit d’un compte), la compensation (le calcul des positions entre banques) et le règlement final (via des systèmes des banques centrales comme Target2 en Europe) sont assurés par des systèmes distincts qui interviennent successivement dans le traitement d’une transaction.

De facto, l’enjeu de ces nouveaux projets est de regrouper ces fonctions au sein d’un même système technique, dans lequel le transfert d’un actif numérique peut valoir simultanément à la fois paiement et règlement. GCUL et Arc pourront offrir davantage de prévisibilité en matière de coûts, de délais de règlement et de conformité réglementaire.

Amazon et Walmart en embuscade

En contraste, les initiatives de stablecoins portées par les grands acteurs du commerce de détail restent, à ce stade, exploratoires. Selon des informations rapportées par le Wall Street Journal, Amazon et Walmart envisageraient l’émission d’un stablecoin. L’objectif : réduire les coûts et les délais de paiement, notamment en limitant leur dépendance aux réseaux de cartes bancaires. Aucun projet de stablecoin de détail opérationnel n’a toutefois été confirmé à ce jour par ces entreprises.

Cette prudence s’explique par une contrainte opérationnelle. Avant de lancer un stablecoin destiné à des paiements de détail à grande échelle, il est indispensable de disposer d’infrastructures de paiement conformes aux exigences réglementaires et capables de traiter des volumes très élevés de transactions.

Réduire les commissions et sécuriser les paiements

Ces infrastructures privées de paiement émergent parce qu’elles peuvent être avantageuses pour leurs développeurs comme pour leurs utilisateurs. En réduisant le nombre d’intermédiaires dans le traitement d’une transaction, les fournisseurs d’infrastructure peuvent diminuer certains coûts et capter une part plus importante des revenus liés aux paiements. Les institutions financières, de leur côté, bénéficient de règlements plus rapides, de frais plus prévisibles et d’un cadre sécurisé compatible avec les exigences des autorités.

Ces infrastructures privées de paiement numérique déplacent la concurrence vers le contrôle des canaux de règlement compatibles avec les cadres juridiques existants.

La valeur d’usage des stablecoins repose désormais sur la combinaison de deux composantes distinctes : l’actif lui-même, défini par une promesse monétaire et un émetteur identifiable, et l’infrastructure sur laquelle il est émis et circule. Cette dissociation ouvre un espace nouveau de régulation et d’investissement, portant à la fois sur les actifs et sur les infrastructures qui en conditionnent l’usage à grande échelle.

The Conversation

Françoise Vasselin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Google, Amazon et Circle redessinent la concurrence dans l’univers des crypto-actifs – https://theconversation.com/google-amazon-et-circle-redessinent-la-concurrence-dans-lunivers-des-crypto-actifs-265142

Municipales 2026 : le Parti socialiste peut-il tenir bon ?

Source: The Conversation – in French – By Pierre-Nicolas Baudot, Docteur en science politique, Université Paris-Panthéon-Assas

L’échelon municipal a toujours constitué un espace clé pour le Parti socialiste (PS). Devenu largement un parti d’élus locaux, son déclin national a renforcé encore l’importance de ses municipalités. Ces dernières décennies, son assise s’y est largement construite sur une technicisation et une dépolitisation de l’action locale. Le contexte actuel devrait, pourtant, conduire à une nationalisation et à une politisation des élections de mars prochain. À quel défi le PS doit-il s’attendre ?


La municipalisation est décisive dans l’histoire du socialisme dès la fin du XIXᵉ siècle. L’action municipale est un lieu de formation pour les cadres du parti et un laboratoire pour l’ensemble du pays. Elle lui a aussi permis de constituer ses principaux réseaux, d’entretenir ses relations avec les associations, de constituer ses clientèles électorales et de rétribuer ses militants.

Lorsque, dans les années 1970, le Parti socialiste (PS) redéfinit les rapports de force à gauche et se rapproche de l’exercice du pouvoir national, l’échelon local joue toujours un rôle clé. Les années 1980 accroissent encore la municipalisation du parti : les réformes de décentralisation augmentent les budgets et le personnel à la disposition des élus locaux et renforcent la place des carrières professionnelles liées à la politique.

Progressivement, le « socialisme municipal » ne renvoie plus à une identité singulière, tant l’action locale socialiste s’est banalisée. Pour autant, cet échelon structure toujours le PS. La place des élus locaux a continuellement crû au sein du parti et les mandats locaux demeurent un enjeu central dans le fonctionnement socialiste. C’est vrai pour les élus, mais aussi pour le personnel municipal ou les collaborateurs politiques qui dépendent directement des élections.

L’effondrement du parti au niveau national dans les années 2010 a modifié l’ancrage du socialisme sur le territoire, mais il n’a pas contredit cette observation. Certes, en 2014, le PS enregistre son plus mauvais résultat lors d’un scrutin local sous la Vᵉ République. Il revient à un niveau qu’il n’avait plus connu depuis trente-cinq ans. Il perd 49 des villes de plus de 30 000 habitants qu’il dirigeait (près de la moitié), 27 villes de plus de 50 000 habitants et plusieurs villes de plus de 100 000 habitants. En 2020, il peine à se relever de cette défaite historique.

Cependant, son effondrement à l’élection présidentielle de 2017 ne l’empêche pas de conserver toutes ses métropoles, et d’en gagner même de nouvelles (Nancy, Saint-Denis, Périgueux, Bourges ou Marseille, par exemple). Il continue de dominer, à gauche, les scrutins municipaux. Alors que ses positions électorales nationales se sont largement réduites, l’échelon municipal constitue un espace de résistance – sinon de résilience – pour le PS. L’affaiblissement militant du parti amplifie ce constat, en rendant le parti plus dépendant encore de ses ressources institutionnelles.

Une hégémonie en recomposition

Les coordonnées du problème socialiste ont cependant évolué. Les scores réalisés dans certaines métropoles ne doivent pas masquer l’érosion profonde de ses ancrages dans de nombreux territoires et la perte de villes, comme Metz, ou de certains bastions. Comme l’indiquait le cas de Nevers en 2014, le socialisme des villes moyennes s’est par endroit largement essoufflé, sur fond de déclin urbain (baisse démographique, crise économique, croissance de la précarité…) et de mobilité des catégories sociales qui lui étaient le plus favorables. Comme l’observe le géographe Achille Warnant :

« Alors qu’en 1977 la “vague rose” était d’abord l’affaire des villes moyennes, la “vague rose et verte” de 2020 est davantage l’affaire des métropoles. »

L’affaiblissement du PS l’a, de plus, rendu plus dépendant encore de ses partenaires, écologistes en particulier. Dès 2014, s’il domine encore la gauche, son hégémonie tend à se réduire : 69,3 % des mairies de gauche sortantes étaient contrôlées par le PS avant l’élection, contre 60,2 % après. En 2020, dans les villes de plus de 30 000 habitants, les scores de la gauche au premier tour se stabilisent par rapport à 2014, mais ceux du PS continuent de décliner : 36 % en 2008, 25,4 % en 2014 et 16,5 % en 2020. Le PS conserve ses principales zones de force au second tour, mais il le doit essentiellement à un renforcement de son alliance avec les écologistes auxquels il concède de plus en plus de place dans les accords.

Une gauche divisée

Le PS aborde les élections municipales de 2026 après avoir refusé de censurer le gouvernement Lecornu – contrairement aux autres partis de gauche. Il a acté les désaccords stratégiques au sein de son camp, espérant cultiver l’image d’un parti « responsable ». L’importance prise dans le débat public par ces désaccords et les tensions afférentes sont de nature à se répliquer sur le jeu municipal.

Cela vaut d’autant plus que, contrairement aux derniers scrutins, LFI investit l’élection en présentant des candidats dans de nombreuses villes. Le mouvement mène campagne sur la « rupture », y compris avec les édiles socialistes. Ceux-ci rejettent majoritairement, en retour, toute idée d’alliance avec LFI. La proximité de l’échéance présidentielle, en 2027, ne peut qu’attiser cette rivalité.

Dans les villes gérées par les socialistes, cette situation pourrait accentuer la politisation de l’élection et cliver l’électorat de gauche. Cela devrait en particulier s’observer dans les villes de petites couronnes métropolitaines et dans les grandes villes. LFI y obtient ses meilleurs scores et peut espérer puiser dans le réservoir électoral socialiste. Le PS pourrait perdre à cette occasion certaines des grandes villes qu’il dirige – comme Lille, Paris ou Rennes – où des listes insoumises pourraient se maintenir au second tour. Outre les municipalités, c’est également la présidence de certaines de ses métropoles que le PS pourrait être contraint d’abandonner.

La capacité du PS à nouer des alliances, avec les écologistes en premier lieu, sera donc décisive. En retour, le parti pourrait être contraint de concéder plus de places encore à ces alliés.

2026 : une tension entre nationalisation et dépolitisation ?

Les politistes Jean-Yves Dormagen et Stéphane Fournier accréditent la thèse d’une politisation du scrutin municipal dans les grandes villes. Ils font l’hypothèse d’une « polarisation “écologico-identitaire” ». Elle serait appuyée par les politiques progressistes et écologiques des municipalités de gauche et par le « backlash culturel anti-écologiste et sécuritaire » qu’oppose la droite. Elle se manifesterait par la critique des rénovations urbaines destinées à adapter davantage les villes au changement climatique et par des attitudes conservatrices et identitaires. Certes, les grandes villes, où les jeunes et les diplômés favorables à la gauche sont très présents, sont portées à gauche. Mais, la politisation de ces thématiques pourrait mobiliser l’électorat de droite – pour qui elle s’articule à un sentiment décliniste.

Elle pourrait également cliver l’électorat de gauche. La réaction face au changement climatique suscite par exemple certains désaccords, comme sur les zones à faibles émissions (ZFE) que LFI propose de suspendre pour ne pas faire porter aux classes populaires le poids des politiques environnementales. Il en va de même des modalités de lutte contre les discriminations, dont LFI a fait l’un de ses thèmes de campagne. L’électorat de gauche pourrait ainsi se diviser sur ces thèmes, en particulier entre les offres politiques du PS, des écologistes et de LFI.

L’enjeu est donc sans doute moins de savoir si les grandes villes continueront de voter à gauche que de savoir si les socialistes seront en mesure d’en bénéficier. De même, dans les villes qu’il ne dirige pas, rien n’indique que le PS puisse tirer un profit mécanique de cette politisation : soit parce que, comme à Lyon ou à Caen, les écologistes semblent mieux placés pour le faire ; soit parce que, comme à Toulouse, la droite a investi la question de l’adaptation des villes au changement climatique. C’est d’autant plus vrai que, dans l’opposition, le PS peine à fidéliser des électeurs. En témoigne le fait que les villes de plus de 100 000 habitants perdues en 2014 au profit de l’UMP n’ont pas, depuis, été reconquises.

Si le scrutin venait à être nationalisé dans les grandes villes, il pourrait contrevenir à la trajectoire des municipalités socialistes. Celles-ci se sont épanouies autour d’un brouillage politique produit par la technicisation et la dépolitisation du discours municipal. Si les élus socialistes nationaux peuvent espérer tirer profit de leur attitude à l’égard du gouvernement, les élus locaux sont peu impliqués dans la vie politique nationale. Pour minimiser l’empreinte du débat national, ils pourraient être incités à prolonger ces attitudes passées : valoriser leur enracinement local et mettre à distance leur affiliation partisane.

Pour autant, la question du leadership à gauche restant ouverte et l’élection présidentielle de 2027 se profilant, les résultats des grandes villes feront inévitablement l’objet d’une extrapolation nationale. Quoi qu’il en soit, les répercussions de la vie politique nationale sur les élections municipales risquent de prolonger encore la marginalisation des enjeux locaux observée lors des scrutins précédents.

The Conversation

Pierre-Nicolas Baudot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Municipales 2026 : le Parti socialiste peut-il tenir bon ? – https://theconversation.com/municipales-2026-le-parti-socialiste-peut-il-tenir-bon-274889