Municipales 2026 : l’extinction nocturne de l’éclairage augmente-t-elle vraiment la délinquance ?

Source: The Conversation – in French – By Chloé Beaudet, Doctorante en économie de l’environnement, AgroParisTech – Université Paris-Saclay

À l’approche des élections municipales de mars prochain, l’extinction nocturne de l’éclairage public, qui s’est généralisée ces dernières années sur fond d’augmentation des coûts de l’énergie et de prise de conscience des dangers pour la biodiversité, cristallise les inquiétudes en matière de sécurité. Pourtant, la première étude nationale menée en France montre que cette politique n’entraîne pas d’augmentation générale des faits de délinquance. Elle n’a qu’un effet limité sur les cambriolages, qui reste très faible : un cambriolage supplémentaire par tranche de 3 000 logements.


De nombreuses communes françaises ont choisi, ces dernières années, d’éteindre partiellement ou totalement leur éclairage public la nuit. Cette tendance s’est fortement accélérée à l’automne 2022, dans un contexte de flambée des prix de l’électricité. Une cartographie des extinctions nocturnes, publiée par le Centre d’études et d’expertise sur les risques, l’environnement, la mobilité et l’aménagement (Cerema) à l’été 2025, montre ainsi que 62 % des communes (sur les 19 262 étudiées) ont mis en place une politique d’extinction nocturne de l’éclairage public.

Ces décisions permettent aux collectivités de réaliser des économies d’énergie et de réduire leurs dépenses, tout en limitant les effets néfastes de la pollution lumineuse sur la biodiversité et la santé humaine, en forte augmentation ces dernières années.

À l’approche des élections municipales des 15 et 22 mars 2026, ces mesures sont toutefois de plus en plus contestées dans certaines villes en raison du sentiment d’insécurité qu’elles suscitent chez une partie de la population.

Jusqu’à présent, aucune étude scientifique en France n’avait analysé le lien entre l’extinction de l’éclairage public et la délinquance. À l’international, les travaux sur cette question sont rares et ont, jusqu’à présent, abouti à des résultats contrastés.

C’est pour combler ce manque que je me suis intéressée à cette problématique dans le cadre de ma thèse, soutenue en décembre 2025, en menant la première étude empirique évaluant l’impact de l’extinction de l’éclairage public sur la délinquance, à l’échelle nationale. Ses résultats montrent qu’éteindre l’éclairage la nuit n’a pas d’effet sur la plupart des faits de délinquance étudiés. Elle a toutefois un impact léger sur les cambriolages, qui reste très limité et s’applique surtout aux contextes urbains.

Pas d’effet sur la majorité des faits de délinquance

L’étude, qui a passé au crible les statistiques de délinquance entre 2017 et 2023 des communes de plus de 1 500 habitants, montre que l’extinction de l’éclairage public n’a aucun effet pour la grande majorité des faits de délinquance étudiés : dégradations et destructions volontaires, violences sexuelles, vols non violents, vols de véhicules et d’accessoires ainsi que trafic et usage de stupéfiants.

Un faible effet positif a toutefois été mis en évidence pour les cambriolages. Celui-ci est statistiquement significatif, mais reste limité : on parle ici d’une augmentation de 0,35 cambriolage pour 1 000 logements (soit environ 1 cambriolage supplémentaire par tranche de 3 000 logements). Autrement dit cet impact correspond à environ 3,4 % du nombre de cambriolages observés en moyenne par an dans les communes ayant recours à l’extinction nocturne.

Des analyses plus fines montrent que cet effet est concentré dans les communes à forte densité de population, que l’Insee considère comme « grands centres urbains » et « centres urbains intermédiaires ». Aucun impact n’est observé dans les communes à plus faible densité, telles que les ceintures urbaines et les petites villes.

Pour les faits de délinquance, tels que la violence physique, les vols violents avec ou sans arme et les vols dans les véhicules, le modèle utilisé dans l’étude n’était pas applicable. Il n’est donc pas possible de conclure, pour ces faits, à la présence ou à l’absence d’un effet de l’extinction de l’éclairage public.




À lire aussi :
Éclairer la ville ou protéger la biodiversité : faux dilemme


Délinquance et éclairage nocturne, des données inédites

Pour parvenir à ces résultats, j’ai croisé deux sources de données.

La première est une base inédite qui identifie, pour chaque commune, si et depuis quand l’éclairage public est éteint. Elle s’appuie sur les travaux du Cerema, qui a eu recours à des images satellites nocturnes pour détecter des ruptures soudaines dans les séries temporelles de radiance – c’est-à-dire la lumière visible depuis l’espace – susceptibles de correspondre à des extinctions de l’éclairage public.

J’ai ainsi adapté cette méthodologie pour améliorer les performances de l’algorithme de détection et mieux distinguer les extinctions des autres changements de l’éclairage public, comme le passage à des lampes LED. La performance du modèle a ensuite été vérifiée à partir d’une base de données regroupant plusieurs centaines de communes dont les pratiques d’extinction étaient connues, notamment grâce à un partenariat avec le programme ACTEE, ce qui a permis de valider empiriquement la robustesse de l’algorithme.

Cette base de données a ensuite été croisée avec les données administratives du ministère de l’intérieur, qui recensent, pour chaque commune et chaque année, le nombre de faits de délinquance sur la période 2017-2023.

Une fois les données croisées, l’enjeu était d’identifier un lien de causalité – et non d’établir une simple corrélation – entre extinction de l’éclairage public et la délinquance. Pour cela, l’étude s’est appuyée sur la méthode des « doubles différences », couramment utilisée en économie.

Concrètement, cette approche consiste à comparer l’évolution de la délinquance dans les communes qui ont éteint leur éclairage public, avant et après la mise en place de la mesure, à celle observée dans des communes comparables n’ayant pas procédé à une extinction.

Le principe est d’isoler l’effet propre de l’extinction nocturne, en neutralisant les tendances temporelles et les différences structurelles entre les deux groupes. De plus, les autres facteurs susceptibles d’influencer la délinquance, (par exemple, la taille de l’unité urbaine, la couleur politique du maire, ou la distance de la ville au quartier prioritaire de la ville le plus proche), ont ainsi été pris en compte.

Les cambriolages ont-ils été déplacés vers les communes éclairées ?

Des analyses complémentaires suggèrent que, s’agissant des cambriolages, il n’y a pas, a priori, de phénomène de déplacement vers les communes voisines restées éclairées lorsque certaines communes pratiquent l’extinction nocturne. En revanche, il serait pertinent de mener des travaux supplémentaires pour déterminer si de tels effets de report existent à une échelle plus fine, au sein même des communes, entre des quartiers éteints et des quartiers adjacents restés éclairés.

Une étude menée en Angleterre et publiée en 2023 apporte à cet égard des éléments intéressants : elle met en évidence une baisse des vols dans les véhicules dans les rues éteintes, accompagnée d’une hausse de ces faits dans les rues voisines demeurées éclairées. En France, la granularité des données actuellement disponibles ne permet pas d’analyser ces phénomènes à une échelle infracommunale.

Plus largement, malgré l’absence d’effets ou les effets très limités observés, de futures recherches pourraient permettre de mieux comprendre les mécanismes à l’œuvre derrière ces résultats pour l’ensemble des faits de délinquance étudiés. Il serait notamment utile d’examiner si les effets – lorsqu’ils existent – varient selon le moment de la journée ou de l’année, selon certaines caractéristiques du tissu urbain, ou encore si l’extinction de l’éclairage modifie les comportements, comme la vigilance des riverains ou la fréquentation de l’espace public. Ces approfondissements contribueraient à concevoir des politiques publiques adaptées.

Ce que les collectivités locales peuvent en retenir

Les résultats de cette étude ne permettent pas de conclure à une augmentation massive de la délinquance liée à l’extinction de l’éclairage public. Pour les communes qui souhaitent mettre en place ces politiques afin de réduire la pollution lumineuse ou maîtriser leurs dépenses énergétiques, ce constat est rassurant. Pour autant, ces mesures peuvent susciter un sentiment d’insécurité chez une partie de la population, qui ne doit pas être négligé.

Image satellitaire de l’agglomération de Montpellier (Hérault), de nuit.
Image acquise le 26 août 2020 par Jilin-1 de CGsatellite et distribuée par La TeleScop, Fourni par l’auteur

Dans une autre étude, nous avons montré qu’il est possible de concevoir des politiques d’éclairage à la fois socialement acceptables et bénéfiques pour la biodiversité. Les résultats soulignent qu’une approche uniforme est peu efficace : les politiques d’éclairage nocturne doivent être pensées localement, à une échelle fine, au lampadaire près, afin d’être efficaces.

Enfin, il est important de rappeler que la lutte contre la pollution lumineuse ne se limite pas à l’extinction de l’éclairage public. De nombreuses mesures de réduction – comme l’adaptation de l’intensité ou de la température de couleur – sont largement mieux accueillies par la population, comme l’illustrent notamment les retours observés à Montpellier (Hérault).




À lire aussi :
Éclairage public : les Français sont-ils prêts à éteindre la lumière ?


The Conversation

Chloé Beaudet est membre du GDR 2202 Lumière & environnement nocturne (LUMEN) et de l’Observatoire de l’Environnement Nocturne du CNRS. Elle a reçu des financements de l’INRAE et AgroParisTech en tant que chercheuse à l’UMR Paris-Saclay Applied Economics (PSAE).

ref. Municipales 2026 : l’extinction nocturne de l’éclairage augmente-t-elle vraiment la délinquance ? – https://theconversation.com/municipales-2026-lextinction-nocturne-de-leclairage-augmente-t-elle-vraiment-la-delinquance-275601

Google, Amazon et Circle redessinent la concurrence dans l’univers des crypto-actifs

Source: The Conversation – in French – By Françoise Vasselin, Maîtresse de conférences en Sciences Economiques – Université Paris-Est Créteil (UPEC), Université Paris-Est Créteil Val de Marne (UPEC)

Aux États-Unis, l’absence de dollar numérique laisse place au développement d’infrastructures privées de paiement adossées au dollar. JosephKelly/Shutterstock

Les stablecoins, ces cryptomonnaies adossées à une monnaie de référence comme le dollar, pèsent environ 300 milliards de dollars, soit plus de 254,7 milliards d’euros, en décembre 2025. En parallèle de l’entrée en application du règlement Mica dans l’Union européenne (2024) et de l’adoption du Genius Act aux États-Unis (2025), de nouvelles infrastructures privées de paiement numérique ont émergé pour accueillir ces cryptoactifs régulés. Portées par des acteurs aussi divers que Google, Circle ou Stripe, elles pourraient redessiner les règlements des paiements numériques. Avec quel avenir ?


Alors que le bitcoin a connu son « Jeudi noir », en passant sous les 70 000 dollars (plus de 59 000 euros) début février 2026, les regards se tournent vers les stablecoins. Ces cryptoactifs sont conçus pour maintenir une valeur relativement stable, généralement indexée sur une monnaie officielle comme le dollar états-unien. Ils remplissent des fonctions monétaires explicites – paiements, transferts et réserve de valeur – et sont le plus souvent émis par des acteurs privés, comme Tether.

Le Fonds monétaire international souligne leur rôle croissant dans les paiements transfrontaliers, en particulier dans des économies confrontées à une forte inflation comme la Turquie ou le Liban. Dans ces pays, les stablecoins permettent des transferts rapides et à moindre coût, utilisés comme instruments de transaction et de préservation du pouvoir d’achat.

Longtemps, ces usages se sont développés dans un environnement dépourvu de cadre juridique spécifique. L’adoption de réglementations a ciblé prioritairement les stablecoins : d’un côté, Mica en Europe, entré en vigueur fin 2024, de l’autre, le Genius Act aux États-Unis, adopté en juillet 2025.

À ce stade, cet encadrement n’a pas (encore) déclenché l’émergence de nouveaux stablecoins majeurs. Depuis 2024, la régulation a surtout réorienté les incitations vers la construction d’infrastructures privées de paiement compatibles avec les nouveaux cadres juridiques. Si aux États-Unis, l’absence de dollar numérique laisse un espace stratégique propice au développement de ces infrastructures privées, dans l’Union européenne, la perspective d’un euro numérique pourrait réduire les incitations à l’investissement.

Alors, l’enjeu central du marché des cryptoactifs ne se situerait pas uniquement au niveau des actifs eux-mêmes, mais au niveau de leurs infrastructures ?

Mica et Genius Act : même logique, contextes différents

En Europe, le règlement Mica instaure un cadre harmonisé pour l’émission de certains cryptoactifs, avec un encadrement strict des stablecoins, notamment les e-money tokens. Cet encadrement, combiné au projet d’euro numérique, pourrait réduire les incitations des acteurs privés à investir dans des infrastructures de paiement privées. Ces dernières seraient susceptibles d’entrer en concurrence avec l’infrastructure publique de paiement développée par la Banque centrale européenne.




À lire aussi :
Stabilité affichée, risques cachés : le paradoxe des (cryptoactifs) « stablecoins »


Aux États-Unis, le Genius Act adopte une logique comparable sur le fond. Il encadre les payment stablecoins autour d’une promesse de rachat à valeur fixe, portée par des émetteurs autorisés. Cependant, le cadre institutionnel du dollar numérique des États-Unis diffère sensiblement de celui de l’Union européenne. Le CBDC Anti-Surveillance State Act, adopté par la Chambre des représentants en 2024, subordonne toute émission d’un dollar numérique par la Réserve fédérale à une autorisation explicite du Congrès. Un dispositif qui rend plus incertaine la mise en place d’un dollar numérique.

Si Mica et le Genius Act reposent sur une logique commune de responsabilisation des émetteurs de stablecoins, ils génèrent des incitations économiques différentes. En Europe, la régulation va de pair avec le développement d’une monnaie numérique de banque centrale, tandis qu’aux États-Unis elle oriente les investissements vers des infrastructures privées de paiement et de règlement.

Infrastructures privées de paiement numérique

Depuis 2024, plusieurs grandes entreprises états-uniennes développent des infrastructures privées de paiement numérique destinées aux institutions financières. L’objectif est clair : proposer des systèmes intégrant traçabilité, contrôles d’accès et prévisibilité des coûts, dans un cadre compatible avec les exigences réglementaires. Cette stratégie est cohérente avec les orientations du rapport « Blueprint for the future monetary system » de la Banque des règlements internationaux qui appelle au développement d’infrastructures monétaires plus interopérables et programmables.

Google développe le Google Cloud Universal Ledger (GCUL), une infrastructure numérique destinée aux banques et aux grandes institutions financières. Testée dans des programmes pilotes, elle implique plusieurs acteurs financiers, notamment Amina Bank, Crypto Finance Group en Suisse, le groupe CME et des banques du Moyen-Orient.

De son côté, Circle, l’émetteur de l’USDC, développe Arc, une infrastructure de règlement reposant sur une technologie de registre distribué. Déployée en phase de test à partir de l’automne 2025, Arc est expérimentée par plusieurs institutions financières et grandes entreprises technologiques, dont BlackRock, Visa, HSBC, Deutsche Bank et AWS.

Ces projets ne se contentent pas de reproduire les infrastructures bancaires existantes. Traditionnellement, le paiement (par exemple le débit d’un compte), la compensation (le calcul des positions entre banques) et le règlement final (via des systèmes des banques centrales comme Target2 en Europe) sont assurés par des systèmes distincts qui interviennent successivement dans le traitement d’une transaction.

De facto, l’enjeu de ces nouveaux projets est de regrouper ces fonctions au sein d’un même système technique, dans lequel le transfert d’un actif numérique peut valoir simultanément à la fois paiement et règlement. GCUL et Arc pourront offrir davantage de prévisibilité en matière de coûts, de délais de règlement et de conformité réglementaire.

Amazon et Walmart en embuscade

En contraste, les initiatives de stablecoins portées par les grands acteurs du commerce de détail restent, à ce stade, exploratoires. Selon des informations rapportées par le Wall Street Journal, Amazon et Walmart envisageraient l’émission d’un stablecoin. L’objectif : réduire les coûts et les délais de paiement, notamment en limitant leur dépendance aux réseaux de cartes bancaires. Aucun projet de stablecoin de détail opérationnel n’a toutefois été confirmé à ce jour par ces entreprises.

Cette prudence s’explique par une contrainte opérationnelle. Avant de lancer un stablecoin destiné à des paiements de détail à grande échelle, il est indispensable de disposer d’infrastructures de paiement conformes aux exigences réglementaires et capables de traiter des volumes très élevés de transactions.

Réduire les commissions et sécuriser les paiements

Ces infrastructures privées de paiement émergent parce qu’elles peuvent être avantageuses pour leurs développeurs comme pour leurs utilisateurs. En réduisant le nombre d’intermédiaires dans le traitement d’une transaction, les fournisseurs d’infrastructure peuvent diminuer certains coûts et capter une part plus importante des revenus liés aux paiements. Les institutions financières, de leur côté, bénéficient de règlements plus rapides, de frais plus prévisibles et d’un cadre sécurisé compatible avec les exigences des autorités.

Ces infrastructures privées de paiement numérique déplacent la concurrence vers le contrôle des canaux de règlement compatibles avec les cadres juridiques existants.

La valeur d’usage des stablecoins repose désormais sur la combinaison de deux composantes distinctes : l’actif lui-même, défini par une promesse monétaire et un émetteur identifiable, et l’infrastructure sur laquelle il est émis et circule. Cette dissociation ouvre un espace nouveau de régulation et d’investissement, portant à la fois sur les actifs et sur les infrastructures qui en conditionnent l’usage à grande échelle.

The Conversation

Françoise Vasselin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Google, Amazon et Circle redessinent la concurrence dans l’univers des crypto-actifs – https://theconversation.com/google-amazon-et-circle-redessinent-la-concurrence-dans-lunivers-des-crypto-actifs-265142

Municipales 2026 : le Parti socialiste peut-il tenir bon ?

Source: The Conversation – in French – By Pierre-Nicolas Baudot, Docteur en science politique, Université Paris-Panthéon-Assas

L’échelon municipal a toujours constitué un espace clé pour le Parti socialiste (PS). Devenu largement un parti d’élus locaux, son déclin national a renforcé encore l’importance de ses municipalités. Ces dernières décennies, son assise s’y est largement construite sur une technicisation et une dépolitisation de l’action locale. Le contexte actuel devrait, pourtant, conduire à une nationalisation et à une politisation des élections de mars prochain. À quel défi le PS doit-il s’attendre ?


La municipalisation est décisive dans l’histoire du socialisme dès la fin du XIXᵉ siècle. L’action municipale est un lieu de formation pour les cadres du parti et un laboratoire pour l’ensemble du pays. Elle lui a aussi permis de constituer ses principaux réseaux, d’entretenir ses relations avec les associations, de constituer ses clientèles électorales et de rétribuer ses militants.

Lorsque, dans les années 1970, le Parti socialiste (PS) redéfinit les rapports de force à gauche et se rapproche de l’exercice du pouvoir national, l’échelon local joue toujours un rôle clé. Les années 1980 accroissent encore la municipalisation du parti : les réformes de décentralisation augmentent les budgets et le personnel à la disposition des élus locaux et renforcent la place des carrières professionnelles liées à la politique.

Progressivement, le « socialisme municipal » ne renvoie plus à une identité singulière, tant l’action locale socialiste s’est banalisée. Pour autant, cet échelon structure toujours le PS. La place des élus locaux a continuellement crû au sein du parti et les mandats locaux demeurent un enjeu central dans le fonctionnement socialiste. C’est vrai pour les élus, mais aussi pour le personnel municipal ou les collaborateurs politiques qui dépendent directement des élections.

L’effondrement du parti au niveau national dans les années 2010 a modifié l’ancrage du socialisme sur le territoire, mais il n’a pas contredit cette observation. Certes, en 2014, le PS enregistre son plus mauvais résultat lors d’un scrutin local sous la Vᵉ République. Il revient à un niveau qu’il n’avait plus connu depuis trente-cinq ans. Il perd 49 des villes de plus de 30 000 habitants qu’il dirigeait (près de la moitié), 27 villes de plus de 50 000 habitants et plusieurs villes de plus de 100 000 habitants. En 2020, il peine à se relever de cette défaite historique.

Cependant, son effondrement à l’élection présidentielle de 2017 ne l’empêche pas de conserver toutes ses métropoles, et d’en gagner même de nouvelles (Nancy, Saint-Denis, Périgueux, Bourges ou Marseille, par exemple). Il continue de dominer, à gauche, les scrutins municipaux. Alors que ses positions électorales nationales se sont largement réduites, l’échelon municipal constitue un espace de résistance – sinon de résilience – pour le PS. L’affaiblissement militant du parti amplifie ce constat, en rendant le parti plus dépendant encore de ses ressources institutionnelles.

Une hégémonie en recomposition

Les coordonnées du problème socialiste ont cependant évolué. Les scores réalisés dans certaines métropoles ne doivent pas masquer l’érosion profonde de ses ancrages dans de nombreux territoires et la perte de villes, comme Metz, ou de certains bastions. Comme l’indiquait le cas de Nevers en 2014, le socialisme des villes moyennes s’est par endroit largement essoufflé, sur fond de déclin urbain (baisse démographique, crise économique, croissance de la précarité…) et de mobilité des catégories sociales qui lui étaient le plus favorables. Comme l’observe le géographe Achille Warnant :

« Alors qu’en 1977 la “vague rose” était d’abord l’affaire des villes moyennes, la “vague rose et verte” de 2020 est davantage l’affaire des métropoles. »

L’affaiblissement du PS l’a, de plus, rendu plus dépendant encore de ses partenaires, écologistes en particulier. Dès 2014, s’il domine encore la gauche, son hégémonie tend à se réduire : 69,3 % des mairies de gauche sortantes étaient contrôlées par le PS avant l’élection, contre 60,2 % après. En 2020, dans les villes de plus de 30 000 habitants, les scores de la gauche au premier tour se stabilisent par rapport à 2014, mais ceux du PS continuent de décliner : 36 % en 2008, 25,4 % en 2014 et 16,5 % en 2020. Le PS conserve ses principales zones de force au second tour, mais il le doit essentiellement à un renforcement de son alliance avec les écologistes auxquels il concède de plus en plus de place dans les accords.

Une gauche divisée

Le PS aborde les élections municipales de 2026 après avoir refusé de censurer le gouvernement Lecornu – contrairement aux autres partis de gauche. Il a acté les désaccords stratégiques au sein de son camp, espérant cultiver l’image d’un parti « responsable ». L’importance prise dans le débat public par ces désaccords et les tensions afférentes sont de nature à se répliquer sur le jeu municipal.

Cela vaut d’autant plus que, contrairement aux derniers scrutins, LFI investit l’élection en présentant des candidats dans de nombreuses villes. Le mouvement mène campagne sur la « rupture », y compris avec les édiles socialistes. Ceux-ci rejettent majoritairement, en retour, toute idée d’alliance avec LFI. La proximité de l’échéance présidentielle, en 2027, ne peut qu’attiser cette rivalité.

Dans les villes gérées par les socialistes, cette situation pourrait accentuer la politisation de l’élection et cliver l’électorat de gauche. Cela devrait en particulier s’observer dans les villes de petites couronnes métropolitaines et dans les grandes villes. LFI y obtient ses meilleurs scores et peut espérer puiser dans le réservoir électoral socialiste. Le PS pourrait perdre à cette occasion certaines des grandes villes qu’il dirige – comme Lille, Paris ou Rennes – où des listes insoumises pourraient se maintenir au second tour. Outre les municipalités, c’est également la présidence de certaines de ses métropoles que le PS pourrait être contraint d’abandonner.

La capacité du PS à nouer des alliances, avec les écologistes en premier lieu, sera donc décisive. En retour, le parti pourrait être contraint de concéder plus de places encore à ces alliés.

2026 : une tension entre nationalisation et dépolitisation ?

Les politistes Jean-Yves Dormagen et Stéphane Fournier accréditent la thèse d’une politisation du scrutin municipal dans les grandes villes. Ils font l’hypothèse d’une « polarisation “écologico-identitaire” ». Elle serait appuyée par les politiques progressistes et écologiques des municipalités de gauche et par le « backlash culturel anti-écologiste et sécuritaire » qu’oppose la droite. Elle se manifesterait par la critique des rénovations urbaines destinées à adapter davantage les villes au changement climatique et par des attitudes conservatrices et identitaires. Certes, les grandes villes, où les jeunes et les diplômés favorables à la gauche sont très présents, sont portées à gauche. Mais, la politisation de ces thématiques pourrait mobiliser l’électorat de droite – pour qui elle s’articule à un sentiment décliniste.

Elle pourrait également cliver l’électorat de gauche. La réaction face au changement climatique suscite par exemple certains désaccords, comme sur les zones à faibles émissions (ZFE) que LFI propose de suspendre pour ne pas faire porter aux classes populaires le poids des politiques environnementales. Il en va de même des modalités de lutte contre les discriminations, dont LFI a fait l’un de ses thèmes de campagne. L’électorat de gauche pourrait ainsi se diviser sur ces thèmes, en particulier entre les offres politiques du PS, des écologistes et de LFI.

L’enjeu est donc sans doute moins de savoir si les grandes villes continueront de voter à gauche que de savoir si les socialistes seront en mesure d’en bénéficier. De même, dans les villes qu’il ne dirige pas, rien n’indique que le PS puisse tirer un profit mécanique de cette politisation : soit parce que, comme à Lyon ou à Caen, les écologistes semblent mieux placés pour le faire ; soit parce que, comme à Toulouse, la droite a investi la question de l’adaptation des villes au changement climatique. C’est d’autant plus vrai que, dans l’opposition, le PS peine à fidéliser des électeurs. En témoigne le fait que les villes de plus de 100 000 habitants perdues en 2014 au profit de l’UMP n’ont pas, depuis, été reconquises.

Si le scrutin venait à être nationalisé dans les grandes villes, il pourrait contrevenir à la trajectoire des municipalités socialistes. Celles-ci se sont épanouies autour d’un brouillage politique produit par la technicisation et la dépolitisation du discours municipal. Si les élus socialistes nationaux peuvent espérer tirer profit de leur attitude à l’égard du gouvernement, les élus locaux sont peu impliqués dans la vie politique nationale. Pour minimiser l’empreinte du débat national, ils pourraient être incités à prolonger ces attitudes passées : valoriser leur enracinement local et mettre à distance leur affiliation partisane.

Pour autant, la question du leadership à gauche restant ouverte et l’élection présidentielle de 2027 se profilant, les résultats des grandes villes feront inévitablement l’objet d’une extrapolation nationale. Quoi qu’il en soit, les répercussions de la vie politique nationale sur les élections municipales risquent de prolonger encore la marginalisation des enjeux locaux observée lors des scrutins précédents.

The Conversation

Pierre-Nicolas Baudot ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Municipales 2026 : le Parti socialiste peut-il tenir bon ? – https://theconversation.com/municipales-2026-le-parti-socialiste-peut-il-tenir-bon-274889

One Health : un label parfois flou, mais une approche scientifique éprouvée

Source: The Conversation – in French – By Marisa Peyre, Deputy head of ASTRE research unit, epidemiologist, Cirad

Du fait de l’urbanisation croissante, de plus en plus d’habitats sont désormais partagés entre humains et animaux sauvages. Aditya Sahoo/Bhubaneswar (OD, Inde).

La pandémie de Covid-19 a révélé l’urgence de repenser notre approche de la santé. Aujourd’hui, « One Health », qui relie la santé humaine, animale et environnementale, s’est imposée dans les discours, mais fait parfois l’objet de confusion, voire de détournements. Bien mise en œuvre, elle constitue pourtant une conception éprouvée pour renforcer la prévention sanitaire mondiale.


Pandémies, résistance antimicrobienne, maladies vectorielles, effondrement de la biodiversité, dégradation des sols, pollutions chimiques, crises alimentaires… nous avons aujourd’hui une conscience aiguë des liens étroits entre enjeux de santé humaine, animale et environnementale. Face à la multiplication des crises sanitaires, environnementales et climatiques, le concept « One Health » est devenu central pour les analyser et y répondre.

Issues de réflexions anciennes, ses bases fondatrices actuelles ont été posées par les principes de Manhattan, formulés en 2004 lors de la conférence « One World, One Health » organisée par la Wildlife Conservation Society. Ils reconnaissent l’interdépendance étroite entre la santé humaine, la santé animale et la santé des écosystèmes, et appellent à une approche intégrée pour prévenir les crises sanitaires, environnementales et sociales. Cette vision, qui dépasse la seule gestion des risques sanitaires, invite à repenser les modes de production, de consommation et de gouvernance. L’enjeu ? Préserver durablement les socioécosystèmes et les communautés qui en dépendent.

Malgré l’intérêt croissant que le One Health suscite, son utilisation en recherche et ses applications restent floues et souvent mal comprises. Trop souvent, il est réduit à un slogan politique ou à une gestion biomédicale des zoonoses, sans prendre en compte l’interdépendance des facteurs écologiques, sociaux et économiques. Ces derniers conditionnent pourtant la santé globale et la dynamique des crises sanitaires.

Un cadre opérationnel de prévention

Depuis plus de vingt ans, des initiatives portées par la science se développent pour mettre en œuvre de façon concrète l’approche « One Health ». Au Cirad, des travaux sur les maladies animales émergentes, les interfaces faune-élevage-humains et les systèmes agricoles tropicaux ont mis en évidence, dès les années 2000, les liens étroits entre santé, biodiversité et usages des territoires.

Nos recherches ont peu à peu intégré les dimensions environnementales, sociales et alimentaires. L’enjeu est de passer d’une logique de gestion des crises à une approche de prévention des risques d’émergence. En 2021, une coalition internationale portée par la recherche et baptisée PREZODE a été créée pour mener des opérations de prévention fondée sur l’approche One Health.

Elle intervient en Afrique, en Asie, en Amérique latine et dans les Caraïbes pour comprendre, réduire et détecter de façon précoce les risques en santé et éviter les épidémies.

Gestion des écosystèmes, agroécologie et surveillance sanitaire

En Guinée, ses équipes ont ainsi observé comment les pratiques agricoles intensives affectant la ressource forestière favorisaient l’intensification des contacts humains-faune. Ces contacts favorisent la transmission entre humains et animaux sauvages de maladies zoonotiques, comme les fièvres hémorragiques (Ebola, Lassa, Marburg).

Avec les communautés locales, des stratégies de prévention basées sur la gestion des écosystèmes ont été mises en place pour limiter le risque d’émergence de nouvelles épidémies.

À Madagascar, des scientifiques du Cirad, en partenariat avec l’ONG Pivot et l’Institut de recherche et de développement (IRD), ont développé une méthode de surveillance intégrée des risques sanitaires. Elle combine les données vétérinaires, humaines et environnementales, pour mieux anticiper les épidémies émergentes.

Au Gabon, dans le cadre d’un projet qui soutient les associations de chasseurs dans leur gestion des ressources forestières – y compris la biodiversité – nous avons mis en place un système de surveillance communautaire pour détecter très rapidement les évènements sanitaires suspects. Ceci a été mené en collaboration, avec le Centre interdisciplinaire de recherche médicale de Franceville (CIRMF).

En Asie du Sud-Est, les actions s’inscrivent dans une approche agroécologique qui articule les enjeux de santé et de gouvernance territoriale. Elles visent à accompagner des transitions agricoles et à réduire les pressions sur les écosystèmes (déforestation, usage des intrants, artificialisation). L’enjeu est d’améliorer la résilience des systèmes alimentaires locaux et la prévention des risques sanitaires, à l’interface entre humains, animaux et environnement.

Ces démarches reposent sur des diagnostics territoriaux participatifs, le croisement de données agricoles, écologiques et sanitaires et le soutien à des pratiques agroécologiques adaptées aux contextes locaux (diversification des cultures, gestion intégrée des élevages, restauration des paysages). L’objectif est de faire de l’agroécologie un levier pour prévenir les émergences infectieuses, améliorer la sécurité alimentaire et permettre un développement territorial durable, en cohérence avec l’approche One Health.

Une gouvernance fragmentée

Ces exemples illustrent l’efficacité d’une prévention alliant une vision systémique des enjeux sanitaires et une gouvernance partagée entre acteurs locaux, scientifiques et autorités gouvernementales. Malgré tout, de nombreux obstacles subsistent.

La fragmentation institutionnelle reste l’un des plus grands défis. À toutes les échelles, les secteurs de la santé, de l’agriculture et de l’environnement ne communiquent pas assez, ce qui freine la mise en œuvre d’une gouvernance efficace. La voix des communautés est rarement sollicitée. Les projets One Health sont, en outre, souvent financés à court terme et souvent fléchés sur les zoonoses uniquement. Cela alimente le flou autour du concept et n’encourage pas son appropriation par les pays qui en auraient pourtant le plus besoin.

Les acteurs de terrain soulignent que l’accès en temps utile à des données locales et nationales – depuis leur collecte jusqu’à leur partage et leur analyse – est central. Ce sont elles qui permettent de renforcer la surveillance et la prévention des maladies zoonotiques et construire des systèmes plus résilients, capables d’anticiper et d’atténuer en temps réel les menaces sanitaires actuelles et futures. Il est nécessaire, pour cela, d’être doté d’infrastructures de données solides et partagées entre les secteurs concernés, et de les mobiliser pour développer des outils de modélisation prédictive pertinents. Mais pas seulement : une réponse rapide, adaptée et coordonnée au niveau local peut suffire à prévenir les risques d’émergence.

Risque de « One Health washing »

Sans une collaboration efficace entre les secteurs, le risque est de voir se développer un « One Health washing ». Il existe de nombreux projets qui se revendiquent du concept, mais sans mettre en place de travaux ou d’actions réellement intégrées.

C’est le cas de publications traitant de pathogènes zoonotiques, mais uniquement focalisées sur la santé humaine. Idem pour certaines initiatives agricoles qui utilisent le terme abusivement. Toujours dans ce cadre, certaines études se réclament de l’approche One Health principalement au titre d’une mobilisation interprofessionnelle – par exemple via l’implication de réseaux vétérinaires dans le diagnostic humain – sans pour autant mettre en œuvre un véritable design d’étude intégrant conjointement des données humaines, animales et environnementales, ni analyser les effets d’une action spécifique sur les différents secteurs.

Pour autant, ces projets sont importants. Ils peuvent contribuer à renforcer des approches plus intégrées de la santé. À ce titre, ils constituent des étapes intermédiaires vers un One Health plus abouti. Le principal risque réside plutôt dans l’usage extensif et peu exigeant du terme One Health, qui, en devenant un label fourre-tout, finit par en affaiblir la portée scientifique, opérationnelle et politique.

Dans ce contexte, clarifier les fondements et les modalités d’application du One Health est essentiel. C’est l’objectif de l’Atlas One Health, qui propose une lecture de cette approche articulant santé humaine, animale, des écosystèmes, mais aussi agricultures et systèmes alimentaires, dynamiques sociales, gouvernance et territoires. Avec des études de cas, des cadres analytiques et des outils issus du terrain, cet ouvrage vise à faire du One Health un véritable cadre d’action collective et de prévention.

L’un des défis les plus importants est d’intégrer la dimension sociale et de genre pour garantir des solutions inclusives et efficaces. Ceci évitera des interventions mal adaptées qui risqueraient de creuser davantage les inégalités. En milieu rural notamment, les femmes jouent un rôle clé dans l’alimentation, l’approvisionnement en eau et la gestion des ressources naturelles. Elles restent pourtant souvent invisibles dans les politiques de santé publique et de prévention.

Un investissement plus qu’un coût

Le financement de la prévention One Health doit être considéré comme un investissement stratégique, et non comme un coût. Moins spectaculaires que la gestion des crises sanitaires, les approches préventives sont largement plus rentables et engendrent des co-bénéfices majeurs : adaptation et atténuation du changement climatique, systèmes agricoles plus durables, réduction des intrants chimiques, protection de la biodiversité et amélioration de la qualité de l’alimentation.

Les travaux menés par le Cirad, l’initiative PREZODE et toute la communauté internationale en faveur de ces principes s’accordent sur le constat que ces actions renforcent simultanément la santé, les moyens de subsistance et la résilience des territoires. Or, la prévention demeure trop dépendante de financements internationaux ponctuels : elle doit être inscrite dans des budgets nationaux pluriannuels intégrés aux politiques agricoles, sanitaires, environnementales et alimentaires, afin de soutenir des transformations structurelles durables.

Anticiper les crises demande de repenser fondamentalement nos systèmes. Une approche « One Health » transformatrice nécessite un engagement politique durable, de la coopération internationale et une volonté commune d’intégrer les dimensions sociales et écologiques dans la gestion des risques sanitaires. Un travail de longue haleine qui est déjà en marche. Ces messages seront portés au cours des évènements organisés par PREZODE lors du Sommet One Health, qui se tiendra à Lyon (Rhône), le 7 avril 2026 sous la présidence française du G7.

The Conversation

Marisa Peyre est membre de PREZODE

François Roger est affilié au CIRAD, partenaire du programme PREZODE mentionné dans cet article.

ref. One Health : un label parfois flou, mais une approche scientifique éprouvée – https://theconversation.com/one-health-un-label-parfois-flou-mais-une-approche-scientifique-eprouvee-273540

Rire du malaise : la « cringe comedy », nouveau manuel de savoir-vivre ?

Source: The Conversation – in French – By Carine Farias, Associate Professor in Entrepreneurship and Business Ethics, IÉSEG School of Management

_The Office_ (NBC, États-Unis), saison 3, épisode 10 « A Benihana Christmas » (2006).

Tant sur les réseaux sociaux que dans les séries télévisées, le contenu « cringe », visant à provoquer le rire par le malaise, est devenu un phénomène culturel. Preuve de son foisonnement, le dictionnaire Robert a fait admis en 2019 le mot « malaisant » utilisé par le public français en référence à ce type de contenus. Mais pourquoi la « cringe comedy », genre cinématographique fondé sur un comique ambivalent imprégné de gêne et frôlant la moquerie, est-il si populaire aujourd’hui ?


Le terme anglais « cringe » évoque un mouvement de recul, ce réflexe de se recroqueviller face à une situation embarrassante. C’est justement sur cette réaction physique et émotionnelle ambivalente mêlant l’embarras, la gêne et la répulsion, que repose la cringe comedy.

La cringe comedy est un genre hybride mêlant drame et humour, qui mise sur le malaise pour provoquer le rire. Depuis deux décennies, il s’est imposé sur nos écrans avec la diffusion de séries comme The Office, Curb Your Enthusiasm, ou encore The Curse. Il s’appuie sur des procédés filmiques donnant une impression de moments pris sur le vif, pour mettre en scène des maladresses sociales.

Si certains chercheurs voient les prémices de la cringe comedy dans l’émission « Saturday Night Live » diffusée dès 1975 aux États-Unis, c’est la série britannique The Office (2001) qui fixe les codes esthétiques du genre. Sous couvert d’un faux reportage de la BBC, cette série montre le quotidien des employés d’une petite usine de fabrication de papier dont le patron, protagoniste central, est persuadé d’être drôle et sympathique, alors qu’il génère l’embarras de ses employés. Forte de son succès, cette série réalisée par Ricky Gervais et Stephen Merchant a été adaptée dans 16 pays, dont les États-Unis par NBC.

De nombreuses productions repoussant les limites du supportable ont suivi. Par exemple, le comédien, scénariste et producteur canadien Nathan Fielder a fait du malaise le ressort principal de ses productions audiovisuelles. De Nathan For You à The Rehearsal en passant par The Curse, il brouille volontairement les frontières entre réalité et mise en scène. Ses formats alambiqués et dérangeants placent les spectateurs dans une position inconfortable où ils ne savent plus s’ils doivent rire ou détourner le regard.

Cet essor est indissociable de la multiplication des vidéos virales qualifiées de malaisantes sur les réseaux sociaux. Imprégnées de la culture railleuse voire haineuse des trolls, ces vidéos capturant des faux pas ou des comportements décalés ont participé à faire de la cringe comedy un phénomène culturel de masse.

L’esthétique du malaise

La cringe comedy repose sur une grammaire audiovisuelle et narrative bien précise, qui rompt avec les codes classiques de la fiction. L’esthétique du malaise repose d’abord sur des protagonistes à la moralité complexe et nuancée, tel que l’égocentrique et misanthrope Larry, dans Curb Your Enthusiasm. Loin des héros inspirants, ces personnages ont des comportements souvent discutables, enchaînant les maladresses sociales en abordant régulièrement des sujets tabous. On les déteste autant qu’on les plaint : bien que pitoyables, leur vulnérabilité les rend étrangement attachants.

Le malaise est amplifié par des filtres éditoriaux qui injectent du réalisme dans la temporalité des interactions sociales scriptées. Les interactions traînent ainsi en longueur, incluant souvent de longs et troublants silences ainsi que des dialogues superflus. L’absence quasi systématique de musique de fond renforce ce réalisme. Dénué d’effets sonores, ce format n’offre pas de guide à l’interprétation des scènes, laissant les spectateurs dans une ambiguïté émotionnelle. Tout cela laisse à la gêne le temps de s’installer.

Enfin, l’esthétique de la cringe comedy repose souvent sur une caméra volontairement imparfaite. En feignant l’amateurisme – plans tremblants, zooms brusques et cadrages serrés sur les visages – la réalisation donne l’impression d’enregistrements pris sur le vif, accentuant l’impression de réalisme et d’authenticité des maladresses sociales mises en spectacle.

La cringe comedy : un outil normatif ?

Si nous éprouvons une telle fascination pour le malaise, c’est certainement à cause de sa portée normative. En observant et en qualifiant les agissements des autres comme des faux pas, nous identifions et (re)définissons collectivement les frontières de l’acceptable, de l’audace et du ridicule.

Les travaux du sociologue Erving Goffman peuvent éclairer cette dynamique. Selon lui, nous jouons tous des rôles en société, qui dépendent du contexte dans lequel on se trouve. Afin que les interactions sociales soient fluides, nous adaptons sans cesse notre comportement aux attentes codifiées des autres et de notre environnement. Les maladresses sociales émergent lorsque nous ne parvenons pas à décrypter ces attentes.

La cringe comedy se nourrit de ces transgressions aux codes du savoir-vivre. En mettant en scène des maladresses sociales, la cringe comedy nous rappelle à l’ordre. Le malaise renforce les normes sociales en nous (ré)apprenant, par un rire ambivalent, les règles de la bienséance. Cela nous amène à désapprouver ensemble les comportements condamnables.

Loin d’une leçon de morale rationalisée, ce processus normatif est avant tout une réaction viscérale qui intervient directement dans notre corps. Pour Johnathan Logan Smilges, chercheur en langue et littérature anglaise, le malaise est un réflexe émotionnel culturellement conditionné qui témoigne de notre lien viscéral et affectif aux normes sociales. En d’autres termes, c’est l’expérience du politique exprimée dans et par le corps. D’autres expériences artistiques font appel à cette viscéralité du politique. C’est ce qui se joue lorsque Lionel Richie se dit « mortifié » devant la prestation musicale décalée et dérangeante de Sophie Powers dans l’émission American Idol. Dans l’art contemporain, un nombre croissant d’artistes génèrent le malaise, perçu comme émotion phare de notre époque, pour questionner nos pratiques socioculturelles à l’ère des réseaux sociaux.

Dans ce contexte, le rire provoqué par le malaise est ambivalent, à mi-chemin entre embarras et répugnance. Il s’apparente à un rire nerveux qui libère des émotions négatives liées à la gêne que l’on ressent par procuration pour autrui. Oscillant entre mépris et empathie, on finit par ressentir un certain confort à observer l’inconfort des autres : tant que nous restons spectateurs distants, on se rassure sur notre capacité à ne pas commettre de tels impairs.

Le potentiel politique du malaise

Malgré sa portée normative, la cringe comedy peut néanmoins ouvrir des espaces réflexifs, de par ses codes audiovisuels particuliers. La gêne surgit souvent lorsque des sujets et comportements tabous sont abordés sans tact ni nuances, dans une atmosphère brute et minimaliste (absence de musique, silences prolongés, etc.). En nous privant des filtres éditoriaux qui guident habituellement notre interprétation, la cringe comedy déstabilise et nous pousse à une participation active. C’est seul que le spectateur doit interroger ses propres limites morales en se demandant : « Dois-je rire, me moquer ou me révolter ? »

D’autre part, les séries de cringe comedy déconstruisent les idéaux de la perfection en célébrant des antihéros ordinaires et imparfaits. Ils nous rappellent avec une sincérité désarmante que l’erreur est humaine. Loin des standards de la perfection, la mise en avant de la vulnérabilité peut libérer les spectateurs d’une certaine pression sociale. Représenter des hommes vulnérables et maladroits dans The Office ou The Curse par exemple, peut bousculer les attentes genrées d’assurance et de performance souvent imposées aux hommes. De même, les protagonistes féminines de Fleabag ou Girls enfreignent continuellement des tabous sociaux. Ces séries sont vues comme des outils de réflexions politiques qui questionnent les attentes traditionnelles de la féminité. Aujourd’hui, revendiquer notre vulnérabilité, nos imperfections et même une esthétique « cringe » peut devenir un acte politique : en s’autorisant à créer le malaise, on remet en question la rigidité des normes sociales.

Mais attention, le « cringe » oscille toujours entre empathie et mépris : nous ne ressentons pas toujours le malaise avec les personnages, mais souvent à leur dépens. Il est donc crucial de se demander qui s’autorise à rire de qui ? Si la cringe comedy reste produite par et pour les groupes dominants, elle risque de renforcer les stéréotypes et les rapports de force existants, au lieu de les subvertir.

Le potentiel subversif de la cringe comedy s’exprime pleinement lorsque les minorités façonnent le script afin que l’on ressente le malaise de leur point de vue, face aux normes des groupes dominants. Les performances de l’humoriste britannique Laurence Clark illustrent bien cette dynamique. Dans ses sketchs en caméra caché, il montre les réactions malaisantes des passants face à son handicap. En commentant ces scènes lors de ses spectacles, il pousse le public à réfléchir de manière critique à leurs propres réactions, pour les amener à questionner les représentations normées des handicaps.

Entre outil normatif et levier subversif, la cringe comedy nous prouve qu’en riant du malaise nous dessinons, un silence gênant après l’autre, les contours de notre vivre-ensemble.

The Conversation

Carine Farias ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.

ref. Rire du malaise : la « cringe comedy », nouveau manuel de savoir-vivre ? – https://theconversation.com/rire-du-malaise-la-cringe-comedy-nouveau-manuel-de-savoir-vivre-276127