The victory of the Greens in the Gorton and Denton parliamentary byelection is a landmark for the party. But our new research reveals the Greens have received limited airtime over the last year despite almost doubling their support in the polls and in party membership.
While Reform UK has seen a spike in media coverage since it took a commanding lead in the polls, our research shows the Greens have not received more airtime in recognition of their growing popularity.
Broadcasters have to abide by due impartiality rules, but they have the editorial freedom to balance the airtime of political parties. They consider factors such as a party’s vote share at the last UK general election or a party’s electoral performance at the most recent devolved, regional and local election. Other factors to consider include the latest trends in opinion polls tracking voting intention, and whether what a party is saying the news organisation considers significant or, as the BBC says, whether they are “making the political weather” by setting the agenda.
After winning the byelection, this raises the question: should the Greens now be given more airtime?
Limited coverage of Greens
Our Impartiality project team has been tracking coverage of UK opposition parties on BBC News at Ten and ITV News at Ten, the UK’s most-watched nightly TV news bulletins.
In 2025, we found the Greens were the sixth most covered opposition party, being referenced in just 32 items, behind the Conservatives (375), Reform UK (213), the Liberal Democrats (116), the Scottish National Party or SNP (46) and ahead of Plaid Cymru (10).
Number of items led by an opposition party on BBC News at Ten and ITV News at Ten. Cardiff University, CC BY-NC-ND
We also tracked how often a party was the leading focus of a broadcaster’s report. The Greens led four items – three on BBC and one on ITV. These stories related to the Greens’ May local election campaign, Zack Polanski winning the party leadership in September and the party conference in October. But neither BBC News at Ten and ITV News at Ten covered the announcement or build-up to the leadership contest.
In contrast, Reform UK led 69 items, Conservatives led 45 items, the Liberal Democrats led 14 items and the SNP led 13 items.
Growing success of the Green party doesn’t mean more press appearances. Peter_Fleming
The Greens also appeared on only four episodes of BBC Question Time during 2025. That was about a third as often as the Liberal Democrats and Reform UK.
Despite the leadership change, the subsequent surge in membership and the sustained rise in poll ratings (from 11% in August 2025 to 17% in December 2025), broadcast coverage of Greens did not increase at the end of 2025.
This shows a potential inequality in the treatment of the rising left and right parties. The BBC cited improvements in opinion polling as one of the factors behind the increased coverage of Reform UK, but the Green party’s popularity has not received anywhere near the same recognition.
In May 2025, news coverage of Reform UK increased substantially following its victories in local and mayoral elections, which broadcasters considered a sign that the party was now a major player in UK electoral politics. Our research even showed in September 2025 Reform UK was referenced on TV news more than the Conservatives, the party that is supposed to be the UK’s parliamentary official opposition.
The question now is whether broadcasters will take the Green party’s victory in Gorton and Denton as a similar sign of its electoral significance and increase media coverage of the party.
While broadcasters have not broken any of the UK’s rules on due impartiality, our new research raises questions about how they have been interpreting impartiality in a new multi-party system.
Traditionally they have relied on allocating airtime according to parties with the largest number of MPs and total vote at the last general election. They have also factored in performances at the latest local, regional or devolved elections. But they now appear to making more subjective judgements about allocating airtime according to the opinion polls or the newsworthiness of parties.
Given the Greens’ growing popularity, their distinctive set of policies, charismatic leader and byelection victory, they might now look set to receive more media attention and scrutiny over the coming months.
Maxwell Modell receives funding from the AHRC for research into broadcasters’ impartiality.
Matt Walsh receives funding from the AHRC for research into broadcasters’ impartiality.
Stephen Cushion has received funding from the BBC Trust, Ofcom, AHRC, BA and ESRC.
Source: The Conversation – UK – By Yuen Chan, Senior Lecturer, School of Arts and Social Sciences, Department of Journalism, City St George’s, University of London
The sentencing of Hong Kong media mogul Jimmy Lai to 20 years in prison on February 8 on charges of sedition and collusion with foreign forces prompted international outrage.
Lai founded the now shuttered pro-democracy Apple Daily newspaper – and supporters of press freedom around the world pointed to the chilling effect the sentence would have on the media, in a city once vaunted as a beacon for press freedom in Asia.
The reaction was more muted in Hong Kong, where dissent has been stifled since Beijing imposed the draconian National Security Law in 2020, following months of protests in 2019. A local security law enacted in 2024 further expanded the scope of the city’s national security legislation.
Privately, some local journalists say Lai’s conviction will have limited impact on their work. They have already felt heavily constrained by the security laws and what they’re calling the “new normal” – an overarching national security apparatus and culture. Although saddened, they were not altogether surprised at the severity of Lai’s sentence.
One journalist told me they were more shaken by the sentences of up to ten years that were meted out to six senior Apple Daily editors and writers for “just doing their jobs”.
Since the national security law, Hong Kong journalists’ jobs have involved a great deal of dancing around shifting boundaries as to what can and can’t be reported. Inevitably, this has meant exercising greater self-censorship.
In an editorial on the sentencing, the Ming Pao newspaper, which has long positioned itself as a neutral paper of record, suggested the Lai ruling has brought these boundaries into sharper focus, concluding: “Collusion with foreign forces cannot readily be dressed up as journalism.”
The newspaper said that as Hong Kong now operates within the framework of the national security legislation: “The media must operate within this legal framework while continuing to report facts and hold power to account, a balance essential to preserving the city’s pluralism and openness.”
But it hoped “the Lai case will prove a watershed, allowing space for press freedom to widen step by step, so the media can fulfil its responsibilities more effectively”.
However, local journalists I spoke to described this position as naïve and wishful thinking, and said the red lines are no clearer now than before. Selina Cheng, chair of the Hong Kong Journalists Association (HKJA), believes the constraints on free expression in Hong Kong go far beyond a legal framework.
“If we call it a legal framework, it’s giving the system some kind of legitimacy,” Cheng told me. “In reality, the way it operates is there is a lot of destruction of due process, creating an atmosphere of fear and anxiety in those working in industries of expression.”
Apart from being arrested and jailed, Cheng says journalists and their family members have been doxed, with their personal details posted online, and harassed. Both individual journalists and news outlets have been targeted by unusual tax audits.
Tai Po tragedy
Cheng was one of several journalists I spoke to who pointed to the November 2025 fire which killed 168 people in Tai Po’s Wang Fuk Court Estate as a potent symbol of the current state of press freedom and freedom of speech in Hong Kong.
In the immediate aftermath, local and international journalists interviewed victims and reported extensively on suspected corruption and lack of oversight of building works on the site. But residents and other potential interviewees soon became reluctant to speak to reporters following the arrests of people who had posted comments online.
A student who started a petition for an independent inquiry was arrested – and then recently expelled from his university just weeks from graduation, even though he hasn’t been charged.
For one veteran journalist, who asked to remain anonymous for fear of bringing trouble to their organisation, what led to the Tai Po tragedy highlights a “media failure”. The news outlets which had most doggedly pursued stories about building maintenance, bid-rigging and corruption were the investigative site Factwire and Apple Daily, so “when these outlets disappeared, a lot of the reports also petered out”.
“In the past, you’d have lots of commentary in the media after an incident like this,” they explained. “There’d be legal scholars, experts, people from all different sectors. But now, the universities don’t allow people to comment and articles are spiked or censored, so it’s hard to raise and maintain public concern.”
Snitch culture
The journalist spoke of a system that extends beyond the legal framework of the national security law that restricts speech, through the control of public opinion and a “snitch culture” that weaponises complaints.
A Hong Kong police national security hotline was launched in November 2020; by June 2025, the city’s security chief said it had received more than 920,000 reports. Public bodies and funding organisations also regularly receive complaints about platforming of funding groups or individuals perceived to be pro-democracy or supportive of the 2019 protests.
Last October, a public venue cancelled a play written by Candace Chong, a leading playwright who was been vocal about censorship. The body that manages the Xiqu Centre, part of the West Kowloon Cultural District, said it had received complaints that the show – which depicts a love triangle between three men – defamed Hong Kong.
There are signs the “media failure” is already affecting governance. In January, the government introduced a controversial seat belt law requiring all bus passengers to buckle up while seated, only to shelve it five days later. The bill had received little scrutiny in Hong Kong’s now opposition-free legislature.
“It’s really unthinkable for a government to push out a bill, get it rubber-stamped by the legislature, and then withdraw it because they suddenly realise people are unhappy or the legislative details haven’t been thought through,” the HKJA’s Cheng told me. “It shows how the government misjudged public sentiment. This can be attributed to how the media isn’t free any more.”
Yuen Chan does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Nevertheless, the life story that she presented in her victory speech was that of a plumber, not a politician. She identified herself – in present tense – by that trade; she had not grown up wanting to be a politician. She also celebrated qualifying as a plasterer during the “chaos” and “pressure” of the election campaign. She described campaigning jovially as “all this”, as if it were just a challenge in the broader adventure, not the adventure itself.
Despite, or perhaps because of, accusations that the Greens used “sectarian politics” to secure victory, the speech was one of solidarity, of aligning herself with the struggles and achievements of “the community that I am from”. Spencer said that she had lived there in one of the hardest times of her life, and presented the strength of the community “at holding things together” as an inspiration.
She aligned herself and her personal characteristics with those of the constituency, stressing that “I am no different to every single person here in this constituency. I work hard. That is what we do.”
Alongside all the talk of “we”, of common interests and lack of difference, Spencer singled out several audiences for her story. One such audience? Her now-plumberless “customers”, to whom she duly apologised: “I’m sorry, but I think I might have to cancel the work that you had booked in, because I’m heading to parliament”.
Spencer also addressed those who voted for her, and those who didn’t. She spoke of “my Muslim friends and neighbours”, who “are just like me: human”. She discussed the “left-behind” (“I see you, and I will fight for you”), and people doing jobs like hers: “We will finally get a seat at the table”. And she addressed “our white working class communities, the background that I have become so glad to be from”.
A personal and political journey
My research focuses on political narratives and storytelling as a means of communication: the stories that parliaments contain and project, the stories we tell about the places we’re in and the stories that politicians use to communicate themselves to voters. Spencer’s speech is an attempt to portray a compelling story to her new constituency.
She spoke about how moving away from the constituency to nearby Trafford made the qualities of Gorton and Denton’s community “even clearer”. Only realising your love for a place and the people in it when you’ve moved away is a familiar narrative device. As Joni Mitchell once sang, “You don’t know what you’ve got ‘til it’s gone”.
In Spencer’s speech, this tactic carried a sharper political edge. This is a constituency that people move away from to get the “nice life” that Spencer described: “good schools, a thriving high street and clean air”.
This part of the story carried a rebuke to an audience that Spencer was addressing, but not by name: the Labour Party, for whom this was a traditionally safe seat. Spencer observed that “working hard used to get you something”.
I would argue that “you”, in this context, is a reference to traditional Labour voters. The implication here is that it is voting Labour that “used to get you something”.
Being a politician now isn’t an aspect of Spencer’s story that she’s keen to claim. She may now sit at Westminster, but she appears to frame this as an extension of who she already is — a worker, a neighbour, a constituent — in a new arena.
In doing so, she attempts to recast political representation itself as continuity of identity. The challenge, of course, will be whether she can sustain that claim. It is easier to say “I am no different” on a victory stage following a byelection win than from the House of Commons. The durability of her narrative – and perhaps her political appeal – will rest on whether she can remain recognisably “from” the constituency while operating within the institution of parliament.
Alex Prior does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
For four decades, a controversial idea has shaped how autism is understood by researchers, healthcare professionals and the public: the claim that autistic people are “mind blind”. The phrase suggests an inability to grasp what others think or feel. It is simple, memorable – and wrong.
The claim rests on a concept called “theory of mind”. In everyday terms, theory of mind is the ability to recognise that other people’s thoughts, beliefs and emotions may differ from your own. This idea explains why someone understands that a joke can fall flat, that a promise can be broken, or that a friend can be mistaken without lying. It is often presented as the key to how people make sense of one another.
The idea entered psychology in the late 1970s, when researchers began asking how children learn to reason about other minds. Simple stories were designed to test this ability, often involving a character who holds a false belief. If a child could predict that the character would act on that belief, they were taken to have a theory of mind. These tasks quickly became a standard tool in developmental research.
In 1985, one such test was used in a study of autistic children. In the “Sally-Anne” task, a doll (Sally) hides a marble, leaves the room, and returns after another doll (Anne) has moved it. Asked where Sally will look, many autistic children in that study gave the “wrong” answer. This finding was interpreted as evidence that autistic children lacked theory of mind.
The problem is that the evidence never supported the claim. Even in the original study, one in five autistic children passed the task. Later research found huge variation. Some studies showed most autistic participants passing theory-of-mind tests; others found little or no difference between autistic and non-autistic groups. A theory meant to describe a key deficit kept running into exceptions.
Different theory-of-mind tasks also fail to line up with one another, suggesting they are not measuring a single underlying ability at all. If an ability cannot be measured consistently, claims about its absence become doubtful.
At this point, a straightforward scientific response would have been to reconsider the theory. Instead, it was repeatedly patched.
This pattern matters because of what it says about how science works. Drawing on the philosophy of science, my recent analysis argues that theory-of-mind research in autism has become “degenerating”. Rather than generating new, risky predictions, the theory survives by shifting definitions and goalposts to avoid being disproved. When no possible result counts against a theory, it stops being scientific. In a subsequent response to commentators, I explore why the theory-of-mind paradigm has persisted despite its deep empirical and conceptual difficulties.
Questioning this idea did not come from a single paper or field. Psychologists, linguists, and philosophers all raised concerns. So did autistic people, whose everyday experiences often flatly contradicted the idea that they lacked insights into others.
Studies began to show that non-autistic people are just as poor at interpreting autistic expressions as the reverse. Social misunderstanding, it turns out, goes both ways.
That insight helped fuel alternative approaches. One approach frames communication breakdowns as mutual mismatches between different styles of thinking and communicating, rather than deficits located in autistic people.
Another focuses on differences in attention and interest, offering an explanation of perception, motivation and learning. These approaches generate new, testable questions and align more closely with people’s actual experiences.
Today, the field is at a crossroads. The idea that autistic people are mind blind lacks a secure foundation. Its empirical support has weakened, and its assumptions are increasingly questioned. What remains is its influence. When educators or healthcare professionals assume a lack of empathy, they are less likely to trust autistic people’s own accounts or involve them in decisions that affect their lives.
Abandoning this myth does not weaken autism science. It strengthens it. Social understanding is not absent in autism; it is shaped differently, expressed in different contexts, and often overlooked when the wrong tools are used. Autistic people are not mind blind. They think and understand differently, and the evidence has pointed that way for some time. It’s time science reflected that.
Travis LaCroix received funding from the Social Science and Humanities Research Council (Canada).
Nintendo’s Legend of Zelda video game series celebrated its 40th anniversary in February 2026. Millions of players across the world have grown up alongside the 21-title series, from the release of the original game on the Famicom gaming system in 1986, to the most recent game, Echoes of Wisdom, published for the Switch in 2024.
Over time, the series has moved from pixelated forests into high resolution, awe-inspiring landscapes. In that time, Zelda has become an intergenerational success, released in new forms for new generations with each Nintendo console.
Many Zelda games serve as flagships for these new consoles, tying the game experience into new technological capacities – showcasing the motion control of the Wii, the dual screens of the DS, and the joystick first introduced on the the N64. Just as the console technology has evolved, so has the Zelda series.
The series is one of Nintendo’s biggest commercial successes, with an estimated 150 million copies of the games sold worldwide. The most popular game within the series, Breath of the Wild (released on the Switch in 2018), has sold more than 34 million copies to date.
As well as fun past times, video games can be important vehicles for social connection and personal development. The Zelda series grapples with age-old struggles of good versus evil and destruction versus creation.
I’m the editor of the Psychgeist of Pop Culture: The Legend of Zelda – an open-access book which explores the social and psychological impact of the series across a variety of domains. In the book, researchers like myself show how engaging with virtual stories and problems can help us to better understand our own day-to-day lives. For example, recent research from social scientist George Farmer shows that playing video games can be a helpful form of stress relief during times of crisis.
The moral dilemmas presented in the Zelda games also help to train players for real-world social action. Experimental psychologist Kathryn Francis argues in her chapter that the games provide players with an immersive virtual space for moral reflection and development.
In my own chapter, I analysed the environmental narratives of the games Breath of the Wild and Tears of the Kingdom to assess their potential impact on players. I argued that experiencing the environmental devastation wrought by villains in the games, and having the power to save the world in this setting might also equip players with the tools and motivation to address the climate crisis in real life.
The Zelda series can also help players to understand and interrogate their identities, and the roles we play within our own lives. The games allow players to explore what it means to be a hero, villain, or a princess with increasing freedom of expression and action.
They can choose to save the world as quickly as possible (by doing a “speedrun”) or they can take their time to get to know the community and environment. This freedom of play allows for different experiences which appeal to different types of players, making the series particularly versatile. In the games players get to experiment with different quests and narrative paths, and learn more about themselves, their values and preferences in the process.
Forty years on, the Zelda franchise shouldn’t just be seen as a purely economic success. Rather, it should be understood as a cultural powerhouse which has had a very real impact on the lives of millions around the world.
Given the generational staying power of these games, many Zelda fans across the world will be eagerly awaiting the next step for the series. What might the 40th anniversary celebrations bring? Will a new title be revealed? What will the first Switch 2 Zelda game be? Will the virtual world translate well to the upcoming live-action film?
Regardless of the answers to these questions, the series likely will likely to have a significant impact on its players around the world for decades to come.
Looking for something good? Cut through the noise with a carefully curated selection of the latest releases, live events and exhibitions, straight to your inbox every fortnight, on Fridays. Sign up here.
Annayah Prosser does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
The gut bacterium Bacteroides fragilis has long presented researchers with a paradox. It has been associated with colorectal cancer, yet it also lives quite happily in most healthy people. A new study from a Danish research team offers a possible clue. When they looked beyond the bacterium itself and into its genome, they found a previously unknown virus embedded within it – one that was significantly more common in cancer patients.
This means that colorectal cancer could – in theory – be partly preventable. But the precise link between the microbiome and colorectal cancer remains poorly understood. It is much easier to associate two things than it is to show a mechanism.
Most studies of the gut microbiome examine which species of bacteria are present and how abundant they are. But species are not homogeneous. Think of how all domestic dogs belong to the same species (Canis familiaris) yet show enormous within-species diversity – a chihuahua is not the same as a great dane. The same is true for bacteria, even if it is harder to visualise.
Just looking at which species are present may not give us the resolution we need to understand what is going on. Perhaps the answer lies not in which bacteria are in the gut, but in the finer genetic differences between strains of the same species.
Bacteroides fragilis is generally considered a harmless member of the gut microbiome and is found in most healthy people. Despite this, it has repeatedly been found to be more abundant in people with colorectal cancer. So could there be specific genetic features that set some strains of B fragilis apart from others, and could these features be linked to colorectal cancer?
Even bacteria get infections
All cellular life can be infected by viruses. Bacteria are no exception. The specific viruses that infect bacteria are called bacteriophages – from the Greek phagos, meaning to eat or devour. They selectively infect bacteria and, importantly, do not infect human cells.
But not all of these viruses kill the bacteria they infect. Some integrate their own genome within the bacterium’s genome, becoming what is known as a prophage – a hitchhiker within the bacterial cell.
Many prophages carry genes that can alter the characteristics of their bacterial host. Diseases such as cholera, botulism and diphtheria are all the result of toxins carried by prophages within otherwise (mostly) harmless bacteria. The conversion of harmless bacteria to harmful ones by prophages is well documented.
To determine whether specific genetic signatures linked B fragilis to colorectal cancer, a Danish team sequenced the genomes of B fragilis from people with and without a colorectal cancer diagnosis.
First, they looked at whether the cancer-associated bacteria came from a distinct evolutionary lineage. They did not. But not all genetic features of bacteria are passed from mother to daughter. Some are acquired sideways, through a process called horizontal gene transfer – such as infection by a prophage.
When the researchers compared the genomes more closely, they found that bacteria from cancer patients carried two previously unknown prophages that were largely absent in bacteria from people without cancer.
These prophages did not carry any obvious genes that would link the bacteria to colorectal cancer – in the way that cholera toxin genes are readily identifiable – but most prophage-carried genes are very poorly understood and we know little about what they do.
A broader test
This initial finding was based on 48 bacteria collected from patients, so the team wanted to test whether the pattern held more broadly. They screened data from faecal samples taken from 877 people across Europe, the US and Asia – 434 with colorectal cancer and 443 without.
Patients with colorectal cancer were more than twice as likely to have detectable levels of the prophages. It is important to stress that this is an association, not proof that these prophages cause or contribute to colorectal cancer. No biological mechanism by which they might do so has been proposed.
It is also possible that the gut environment in cancer patients simply suits these particular strains of B fragilis – meaning the disease could be creating conditions in which the bacteria thrive, rather than the bacteria helping to cause the disease. An alternative explanation is that the gut environment itself predisposes people both to harbour these prophage-containing strains and to develop colorectal cancer.
The study had limitations worth noting. The bacteria originally examined came from patients with bloodstream infections rather than bowel cancer itself, while the broader validation used stool samples – a different source entirely. And some of the “healthy” comparison group had not been formally confirmed to be cancer free.
Despite these limitations, the finding raises an interesting possibility for cancer screening. The most common non-invasive screening method for colorectal cancer is the “faecal immunochemical test”, which checks stool samples for traces of blood. A test that also screened for these viral traces could, in principle, be performed on the same samples.
A preliminary analysis by the researchers found that a panel based on fragments of the prophage genomes detected around 40% of colorectal cancer cases. This is a very early result and would need considerable further work, but it points to the possibility of using viral signatures alongside existing screening methods.
The broader implication of this work is a shift in how we think about the gut microbiome and its relationship to disease. It may not be enough to ask which bacteria are present. We may also need to look at what is inside those bacteria – and what those hidden passengers might be doing.
Ryan Cook does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
Le guano est un engrais naturel très riche en azote, phosphore et potassium, constitué principalement d’excréments d’oiseaux marins ou de chauves-souris.Jo Osborn
Bien plus qu’un simple engrais, le guano a façonné l’économie, la culture et les alliances politiques du royaume chincha. Une nouvelle étude montre comment cette ressource naturelle a soutenu l’émergence d’une puissance majeure du Pérou préhispanique.
En 1532, dans la ville de Cajamarca, au Pérou, le conquistador espagnol Francisco Pizarro et un groupe d’Européens prirent en otage le souverain inca Atahualpa, préparant ainsi la chute de l’Empire inca.
Avant cette attaque fatale, le frère de Pizarro, Pedro Pizarro, fit une observation curieuse : en dehors de l’Inca lui-même, le seigneur de Chincha était la seule personne à Cajamarca transportée sur une litière, une plateforme de transport portée à bras d’homme.
Pourquoi le seigneur de Chincha occupait-il une position aussi élevée dans la société inca ? Dans notre nouvelle étude, publiée dans PLOS One, nous mettons en évidence une source potentielle de pouvoir et d’influence aussi surprenante qu’inattendue : les excréments d’oiseaux.
Une ressource puissante et précieuse
Chincha, dans le sud du Pérou, est l’une des nombreuses vallées fluviales situées le long de la côte désertique et alimentées par les eaux des hautes terres andines, essentielles depuis longtemps à l’agriculture irriguée. À environ 25 kilomètres au large se trouvent les îles Chincha, qui abritent les plus grands dépôts de guano du Pacifique.
Le guano d’oiseaux marins, c’est-à-dire leurs déjections, est un engrais organique extrêmement puissant. Comparé aux fertilisants terrestres comme le fumier de vache, le guano contient des quantités bien plus élevées d’azote et de phosphore, essentiels à la croissance des plantes.
Au large de la côte péruvienne, le courant océanique de Humboldt (ou courant du Pérou) crée des zones de pêche extrêmement riches. Ces ressources halieutiques soutiennent d’immenses colonies d’oiseaux marins qui nichent sur les îles rocheuses au large.
Les oiseaux marins utilisent les îles côtières pour construire leurs nids et trouvent leur nourriture à proximité, dans les zones de pêche riches alimentées par le courant du Pérou. Jo Osborn
Grâce au climat sec, presque dépourvu de pluie, le guano des oiseaux marins n’est pas emporté, mais continue de s’accumuler jusqu’à atteindre plusieurs mètres de hauteur. Cette combinaison environnementale unique rend le guano péruvien particulièrement précieux.
Notre recherche combine l’iconographie, des sources écrites historiques et l’analyse des isotopes stables de maïs (Zea mays) retrouvé sur des sites archéologiques pour montrer que les communautés autochtones de la vallée de Chincha utilisaient le guano d’oiseaux marins il y a au moins 800 ans pour fertiliser leurs cultures et accroître la production agricole.
Nous suggérons que le guano a probablement contribué à l’essor du royaume de Chincha et à la relation qu’il a ensuite entretenue avec l’Empire inca.
Les seigneurs de la côte désertique
Le royaume de Chincha (1000–1400 de notre ère) était une société majeure qui comptait environ 100 000 habitants. Elle reposait sur une organisation structurée en communautés spécialisées, notamment des pêcheurs, des agriculteurs et des marchands. Le royaume domina la vallée de Chincha jusqu’à son intégration dans l’Empire inca au XVe siècle.
En raison de la proximité des importants gisements de guano des îles Chincha, l’historien péruvien Marco Curatola a avancé dès 1997 que le guano d’oiseaux marins constituait une source essentielle de la richesse du royaume. Notre étude confirme fortement cette hypothèse.
Un test biochimique
L’analyse biochimique constitue une méthode fiable pour identifier l’usage d’engrais dans le passé. Une étude expérimentale menée en 2012 a montré que les plantes fertilisées avec du fumier de camélidés (alpagas et lamas) et du guano d’oiseaux marins présentent des valeurs isotopiques de l’azote plus élevées que les cultures non fertilisées.
Des épis de maïs issus de sites archéologiques de la vallée de Chincha ont été prélevés pour une analyse isotopique. C. O’Shea
La plupart des échantillons présentent des valeurs isotopiques de l’azote plus élevées que celles attendues pour du maïs non fertilisé, ce qui indique qu’une forme de fertilisation a été utilisée. Environ la moitié affichent des valeurs extrêmement élevées. À ce jour, ces résultats ne sont compatibles qu’avec l’utilisation de guano d’oiseaux marins.
Cette analyse chimique confirme l’usage du guano pour fertiliser les cultures à l’époque préhispanique.
Images et sources écrites
Le guano – et les oiseaux qui le produisent – occupait également une place plus large dans la culture des Chincha.
Notre analyse des artefacts archéologiques montre que les Chincha avaient une compréhension profonde des liens entre la terre, la mer et le ciel. L’utilisation du guano et leur relation avec les îles ne relevaient pas seulement d’un choix pratique ; elles étaient profondément ancrées dans leur vision du monde.
Cet objet en bois décoré provenant de Chincha, interprété soit comme une pagaie cérémonielle, soit comme un bâton à fouir, représente des oiseaux marins et des poissons aux côtés de figures humaines et de motifs géométriques. The Met Museum, 1979.206.1025
Cette vénération se reflète dans la culture matérielle des Chincha. Sur leurs textiles, leurs céramiques, leurs frises architecturales et leurs objets en métal, apparaissent de manière récurrente des représentations d’oiseaux marins, de poissons, de vagues et de maïs en germination.
Ces images montrent que les Chincha comprenaient l’ensemble du cycle écologique : les oiseaux marins se nourrissaient de poissons, produisaient du guano, le guano fertilisait le maïs, et le maïs nourrissait les populations.
Cette relation se retrouve peut-être encore aujourd’hui dans certains toponymes péruviens. Pisco dérive d’un mot quechua signifiant « oiseau », et Lunahuaná pourrait se traduire par « peuple du guano ».
Le pouvoir du guano
En tant qu’engrais à la fois efficace et extrêmement précieux, le guano a permis aux communautés chincha d’augmenter leurs rendements agricoles et d’étendre leurs réseaux commerciaux, contribuant ainsi à l’expansion économique du royaume.
Nous suggérons que des pêcheurs se rendaient en mer jusqu’aux îles Chincha pour collecter le guano, qu’ils fournissaient ensuite aux agriculteurs ainsi qu’aux marchands maritimes, qui l’échangeaient le long de la côte et jusque dans les hautes terres andines.
La productivité agricole de Chincha et l’essor de sa puissance commerciale ont renforcé son importance stratégique aux yeux de l’Empire inca. Vers 1400 de notre ère, les Incas intégrèrent le royaume chincha à la suite d’une capitulation « pacifique », donnant naissance à l’une des rares alliances de ce type.
Bien que les termes de cet « accord » entre Chincha et l’Empire inca restent débattus, nous suggérons que le guano d’oiseaux marins a joué un rôle dans ces négociations, l’État inca s’intéressant particulièrement au maïs tout en ne disposant pas d’un accès direct aux engrais marins. Cela pourrait expliquer pourquoi le seigneur de Chincha jouissait d’un statut si élevé qu’il était transporté sur une litière, comme l’avait observé Pedro Pizarro.
Les Incas accordaient une telle valeur à cet engrais qu’ils en réglementèrent strictement l’accès sur les îles à guano pendant la saison de reproduction et interdirent de tuer les oiseaux producteurs de guano, sur les îles comme en dehors, sous peine de mort.
Notre étude élargit l’étendue géographique connue de la fertilisation au guano dans le monde préinca et apporte un soutien solide aux travaux qui avaient anticipé son rôle dans l’essor du royaume de Chincha. Il reste toutefois beaucoup à découvrir sur l’ampleur réelle de cette pratique et sur le moment où elle a commencé.
Notre étude élargit l’aire géographique connue de la fertilisation au guano dans le monde préinca et confirme avec force les travaux qui avaient anticipé son rôle dans l’essor du royaume de Chincha. Il reste toutefois à déterminer dans quelle mesure cette pratique était répandue et à partir de quand elle a été mise en œuvre.
Les auteurs ne travaillent pas, ne conseillent pas, ne possèdent pas de parts, ne reçoivent pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’ont déclaré aucune autre affiliation que leur organisme de recherche.
Source: The Conversation – in French – By François Racine, Professeur-chercheur en design urbain et urbanisme, Université du Québec à Montréal (UQAM)
La ville doit repenser ses espaces publics afin de se préparer au vieillissement de la cohorte des baby-boomers, devenue aujourd’hui celle de nos aînés. En premier lieu, elle doit s’interroger sur la capacité réelle de ces espaces à être adaptés à l’ensemble de la population.
Pour être véritablement inclusifs, les espaces extérieurs accessibles au public d’une ville doivent répondre aux besoins de l’ensemble de la population, quels que soient leur âge, leurs capacités physiques ou leurs conditions de mobilité.
Même si de nombreuses villes ont adopté des politiques d’accessibilité universelle au cours des dernières années, il faut se demander si celles-ci ont réellement amélioré l’accessibilité et la qualité de l’expérience des citoyens. Les espaces publics peuvent être source de fatigue et de stress si certaines de leurs caractéristiques ne sont pas correctement pensées.
Pour mieux comprendre le degré d’accessibilité des espaces publics, plusieurs champs de recherche en design urbain, urbanisme et architecture offrent des outils précieux. Trois dimensions sont particulièrement pertinentes, car elles concernent directement la manière dont l’environnement bâti répond aux besoins des personnes ayant des limitations motrices, visuelles ou cognitives. Ces trois dimensions – le confort, la lisibilité et la clarté géométrique – permettent d’évaluer si un espace est vraiment pensé pour tous.
Architecte et urbaniste, professeur-chercheur à l’UQAM, j’étudie l’accessibilité universelle des environnements publics en identifiant les dimensions physiques et spatiales favorisant leur usage équitable.
Cet article fait partie de notre série La Révolution grise. La Conversation vous propose d’analyser sous toutes ses facettes l’impact du vieillissement de l’imposante cohorte des boomers sur notre société, qu’ils transforment depuis leur venue au monde. Manières de se loger, de travailler, de consommer la culture, de s’alimenter, de voyager, de se soigner, de vivre… découvrez avec nous les bouleversements en cours, et à venir.
La dimension du confort
Les études environnementalistes s’intéressent à la façon dont les gens vivent et utilisent les espaces publics. Selon Jan Gehl, architecte et urbaniste danois, un espace adéquat pour les piétons doit offrir protection, confort et attrait.
La protection assure la sécurité, par exemple grâce à des trottoirs séparés de la circulation véhiculaire, ou à des passages piétons bien signalés.
Le confort facilite les déplacements : surfaces planes et continues, absence d’obstacles, bancs, rampes et accès adaptés.
L’attrait repose sur la combinaison d’éléments physiques et sensoriels, tels que la verdure, la lumière et la présence d’activités, qui favorisent une expérience agréable pour les usagers.
Ces critères bénéficient à tous, mais sont particulièrement essentiels pour les personnes âgées ou à mobilité réduite. Un espace agréable et confortable encourage les gens à se déplacer davantage à pied et à profiter pleinement de la ville, renforçant ainsi l’inclusion sociale et le bien-être.
Le parcours piétonnier du Parc Safari à Hemmingford est un exemple de développement urbain touristique valorisant la dimension du confort.
Les surfaces pavées planes et l’absence d’obstacles au sol, comme des marches irrégulières ou des pentes abruptes, assurent le confort et la fluidité des déplacements. Pour un usage agréable et sécurisé, il est essentiel d’assurer l’homogénéité des surfaces et la régularité des niveaux, ce qui facilite le passage des poussettes, fauteuils roulants, ainsi que les déplacements des personnes ayant des difficultés de mobilité.
La dimension de la lisibilité
Les études sur l’image de la ville se concentrent sur la manière dont les gens perçoivent leur environnement et s’y orientent. Kevin Lynch, urbaniste américain ayant enseigné au Massachusetts Institute of Technology (MIT) et à Harvard, a profondément influencé le design urbain avec ses travaux sur la perception des villes. Ces recherches ont permis d’identifier cinq éléments qui aident les personnes à se repérer dans la ville :
Les voies (rues, trottoirs ou sentiers le long desquels on se déplace).
Les limites (murs, rivières ou voies ferrées) qui délimitent un espace pouvant être difficile, voire impossible, à franchir.
Les quartiers reconnaissables par leur ambiance, leur fonction ou leur architecture homogène.
Les nœuds (lieux de passage ou de rencontre, comme une place publique, un carrefour ou une gare).
Les points de repère (éléments visibles permettant de se situer), comme une tour, un clocher, une enseigne ou un arbre distinctif.
L’esplanade de la Place Ville-Marie peut servir à mettre en évidence la dimension de la lisibilité. La conception, organisée autour de marches intégrant une rampe clairement visible depuis le champ de vision du piéton, réduit la confusion et facilite la compréhension des liaisons entre les différents niveaux de l’esplanade. Les piétons peuvent ainsi anticiper la continuité de leur parcours, rendant la circulation plus rassurante et agréable. La lisibilité de cette organisation permet un accès pour tous à l’esplanade de la Place Ville-Marie.
Lorsque limites et repères sont clairement définis, la ville devient plus lisible et accueillante, notamment pour les personnes rencontrant des difficultés d’orientation ou de repérage. La lisibilité réduit l’anxiété liée aux déplacements à pied dans des environnements complexes et renforce le sentiment de sécurité. Par exemple, dans le cadre du projet Bristol Legible City au Royaume‑Uni, 97 % des visiteurs ont souligné l’impact concret d’un aménagement urbain clair et cohérent sur l’expérience de marche et le confort des usagers.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
La dimension de la clarté géométrique
Les études de la spatialité analysent la forme et la géométrie des espaces urbains pour comprendre comment leur organisation influence les déplacements et les comportements humains.
Bill Hillier, architecte britannique et professeur à l’University College London (UCL), est connu pour son approche syntaxique, une méthode d’analyse des espaces urbains et architecturaux. Ses travaux montrent que les gens se déplacent naturellement le long d’axes clairs et directs. Certaines maladies cognitives comme la maladie d’Alzheimer ou le trouble cognitif léger lié à l’âge, peuvent affecter mémoire, attention et orientation. Une configuration urbaine géométriquement claire facilite l’orientation de ces personnes et leur permet de se représenter mentalement la figure spatiale de l’espace dans lequel elles déambulent.
Un autre élément important est l’effet d’enveloppe spatiale déterminé par la continuité des façades, des clôtures ou des alignements de bâtiments qui créent un sentiment d’encadrement et de sécurité.
Les espaces publics les plus accessibles sont donc souvent ceux dont les parcours sont simples et linéaires, offrant un cheminement régulier et prévisible. Une configuration claire permet également aux personnes âgées et aux visiteurs de mieux anticiper leurs trajets à venir et de profiter pleinement de l’environnement urbain.
Dans le Vieux-Port de Montréal, l’espace est fréquemment cadré de manière claire, comme ici sur la rue Saint-Paul. Les façades consécutives des bâtiments définissent fortement l’espace, créant une orientation naturelle qui évolue au fil du déplacement. La présence d’une bordure de trottoir basse renforce encore la clarté spatiale et la simplicité du parcours.
L’accessibilité pour tous
La figure ci-dessous illustre comment les dimensions du confort, de la lisibilité et de la clarté géométrique peuvent guider les designers urbains (architectes, urbanistes, architectes de paysage, ingénieurs, etc.) pour créer des espaces publics accessibles à tous. Respecter ces critères dès la conception permet d’éviter des ajustements coûteux et tardifs, tout en garantissant un confort et une sécurité optimaux pour tous les usagers.
Lorsqu’on conçoit des espaces publics de qualité dès le départ, il est possible de répondre aux besoins liés à la motricité, à la vision et à la cognition sans concevoir l’espace pour un seul type d’usager. Un design réfléchi et inclusif rend la ville plus confortable, lisible et sécurisée pour tous, en particulier pour une population vieillissante.
François Racine a reçu des financements de la Fondation des amis du parc Safari
Source: The Conversation – in French – By Dahlia Namian, Sociologue et professeure à l’École de service social de l’Université d’Ottawa, L’Université d’Ottawa/University of Ottawa
L’affaire Epstein ne relève pas de l’exception. À l’instar du mouvement #MeToo, elle s’inscrit dans un continuum de violences exercées par des hommes de pouvoir, rendues possibles par une culture durable de l’impunité. Les dossiers Epstein ne documentent pas seulement des crimes sexuels : ils exposent un monde social solidement interconnecté, où circulent capitaux, prestige, influence et relations de dépendance.
Si la notion de « classe Epstein » permet de rendre visible cette configuration, elle tend néanmoins à en personnaliser les mécanismes, en les ramenant à la figure de ce manipulateur d’exception. Un tel déplacement comporte un risque analytique majeur : celui d’occulter les dimensions structurelles du pouvoir de classe. L’affaire Epstein ne renvoie pas à une déviance individuelle exceptionnelle, mais à la normalisation d’un ordre social où l’accumulation extrême du capital s’imbrique étroitement avec la domination masculine.
Dans La société de provocation, je montrais que cet ordre social repose sur une alliance durable entre élites économiques et politiques, dont les intérêts convergent vers la reproduction de leurs privilèges. Cette alliance se manifeste à travers une économie de l’excès et de la surabondance — la pornopulence — orientée vers la jouissance ostentatoire d’une minorité d’hommes riches et protégés. L’affaire Epstein en constitue la surface visible : elle révèle une logique globale d’accumulation prédatrice, qui transforme corps, territoires et ressources en matières consommables et jetables.
C’est donc cette classe, socialement organisée et institutionnellement protégée, qu’il convient d’interroger à partir des révélations de l’affaire Epstein. Son pouvoir, au-delà du registre de l’anomalie, repose principalement sur trois mécanismes sociaux interdépendants : la cooptation, l’insularisation et la neutralisation.
La cooptation désigne un mode organisé d’entre-soi masculin au sommet des structures de pouvoir. Cet entre-soi fonctionne comme un boys club pour reprendre le propos de la professeure et écrivaine Martine Delvaux : un monde clos, régi par des règles tacites de loyauté, de discrétion et de protection mutuelle. Les dossiers Epstein montrent que ce boys club regroupe des individus occupant des positions stratégiques et variées : responsables politiques, héritiers, membres de la royauté, traders, entrepreneurs de la tech, scientifiques reconnus ou figures médiatiques.
La collection de noms, qui comptent parmi les plus riches et puissants de la planète, en dit long sur l’étendue du boys club. Mais son pouvoir repose moins sur la richesse seule de ses membres, que sur la convertibilité de leur statut en capital social.
Certains membres, moins fortunés, n’en sont pas moins « richement connectés » : ils monnayent leurs carnets d’adresses, leurs expertises, leur accès privilégié aux cercles décisionnels. Les réseaux qu’ils entretiennent constituent un patrimoine social transnational hautement convertible, susceptible d’être activé selon les circonstances : des informations stratégiques, des dispositifs d’optimisation ou d’évitement fiscal, des accès privilégiés à des professionnels influents (médecins, juristes, magistrats) et à des formes de sociabilité sélectives (clubs privés, événements exclusifs, yachts, résidences fermées).
Dans cet univers, les femmes y sont réduites à des objets de transaction, de distinction et de jouissance. La cooptation est donc un mode de socialisation politique et sexuelle du privilège.
L’insularisation des riches
À cette infrastructure relationnelle s’ajoute une dynamique d’insularisation de classe, par laquelle une fraction dominante se retire progressivement du monde commun pour vivre selon ses propres règles. La concentration extrême des richesses ne renforce pas seulement les inégalités : elle permet à ses bénéficiaires de s’installer dans des « zones de sécession » ; des espaces soustraits aux règles communes et aux contraintes ordinaires de la société.
Les dossiers Epstein révèlent l’existence d’une overclass mobile et transnationale, retranchée au sein d’enclaves d’exception, où les obligations sociales, fiscales et politiques sont fortement atténuées : îles privées, quartiers sécurisés, régimes fiscaux offshore, villes privées, résidences multiples.
Little St. James, désormais connue sous le nom « l’Isle Eptein », incarne cette logique. Cette île privée de 75 acres, cachée dans les îles Vierges américaines, abritait une aire d’atterrissage pour hélicoptères et plusieurs villas dissimulées aux regards. Selon les nombreux témoignages, c’est aussi là qu’Epstein aurait livré ses victimes à certains des hommes les plus riches et les plus puissants du monde, à des fins d’exploitation sexuelle.
Cette classe pornopulente, ne se contente pas, en outre, de se retrancher dans des espaces privatisés. Elle accapare aussi, au besoin, des espaces communs, historiquement partagés, qu’elle transforme en vitrines de son pouvoir, comme l’a illustré le mariage ostentatoire de Jeff Bezos à Venise.
Mais l’insularisation des riches ne se résume pas à une ségrégation spatiale et fiscale : elle s’accompagne d’un retrait social et politique des élites
de l’espace démocratique. Le soutien de plusieurs figures associées aux dossiers Epstein à des courants autoritaires, libertariens et réactionnaires — telles que Donald Trump, Elon Musk et Peter Thiel — s’inscrit dans cette logique, récemment dénoncée par Oxfam.
Déjà des milliers d’abonnés à l’infolettre de La Conversation. Et vous ? Abonnez-vous gratuitement à notre infolettre pour mieux comprendre les grands enjeux contemporains.
La neutralisation de la contestation
Enfin, l’affaire Epstein offre un exemple révélateur d’un processus de neutralisation des plaintes et des autres formes de contestation, qui renforce le pouvoir de classe.
Malgré des signalements répétés et des enquêtes documentées, les institutions chargées de protéger les victimes ont été contournées, affaiblies ou instrumentalisées, tandis que seuls quelques acteurs ont été sanctionnés. Cette situation révèle une asymétrie connue : plus les sociétés sont inégalitaires, plus les dispositifs censés garantir la justice fonctionnent comme des mécanismes de protection des élites.
Cette neutralisation repose d’abord sur l’inégalité d’accès aux ressources
institutionnelles. Cabinets d’avocats spécialisés, réseaux d’influence, firmes de relations publiques et industries de la réputation favorisent les règlements confidentiels, retardent les procédures et épuisent les victimes.
Elle s’appuie aussi sur la proximité étroite entre pouvoir politique et pouvoir médiatique. Aux États-Unis, des figures comme Elon Musk, Larry Ellison, Mark Zuckerberg ou Jeff Bezos contrôlent des médias de plus en plus alignés sur l’ordre promu par Donald Trump, en échange d’avantages économiques et réglementaires. Par le financement, l’acquisition ou l’influence sur les médias et les plates-formes numériques, l’élite au pouvoir restreint les marges du débat public et de la critique.
Ces trois mécanismes (cooptation, insularisation, neutralisation) soutiennent donc une anatomie d’un pouvoir de classe qui déborde largement la figure d’un manipulateur hors pair. Ils soutiennent un régime d’accumulation prédatorial, où la violence économique et sexuelle se renforcent mutuellement au profit d’une minorité qui jouit, transgresse et s’exhibe en toute impunité.
Pendant ce temps, les victimes sont réduites au silence, contenues par un réseau dense de protections juridiques, médiatiques et politiques — même lorsque certaines ont parlé publiquement, comme Virginia Giuffre, sans être réellement entendues. L’affaire Epstein met ainsi au jour une classe dangereuse. Son pouvoir ne menace pas seulement les femmes, mais les conditions mêmes de toute vie démocratique.
Dahlia Namian ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.
Source: The Conversation – France (in French) – By Sébastien-Akira Alix, Professeur des universités en sciences de l’éducation et de la formation, Université Paris-Est Créteil Val de Marne (UPEC)
Les difficultés à recruter des enseignants reviennent régulièrement dans l’actualité. Mais sont-elles si récentes ? Autour de quels enjeux s’articulent-elles ? Publié en février 2026 aux Presses du Septentrion, sous la coordination de Sébastien-Akira Alix, l’ouvrage Crises dans et hors l’école en France. Éclairages socio-historiques (des années 1960 à nos jours) nous aide à replacer dans une perspective historique le sujet, ainsi que d’autres questions comme la « baisse du niveau » des élèves, la dilution de l’autorité, les violences scolaires. Les analyses qui suivent sont extraites de l’introduction de l’ouvrage.
D’une manière générale, les recherches sur l’histoire de l’enseignement en France interdisent de penser que ce qu’on appelle communément dans le débat public « la crise des vocations enseignantes », « la crise d’attractivité des métiers de l’enseignement » ou « la crise du recrutement des enseignants » serait un phénomène d’origine récente et le signe d’un malaise propre au XXIe siècle. À cet égard, dans son ouvrage la Formation des maîtres en France, 1792-1914, l’historien Marcel Grandière a bien mis en lumière les importantes difficultés de recrutement que rencontrent les écoles normales primaires en France à partir de 1887, période pourtant souvent présentée dans le débat public comme un « âge d’or » de l’École sous la IIIe République.
À l’époque, ces écoles normales primaires, en charge de la formation des instituteurs et des institutrices du primaire, connaissent une baisse notable d’admissions alors que de nombreuses places sont disponibles et que les besoins de recrutement demeurent importants. Pour pallier ce manque, « les inspecteurs d’académie puisent largement dans le vivier des brevetés, sans formation ». Cette situation s’inscrit, à l’époque, dans la durée puisqu’en 1911, « une moyenne de 2 500 instituteurs et 3 200 institutrices sont recrutés chaque année, sur lesquels les normaliens ne comptent que pour 1 500, et les normaliennes 1 800. Les moyens manquent pour faire mieux ». Dans ce contexte spécifique, la crise devient, d’après Marcel Grandière, un problème public :
« Car, pour ajouter à la difficulté, les écoles normales souffrent, à partir de 1888, d’une sensible et durable crise des vocations. À partir de 1890 surtout, les revues spécialisées, puis la presse, s’en émeuvent : la crise du recrutement devient un problème public. À la chambre des députés, on parle de “péril primaire” en évoquant la difficulté du recrutement : “Le nombre de candidats à ces écoles normales, qui était inférieur de beaucoup à ce qu’il était antérieurement, s’est à peine relevé, si bien que la sélection n’a pu opérer comme on était en droit de le penser, et qu’on peut craindre que l’avenir ne révèle entre ces dernières promotions et celles qui les ont précédées une différence marquée. […] Il y a là pour l’avenir de nos écoles publiques un danger qui constitue ce qu’on a appelé le péril primaire.” »
À l’époque, cette baisse sensible du nombre de candidats – il y en avait 6 000 en 1882 contre 2 848 en 1888 – s’explique, en partie, par des raisons économiques, la loi du 19 juillet 1889 n’ayant « pas donné aux instituteurs les améliorations de revenus qu’ils attendaient depuis longtemps ».
D’autres travaux, comme ceux de Frédéric Charles sur les instituteurs entre 1955 et 1984, ont cherché à expliquer, à partir de « l’étude de l’évolution et des transformations du recrutement des normaliens et normaliennes des deux Écoles normales de Paris », la crise de recrutement que connaît l’enseignement primaire français au début des années 1980, en particulier en 1986, année où « l’Éducation nationale n’a pas réussi à recruter tous les instituteurs dont elle avait besoin : sur 5 000 postes, seulement 4 700 furent pourvus ». D’après Frédéric Charles, cette crise est alors liée à la dévalorisation du statut social des enseignants du primaire – ressentie fortement par les jeunes instituteurs – dans le contexte de la démocratisation quantitative du système éducatif, qui fait perdre à l’école primaire sa place centrale. Au cours de ces années, le métier d’instituteur fait, en effet, l’objet d’un processus de dévaluation lié « aux effets des réformes de 1959 qui […] situent désormais l’enseignement primaire comme une simple étape du cursus scolaire » ainsi qu’à la transformation corrélative des « dispositions des candidats, [et de] leurs rapports à l’institution ».
Sous l’effet de l’allongement de la scolarité obligatoire, la valeur distinctive du niveau de diplôme des enseignants est fortement relativisée, contribuant à une perte de prestige du métier : l’instituteur voit désormais « sa fonction se banaliser et sa reconnaissance sociale décroître ». Le métier cesse ainsi progressivement d’être une voie de promotion sociale pour les candidats, en particulier à partir de 1973, date à laquelle le recrutement en école normale ne se fait plus qu’après le baccalauréat. La composition sociale des écoles normales et le rapport que les élèves entretiennent à son égard s’en trouvent modifiés : « Faute d’avoir réussi dans l’entreprise de leurs études supérieures à l’Université, mais surtout d’avoir pu accéder à une grande école ou à l’École normale supérieure », une partie des normaliens « ont été amenés alors, pour éviter un déclassement social, à se rabattre sur la petite École normale d’instituteurs ». L’École normale n’apparaît ainsi pratiquement plus génératrice de mobilité sociale et l’intégration en son sein correspond, pour beaucoup de candidats, à « des stratégies de reclassement ou de lutte contre un déclassement social », sauf pour des jeunes femmes qui ont pu valoriser ces diplômes.
À côté de cette problématique propre aux normaliens, qui constituent 50 % du personnel enseignant primaire de la région parisienne, l’enseignement primaire fait face, dès les années 1950, à une « très grave crise » du recrutement. Pour y pallier, on recrute des « bacheliers sans aucune formation professionnelle » comme auxiliaires.
Selon une enquête d’Ida Berger, menée auprès des personnels enseignants du premier degré en 1957 pour le Centre d’études sociologiques de Paris, cette crise est, pour partie, liée au « malaise socio-professionnel », dont les causes sont liées à des salaires trop faibles ; au « manque de perspectives d’avenir dans la profession » ; à « la perte du prestige social de leur profession » ; ainsi qu’à la vétusté des bâtiments et au trop grand nombre d’élèves par classe. À cet égard, Ida Berger note :
« En face de 45-50 enfants, habitant souvent des taudis, mal nourris et hypernerveux, combien d’instituteurs sont à contrecœur obligés d’abdiquer en tant que pédagogues et de se transformer en “gendarmes” pour maintenir un semblant de discipline dans leur classe ? »
Dans l’enseignement secondaire, l’explosion scolaire, engagée dès les années 1960, conduit également à l’émergence d’une crise aiguë du recrutement entre 1955 et 1965. Avec l’arrivée de nouveaux publics, « la distance subjectivement vécue entre la carrière ambitionnée et la réalité actuellement perçue du professorat » est, pour un certain nombre d’enseignants, symptomatique d’une crise révélatrice d’« une baisse du statut du professorat de l’enseignement secondaire ». Le malaise enseignant devient, d’ailleurs, à cette époque une « catégorie médiatique ».
Si on peut être tenté de considérer que la création du statut de professeur des écoles en 1989 – qui rapproche le statut des instituteurs d’une partie des enseignants du secondaire, avec lesquels ils sont d’ailleurs formés, dès 1991, dans les Instituts universitaires de formation des maîtres (IUFM) –, aurait pu contribuer à clore cet épisode de « crise » pour les enseignants du primaire, il n’en est rien. L’historien Jean-François Condette a, de ce point de vue, bien souligné que « le contexte de création des IUFM est inséparable d’une crise aiguë de recrutement ». En effet, les besoins en recrutement d’enseignants, dans le primaire comme dans le secondaire, demeurent très importants pour affronter la seconde vague de la massification liée à l’objectif de 80 % d’une classe d’âge au niveau du baccalauréat. Le ministère peine, pendant cette période, à recruter : en 1988, 27 % des postes de certificat d’aptitude au professorat de l’enseignement du second degré (capes) et 15 % des postes d’agrégés ne sont pas pourvus, en dépit de la création des concours internes du capes et de l’agrégation. Les besoins en recrutement sont ainsi « estimés à 360 000 entre 1988 et 2000 ».
Dans le contexte des années 1990 et 2000, la question de la « crise du recrutement » et « des vocations » prend, en France, une tournure nouvelle, notamment liée aux transformations de la morphologie enseignante, avec une remise en question de l’accès au métier selon « un modèle d’accomplissement de vocation », dont la période présente est l’héritière. De ce point de vue, les importants travaux du sociologue Pierre Périer ont montré le caractère sectoriel de la « crise du recrutement » et de la « crise d’attractivité du métier d’enseignant » fortement mises en avant dans le débat public au cours des deux dernières décennies.
À partir d’une enquête réalisée en 2015 auprès de 1 103 étudiants de différentes filières de troisième année de licence, Pierre Périer montre que « la problématique d’attractivité des métiers de l’enseignement apparaît à la fois inégale et paradoxale » et que l’affectivité spécifique et le sentiment d’urgence ou de catastrophe véhiculés par les discours sur la crise du recrutement dans le débat public doivent être relativisés :
« Aussi préoccupants soient-ils, ces constats [sur les difficultés de recrutement d’enseignants] confirment le caractère sectoriel et paradoxal de difficultés qui, en réalité, ne sont pas nouvelles. On peut rappeler, en effet, que le nombre de candidats présents pour un poste en 1993 était de 2,6, identique à celui observé en 2015 ou 2016 mais deux fois inférieur à celui du début des années 2000. La comparaison vaut également pour le secondaire avec 2,7 candidats pour un poste en 1993 ou encore 3,7 en 1994 et 3,4 en 2015. Ajoutons que la part des enseignants non titulaires dans le second degré public a déjà été à plusieurs reprises supérieure à ce qu’elle représente aujourd’hui (près de 8 % en 1993 contre moins de 6 % en 2015). »
Et Pierre Périer de souligner que « le manque de candidats aux concours a un caractère académique dans le premier degré et disciplinaire dans le secondaire ». Le sociologue montre également que la « crise de recrutement » masque, en réalité, « une tension en forme de dilemme d’orientation » pour les étudiants qui « met en rapport, d’un côté, un intérêt personnel manifeste pour les fondements et contenus du métier et, de l’autre, des appréhensions et, plus encore, une incertitude sur ce que recouvre le “devenir enseignant”, que ce soit en termes d’accès, de conditions d’exercice ou de carrière ».
Sébastien-Akira Alix ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d’une organisation qui pourrait tirer profit de cet article, et n’a déclaré aucune autre affiliation que son organisme de recherche.