Le rapport souligne que malgré plus d’actions, il faut mieux former tous les publics, intégrer l’IA et mesurer ce qui fonctionne vraiment.
Constat : Le numérique est devenu central dans la vie quotidienne, surtout chez les jeunes. De nombreuses actions d’éducation aux médias existent et augmentent (notamment sur le terrain), portées par l’Arcom, les médias et les plateformes. Mais l’offre reste déséquilibrée (trop centrée sur la désinformation), les programmes réguliers expliquant le fonctionnement des médias restent minoritaires, les plateformes font peu d’actions de proximité, l’IA complique la fabrication des contenus, et malgré les dispositifs, les mineurs restent exposés à des risques en ligne. Enfin, on mesure encore mal l’efficacité réelle des actions.
Problème : Sans éducation aux médias et au numérique suffisamment large, régulière et évaluée, les citoyens—en particulier les jeunes—restent vulnérables à la désinformation, à la haine en ligne, aux contenus inadaptés et aux manipulations renforcées par l’IA, ce qui fragilise la protection des mineurs, creuse les inégalités et dégrade le débat démocratique.
Blocages :
Leviers :
Renforcer l’éducation aux médias et au numérique face à la désinformation, la haine en ligne et l’IA
Le problème : Les jeunes (et plus largement les citoyens) sont exposés à un flux massif de contenus en ligne, parfois trompeurs, émotionnels ou manipulatoires. Les actions d’éducation existent mais restent déséquilibrées (trop centrées sur la désinformation), insuffisamment évaluées, et pas assez déployées sur le terrain, alors que l’IA rend les contenus faux plus crédibles et que la protection des mineurs est jugée insuffisante.
Pourquoi c’est important : Sans compétences de base (distinguer faits/opinions, vérifier, comprendre pourquoi un contenu est poussé, repérer la haine et les manipulations, identifier des contenus générés par IA), la confiance dans l’information se fragilise, le débat public se dégrade et la démocratie devient plus vulnérable. L’enjeu est aussi éducatif (autonomie des jeunes), social (cohésion) et d’égalité (ceux qui sont accompagnés s’en sortent mieux).
Ce qui bloque :
Conséquences concrètes :
## Ce que le rapport constate
Les jeunes passent beaucoup plus de temps sur des contenus numériques.
Le numérique est devenu une partie normale de la vie quotidienne.
Donc l’école et l’éducation doivent s’adapter à cette réalité.
Le rapport dit qu’il faut renforcer l’éducation aux médias et à l’information.
Pour une raison simple.
Aider les jeunes à comprendre ce qu’ils voient.
Et à garder une distance critique.
Le rapport constate aussi que beaucoup d’actions existent déjà.
Les chaînes de télévision et de radio en font davantage.
Il y a une hausse importante des initiatives déclarées.
Ces actions se font à l’antenne, en ligne, et sur le terrain.
Mais le rapport pointe un déséquilibre.
On parle surtout de désinformation.
Et un peu de découverte du journalisme.
Et très peu d’éducation au numérique au sens large.
Il constate aussi que les programmes vraiment dédiés à “comment fonctionnent les médias” restent minoritaires.
Sur les antennes, c’est une petite part.
Sur le numérique, c’est plus, mais encore insuffisant.
Le rapport note que des initiatives concrètes marchent.
Des ateliers dans des écoles.
Des projets itinérants comme un “camion de l’info”.
Des concours de podcasts.
Des débats avec jeunes et parents.
Des actions pour des publics éloignés, comme des détenus ou des enfants hospitalisés.
Il constate enfin que les plateformes en ligne font des actions éducatives.
Souvent via des campagnes et des outils intégrés.
Souvent avec des partenaires.
Mais elles font peu d’actions de terrain.
Et il ajoute un point important.
L’intelligence artificielle change la fabrication des contenus.
Donc il faut apprendre à repérer aussi les contenus créés ou modifiés par IA.
Le rapport rappelle aussi le cadre public.
Les médias ont des obligations d’éducation aux médias.
Les plateformes ont des obligations de réduction des risques liés à la désinformation.
Et l’Arcom suit, encourage, et analyse ce qui est fait.
Il y a aussi un constat plus inquiétant.
Même avec des dispositifs de protection, les adolescents restent exposés à des risques en ligne.
Et les protections actuelles sont jugées insuffisantes.
---
## Pourquoi c’est un problème
Parce que l’information en ligne est massive.
Elle arrive vite.
Elle est souvent émotionnelle.
Elle est parfois trompeuse.
Un jeune peut confondre une opinion et un fait.
Il peut croire une vidéo sortie de son contexte.
Il peut partager sans vérifier.
Il peut se faire manipuler sans s’en rendre compte.
Le problème n’est pas seulement “les fake news”.
C’est aussi la difficulté à comprendre les règles du jeu.
Qui parle.
Pourquoi ce contenu est poussé.
Ce qui est fiable.
Ce qui est fait pour choquer ou faire cliquer.
Il y a aussi la haine en ligne.
Les insultes.
Le harcèlement.
Les contenus qui encouragent la violence ou la discrimination.
Sans éducation, on banalise.
Ou on participe sans mesurer l’impact.
Il y a aussi la question de l’IA.
Quand on peut fabriquer une image ou une voix crédible, le doute devient permanent.
Sans méthode, on ne sait plus à quoi se fier.
Enfin, il y a la protection des mineurs.
Le rapport dit clairement que les risques persistent.
Donc les familles et les jeunes ne sont pas assez armés.
Et les outils de protection ne suffisent pas.
---
## Ce que cela révèle des limites actuelles de l’action publique
L’action publique s’appuie beaucoup sur des obligations et des incitations.
On demande aux médias et aux plateformes de faire des actions.
On valorise les bonnes pratiques.
On collecte des bilans.
Mais le rapport montre plusieurs limites.
Première limite.
On fait beaucoup d’actions.
Mais on ne sait pas assez ce qui marche vraiment.
Le rapport demande un dispositif pour mesurer l’impact.
Cela veut dire qu’aujourd’hui, on compte des initiatives.
Mais on mesure mal les résultats sur les comportements.
Deuxième limite.
Les thèmes sont trop concentrés.
On parle beaucoup de désinformation.
Mais pas assez des compétences de base.
Distinguer faits et opinions.
Savoir vérifier.
Comprendre les ingérences étrangères.
Comprendre les contenus générés par IA.
Prévenir la haine en ligne.
Le rapport demande de diversifier.
Troisième limite.
Les actions ne touchent pas tout le monde.
Les jeunes sont ciblés.
Mais les parents et les seniors le sont moins.
Or les parents accompagnent les usages.
Et les seniors peuvent être très exposés à la désinformation.
Le rapport demande d’élargir les publics.
Quatrième limite.
Le terrain est insuffisant, surtout côté plateformes.
Beaucoup d’actions restent en ligne.
Or certains publics ont besoin de contact direct.
D’ateliers.
De médiation.
Le rapport insiste sur des actions de proximité.
Cinquième limite.
La protection des mineurs reste insuffisante malgré les dispositifs.
Cela révèle un décalage.
Entre la vitesse des usages.
Et la vitesse des réponses publiques et techniques.
Enfin, il y a une limite de coordination.
Le rapport appelle à renforcer la collaboration entre éducation nationale, médias, plateformes et pouvoirs publics.
S’il faut le rappeler, c’est que ce n’est pas encore assez fluide.
Chacun agit, mais pas toujours ensemble.
---
## Les conséquences concrètes pour la société
Si on ne renforce pas l’esprit critique, la manipulation devient plus facile.
Des rumeurs peuvent orienter des opinions.
Des campagnes peuvent polariser la société.
Et la confiance dans l’information peut s’effondrer.
Quand les gens ne distinguent plus le vrai du faux, deux choses arrivent.
Soit ils croient n’importe quoi.
Soit ils ne croient plus rien.
Dans les deux cas, le débat public se dégrade.
La démocratie est directement touchée.
Parce que voter, débattre, décider, suppose une base commune de faits.
Sans cette base, on se dispute sur des réalités différentes.
La haine en ligne a aussi des effets hors ligne.
Elle abîme les relations.
Elle cible des personnes et des groupes.
Elle peut décourager de participer au débat.
Elle peut pousser au repli.
Pour les jeunes, les conséquences sont très concrètes.
Plus de risques d’exposition à des contenus nocifs.
Plus de risques de harcèlement.
Plus de risques de comportements dangereux par imitation.
Et plus de difficultés à construire une autonomie face aux écrans.
Pour les familles, cela crée des tensions.
Les parents se sentent dépassés.
Ils manquent d’outils simples.
Ils ne savent pas toujours comment parler des contenus vus en ligne.
Pour l’école, cela crée une pression supplémentaire.
Il faut former les enseignants.
Il faut des ressources.
Il faut du temps.
Sinon, on laisse les élèves apprendre seuls, au hasard des réseaux.
Pour les médias et les plateformes, cela pose une question de responsabilité.
Le rapport pousse à plus d’engagement éducatif.
Parce que leurs services structurent l’accès à l’information.
Et avec l’IA, le risque augmente.
Des contenus faux peuvent sembler vrais.
Des manipulations peuvent être plus rapides et plus ciblées.
Donc sans apprentissage, la société devient plus vulnérable.
Enfin, il y a un enjeu d’égalité.
Ceux qui ont des repères et des accompagnements s’en sortent mieux.
Les autres subissent.
Donc l’absence d’éducation solide creuse les écarts.
---
Pages sources : 1, 7, 8, 9, 11, 12, 13, 15, 16, 17, 18, 19, 21, 22
Désinformation, haine en ligne et protection des mineurs : agir vite, sur le terrain, et mesurer ce qui marche
Le problème : Le numérique est devenu central et les risques en ligne (désinformation, haine, contenus inadaptés pour les mineurs) évoluent plus vite que les réponses collectives. Malgré des actions existantes, l’accompagnement concret des publics et l’évaluation de l’efficacité restent insuffisants, et certains publics (parents, seniors) sont moins ciblés.
Pourquoi c’est important : Ces risques se diffusent très rapidement, peuvent tromper, blesser et intimider, et exposent particulièrement les mineurs. L’intelligence artificielle rend les contenus faux plus crédibles, ce qui complique la vérification et augmente le risque de manipulation à grande échelle.
Ce qui bloque :
Conséquences concrètes :
## Ce que le rapport constate
Le numérique a pris une place centrale dans la vie quotidienne.
Presque tout le monde est connecté.
Presque tout le monde a un smartphone.
Dans ce contexte, trois risques ressortent.
La désinformation.
La haine en ligne.
Et l’exposition des mineurs à des contenus inadaptés.
Le rapport dit que ces risques évoluent vite.
Parce que les usages changent vite.
Parce que les contenus circulent vite.
Et parce que de nouveaux outils apparaissent, comme l’intelligence artificielle.
Le rapport constate aussi un besoin clair d’accompagnement.
Plus d’un mineur sur deux dit vouloir être mieux aidé face aux risques en ligne.
Cela montre que beaucoup se sentent seuls face à ce qu’ils voient et subissent.
Le rapport observe que des actions existent déjà.
L’Arcom régule et fait de l’éducation aux médias.
Des chaînes de télévision et de radio font des ateliers, des émissions, des ressources.
Des plateformes font des campagnes et proposent des outils pédagogiques.
Des partenariats se multiplient avec l’école, des associations, des institutions.
Mais le rapport pointe des manques.
Il y a plus de contenus “éducatifs” qu’avant.
Pourtant, il y a encore trop peu de programmes qui expliquent vraiment comment l’information se fabrique et se manipule.
Sur les antennes, la part dédiée à ces sujets est jugée trop faible.
Sur le numérique, c’est mieux, mais encore insuffisant.
Le rapport note aussi un déséquilibre.
Beaucoup d’actions visent les jeunes.
C’est utile.
Mais les parents et les seniors sont moins ciblés, alors qu’ils sont très concernés.
Enfin, le rapport insiste sur un point simple.
On fait beaucoup de choses.
Mais on mesure mal ce qui marche vraiment.
Il manque des outils communs pour évaluer l’impact des actions.
---
## Pourquoi c’est un problème
Parce que la désinformation trompe.
Elle peut faire croire à de faux dangers.
Ou minimiser de vrais risques.
Elle peut pousser à la méfiance générale.
Et à la confusion: “on ne sait plus qui croire”.
Parce que la haine en ligne blesse et intimide.
Elle vise des personnes.
Elle vise aussi des groupes.
Elle peut faire taire des gens.
Elle peut isoler des victimes.
Et elle peut normaliser la violence verbale.
Parce que les contenus inadaptés peuvent marquer les mineurs.
Ils peuvent choquer.
Ils peuvent influencer des comportements.
Ils peuvent banaliser la violence, l’humiliation, ou des pratiques dangereuses.
Parce que tout cela se diffuse à grande vitesse.
Un contenu faux ou haineux peut toucher des milliers de personnes en quelques minutes.
Et il peut rester accessible longtemps.
Parce que l’intelligence artificielle complique la situation.
Elle peut aider à créer des images, des vidéos, des textes très crédibles.
Même quand c’est faux.
Donc le “ça a l’air vrai” ne suffit plus.
---
## Ce que cela révèle des limites actuelles de l’action publique
Première limite : l’action publique court après les usages.
Les pratiques numériques changent plus vite que les réponses collectives.
Les risques se déplacent d’une plateforme à l’autre.
Les formats changent.
Les codes changent.
Deuxième limite : la protection ne peut pas reposer seulement sur des règles.
Oui, il y a des obligations pour les plateformes et des lois.
Oui, il y a une régulation.
Mais dans la vie réelle, les gens tombent quand même sur des contenus toxiques.
Et les adolescents restent exposés malgré les dispositifs existants.
Le rapport le dit clairement : la protection des mineurs reste insuffisante.
Troisième limite : trop d’actions restent “en ligne” et pas assez “sur le terrain”.
Les plateformes proposent des ressources.
Mais elles font peu d’actions de proximité.
Or beaucoup de personnes ont besoin d’un accompagnement concret.
Avec quelqu’un qui explique.
Qui répond aux questions.
Qui aide à réagir.
Quatrième limite : on ne sait pas assez ce qui est efficace.
On additionne des initiatives.
On valorise des projets.
Mais on manque d’une mesure simple et partagée.
Est-ce que les gens apprennent vraiment à vérifier une info ?
Est-ce qu’ils savent quoi faire face au harcèlement ?
Est-ce que les parents se sentent plus capables d’accompagner ?
Le rapport demande de construire des outils d’évaluation.
Cinquième limite : l’effort n’est pas encore assez “pour tous”.
Les jeunes sont une priorité.
Mais les parents comptent dans la protection des mineurs.
Et les seniors peuvent être très exposés à la désinformation.
Si on laisse ces publics de côté, on laisse des angles morts.
---
## Les conséquences concrètes pour la société
### 1) Une société plus méfiante et plus divisée
Quand le faux circule beaucoup, la confiance baisse.
Confiance dans les médias.
Confiance dans les institutions.
Confiance entre citoyens.
Chacun peut finir dans “sa version” des faits.
Et le débat devient plus agressif.
### 2) Des personnes qui se taisent par peur
La haine en ligne n’est pas “juste des mots”.
Elle peut pousser des gens à quitter les réseaux.
À ne plus s’exprimer.
À renoncer à participer à la vie publique.
Cela appauvrit la discussion collective.
### 3) Des jeunes plus exposés, et des adultes démunis
Si les mineurs disent qu’ils veulent être mieux accompagnés, ce n’est pas théorique.
Cela veut dire qu’ils rencontrent des situations difficiles.
Et que l’encadrement actuel ne suffit pas.
Les parents peuvent ne pas savoir quoi faire.
Les enseignants peuvent manquer de temps ou d’outils.
Les victimes et témoins peuvent ne pas connaître les bons réflexes.
### 4) Une propagation plus facile des manipulations
Si les citoyens ne savent pas distinguer un fait d’une opinion, la manipulation devient simple.
Si on ne sait pas repérer une image truquée, on peut partager sans le vouloir.
Si on ne sait pas identifier des contenus créés par IA, on peut se faire piéger.
Résultat : la manipulation devient un risque “de masse”.
### 5) Une pression accrue sur les services publics et la justice
Plus de haine en ligne, c’est plus de signalements.
Plus de victimes à accompagner.
Plus de conflits.
Plus de besoins de prévention.
Et donc plus de charge pour les institutions.
---
Le message de fond du rapport est concret.
Protéger ne suffit pas.
Il faut aussi rendre les gens capables de se protéger.
Et capables de réagir quand ils sont victimes ou témoins.
Pour y arriver, il faut des actions proches du terrain.
Pour tous les publics.
Et il faut vérifier ce qui marche vraiment, pas seulement ce qui existe.
Pages sources : 3, 5, 6, 7, 8, 11, 12, 13, 16, 17, 18, 20, 21, 22
Numérique généralisé : risques en hausse et besoin de protection, de supervision et d’éducation efficaces
Le problème : Les usages numériques progressent plus vite que les protections : désinformation, haine en ligne et exposition des mineurs à des contenus inadaptés se diffusent facilement, tandis que l’éducation aux médias et au numérique reste trop marginale dans les programmes et que l’action des plateformes manque de transparence et de contrôle.
Pourquoi c’est important : Le problème touche directement la démocratie (confiance et débat public), la cohésion sociale (normalisation de la haine), la santé et la sécurité des mineurs, et peut creuser les inégalités. Sans mesure de l’efficacité des actions, on risque de multiplier des initiatives visibles mais peu utiles, ce qui fragilise aussi la confiance dans les institutions.
Ce qui bloque :
Conséquences concrètes :
## Ce que le rapport constate
Le numérique est devenu la norme.
Presque tout le monde est connecté.
Presque tout le monde a un smartphone.
Dans ce contexte, les risques augmentent vite.
La désinformation circule plus facilement.
La haine en ligne se diffuse plus facilement.
Les mineurs voient plus souvent des contenus qui ne sont pas faits pour eux.
Le rapport place l’Arcom au centre de la réponse publique.
L’Arcom a trois rôles.
Premier rôle : protéger.
Elle pousse à mieux lutter contre la désinformation.
Elle pousse à mieux lutter contre la haine en ligne.
Elle pousse à mieux protéger les mineurs.
Deuxième rôle : superviser.
Elle participe à la surveillance des grandes plateformes en ligne.
Elle s’appuie sur des règles européennes qui obligent ces plateformes à réduire certains risques.
Elle reçoit aussi des informations venant des plateformes sur leurs actions contre la désinformation.
Troisième rôle : éduquer.
L’idée est simple.
Si les gens comprennent mieux le numérique, ils se font moins piéger.
Ils repèrent mieux les manipulations.
Ils savent mieux réagir face au harcèlement.
Ils protègent mieux leurs données.
Le rapport constate aussi une mobilisation des médias.
Les chaînes de télévision et de radio font plus d’actions d’éducation qu’avant.
Le chiffre annoncé est une hausse de 35 %.
Il y a plus d’actions “sur le terrain”.
Donc plus de rencontres, plus d’ateliers, plus de publics différents.
Mais le rapport pointe une limite importante.
Il y a peu de programmes dédiés à ces sujets dans les contenus eux-mêmes.
Seulement 12 % des programmes à l’antenne abordent ces thèmes.
Et 27 % sur le numérique.
Le rapport dit aussi que les plateformes font des actions.
Elles lancent des campagnes.
Elles ajoutent des outils “pédagogiques”.
Elles font des partenariats pour produire des ressources.
Enfin, le rapport insiste sur un besoin.
Il faut mesurer l’efficacité réelle de tout cela.
Pas seulement compter le nombre d’actions.
Mais vérifier si ça change vraiment les comportements.
Et si ça répond aux attentes des citoyens.
## Pourquoi c’est un problème
Parce que les usages changent plus vite que les protections.
Les contenus circulent en continu.
Les réactions sont immédiates.
Les dégâts peuvent être rapides.
Parce que les mineurs restent exposés.
Le rapport dit clairement que les protections actuelles ne suffisent pas.
Même quand des dispositifs existent.
Et c’est un signal fort.
Cela veut dire que “avoir des règles” ne garantit pas “être protégé”.
Parce que beaucoup de citoyens se sentent seuls face aux risques.
Le rapport cite une donnée simple.
53 % des mineurs disent vouloir être mieux accompagnés.
Cela montre un besoin concret.
Et une attente envers les adultes et les institutions.
Parce que l’éducation progresse, mais reste trop marginale dans les contenus.
Faire des ateliers, c’est utile.
Mais cela ne touche pas tout le monde.
Et cela dépend des lieux, des moyens, des personnes motivées.
Quand seulement une petite part des programmes parle de ces sujets, l’impact global reste limité.
Parce que les plateformes ont un rôle central, mais pas toujours transparent.
Elles peuvent dire qu’elles agissent.
Mais sans contrôle solide, on ne sait pas assez ce qui marche.
Ni ce qui est surtout de la communication.
## Ce que cela révèle des limites actuelles de l’action publique
L’État ne peut pas tout faire seul.
Il doit s’appuyer sur des acteurs privés.
Les médias.
Les plateformes.
Les associations.
L’école.
Les collectivités locales.
Cela crée une action publique “en réseau”.
C’est utile.
Mais c’est fragile.
Fragile, parce que chacun a ses priorités.
Une plateforme cherche aussi à garder ses utilisateurs.
Un média cherche aussi l’audience.
Une école manque parfois de temps et de moyens.
Une association dépend de financements.
Autre limite : l’action publique est souvent plus forte sur l’intention que sur la preuve.
On sait compter.
On sait annoncer des campagnes.
On sait produire des ressources.
Mais on mesure encore mal l’effet réel sur la population.
Autre limite : la régulation est compliquée par la taille des plateformes.
Elles sont très puissantes.
Elles sont transnationales.
Elles changent leurs outils souvent.
Et elles contrôlent une partie des données nécessaires pour vérifier leurs efforts.
Dernière limite : on attend beaucoup de la “responsabilité individuelle”.
Le rapport insiste sur l’autonomie des publics.
C’est important.
Mais cela peut aussi déplacer le poids du problème vers l’utilisateur.
Comme si le citoyen devait se protéger seul dans un environnement conçu pour capter son attention.
## Les conséquences concrètes pour la société
### Sur l’information et la démocratie
La désinformation affaiblit la confiance.
On ne sait plus qui croire.
On doute de tout.
Ou on croit n’importe quoi.
Cela peut influencer des débats publics.
Cela peut durcir les opinions.
Cela peut rendre le dialogue impossible.
### Sur la cohésion sociale
La haine en ligne normalise l’agression.
Elle cible des personnes.
Elle cible des groupes.
Elle pousse certains à se taire.
Elle pousse d’autres à se radicaliser.
Elle abîme la vie collective.
### Sur les enfants et les adolescents
L’exposition à des contenus inadaptés a des effets directs.
Anxiété.
Harcèlement.
Pression sociale.
Sexualisation précoce.
Addiction à l’attention et aux “likes”.
Le rapport montre aussi un fait social important.
Les jeunes demandent de l’aide.
Donc le problème n’est pas “ils ne veulent pas”.
Le problème est “ils ne peuvent pas seuls”.
### Sur les inégalités
Ceux qui ont déjà des ressources s’en sortent mieux.
Parents informés.
Écoles bien équipées.
Accès à des ateliers.
Temps pour accompagner.
Les autres restent plus exposés.
Moins d’accompagnement.
Moins de repères.
Plus de risques.
Donc le numérique peut creuser des écarts.
### Sur la manière dont on protège le public
Si on ne mesure pas l’efficacité, on peut se tromper de stratégie.
On peut multiplier des actions visibles mais peu utiles.
On peut laisser passer des risques majeurs.
On peut croire que “ça avance” alors que les problèmes s’aggravent.
### Sur la confiance dans les institutions
Si les citoyens voient que les risques persistent, ils se découragent.
Ils se disent que “personne ne contrôle”.
Ou que “les plateformes font ce qu’elles veulent”.
Cela fragilise la crédibilité de l’action publique.
L’enjeu du rapport est là.
Protéger mieux.
Superviser plus solidement.
Et éduquer plus largement.
Mais aussi prouver ce qui marche.
Et corriger ce qui ne marche pas.
Pages sources : 3, 4, 5, 6, 7, 8, 14, 20, 21
Éducation aux médias : plus d’initiatives, mais trop peu de décryptage régulier en TV/radio et un impact mal mesuré
Le problème : Les médias multiplient les actions d’éducation aux médias et au numérique (+35 %), surtout sur le terrain (+75 %) et en ligne, mais le « décryptage » reste trop rare dans les programmes TV/radio (12 %) et encore insuffisant sur les supports numériques (27 %). L’effort est donc en hausse, mais pas assez présent là où il touche massivement le public, et son efficacité réelle est peu évaluée.
Pourquoi c’est important : TV et radio restent des portes d’entrée majeures vers l’information, tandis que les réseaux sociaux et les recommandations automatiques sont devenus des lieux centraux d’influence. Sans explications simples, répétées et visibles sur le fonctionnement des médias (vérification, correction, distinction faits/opinions, repérage d’images truquées ou de contenus IA), les citoyens sont moins armés face à la désinformation, la haine en ligne et les contenus inadaptés, ce qui fragilise la confiance et le débat démocratique.
Ce qui bloque :
Conséquences concrètes :
## Ce que le rapport constate
Les chaînes de télévision et de radio font plus d’actions d’éducation aux médias et au numérique qu’avant.
La hausse est nette. +35 % en un an.
Cela représente 267 initiatives de plus.
Elles vont davantage “sur le terrain”.
Ateliers. Interventions en classe. Visites. Rencontres.
Ces actions de terrain progressent encore plus vite. +75 %.
Elles touchent des publics plus variés. Jeunes, seniors, détenus, enseignants, parents.
Il y a aussi des initiatives sur les réseaux sociaux et les plateformes.
Avec des partenariats.
Exemple : campagnes contre la désinformation.
Exemple : contenus courts adaptés aux jeunes.
Mais le rapport pointe un décalage important.
Sur les antennes (TV et radio), il y a trop peu d’émissions vraiment dédiées au “décryptage” des médias.
Seulement 12 % des programmes concernés.
Sur les supports numériques des médias, c’est mieux mais encore insuffisant. 27 %.
Le rapport rappelle aussi un point de cadre.
Le service public a des obligations en éducation aux médias.
Le privé aussi doit agir.
Et le privé doit relayer des campagnes sur le droit d’auteur et la lutte contre le piratage.
Enfin, le rapport insiste sur le contexte.
Le numérique évolue très vite.
La désinformation circule vite.
La haine en ligne existe.
Les mineurs peuvent tomber sur des contenus inadaptés.
Donc il faut à la fois protéger et rendre les gens plus autonomes.
Et il manque un élément clé.
Mesurer l’efficacité réelle des actions.
Savoir ce qui marche. Et pour qui.
---
## Pourquoi c’est un problème
Parce que l’effort augmente, mais il n’est pas au bon endroit, ni à la bonne échelle.
Les ateliers et opérations spéciales sont utiles.
Mais ils ne remplacent pas des rendez-vous réguliers à la télévision et à la radio.
Or la TV et la radio restent des portes d’entrée majeures vers l’info pour beaucoup de gens.
Si le “décryptage” est rare à l’antenne, il touche moins de monde.
Et il touche souvent les mêmes publics déjà intéressés.
Autre problème : le numérique est devenu le lieu principal où l’on se fait influencer.
Réseaux sociaux. Vidéos courtes. Recommandations automatiques.
Si les médias n’y proposent pas assez d’explications simples et répétées, le terrain est laissé à d’autres.
Influenceurs. Rumeurs. Propagande. Contenus manipulés.
Il y a aussi un risque de confusion.
On parle de “désinformation” et de “bonnes pratiques numériques”.
Mais on parle moins du fonctionnement concret des médias.
Comment une info est fabriquée.
Comment on vérifie.
Comment on corrige.
Comment on sépare faits et opinions.
Comment on repère une image truquée ou un contenu généré par IA.
Sans ces bases, on apprend des réflexes, pas une compréhension.
Enfin, les campagnes sur le droit d’auteur et le piratage existent.
Mais si elles sont surtout des messages “moraux” ou “répressifs”, elles convainquent mal.
Les gens ont besoin de comprendre.
Pourquoi une œuvre est protégée.
Ce qui est légal ou non.
Et quelles alternatives existent.
---
## Ce que cela révèle des limites actuelles de l’action publique
L’État et le régulateur (l’Arcom) peuvent pousser, inciter, encadrer.
Mais ils ne peuvent pas tout faire.
Première limite : l’action dépend beaucoup de la bonne volonté et des priorités des acteurs.
Les chaînes déclarent des actions.
Elles rendent des comptes.
Mais le rapport montre que, malgré l’engagement, les programmes dédiés restent minoritaires.
Donc l’obligation ne garantit pas un résultat visible pour le grand public.
Deuxième limite : on agit beaucoup par “projets”.
Un camion itinérant. Un concours. Une tournée. Un festival.
C’est concret. C’est positif.
Mais ce n’est pas forcément durable.
Et ce n’est pas forcément massif.
Troisième limite : la puissance des plateformes dépasse les outils classiques.
Les règles européennes demandent aux très grandes plateformes de réduire les risques de désinformation.
La loi française renforce le rôle de l’Arcom contre la manipulation de l’information.
Mais, dans la pratique, les plateformes contrôlent la diffusion.
Elles contrôlent les recommandations.
Elles contrôlent une partie des données.
Donc l’action publique avance, mais avec un temps de retard.
Quatrième limite : on manque de mesure d’impact.
On compte des actions.
On compte des personnes touchées.
Mais on sait moins si les gens deviennent réellement plus capables de vérifier, de douter, de signaler, de se protéger.
Sans mesure, on risque de financer et répéter ce qui “se voit”, pas ce qui “marche”.
---
## Les conséquences concrètes pour la société
Si le décryptage des médias reste trop rare, plusieurs effets apparaissent.
La désinformation devient plus efficace.
Parce que beaucoup de citoyens n’ont pas les outils simples pour trier.
Ils partagent plus vite.
Ils confondent témoignage, opinion et preuve.
Ils se font piéger par des montages, des titres trompeurs, ou des contenus générés par IA.
La haine en ligne se banalise plus facilement.
Parce que les mécanismes de viralité ne sont pas compris.
Parce que certains contenus jouent sur la colère et l’humiliation.
Sans éducation, on répond par l’émotion. Pas par le recul.
Les mineurs sont plus exposés.
Pas seulement à des contenus choquants.
Aussi à des contenus qui manipulent.
Publicités déguisées. Théories complotistes. Défis dangereux.
Et les parents sont souvent démunis, car les usages changent vite.
La confiance dans l’information se dégrade.
Deux risques opposés apparaissent en même temps.
Croire n’importe quoi.
Ou ne plus croire rien du tout.
Dans les deux cas, la démocratie fonctionne moins bien.
Parce qu’un débat public a besoin d’un minimum de faits partagés.
Les inégalités se creusent.
Ceux qui ont déjà des codes (études, entourage, temps, accès) apprennent à vérifier.
Les autres restent plus vulnérables.
Donc l’éducation aux médias devient une question d’égalité réelle.
Enfin, sur le droit d’auteur et le piratage, l’effet peut être contre-productif si c’est mal expliqué.
Si les gens ne comprennent pas les règles, ils les contournent.
Ou ils pensent que “tout se vaut”.
Cela fragilise la création et les revenus des auteurs.
Et cela entretient un rapport flou à la loi en ligne.
En clair : le rapport montre une mobilisation réelle.
Mais il montre aussi que l’essentiel n’est pas encore assez présent là où tout le monde regarde et écoute.
Et que, sans continuité et sans preuve d’efficacité, l’effort risque de rester insuffisant face à la vitesse du numérique.
Pages sources : 2, 3, 4, 7, 8, 9, 12, 13, 14, 16, 18
Éducation aux médias : le terrain progresse vite, mais les programmes restent en retrait
Le problème : Les actions d’éducation aux médias et au numérique se développent fortement en présentiel (ateliers, interventions, visites), mais elles compensent un manque de contenus dédiés dans les médias eux-mêmes. Résultat : une action efficace localement, mais limitée en portée nationale, inégale selon les territoires et souvent dépendante de projets ponctuels, avec un impact encore mal mesuré.
Pourquoi c’est important : La désinformation est le thème principal des actions (56 %) et fragilise le débat public. Or les médias de masse touchent des millions de personnes, alors qu’un atelier touche quelques dizaines. Si l’effort reste surtout “sur le terrain” et peu intégré aux programmes (12 % sur les antennes, 27 % sur le numérique), une partie de la population risque de rester moins protégée face aux manipulations, aux arnaques et aux discours de haine.
Ce qui bloque :
Conséquences concrètes :
## Ce que le rapport constate
Le rapport observe un changement net dans la façon d’agir.
Les actions “sur le terrain” augmentent très vite.
Elles progressent de 75 % en un an.
Elles deviennent même le type d’initiative le plus développé.
Elles passent devant les contenus éducatifs diffusés à la télévision, à la radio, ou sur leurs sites.
En parallèle, l’ensemble des actions d’éducation aux médias et au numérique augmente aussi.
+35 % pour les chaînes de télévision et de radio.
Concrètement, on voit plus de présence “en vrai”.
Des ateliers.
Des visites de rédactions.
Des interventions en classe.
Des dispositifs itinérants, comme un camion qui se déplace.
Ces actions touchent des publics plus variés qu’avant.
Avant, c’était surtout des jeunes.
Maintenant, c’est plus équilibré entre jeunes, étudiants, et “tout public”.
Le rapport cite aussi des publics nouveaux ou mieux pris en compte.
Des seniors.
Des personnes en prison.
Des parents.
Des enseignants.
Des bibliothécaires.
Des conseillers numériques.
L’Arcom, par exemple, dit avoir sensibilisé plus de 13 000 personnes sur le territoire.
Les thèmes les plus fréquents sur le terrain sont clairs.
La désinformation arrive en tête (56 %).
Puis la découverte du métier de journaliste (30 %).
L’éducation au numérique est beaucoup moins présente (5 %).
Enfin, le rapport pointe un décalage important.
Il y a peu de programmes dédiés à ces sujets dans les médias eux-mêmes.
Seulement 12 % sur les antennes.
Et 27 % sur les supports numériques des médias.
Donc on fait beaucoup d’actions en présentiel.
Mais on en fait relativement peu dans les contenus que tout le monde regarde ou écoute.
---
## Pourquoi c’est un problème
Ce n’est pas un problème parce que le terrain serait “mauvais”.
Au contraire, c’est souvent utile et concret.
Le problème, c’est ce que cette montée en puissance peut vouloir dire.
### 1) On compense un manque ailleurs
Si les actions de terrain deviennent le principal outil, c’est aussi parce que le reste ne suit pas.
Or la télévision, la radio et les grandes plateformes touchent des millions de personnes.
Un atelier touche quelques dizaines de personnes.
Même multiplié, cela reste limité.
Donc on risque d’avoir une action très visible localement.
Mais trop faible à l’échelle du pays.
### 2) On crée une action “à deux vitesses”
Ceux qui bénéficient d’un atelier apprennent à vérifier une info.
À repérer une manipulation.
À comprendre comment travaille un journaliste.
Ceux qui n’y ont pas accès n’ont pas cette aide.
Parce qu’ils habitent loin.
Parce qu’ils ne sont pas dans le bon établissement.
Parce qu’ils ne sont pas dans le bon réseau.
Résultat possible : une inégalité d’accès à des compétences de base.
Comme savoir trier le vrai du faux.
### 3) On dépend de projets ponctuels
Beaucoup d’actions de terrain reposent sur des partenariats.
Sur des équipes motivées.
Sur des événements.
Sur des financements qui peuvent s’arrêter.
Si ce n’est pas stable, ça peut retomber aussi vite que ça a monté.
### 4) On ne sait pas toujours ce que ça produit vraiment
Le rapport recommande de mesurer l’impact.
Cela montre qu’aujourd’hui, on ne sait pas assez bien ce qui marche.
Ni pour qui.
Ni combien de temps.
Sans mesure, on peut multiplier les actions.
Mais sans être sûr qu’elles changent réellement les pratiques.
---
## Ce que cela révèle des limites actuelles de l’action publique
Le rapport met en lumière plusieurs limites.
### 1) L’État n’a pas un levier simple et direct sur l’information en ligne
Une grande partie de la désinformation circule sur les réseaux sociaux.
Et sur des plateformes qui ne sont pas des médias traditionnels.
L’action publique a donc tendance à passer par des “campagnes”, des “partenariats”, des “outils pédagogiques”.
C’est utile.
Mais ça montre aussi une difficulté à agir au cœur du problème.
### 2) On agit beaucoup par “sensibilisation”, moins par transformation du système
Sensibiliser, c’est expliquer.
C’est former.
C’est faire prendre conscience.
Mais cela ne change pas forcément les mécanismes qui poussent les contenus trompeurs.
Ni la vitesse de circulation.
Ni les logiques de buzz.
Ni les contenus qui provoquent la haine.
Le rapport insiste d’ailleurs sur la prévention de la haine en ligne.
Et sur la responsabilisation des publics.
Cela montre que le problème dépasse la simple “méconnaissance”.
### 3) Les médias eux-mêmes ne portent pas assez ces sujets dans leurs programmes
Le chiffre est parlant.
12 % sur les antennes.
27 % sur le numérique.
Cela révèle une limite : on compte sur des actions à côté des programmes.
Au lieu d’intégrer davantage ces sujets dans ce que les gens consomment tous les jours.
### 4) L’action publique s’appuie sur une mosaïque d’acteurs
Éducation nationale, Arcom, associations, médias, bibliothèques, plateformes.
C’est une force.
Mais c’est aussi une fragilité.
Parce que la coordination est complexe.
Et parce que la qualité peut varier selon les endroits.
---
## Les conséquences concrètes pour la société
### 1) Des citoyens mieux armés… mais pas partout
Là où ces actions existent, elles peuvent améliorer des choses très concrètes.
Moins de partage automatique.
Plus de vérification.
Plus de recul face aux images truquées ou à l’IA.
Mais si l’accès dépend du territoire, l’effet sera inégal.
### 2) Un risque de fracture entre ceux qui comprennent et ceux qui subissent
Comprendre les médias devient une compétence de protection.
Comme savoir repérer une arnaque.
Si certains publics restent à l’écart, ils seront plus exposés.
Aux manipulations.
Aux rumeurs.
Aux escroqueries.
Aux discours de haine.
### 3) Un débat public plus fragile
Quand la désinformation progresse, les gens ne discutent plus sur les mêmes faits.
Ils ne partagent plus la même base.
Cela peut augmenter la méfiance.
Envers les journalistes.
Envers les institutions.
Envers la science.
Envers la justice.
Et cela peut rendre les décisions collectives plus difficiles.
Parce que tout devient contestable, même le réel.
### 4) Une pression accrue sur l’école et les acteurs locaux
Si la réponse principale devient “aller sur le terrain”, alors on demande beaucoup à l’école, aux associations, aux bibliothèques, aux collectivités.
Cela peut marcher.
Mais cela peut aussi épuiser les équipes.
Et créer une dépendance à des personnes clés.
### 5) Une normalisation de l’idée que “se former” est indispensable pour se protéger
C’est positif sur le principe.
Mais cela peut aussi déplacer la responsabilité.
On finit par dire : “si tu t’es fait manipuler, c’est que tu n’étais pas assez formé”.
Alors que le problème vient aussi de la façon dont les contenus sont poussés et amplifiés.
---
Si tu veux, je peux te l’expliquer à travers une situation concrète du quotidien (un parent, un senior, un collégien) pour montrer comment ces actions de terrain changent, ou ne changent pas, les comportements.
Pages sources : 2, 4, 5, 9, 10, 11, 12, 13, 14, 15, 22
Plus d’actions d’éducation aux médias, mais trop peu de décryptage régulier et visible
Le problème : Malgré une hausse des actions d’éducation aux médias et au numérique, il manque des programmes vraiment dédiés au décryptage de l’information (comment elle est fabriquée, triée, mise en scène et diffusée). Ces contenus restent minoritaires et insuffisamment réguliers et visibles à grande échelle.
Pourquoi c’est important : Sans repères simples et accessibles là où les gens s’informent (télé, radio, numérique), les citoyens comprennent moins bien l’information, deviennent plus vulnérables aux manipulations et l’écart se creuse entre ceux qui savent déjà chercher ces outils et les autres. Cela fragilise la qualité du débat public et, à terme, la démocratie.
Ce qui bloque :
Conséquences concrètes :
### Ce que le rapport constate
Le rapport dit qu’il y a plus d’actions qu’avant.
Les chaînes de télé et de radio ont augmenté leurs actions d’éducation aux médias et au numérique de 35 %.
Il dit aussi que les actions “sur le terrain” ont beaucoup progressé.
Elles ont augmenté de 75 %.
Elles touchent des publics plus variés.
Mais le rapport pointe un manque précis.
Il manque des programmes vraiment dédiés au “décryptage” des médias.
C’est-à-dire des contenus qui expliquent comment l’information est fabriquée, triée, mise en scène, et diffusée.
Et ce manque est chiffré.
Sur les antennes, seuls 12 % des programmes éducatifs abordent vraiment ces sujets.
En ligne, c’est 27 %.
Le rapport note aussi un déséquilibre dans les thèmes traités.
On parle surtout de désinformation et d’usages du numérique.
On parle moins d’autres compétences utiles au quotidien.
Enfin, il constate que des initiatives existent sur les plateformes et réseaux sociaux.
Avec des campagnes, des outils pédagogiques, et des partenariats.
Mais cela ne compense pas l’absence de programmes réguliers et visibles à grande échelle.
---
### Pourquoi c’est un problème
Parce que beaucoup de gens s’informent tous les jours.
Et beaucoup se font une opinion à partir de ce qu’ils voient et partagent.
Si on ne comprend pas comment fonctionne l’information, on est plus vulnérable.
On confond plus facilement un fait et une opinion.
On prend une vidéo sortie de son contexte pour une preuve.
On croit qu’un message très partagé est forcément vrai.
Le problème n’est pas seulement “les fake news”.
Le problème, c’est le manque d’outils simples pour se repérer.
Et ces outils devraient être présents là où les gens sont.
À la télé, à la radio, et sur les supports numériques des médias.
Quand ces contenus sont rares, ils touchent moins de monde.
Ils deviennent réservés à ceux qui vont déjà les chercher.
Donc on creuse l’écart entre les publics.
---
### Ce que cela révèle des limites actuelles de l’action publique
Le rapport montre une action publique qui progresse, mais qui reste incomplète.
1) **On fait plus d’actions, mais pas assez de contenus visibles et réguliers.**
Les ateliers et interventions sont utiles.
Mais ils ne remplacent pas des programmes diffusés largement.
Un atelier touche des centaines.
Une émission ou une série en touche des millions.
2) **L’effort est encore trop “événementiel”.**
On fait des campagnes.
On fait des opérations ponctuelles.
Mais on manque de rendez-vous clairs, fréquents, identifiables.
3) **La couverture des compétences du quotidien est trop partielle.**
Le rapport demande de mieux traiter des sujets concrets.
Par exemple : distinguer faits et opinions.
Repérer des ingérences étrangères.
Reconnaître des contenus fabriqués par l’IA.
Limiter la haine en ligne et la propagation de contenus violents.
4) **L’action dépend beaucoup de partenariats et de la bonne volonté des acteurs.**
Les plateformes et réseaux sociaux peuvent aider.
Mais leurs priorités ne sont pas toujours l’éducation.
Leur logique est aussi commerciale.
Donc l’éducation ne peut pas reposer principalement sur eux.
---
### Les conséquences concrètes pour la société
1) **Plus de confusion dans le débat public.**
Quand les gens ne savent pas trier, les discussions deviennent plus agressives.
On se dispute sur des “faits” qui n’en sont pas.
On se replie sur son camp.
2) **Plus de manipulation possible.**
Des acteurs malveillants peuvent influencer l’opinion.
Avec des rumeurs, des montages, des faux comptes.
Ou des contenus générés par IA qui imitent des médias ou des personnes.
3) **Une haine en ligne qui se diffuse plus facilement.**
Sans repères, on partage plus vite.
On banalise des propos violents.
On participe parfois à du harcèlement sans s’en rendre compte.
4) **Des inégalités qui s’aggravent.**
Ceux qui ont déjà des codes et du temps s’en sortent mieux.
Les autres subissent.
Ils se méfient de tout, ou ils croient trop facilement.
Dans les deux cas, on perd la confiance.
5) **Une démocratie plus fragile.**
Voter, débattre, décider ensemble demande une base commune.
Si chacun vit dans sa bulle d’informations, cette base se casse.
Et les décisions collectives deviennent plus difficiles à accepter.
Le rapport ne dit pas qu’il ne se passe rien.
Il dit que l’effort existe, mais qu’il n’est pas encore au bon endroit, ni à la bonne échelle.
Et que, sans contenus éducatifs plus nombreux et plus réguliers, on laisse trop de citoyens seuls face à un environnement informationnel de plus en plus complexe.
Pages sources : 2, 4, 16
Éducation aux médias : les plateformes agissent, mais surtout à distance, et cela ne suffit pas
Le problème : Les plateformes en ligne mènent des actions d’éducation aux médias (campagnes, outils intégrés, partenariats), mais elles font peu d’actions de terrain et restent juges et parties. En parallèle, les médias audiovisuels augmentent leurs actions, mais proposent encore peu de programmes dédiés et visibles de décryptage.
Pourquoi c’est important : L’éducation aux médias est plus efficace quand elle s’appuie sur un accompagnement concret (ateliers, échanges, pratique). Or l’action publique dépend fortement d’acteurs privés et de dispositifs changeants, ce qui limite la continuité, la transparence et l’égalité d’accès à ces apprentissages.
Ce qui bloque :
Conséquences concrètes :
### Ce que le rapport constate
Les plateformes en ligne (réseaux sociaux, moteurs de recherche) font des actions d’éducation aux médias.
Elles le font surtout de trois façons.
D’abord, elles lancent des campagnes.
Par exemple, des vidéos et messages pour apprendre à repérer la désinformation.
C’est souvent pensé pour les jeunes.
Ensuite, elles ajoutent des outils “dans” leurs services.
Des conseils, des alertes, des parcours pédagogiques.
Parfois sous forme de jeux.
Exemple cité : des programmes comme **Interland** ou **Super Searchers**.
Enfin, elles font des partenariats.
Avec des médias, des associations, des acteurs de l’éducation.
Exemple cité : **TikTok avec l’AFP** pour produire des vidéos de décryptage.
Le rapport note aussi une limite nette.
Les plateformes font **peu d’actions de terrain**.
Peu d’interventions directes dans les écoles, les quartiers, les bibliothèques.
Peu de présence là où les publics ont besoin d’accompagnement concret.
Le rapport replace ces actions dans un cadre plus large.
Les plateformes agissent aussi parce que l’Europe leur demande de réduire les risques liés à la désinformation.
Donc ce n’est pas seulement “volontaire”.
C’est aussi lié à des obligations et à la surveillance.
En parallèle, le rapport montre que l’audiovisuel (TV et radio) augmente ses actions d’éducation aux médias.
+35 % d’actions, et +75 % d’actions de terrain.
Mais il y a un autre problème : il y a encore **peu de programmes dédiés** au décryptage sur les antennes et en ligne.
Seulement **12 %** à la télévision/radio, et **27 %** sur leurs supports numériques.
Enfin, l’Arcom joue un rôle de coordination et de stimulation.
Elle sensibilise sur tout le territoire.
Elle touche plus de **13 000 personnes** sur la période citée.
Elle pousse les acteurs à faire plus, et elle collecte leurs bilans.
---
### Pourquoi c’est un problème
Parce que l’éducation aux médias ne marche pas seulement avec des contenus en ligne.
Elle marche quand on peut poser des questions.
Quand on peut être accompagné.
Quand on peut pratiquer, se tromper, recommencer.
Or les plateformes proposent surtout des solutions “à distance”.
Des vidéos.
Des pages d’aide.
Des modules.
C’est utile.
Mais ça ne remplace pas un adulte formé, un atelier, un échange.
Autre problème : les plateformes restent juges et parties.
Elles hébergent les contenus trompeurs.
Elles organisent aussi la visibilité des contenus.
Et en même temps, elles expliquent comment s’en protéger.
Il y a un conflit d’intérêt possible.
Il y a aussi un problème de contrôle.
Une campagne peut être très visible un mois, puis disparaître.
Un outil peut changer sans prévenir.
Les règles de modération peuvent évoluer.
Et le public ne sait pas toujours pourquoi.
Enfin, les partenariats ont une limite.
Même avec un média sérieux, la plateforme garde la main sur la diffusion.
Le rapport donne un exemple clair : TikTok a choisi de ne pas publier certains sujets jugés sensibles.
Donc l’éducation dépend aussi des choix de la plateforme.
---
### Ce que cela révèle des limites actuelles de l’action publique
Cela montre que l’État s’appuie beaucoup sur les plateformes pour toucher le public.
Parce que c’est là que les gens sont, surtout les jeunes.
Mais cela veut dire que l’action publique dépend d’acteurs privés.
Cela montre aussi que l’action publique est plus forte sur le cadre général que sur le terrain.
On a des règles européennes.
On a des obligations.
On a de la supervision.
Mais on a moins de moyens pour organiser partout des actions concrètes, régulières, proches des gens.
Autre limite : l’éducation aux médias n’est pas encore assez présente dans les programmes “grand public”.
Le rapport le dit pour la TV et la radio : il manque des émissions dédiées, visibles, régulières.
Donc on compte sur des formats dispersés, des initiatives, des projets.
Pas sur une offre massive et continue.
Enfin, l’action publique mesure et encourage.
Mais elle ne peut pas tout imposer dans le détail.
Elle peut demander des rapports.
Elle peut recommander.
Elle peut sanctionner dans certains cas.
Mais elle ne peut pas transformer une plateforme en service public d’éducation.
---
### Les conséquences concrètes pour la société
D’abord, une société plus vulnérable aux manipulations.
Si l’esprit critique progresse trop lentement, les fausses infos circulent plus vite que les corrections.
Et elles laissent des traces.
Ensuite, des inégalités qui se creusent.
Les familles déjà à l’aise avec le numérique utilisent mieux les outils pédagogiques.
Les autres restent seules face aux arnaques, aux rumeurs, aux contenus toxiques.
Sans actions de terrain, on aide moins ceux qui en ont le plus besoin.
Troisième conséquence : une confiance abîmée.
Quand on ne sait plus distinguer une info fiable d’une intox, on doute de tout.
Des médias.
Des institutions.
Des scientifiques.
Et ce doute peut devenir un réflexe.
Quatrième conséquence : des tensions dans la vie quotidienne.
Dans les familles, à l’école, au travail.
Des disputes sur “ce qui est vrai”.
Des décisions prises sur de mauvaises bases.
Par exemple en santé, en politique, en sécurité.
Enfin, un risque démocratique.
Si une partie de la population se forme surtout via des contenus choisis par des algorithmes, l’espace public se fragmente.
Chacun voit “son” monde.
Et il devient plus difficile de débattre sur des faits communs.
Le rapport pousse donc une idée simple.
Les plateformes peuvent aider.
Mais elles ne peuvent pas être le cœur de la solution.
Sans programmes visibles dans les médias, et sans actions de terrain plus fortes, l’éducation aux médias reste incomplète.
Pages sources : 2, 4, 7, 8, 17, 18, 19
Éducation au numérique : inclure parents et seniors et mesurer ce qui fonctionne
Le problème : L’éducation aux médias et au numérique progresse, mais reste trop centrée sur l’école et ne touche pas assez les parents et les seniors. En plus, l’efficacité réelle des actions est encore mal évaluée, ce qui empêche de savoir ce qui change vraiment les comportements (vérifier, signaler, protéger ses comptes, etc.).
Pourquoi c’est important : Les usages numériques se transmettent dans les familles et les cercles proches. Si seuls les jeunes sont formés, ils retrouvent souvent des adultes peu outillés, ce qui laisse circuler désinformation, haine en ligne et risques pour les mineurs. Les seniors, parfois moins familiers des codes et des arnaques, peuvent être particulièrement ciblés. Sans action plus inclusive et mieux évaluée, la vulnérabilité collective augmente et le débat démocratique se fragilise.
Ce qui bloque :
Conséquences concrètes :
### Ce que le rapport constate
Le rapport part d’un fait simple.
Le numérique est partout.
Presque tout le monde est connecté.
Et presque tout le monde a un smartphone.
Dans ce contexte, les risques augmentent.
La désinformation circule vite.
La haine en ligne circule vite.
Les mineurs voient encore des contenus qui ne sont pas adaptés.
Face à ça, il y a plus d’actions d’éducation aux médias et au numérique.
Les chaînes de télé et de radio en font davantage.
Les actions ont augmenté fortement.
Surtout les actions “sur le terrain”.
Ateliers, rencontres, interventions, événements locaux.
Le rapport note aussi un changement important.
Les publics visés se diversifient.
Avant, on ciblait surtout les jeunes.
Maintenant, on touche aussi des étudiants et le “tout public”.
Et on voit apparaître des actions pour des publics spécifiques.
Par exemple des seniors.
Ou des personnes détenues.
Mais le rapport dit aussi autre chose.
Cette diversification reste incomplète.
Il recommande d’aller plus loin.
En particulier vers deux publics.
Les parents.
Et les seniors.
Pourquoi eux.
Parce qu’ils comptent beaucoup dans la vie des jeunes.
Et parce qu’eux aussi peuvent être exposés à la désinformation.
Le rapport montre enfin un autre point.
Il y a beaucoup d’initiatives.
Mais on mesure encore mal ce qui marche vraiment.
Il demande donc d’évaluer l’efficacité des actions.
Avec des outils simples et utilisables.
---
### Pourquoi c’est un problème
Parce que l’information ne se “consomme” pas seul.
Dans une famille, les usages se transmettent.
Les réflexes aussi.
Les erreurs aussi.
Si on forme seulement les élèves, on laisse un trou dans la raquette.
Le jeune rentre chez lui.
Et il retrouve des adultes qui ne sont pas toujours outillés.
Pour vérifier une info.
Pour repérer une manipulation.
Pour réagir face au harcèlement.
Pour régler la confidentialité d’un téléphone.
Pour comprendre ce que fait une plateforme.
Or les parents ont un rôle direct.
Ils autorisent.
Ils interdisent.
Ils accompagnent.
Ils rassurent.
Ils conseillent.
Ils donnent l’exemple.
Si les parents sont perdus, l’accompagnement devient incohérent.
Un jour on dit “attention aux fausses infos”.
Le lendemain on partage une rumeur sur un groupe de parents.
Sans vérifier.
Pour les seniors, le problème est différent mais réel.
Beaucoup arrivent sur les réseaux sociaux plus tard.
Ils ont parfois moins de repères sur les codes.
Sur les arnaques.
Sur les images truquées.
Sur les faux comptes.
Sur les contenus générés par intelligence artificielle.
Et ils peuvent être très ciblés.
Par des arnaques.
Par des discours de peur.
Par des contenus politiques trompeurs.
Par des chaînes de messages “à transférer”.
Donc si on ne les inclut pas, on laisse une partie de la population plus vulnérable.
Et on laisse la désinformation circuler dans des cercles familiaux.
Ou locaux.
Ou associatifs.
---
### Ce que cela révèle des limites actuelles de l’action publique
Le rapport montre une action publique qui progresse.
Mais qui reste trop centrée sur l’école.
Et sur des actions ponctuelles.
On fait plus d’ateliers.
C’est utile.
Mais ce n’est pas encore une couverture “pour tous”.
Ni une habitude durable.
Autre limite.
Il y a beaucoup d’acteurs.
L’école.
Les médias.
Les associations.
Les bibliothèques.
Les plateformes.
Les institutions.
Mais tout le monde n’agit pas de la même façon.
Et pas au même endroit.
Résultat possible.
Des territoires très couverts.
Et d’autres presque pas.
Autre limite.
Les plateformes font des campagnes et des outils en ligne.
Mais elles font peu d’actions de terrain.
Or le terrain est souvent ce qui aide le plus.
Parce qu’on peut poser des questions.
Parce qu’on peut partir de cas concrets.
Parce qu’on peut aider des personnes qui ne vont pas chercher l’info toutes seules.
Dernière limite mise en avant.
On compte les actions.
Mais on ne sait pas assez ce qu’elles changent.
Est-ce que les gens vérifient plus.
Est-ce qu’ils partagent moins de rumeurs.
Est-ce qu’ils savent signaler un contenu haineux.
Est-ce qu’ils protègent mieux leurs comptes.
Sans mesure, on risque de faire “beaucoup”.
Sans faire “mieux”.
---
### Les conséquences concrètes pour la société
Si on ne touche pas tous les publics, plusieurs effets apparaissent.
**1) La désinformation devient un problème familial, pas seulement individuel.**
Une fausse info partagée par un adulte peut influencer un jeune.
Et l’inverse aussi.
Cela crée des tensions.
Des disputes.
De la méfiance.
**2) La haine en ligne se banalise.**
Si les témoins ne savent pas quoi faire, ils se taisent.
Si les victimes ne savent pas où chercher de l’aide, elles s’isolent.
Et les agresseurs gagnent du terrain.
**3) Les mineurs restent exposés malgré les dispositifs.**
Le rapport rappelle que les protections actuelles ne suffisent pas.
Donc sans adultes mieux formés, les jeunes restent seuls face aux risques.
Alors même qu’une partie d’entre eux demande à être mieux accompagnée.
**4) Les arnaques et manipulations touchent davantage les personnes fragiles.**
Les seniors peuvent perdre de l’argent.
Ou donner des informations personnelles.
Ou relayer des contenus trompeurs sans le vouloir.
**5) Le débat démocratique se dégrade.**
Quand beaucoup de gens ne partagent plus les mêmes faits de base, discuter devient difficile.
On ne débat plus sur des idées.
On se bat sur “ce qui est vrai”.
Et la confiance dans les médias et les institutions baisse.
**6) Les inégalités se creusent.**
Ceux qui ont déjà des outils critiques s’en sortent mieux.
Ceux qui n’ont pas accès à des ateliers, ou pas d’accompagnement, restent plus exposés.
Cela crée une société à deux vitesses face au numérique.
Toucher les jeunes est nécessaire.
Mais ce n’est pas suffisant.
Le rapport pousse une idée simple.
Pour protéger et rendre autonomes les citoyens, il faut inclure aussi les parents et les seniors.
Et vérifier, preuves à l’appui, ce qui fonctionne vraiment.
Pages sources : 3, 4, 5, 6, 9, 10, 12, 13, 14, 15, 17, 19, 20, 21, 22
Beaucoup de ressources d’éducation au numérique, mais une action encore trop dispersée et inégale
Le problème : Malgré l’existence de nombreuses ressources pédagogiques sur les risques numériques (haine, cyberharcèlement, données personnelles, désinformation, IA), elles ne protègent pas et n’outillent pas toute la population de façon homogène : elles arrivent parfois trop lentement, sont dispersées entre acteurs, inégalement accessibles selon les territoires et les établissements, et leur efficacité est insuffisamment mesurée, tandis que les mineurs restent exposés malgré les dispositifs actuels.
Pourquoi c’est important : Les usages numériques augmentent fortement, surtout chez les jeunes, et les risques évoluent vite. Sans action coordonnée, à l’échelle, et évaluée, les inégalités d’accès aux bons réflexes se creusent, la protection des mineurs reste insuffisante, et la société subit davantage de désinformation, de violences en ligne et d’atteintes à la vie privée, avec des effets sur la démocratie et la confiance dans l’action publique.
Ce qui bloque :
Conséquences concrètes :
## Ce que le rapport constate
Le rapport montre une chose simple.
Beaucoup de ressources pédagogiques existent déjà.
Elles sont souvent créées à plusieurs.
Ces partenaires sont très variés.
Des ministères.
La CNIL.
Des associations.
Des médias.
Des bibliothèques.
Des villes et des acteurs locaux.
Et aussi des plateformes du numérique.
Les formats sont nombreux.
Des jeux.
Des bandes dessinées.
Des dépliants.
Des vidéos.
Des programmes pour l’école.
Des conférences en présentiel et en ligne.
Les thèmes couverts sont très concrets.
La haine en ligne.
Le cyberharcèlement.
La protection des données personnelles.
Les usages des écrans.
La recherche d’information.
La désinformation.
Et l’impact de l’intelligence artificielle sur l’information.
Le rapport donne des exemples précis.
Un dépliant “Haine en ligne” pour aider une victime ou un témoin, fait avec le ministère de l’Intérieur et d’autres institutions.
Un jeu “L’Odyssée du numérique” pour apprendre les bons réflexes, fait avec l’Éducation nationale, l’Arcom, la CNIL et d’autres partenaires.
Une BD créée par la Ville de Marseille avec l’Arcom et la CNIL pour des élèves de primaire.
Des contenus médias pensés pour les jeunes, sur des réseaux où ils sont présents.
Une campagne TikTok avec l’AFP pour apprendre à repérer les manipulations.
Le rapport insiste aussi sur le contexte.
Les jeunes consomment beaucoup plus de contenus numériques qu’avant.
Les risques évoluent vite.
Désinformation, haine, contenus inadaptés.
Et les protections actuelles ne suffisent pas toujours, surtout pour les mineurs.
Enfin, le rapport dit qu’il faut aller plus loin.
Former davantage les enseignants et les professionnels.
Faire plus d’actions “près des gens”.
Toucher aussi les parents et les seniors.
Et mesurer si les actions marchent vraiment.
## Pourquoi c’est un problème
Avoir beaucoup de ressources n’est pas la même chose que protéger et outiller toute la population.
Le rapport laisse voir un décalage.
Premier décalage.
Les pratiques numériques changent très vite.
Les supports éducatifs, eux, mettent du temps à être produits, diffusés, adoptés.
Pendant ce temps, les risques continuent.
Deuxième décalage.
Les ressources sont dispersées.
Elles viennent de nombreux acteurs.
Elles sont parfois locales.
Elles ne touchent pas forcément les mêmes publics.
Donc l’accès dépend du lieu, de l’établissement, ou de la motivation d’un adulte.
Troisième décalage.
On produit des contenus, mais on ne sait pas toujours ce qui fonctionne.
Le rapport appelle à évaluer l’efficacité.
Cela veut dire qu’aujourd’hui, on manque de mesures claires.
On peut faire beaucoup d’actions sans savoir si elles changent vraiment les comportements.
Quatrième décalage.
Les mineurs restent exposés malgré les dispositifs existants.
Le rapport le dit explicitement.
Donc l’éducation seule ne compense pas des protections techniques et des règles encore insuffisantes.
Cinquième décalage.
Les partenariats avec des plateformes peuvent aider à toucher les jeunes.
Mais ils posent une limite.
Le rapport cite un cas où TikTok n’a pas publié certains sujets jugés sensibles.
Même si l’AFP garde ses règles, la diffusion dépend quand même de la plateforme.
Donc l’accès à l’information éducative peut être filtré.
## Ce que cela révèle des limites actuelles de l’action publique
Le rapport montre une action publique qui avance, mais qui n’est pas encore “à l’échelle”.
L’État et les autorités publiques ne peuvent pas tout faire seuls.
Ils s’appuient sur des partenaires pour produire vite et parler aux bons publics.
C’est utile.
Mais cela révèle aussi une dépendance.
Dépendance aux médias et aux plateformes pour atteindre les jeunes.
Si les jeunes sont sur TikTok, on va sur TikTok.
Mais les règles de visibilité ne sont pas décidées par l’école ou par l’État.
Elles sont décidées par la plateforme.
Dépendance aux acteurs locaux pour faire du “proche”.
Une ville, une association, une bibliothèque peuvent faire un excellent travail.
Mais ce n’est pas garanti partout.
Donc l’égalité entre citoyens n’est pas assurée.
Limite de capacité dans l’école.
Le rapport recommande de former les enseignants.
Cela signifie que la formation n’est pas encore suffisante.
Or sans enseignants formés, les ressources restent des fichiers ou des liens.
Elles ne deviennent pas des apprentissages.
Limite de pilotage par les résultats.
Le rapport demande de mesurer l’efficacité.
Cela montre qu’on est encore trop dans la logique “on a fait une action”.
Et pas assez dans la logique “on a réduit un risque” ou “on a amélioré une compétence”.
Enfin, limite face à la vitesse du numérique.
Les menaces changent vite.
L’IA change la manière de produire et de diffuser l’information.
L’action publique a du mal à suivre au même rythme.
## Les conséquences concrètes pour la société
Ces limites ont des effets visibles.
Sur les jeunes.
Ils peuvent apprendre des bons réflexes.
Mais de façon inégale.
Certains auront des ateliers, des jeux, des profs formés.
D’autres non.
Donc les écarts se creusent entre ceux qui savent vérifier, se protéger, signaler.
Et ceux qui subissent.
Sur la haine en ligne et le harcèlement.
Des outils existent pour aider les victimes et les témoins.
Mais si ces outils ne sont pas connus, ils servent peu.
Résultat possible : des victimes isolées.
Des témoins qui ne savent pas quoi faire.
Et une banalisation de la violence en ligne.
Sur la désinformation.
Si l’esprit critique n’est pas travaillé partout, les rumeurs circulent plus vite.
Les manipulations trouvent plus facilement un public.
Cela abîme le débat public.
Et cela peut augmenter la méfiance envers les médias et les institutions.
Sur la vie privée.
Sans apprentissage clair, beaucoup partagent trop d’informations.
Ou acceptent des réglages par défaut.
Cela augmente les risques d’arnaques, d’usurpation, de pression sociale.
Et cela rend les citoyens plus “traçables”.
Sur la démocratie.
Quand l’information est moins bien comprise, les discussions deviennent plus agressives.
Les opinions se polarisent.
Les jeunes peuvent se détourner du débat, ou au contraire s’y engager avec des repères fragiles.
Sur la cohésion sociale.
Si l’éducation numérique dépend du territoire et du réseau local, on crée une “France à plusieurs vitesses”.
Ceux qui ont accès aux bons programmes gagnent en autonomie.
Les autres restent plus vulnérables.
Enfin, sur la confiance dans l’action publique.
Quand on voit beaucoup de campagnes et de ressources, mais que les problèmes persistent, les citoyens peuvent conclure que “ça ne marche pas”.
D’où l’importance, soulignée par le rapport, de mesurer l’efficacité et d’agir de façon plus coordonnée.
Pages sources : 1, 3, 5, 15, 18, 19, 20, 21
Éducation au numérique : agir ne suffit pas, il faut mesurer ce qui fonctionne
Le problème : De nombreuses actions existent pour aider face aux risques en ligne (désinformation, haine, contenus inadaptés), mais leur efficacité est rarement évaluée. On compte des ateliers ou des ressources diffusées, sans mesurer les effets réels sur les comportements, l’autonomie et la protection des publics.
Pourquoi c’est important : Sans évaluation, on avance à l’aveugle : on peut répéter des actions peu utiles, viser les mauvais publics ou négliger certains sujets clés. Mesurer permet de mieux cibler les besoins, de coordonner les acteurs et de rendre l’action publique plus durable, plus juste et plus efficace.
Ce qui bloque :
Conséquences concrètes :
### Ce que le rapport constate
Le rapport part d’un fait simple.
Le numérique est partout dans la vie quotidienne.
Presque tout le monde est connecté.
Presque tout le monde a un smartphone.
Dans ce contexte, les risques augmentent.
Désinformation.
Haine en ligne.
Contenus inadaptés pour les mineurs.
Le rapport constate aussi une demande claire.
Beaucoup de mineurs disent vouloir être mieux accompagnés face aux risques en ligne.
Cela montre qu’ils se sentent exposés.
Et qu’ils ne se sentent pas toujours outillés.
Face à cela, beaucoup d’actions existent déjà.
Des médias, des institutions, des associations interviennent.
Ils produisent des ressources.
Ils font des ateliers.
Ils créent des partenariats.
Mais le rapport pointe un point faible.
On ne sait pas assez bien ce qui marche vraiment.
On fait des actions.
On compte parfois le nombre d’ateliers.
Mais on mesure mal les effets réels sur les personnes.
Le rapport insiste donc sur une priorité.
Évaluer l’efficacité des actions.
Et améliorer la cohérence entre elles.
Il propose des outils concrets pour y arriver.
Un kit en ligne.
Un questionnaire pour mieux cibler les besoins avant d’agir.
Des ressources pour évaluer après coup.
L’idée est simple.
Mieux comprendre les besoins.
Mieux choisir les actions.
Et vérifier si elles améliorent vraiment les choses.
---
### Pourquoi c’est un problème
Si on ne mesure pas l’efficacité, on avance à l’aveugle.
On peut faire beaucoup.
Et pourtant rater l’objectif.
On peut répéter des actions qui rassurent les organisateurs.
Mais qui ne changent pas les comportements.
Ou qui ne protègent pas mieux.
On peut aussi se tromper de public.
Par exemple, parler surtout aux élèves.
Alors que les parents et les seniors ont aussi besoin d’outils.
Et qu’ils jouent un rôle important dans la circulation de l’information.
On peut se tromper de sujet.
Le rapport montre que beaucoup d’actions portent sur la désinformation.
C’est utile.
Mais d’autres sujets sont moins traités.
Comme apprendre à distinguer faits et opinions.
Ou savoir vérifier une info.
Ou comprendre comment la haine se diffuse.
Sans mesure, on ne voit pas ces déséquilibres.
On ne corrige pas.
On disperse l’énergie.
Et surtout, on ne peut pas garantir une action durable.
Une action ponctuelle peut faire du bien sur le moment.
Mais ne rien laisser derrière.
Sans suivi, l’effet peut disparaître vite.
---
### Ce que cela révèle des limites actuelles de l’action publique
Cela révèle une limite fréquente.
L’action publique sait lancer des initiatives.
Mais elle a plus de mal à piloter dans la durée.
Il y a beaucoup d’acteurs.
École.
Médias.
Institutions.
Associations.
Collectivités locales.
Chacun fait sa part.
Mais sans cadre commun, cela peut devenir un patchwork.
Des actions utiles, mais pas toujours coordonnées.
Pas toujours comparables.
Pas toujours adaptées aux besoins locaux.
Cela révèle aussi une autre limite.
On confond parfois “faire” et “réussir”.
Faire un atelier, ce n’est pas la même chose que rendre quelqu’un plus autonome.
Distribuer une ressource, ce n’est pas la même chose que changer une pratique.
Enfin, cela montre une difficulté à écouter finement les citoyens.
Pas seulement “les citoyens en général”.
Mais des publics différents, avec des besoins différents.
Un collégien n’a pas les mêmes risques qu’un senior.
Un parent n’a pas les mêmes questions qu’un enseignant.
Sans outil de ciblage, on peut répondre à côté.
---
### Les conséquences concrètes pour la société
Quand on ne mesure pas ce qui fonctionne, plusieurs effets apparaissent.
D’abord, une protection inégale.
Certains territoires ont des actions solides.
D’autres moins.
Certains publics sont touchés.
D’autres restent à l’écart.
Résultat : les écarts se creusent.
Ensuite, une vulnérabilité qui dure.
La désinformation continue de circuler.
La haine en ligne continue de se propager.
Les mineurs restent exposés à des contenus inadaptés.
Et les adultes ne savent pas toujours comment réagir.
Il y a aussi un coût collectif.
Du temps mobilisé.
De l’argent public ou privé.
De l’énergie associative.
Si l’impact n’est pas vérifié, on peut gaspiller des ressources.
Et manquer des solutions plus efficaces.
Enfin, il y a un effet sur la confiance.
Si les citoyens voient des campagnes et des actions, mais que les problèmes restent, ils se découragent.
Ils peuvent penser que “ça ne sert à rien”.
Ou que les institutions ne comprennent pas la réalité.
À l’inverse, le rapport défend une idée simple.
Mesurer, ce n’est pas contrôler pour contrôler.
C’est apprendre.
C’est corriger.
C’est rendre l’action plus juste.
Et plus utile dans la durée.
Pages sources : 3, 5, 6, 11, 22
# Rapport sur l'éducation aux médias, à l'information et à la citoyenneté numérique - 2024-2025 ## Face aux risques en ligne, l’éducation aux médias doit changer d’échelle Le rapport souligne que malgré plus d’actions, il faut mieux former tous les publics, intégrer l’IA et mesurer ce qui fonctionne vraiment. ## Sommaire * Développer l’esprit critique et la citoyenneté numérique * Faire face aux risques en ligne (désinformation, haine, contenus inadaptés) * Le rôle de l’Arcom : protéger, superviser et éduquer * Les engagements des chaînes de télévision et de radio * La montée en puissance des actions de terrain * Des contenus éducatifs encore trop rares à l’antenne et en ligne * Le rôle des plateformes : campagnes, outils pédagogiques et limites * Toucher tous les publics : jeunes, parents, seniors et publics spécifiques * Créer et diffuser des ressources pédagogiques avec des partenaires * Mesurer l’efficacité des actions et améliorer la cohérence * Acronymes * Version Markdown complète ## En clair * Le numérique est devenu central dans la vie des jeunes, donc l’école et l’éducation doivent s’adapter. * Les principaux risques qui montent vite sont la désinformation, la haine en ligne et l’exposition des mineurs à des contenus inadaptés, avec un nouveau défi lié à l’IA. * Il existe déjà beaucoup d’actions et de ressources (médias, Arcom, associations, plateformes), surtout des ateliers et des initiatives de terrain, mais les programmes réguliers de décryptage restent trop rares. * L’action actuelle est déséquilibrée et incomplète : trop centrée sur la désinformation, pas assez sur les bases (faits/opinions, vérification, fonctionnement des médias, IA), et elle touche encore trop peu les parents et les seniors. * On mesure mal ce qui marche vraiment : le rapport demande d’évaluer l’impact des actions et de mieux coordonner les acteurs pour protéger et rendre les citoyens plus autonomes. ## Fiche décideur **Constat :** Le numérique est devenu central dans la vie quotidienne, surtout chez les jeunes. De nombreuses actions d’éducation aux médias existent et augmentent (notamment sur le terrain), portées par l’Arcom, les médias et les plateformes. Mais l’offre reste déséquilibrée (trop centrée sur la désinformation), les programmes réguliers expliquant le fonctionnement des médias restent minoritaires, les plateformes font peu d’actions de proximité, l’IA complique la fabrication des contenus, et malgré les dispositifs, les mineurs restent exposés à des risques en ligne. Enfin, on mesure encore mal l’efficacité réelle des actions. **Problème :** Sans éducation aux médias et au numérique suffisamment large, régulière et évaluée, les citoyens—en particulier les jeunes—restent vulnérables à la désinformation, à la haine en ligne, aux contenus inadaptés et aux manipulations renforcées par l’IA, ce qui fragilise la protection des mineurs, creuse les inégalités et dégrade le débat démocratique. **Blocages :** * Manque d’évaluation partagée : on compte les initiatives mais on mesure peu l’impact réel sur les comportements (vérifier, signaler, se protéger). * Déséquilibre et insuffisance de l’offre : trop d’actions focalisées sur la désinformation, trop peu sur les compétences de base (faits/opinions, fabrication de l’info, IA, haine en ligne) et trop peu de programmes dédiés et visibles à grande échelle. * Couverture inégale et coordination fragile : actions souvent ponctuelles, dépendantes de partenariats et du territoire ; publics insuffisamment ciblés (parents, seniors) ; peu d’actions de terrain côté plateformes. **Leviers :** * Mettre en place des outils communs d’évaluation (avant/après) pour identifier ce qui fonctionne, pour qui, et ajuster les actions dans la durée. * Diversifier et renforcer les contenus et compétences enseignés : fonctionnement des médias, vérification, distinction faits/opinions, ingérences, haine en ligne, et repérage des contenus générés ou modifiés par IA. * Changer d’échelle et mieux coordonner : développer des actions de proximité (ateliers, médiation) partout, impliquer davantage plateformes sur le terrain, et élargir les publics (parents, seniors) avec une coopération plus fluide entre école, médias, plateformes, associations et pouvoirs publics. ## Développer l’esprit critique et la citoyenneté numérique **Renforcer l’éducation aux médias et au numérique face à la désinformation, la haine en ligne et l’IA** **Le problème :** Les jeunes (et plus largement les citoyens) sont exposés à un flux massif de contenus en ligne, parfois trompeurs, émotionnels ou manipulatoires. Les actions d’éducation existent mais restent déséquilibrées (trop centrées sur la désinformation), insuffisamment évaluées, et pas assez déployées sur le terrain, alors que l’IA rend les contenus faux plus crédibles et que la protection des mineurs est jugée insuffisante. **Pourquoi c’est important :** Sans compétences de base (distinguer faits/opinions, vérifier, comprendre pourquoi un contenu est poussé, repérer la haine et les manipulations, identifier des contenus générés par IA), la confiance dans l’information se fragilise, le débat public se dégrade et la démocratie devient plus vulnérable. L’enjeu est aussi éducatif (autonomie des jeunes), social (cohésion) et d’égalité (ceux qui sont accompagnés s’en sortent mieux). **Ce qui bloque :** * Impact mal mesuré : on compte les initiatives mais on évalue peu ce qui change réellement les comportements et les compétences * Déséquilibre des thèmes et des publics : focalisation sur la désinformation, peu d’éducation au numérique au sens large, et publics comme parents et seniors insuffisamment ciblés * Actions de terrain et coordination insuffisantes : beaucoup d’actions restent en ligne (notamment côté plateformes), et la collaboration entre école, médias, plateformes et pouvoirs publics manque de fluidité **Conséquences concrètes :** * Manipulation facilitée et perte de confiance : rumeurs, polarisation, confusion entre vrai et faux, dégradation du débat public * Atteintes à la démocratie : absence de base commune de faits, décisions et votes influencés par des contenus trompeurs ou des campagnes ciblées * Risques accrus pour les jeunes et les familles : exposition à des contenus nocifs, harcèlement, imitation de comportements dangereux, tensions familiales et pression supplémentaire sur l’école faute de ressources et de formation 🔎 Analyse détaillée (expert) ## Ce que le rapport constate Les jeunes passent beaucoup plus de temps sur des contenus numériques. Le numérique est devenu une partie normale de la vie quotidienne. Donc l’école et l’éducation doivent s’adapter à cette réalité. Le rapport dit qu’il faut renforcer l’éducation aux médias et à l’information. Pour une raison simple. Aider les jeunes à comprendre ce qu’ils voient. Et à garder une distance critique. Le rapport constate aussi que beaucoup d’actions existent déjà. Les chaînes de télévision et de radio en font davantage. Il y a une hausse importante des initiatives déclarées. Ces actions se font à l’antenne, en ligne, et sur le terrain. Mais le rapport pointe un déséquilibre. On parle surtout de désinformation. Et un peu de découverte du journalisme. Et très peu d’éducation au numérique au sens large. Il constate aussi que les programmes vraiment dédiés à “comment fonctionnent les médias” restent minoritaires. Sur les antennes, c’est une petite part. Sur le numérique, c’est plus, mais encore insuffisant. Le rapport note que des initiatives concrètes marchent. Des ateliers dans des écoles. Des projets itinérants comme un “camion de l’info”. Des concours de podcasts. Des débats avec jeunes et parents. Des actions pour des publics éloignés, comme des détenus ou des enfants hospitalisés. Il constate enfin que les plateformes en ligne font des actions éducatives. Souvent via des campagnes et des outils intégrés. Souvent avec des partenaires. Mais elles font peu d’actions de terrain. Et il ajoute un point important. L’intelligence artificielle change la fabrication des contenus. Donc il faut apprendre à repérer aussi les contenus créés ou modifiés par IA. Le rapport rappelle aussi le cadre public. Les médias ont des obligations d’éducation aux médias. Les plateformes ont des obligations de réduction des risques liés à la désinformation. Et l’Arcom suit, encourage, et analyse ce qui est fait. Il y a aussi un constat plus inquiétant. Même avec des dispositifs de protection, les adolescents restent exposés à des risques en ligne. Et les protections actuelles sont jugées insuffisantes. \--- ## Pourquoi c’est un problème Parce que l’information en ligne est massive. Elle arrive vite. Elle est souvent émotionnelle. Elle est parfois trompeuse. Un jeune peut confondre une opinion et un fait. Il peut croire une vidéo sortie de son contexte. Il peut partager sans vérifier. Il peut se faire manipuler sans s’en rendre compte. Le problème n’est pas seulement “les fake news”. C’est aussi la difficulté à comprendre les règles du jeu. Qui parle. Pourquoi ce contenu est poussé. Ce qui est fiable. Ce qui est fait pour choquer ou faire cliquer. Il y a aussi la haine en ligne. Les insultes. Le harcèlement. Les contenus qui encouragent la violence ou la discrimination. Sans éducation, on banalise. Ou on participe sans mesurer l’impact. Il y a aussi la question de l’IA. Quand on peut fabriquer une image ou une voix crédible, le doute devient permanent. Sans méthode, on ne sait plus à quoi se fier. Enfin, il y a la protection des mineurs. Le rapport dit clairement que les risques persistent. Donc les familles et les jeunes ne sont pas assez armés. Et les outils de protection ne suffisent pas. \--- ## Ce que cela révèle des limites actuelles de l’action publique L’action publique s’appuie beaucoup sur des obligations et des incitations. On demande aux médias et aux plateformes de faire des actions. On valorise les bonnes pratiques. On collecte des bilans. Mais le rapport montre plusieurs limites. Première limite. On fait beaucoup d’actions. Mais on ne sait pas assez ce qui marche vraiment. Le rapport demande un dispositif pour mesurer l’impact. Cela veut dire qu’aujourd’hui, on compte des initiatives. Mais on mesure mal les résultats sur les comportements. Deuxième limite. Les thèmes sont trop concentrés. On parle beaucoup de désinformation. Mais pas assez des compétences de base. Distinguer faits et opinions. Savoir vérifier. Comprendre les ingérences étrangères. Comprendre les contenus générés par IA. Prévenir la haine en ligne. Le rapport demande de diversifier. Troisième limite. Les actions ne touchent pas tout le monde. Les jeunes sont ciblés. Mais les parents et les seniors le sont moins. Or les parents accompagnent les usages. Et les seniors peuvent être très exposés à la désinformation. Le rapport demande d’élargir les publics. Quatrième limite. Le terrain est insuffisant, surtout côté plateformes. Beaucoup d’actions restent en ligne. Or certains publics ont besoin de contact direct. D’ateliers. De médiation. Le rapport insiste sur des actions de proximité. Cinquième limite. La protection des mineurs reste insuffisante malgré les dispositifs. Cela révèle un décalage. Entre la vitesse des usages. Et la vitesse des réponses publiques et techniques. Enfin, il y a une limite de coordination. Le rapport appelle à renforcer la collaboration entre éducation nationale, médias, plateformes et pouvoirs publics. S’il faut le rappeler, c’est que ce n’est pas encore assez fluide. Chacun agit, mais pas toujours ensemble. \--- ## Les conséquences concrètes pour la société Si on ne renforce pas l’esprit critique, la manipulation devient plus facile. Des rumeurs peuvent orienter des opinions. Des campagnes peuvent polariser la société. Et la confiance dans l’information peut s’effondrer. Quand les gens ne distinguent plus le vrai du faux, deux choses arrivent. Soit ils croient n’importe quoi. Soit ils ne croient plus rien. Dans les deux cas, le débat public se dégrade. La démocratie est directement touchée. Parce que voter, débattre, décider, suppose une base commune de faits. Sans cette base, on se dispute sur des réalités différentes. La haine en ligne a aussi des effets hors ligne. Elle abîme les relations. Elle cible des personnes et des groupes. Elle peut décourager de participer au débat. Elle peut pousser au repli. Pour les jeunes, les conséquences sont très concrètes. Plus de risques d’exposition à des contenus nocifs. Plus de risques de harcèlement. Plus de risques de comportements dangereux par imitation. Et plus de difficultés à construire une autonomie face aux écrans. Pour les familles, cela crée des tensions. Les parents se sentent dépassés. Ils manquent d’outils simples. Ils ne savent pas toujours comment parler des contenus vus en ligne. Pour l’école, cela crée une pression supplémentaire. Il faut former les enseignants. Il faut des ressources. Il faut du temps. Sinon, on laisse les élèves apprendre seuls, au hasard des réseaux. Pour les médias et les plateformes, cela pose une question de responsabilité. Le rapport pousse à plus d’engagement éducatif. Parce que leurs services structurent l’accès à l’information. Et avec l’IA, le risque augmente. Des contenus faux peuvent sembler vrais. Des manipulations peuvent être plus rapides et plus ciblées. Donc sans apprentissage, la société devient plus vulnérable. Enfin, il y a un enjeu d’égalité. Ceux qui ont des repères et des accompagnements s’en sortent mieux. Les autres subissent. Donc l’absence d’éducation solide creuse les écarts. \--- Pages sources : 1, 7, 8, 9, 11, 12, 13, 15, 16, 17, 18, 19, 21, 22 ## Faire face aux risques en ligne (désinformation, haine, contenus inadaptés) **Désinformation, haine en ligne et protection des mineurs : agir vite, sur le terrain, et mesurer ce qui marche** **Le problème :** Le numérique est devenu central et les risques en ligne (désinformation, haine, contenus inadaptés pour les mineurs) évoluent plus vite que les réponses collectives. Malgré des actions existantes, l’accompagnement concret des publics et l’évaluation de l’efficacité restent insuffisants, et certains publics (parents, seniors) sont moins ciblés. **Pourquoi c’est important :** Ces risques se diffusent très rapidement, peuvent tromper, blesser et intimider, et exposent particulièrement les mineurs. L’intelligence artificielle rend les contenus faux plus crédibles, ce qui complique la vérification et augmente le risque de manipulation à grande échelle. **Ce qui bloque :** * Les usages et les formats numériques changent plus vite que l’action publique et la régulation * La protection ne peut pas reposer seulement sur des règles : les mineurs restent exposés malgré les dispositifs existants * Manque d’actions de proximité et d’outils communs pour évaluer l’impact réel des initiatives (ce qui fonctionne, pour qui, et dans quelles conditions) **Conséquences concrètes :** * Baisse de confiance et société plus divisée : méfiance envers médias, institutions et entre citoyens, débat public plus agressif * Autocensure et retrait de la vie publique : la haine en ligne pousse des personnes à se taire ou à quitter les réseaux * Vulnérabilité accrue face aux manipulations : partage involontaire de contenus truqués ou générés par IA, et pression supplémentaire sur les services publics et la justice (signalements, accompagnement des victimes, prévention) 🔎 Analyse détaillée (expert) ## Ce que le rapport constate Le numérique a pris une place centrale dans la vie quotidienne. Presque tout le monde est connecté. Presque tout le monde a un smartphone. Dans ce contexte, trois risques ressortent. La désinformation. La haine en ligne. Et l’exposition des mineurs à des contenus inadaptés. Le rapport dit que ces risques évoluent vite. Parce que les usages changent vite. Parce que les contenus circulent vite. Et parce que de nouveaux outils apparaissent, comme l’intelligence artificielle. Le rapport constate aussi un besoin clair d’accompagnement. Plus d’un mineur sur deux dit vouloir être mieux aidé face aux risques en ligne. Cela montre que beaucoup se sentent seuls face à ce qu’ils voient et subissent. Le rapport observe que des actions existent déjà. L’Arcom régule et fait de l’éducation aux médias. Des chaînes de télévision et de radio font des ateliers, des émissions, des ressources. Des plateformes font des campagnes et proposent des outils pédagogiques. Des partenariats se multiplient avec l’école, des associations, des institutions. Mais le rapport pointe des manques. Il y a plus de contenus “éducatifs” qu’avant. Pourtant, il y a encore trop peu de programmes qui expliquent vraiment comment l’information se fabrique et se manipule. Sur les antennes, la part dédiée à ces sujets est jugée trop faible. Sur le numérique, c’est mieux, mais encore insuffisant. Le rapport note aussi un déséquilibre. Beaucoup d’actions visent les jeunes. C’est utile. Mais les parents et les seniors sont moins ciblés, alors qu’ils sont très concernés. Enfin, le rapport insiste sur un point simple. On fait beaucoup de choses. Mais on mesure mal ce qui marche vraiment. Il manque des outils communs pour évaluer l’impact des actions. \--- ## Pourquoi c’est un problème Parce que la désinformation trompe. Elle peut faire croire à de faux dangers. Ou minimiser de vrais risques. Elle peut pousser à la méfiance générale. Et à la confusion: “on ne sait plus qui croire”. Parce que la haine en ligne blesse et intimide. Elle vise des personnes. Elle vise aussi des groupes. Elle peut faire taire des gens. Elle peut isoler des victimes. Et elle peut normaliser la violence verbale. Parce que les contenus inadaptés peuvent marquer les mineurs. Ils peuvent choquer. Ils peuvent influencer des comportements. Ils peuvent banaliser la violence, l’humiliation, ou des pratiques dangereuses. Parce que tout cela se diffuse à grande vitesse. Un contenu faux ou haineux peut toucher des milliers de personnes en quelques minutes. Et il peut rester accessible longtemps. Parce que l’intelligence artificielle complique la situation. Elle peut aider à créer des images, des vidéos, des textes très crédibles. Même quand c’est faux. Donc le “ça a l’air vrai” ne suffit plus. \--- ## Ce que cela révèle des limites actuelles de l’action publique Première limite : l’action publique court après les usages. Les pratiques numériques changent plus vite que les réponses collectives. Les risques se déplacent d’une plateforme à l’autre. Les formats changent. Les codes changent. Deuxième limite : la protection ne peut pas reposer seulement sur des règles. Oui, il y a des obligations pour les plateformes et des lois. Oui, il y a une régulation. Mais dans la vie réelle, les gens tombent quand même sur des contenus toxiques. Et les adolescents restent exposés malgré les dispositifs existants. Le rapport le dit clairement : la protection des mineurs reste insuffisante. Troisième limite : trop d’actions restent “en ligne” et pas assez “sur le terrain”. Les plateformes proposent des ressources. Mais elles font peu d’actions de proximité. Or beaucoup de personnes ont besoin d’un accompagnement concret. Avec quelqu’un qui explique. Qui répond aux questions. Qui aide à réagir. Quatrième limite : on ne sait pas assez ce qui est efficace. On additionne des initiatives. On valorise des projets. Mais on manque d’une mesure simple et partagée. Est-ce que les gens apprennent vraiment à vérifier une info ? Est-ce qu’ils savent quoi faire face au harcèlement ? Est-ce que les parents se sentent plus capables d’accompagner ? Le rapport demande de construire des outils d’évaluation. Cinquième limite : l’effort n’est pas encore assez “pour tous”. Les jeunes sont une priorité. Mais les parents comptent dans la protection des mineurs. Et les seniors peuvent être très exposés à la désinformation. Si on laisse ces publics de côté, on laisse des angles morts. \--- ## Les conséquences concrètes pour la société ### 1) Une société plus méfiante et plus divisée Quand le faux circule beaucoup, la confiance baisse. Confiance dans les médias. Confiance dans les institutions. Confiance entre citoyens. Chacun peut finir dans “sa version” des faits. Et le débat devient plus agressif. ### 2) Des personnes qui se taisent par peur La haine en ligne n’est pas “juste des mots”. Elle peut pousser des gens à quitter les réseaux. À ne plus s’exprimer. À renoncer à participer à la vie publique. Cela appauvrit la discussion collective. ### 3) Des jeunes plus exposés, et des adultes démunis Si les mineurs disent qu’ils veulent être mieux accompagnés, ce n’est pas théorique. Cela veut dire qu’ils rencontrent des situations difficiles. Et que l’encadrement actuel ne suffit pas. Les parents peuvent ne pas savoir quoi faire. Les enseignants peuvent manquer de temps ou d’outils. Les victimes et témoins peuvent ne pas connaître les bons réflexes. ### 4) Une propagation plus facile des manipulations Si les citoyens ne savent pas distinguer un fait d’une opinion, la manipulation devient simple. Si on ne sait pas repérer une image truquée, on peut partager sans le vouloir. Si on ne sait pas identifier des contenus créés par IA, on peut se faire piéger. Résultat : la manipulation devient un risque “de masse”. ### 5) Une pression accrue sur les services publics et la justice Plus de haine en ligne, c’est plus de signalements. Plus de victimes à accompagner. Plus de conflits. Plus de besoins de prévention. Et donc plus de charge pour les institutions. \--- Le message de fond du rapport est concret. Protéger ne suffit pas. Il faut aussi rendre les gens capables de se protéger. Et capables de réagir quand ils sont victimes ou témoins. Pour y arriver, il faut des actions proches du terrain. Pour tous les publics. Et il faut vérifier ce qui marche vraiment, pas seulement ce qui existe. Pages sources : 3, 5, 6, 7, 8, 11, 12, 13, 16, 17, 18, 20, 21, 22 ## Le rôle de l’Arcom : protéger, superviser et éduquer **Numérique généralisé : risques en hausse et besoin de protection, de supervision et d’éducation efficaces** **Le problème :** Les usages numériques progressent plus vite que les protections : désinformation, haine en ligne et exposition des mineurs à des contenus inadaptés se diffusent facilement, tandis que l’éducation aux médias et au numérique reste trop marginale dans les programmes et que l’action des plateformes manque de transparence et de contrôle. **Pourquoi c’est important :** Le problème touche directement la démocratie (confiance et débat public), la cohésion sociale (normalisation de la haine), la santé et la sécurité des mineurs, et peut creuser les inégalités. Sans mesure de l’efficacité des actions, on risque de multiplier des initiatives visibles mais peu utiles, ce qui fragilise aussi la confiance dans les institutions. **Ce qui bloque :** * Protections insuffisantes pour les mineurs malgré l’existence de règles et de dispositifs * Action publique en réseau fragile (priorités divergentes, manque de temps et de moyens, dépendance aux financements) * Manque de preuves et de transparence : efficacité mal mesurée et données largement contrôlées par des plateformes puissantes et transnationales **Conséquences concrètes :** * Affaiblissement de l’information et de la démocratie : perte de confiance, polarisation, débats publics perturbés par la désinformation * Dégradation de la cohésion sociale : banalisation de l’agression, ciblage de groupes, autocensure et radicalisation * Atteintes aux mineurs et creusement des inégalités : anxiété, harcèlement, sexualisation précoce, addiction à l’attention, avec une exposition plus forte pour les publics moins accompagnés 🔎 Analyse détaillée (expert) ## Ce que le rapport constate Le numérique est devenu la norme. Presque tout le monde est connecté. Presque tout le monde a un smartphone. Dans ce contexte, les risques augmentent vite. La désinformation circule plus facilement. La haine en ligne se diffuse plus facilement. Les mineurs voient plus souvent des contenus qui ne sont pas faits pour eux. Le rapport place l’Arcom au centre de la réponse publique. L’Arcom a trois rôles. Premier rôle : protéger. Elle pousse à mieux lutter contre la désinformation. Elle pousse à mieux lutter contre la haine en ligne. Elle pousse à mieux protéger les mineurs. Deuxième rôle : superviser. Elle participe à la surveillance des grandes plateformes en ligne. Elle s’appuie sur des règles européennes qui obligent ces plateformes à réduire certains risques. Elle reçoit aussi des informations venant des plateformes sur leurs actions contre la désinformation. Troisième rôle : éduquer. L’idée est simple. Si les gens comprennent mieux le numérique, ils se font moins piéger. Ils repèrent mieux les manipulations. Ils savent mieux réagir face au harcèlement. Ils protègent mieux leurs données. Le rapport constate aussi une mobilisation des médias. Les chaînes de télévision et de radio font plus d’actions d’éducation qu’avant. Le chiffre annoncé est une hausse de 35 %. Il y a plus d’actions “sur le terrain”. Donc plus de rencontres, plus d’ateliers, plus de publics différents. Mais le rapport pointe une limite importante. Il y a peu de programmes dédiés à ces sujets dans les contenus eux-mêmes. Seulement 12 % des programmes à l’antenne abordent ces thèmes. Et 27 % sur le numérique. Le rapport dit aussi que les plateformes font des actions. Elles lancent des campagnes. Elles ajoutent des outils “pédagogiques”. Elles font des partenariats pour produire des ressources. Enfin, le rapport insiste sur un besoin. Il faut mesurer l’efficacité réelle de tout cela. Pas seulement compter le nombre d’actions. Mais vérifier si ça change vraiment les comportements. Et si ça répond aux attentes des citoyens. ## Pourquoi c’est un problème Parce que les usages changent plus vite que les protections. Les contenus circulent en continu. Les réactions sont immédiates. Les dégâts peuvent être rapides. Parce que les mineurs restent exposés. Le rapport dit clairement que les protections actuelles ne suffisent pas. Même quand des dispositifs existent. Et c’est un signal fort. Cela veut dire que “avoir des règles” ne garantit pas “être protégé”. Parce que beaucoup de citoyens se sentent seuls face aux risques. Le rapport cite une donnée simple. 53 % des mineurs disent vouloir être mieux accompagnés. Cela montre un besoin concret. Et une attente envers les adultes et les institutions. Parce que l’éducation progresse, mais reste trop marginale dans les contenus. Faire des ateliers, c’est utile. Mais cela ne touche pas tout le monde. Et cela dépend des lieux, des moyens, des personnes motivées. Quand seulement une petite part des programmes parle de ces sujets, l’impact global reste limité. Parce que les plateformes ont un rôle central, mais pas toujours transparent. Elles peuvent dire qu’elles agissent. Mais sans contrôle solide, on ne sait pas assez ce qui marche. Ni ce qui est surtout de la communication. ## Ce que cela révèle des limites actuelles de l’action publique L’État ne peut pas tout faire seul. Il doit s’appuyer sur des acteurs privés. Les médias. Les plateformes. Les associations. L’école. Les collectivités locales. Cela crée une action publique “en réseau”. C’est utile. Mais c’est fragile. Fragile, parce que chacun a ses priorités. Une plateforme cherche aussi à garder ses utilisateurs. Un média cherche aussi l’audience. Une école manque parfois de temps et de moyens. Une association dépend de financements. Autre limite : l’action publique est souvent plus forte sur l’intention que sur la preuve. On sait compter. On sait annoncer des campagnes. On sait produire des ressources. Mais on mesure encore mal l’effet réel sur la population. Autre limite : la régulation est compliquée par la taille des plateformes. Elles sont très puissantes. Elles sont transnationales. Elles changent leurs outils souvent. Et elles contrôlent une partie des données nécessaires pour vérifier leurs efforts. Dernière limite : on attend beaucoup de la “responsabilité individuelle”. Le rapport insiste sur l’autonomie des publics. C’est important. Mais cela peut aussi déplacer le poids du problème vers l’utilisateur. Comme si le citoyen devait se protéger seul dans un environnement conçu pour capter son attention. ## Les conséquences concrètes pour la société ### Sur l’information et la démocratie La désinformation affaiblit la confiance. On ne sait plus qui croire. On doute de tout. Ou on croit n’importe quoi. Cela peut influencer des débats publics. Cela peut durcir les opinions. Cela peut rendre le dialogue impossible. ### Sur la cohésion sociale La haine en ligne normalise l’agression. Elle cible des personnes. Elle cible des groupes. Elle pousse certains à se taire. Elle pousse d’autres à se radicaliser. Elle abîme la vie collective. ### Sur les enfants et les adolescents L’exposition à des contenus inadaptés a des effets directs. Anxiété. Harcèlement. Pression sociale. Sexualisation précoce. Addiction à l’attention et aux “likes”. Le rapport montre aussi un fait social important. Les jeunes demandent de l’aide. Donc le problème n’est pas “ils ne veulent pas”. Le problème est “ils ne peuvent pas seuls”. ### Sur les inégalités Ceux qui ont déjà des ressources s’en sortent mieux. Parents informés. Écoles bien équipées. Accès à des ateliers. Temps pour accompagner. Les autres restent plus exposés. Moins d’accompagnement. Moins de repères. Plus de risques. Donc le numérique peut creuser des écarts. ### Sur la manière dont on protège le public Si on ne mesure pas l’efficacité, on peut se tromper de stratégie. On peut multiplier des actions visibles mais peu utiles. On peut laisser passer des risques majeurs. On peut croire que “ça avance” alors que les problèmes s’aggravent. ### Sur la confiance dans les institutions Si les citoyens voient que les risques persistent, ils se découragent. Ils se disent que “personne ne contrôle”. Ou que “les plateformes font ce qu’elles veulent”. Cela fragilise la crédibilité de l’action publique. L’enjeu du rapport est là. Protéger mieux. Superviser plus solidement. Et éduquer plus largement. Mais aussi prouver ce qui marche. Et corriger ce qui ne marche pas. Pages sources : 3, 4, 5, 6, 7, 8, 14, 20, 21 ## Les engagements des chaînes de télévision et de radio **Éducation aux médias : plus d’initiatives, mais trop peu de décryptage régulier en TV/radio et un impact mal mesuré** **Le problème :** Les médias multiplient les actions d’éducation aux médias et au numérique (+35 %), surtout sur le terrain (+75 %) et en ligne, mais le « décryptage » reste trop rare dans les programmes TV/radio (12 %) et encore insuffisant sur les supports numériques (27 %). L’effort est donc en hausse, mais pas assez présent là où il touche massivement le public, et son efficacité réelle est peu évaluée. **Pourquoi c’est important :** TV et radio restent des portes d’entrée majeures vers l’information, tandis que les réseaux sociaux et les recommandations automatiques sont devenus des lieux centraux d’influence. Sans explications simples, répétées et visibles sur le fonctionnement des médias (vérification, correction, distinction faits/opinions, repérage d’images truquées ou de contenus IA), les citoyens sont moins armés face à la désinformation, la haine en ligne et les contenus inadaptés, ce qui fragilise la confiance et le débat démocratique. **Ce qui bloque :** * Trop peu d’émissions dédiées au décryptage sur les antennes (12 %) et une présence numérique encore insuffisante (27 %), malgré la hausse des initiatives * Actions souvent menées sous forme de projets ponctuels (tournées, ateliers, opérations spéciales) : utiles mais peu durables et pas toujours à l’échelle * Manque de mesure d’impact : on compte les actions et les publics touchés, mais on sait mal ce qui améliore réellement les compétences et pour quels publics **Conséquences concrètes :** * Désinformation plus efficace (partages rapides, confusion entre opinion et preuve, pièges via montages, titres trompeurs ou contenus générés par IA) * Banalisation de la haine en ligne et exposition accrue des mineurs à des contenus choquants ou manipulateurs (publicités déguisées, complotisme, défis dangereux), avec des parents souvent démunis * Dégradation de la confiance dans l’information (tout croire ou ne plus rien croire), creusement des inégalités de compétences et effets contre-productifs sur droit d’auteur/piratage si les règles sont mal comprises 🔎 Analyse détaillée (expert) ## Ce que le rapport constate Les chaînes de télévision et de radio font plus d’actions d’éducation aux médias et au numérique qu’avant. La hausse est nette. +35 % en un an. Cela représente 267 initiatives de plus. Elles vont davantage “sur le terrain”. Ateliers. Interventions en classe. Visites. Rencontres. Ces actions de terrain progressent encore plus vite. +75 %. Elles touchent des publics plus variés. Jeunes, seniors, détenus, enseignants, parents. Il y a aussi des initiatives sur les réseaux sociaux et les plateformes. Avec des partenariats. Exemple : campagnes contre la désinformation. Exemple : contenus courts adaptés aux jeunes. Mais le rapport pointe un décalage important. Sur les antennes (TV et radio), il y a trop peu d’émissions vraiment dédiées au “décryptage” des médias. Seulement 12 % des programmes concernés. Sur les supports numériques des médias, c’est mieux mais encore insuffisant. 27 %. Le rapport rappelle aussi un point de cadre. Le service public a des obligations en éducation aux médias. Le privé aussi doit agir. Et le privé doit relayer des campagnes sur le droit d’auteur et la lutte contre le piratage. Enfin, le rapport insiste sur le contexte. Le numérique évolue très vite. La désinformation circule vite. La haine en ligne existe. Les mineurs peuvent tomber sur des contenus inadaptés. Donc il faut à la fois protéger et rendre les gens plus autonomes. Et il manque un élément clé. Mesurer l’efficacité réelle des actions. Savoir ce qui marche. Et pour qui. \--- ## Pourquoi c’est un problème Parce que l’effort augmente, mais il n’est pas au bon endroit, ni à la bonne échelle. Les ateliers et opérations spéciales sont utiles. Mais ils ne remplacent pas des rendez-vous réguliers à la télévision et à la radio. Or la TV et la radio restent des portes d’entrée majeures vers l’info pour beaucoup de gens. Si le “décryptage” est rare à l’antenne, il touche moins de monde. Et il touche souvent les mêmes publics déjà intéressés. Autre problème : le numérique est devenu le lieu principal où l’on se fait influencer. Réseaux sociaux. Vidéos courtes. Recommandations automatiques. Si les médias n’y proposent pas assez d’explications simples et répétées, le terrain est laissé à d’autres. Influenceurs. Rumeurs. Propagande. Contenus manipulés. Il y a aussi un risque de confusion. On parle de “désinformation” et de “bonnes pratiques numériques”. Mais on parle moins du fonctionnement concret des médias. Comment une info est fabriquée. Comment on vérifie. Comment on corrige. Comment on sépare faits et opinions. Comment on repère une image truquée ou un contenu généré par IA. Sans ces bases, on apprend des réflexes, pas une compréhension. Enfin, les campagnes sur le droit d’auteur et le piratage existent. Mais si elles sont surtout des messages “moraux” ou “répressifs”, elles convainquent mal. Les gens ont besoin de comprendre. Pourquoi une œuvre est protégée. Ce qui est légal ou non. Et quelles alternatives existent. \--- ## Ce que cela révèle des limites actuelles de l’action publique L’État et le régulateur (l’Arcom) peuvent pousser, inciter, encadrer. Mais ils ne peuvent pas tout faire. Première limite : l’action dépend beaucoup de la bonne volonté et des priorités des acteurs. Les chaînes déclarent des actions. Elles rendent des comptes. Mais le rapport montre que, malgré l’engagement, les programmes dédiés restent minoritaires. Donc l’obligation ne garantit pas un résultat visible pour le grand public. Deuxième limite : on agit beaucoup par “projets”. Un camion itinérant. Un concours. Une tournée. Un festival. C’est concret. C’est positif. Mais ce n’est pas forcément durable. Et ce n’est pas forcément massif. Troisième limite : la puissance des plateformes dépasse les outils classiques. Les règles européennes demandent aux très grandes plateformes de réduire les risques de désinformation. La loi française renforce le rôle de l’Arcom contre la manipulation de l’information. Mais, dans la pratique, les plateformes contrôlent la diffusion. Elles contrôlent les recommandations. Elles contrôlent une partie des données. Donc l’action publique avance, mais avec un temps de retard. Quatrième limite : on manque de mesure d’impact. On compte des actions. On compte des personnes touchées. Mais on sait moins si les gens deviennent réellement plus capables de vérifier, de douter, de signaler, de se protéger. Sans mesure, on risque de financer et répéter ce qui “se voit”, pas ce qui “marche”. \--- ## Les conséquences concrètes pour la société Si le décryptage des médias reste trop rare, plusieurs effets apparaissent. La désinformation devient plus efficace. Parce que beaucoup de citoyens n’ont pas les outils simples pour trier. Ils partagent plus vite. Ils confondent témoignage, opinion et preuve. Ils se font piéger par des montages, des titres trompeurs, ou des contenus générés par IA. La haine en ligne se banalise plus facilement. Parce que les mécanismes de viralité ne sont pas compris. Parce que certains contenus jouent sur la colère et l’humiliation. Sans éducation, on répond par l’émotion. Pas par le recul. Les mineurs sont plus exposés. Pas seulement à des contenus choquants. Aussi à des contenus qui manipulent. Publicités déguisées. Théories complotistes. Défis dangereux. Et les parents sont souvent démunis, car les usages changent vite. La confiance dans l’information se dégrade. Deux risques opposés apparaissent en même temps. Croire n’importe quoi. Ou ne plus croire rien du tout. Dans les deux cas, la démocratie fonctionne moins bien. Parce qu’un débat public a besoin d’un minimum de faits partagés. Les inégalités se creusent. Ceux qui ont déjà des codes (études, entourage, temps, accès) apprennent à vérifier. Les autres restent plus vulnérables. Donc l’éducation aux médias devient une question d’égalité réelle. Enfin, sur le droit d’auteur et le piratage, l’effet peut être contre- productif si c’est mal expliqué. Si les gens ne comprennent pas les règles, ils les contournent. Ou ils pensent que “tout se vaut”. Cela fragilise la création et les revenus des auteurs. Et cela entretient un rapport flou à la loi en ligne. En clair : le rapport montre une mobilisation réelle. Mais il montre aussi que l’essentiel n’est pas encore assez présent là où tout le monde regarde et écoute. Et que, sans continuité et sans preuve d’efficacité, l’effort risque de rester insuffisant face à la vitesse du numérique. Pages sources : 2, 3, 4, 7, 8, 9, 12, 13, 14, 16, 18 ## La montée en puissance des actions de terrain **Éducation aux médias : le terrain progresse vite, mais les programmes restent en retrait** **Le problème :** Les actions d’éducation aux médias et au numérique se développent fortement en présentiel (ateliers, interventions, visites), mais elles compensent un manque de contenus dédiés dans les médias eux-mêmes. Résultat : une action efficace localement, mais limitée en portée nationale, inégale selon les territoires et souvent dépendante de projets ponctuels, avec un impact encore mal mesuré. **Pourquoi c’est important :** La désinformation est le thème principal des actions (56 %) et fragilise le débat public. Or les médias de masse touchent des millions de personnes, alors qu’un atelier touche quelques dizaines. Si l’effort reste surtout “sur le terrain” et peu intégré aux programmes (12 % sur les antennes, 27 % sur le numérique), une partie de la population risque de rester moins protégée face aux manipulations, aux arnaques et aux discours de haine. **Ce qui bloque :** * Faible intégration de l’éducation aux médias dans les contenus diffusés largement (peu de programmes dédiés sur les antennes et sur les supports numériques des médias) * Dépendance à des projets ponctuels (partenariats, équipes motivées, événements, financements non pérennes), donc risque de retombée rapide * Manque de mesure claire de l’impact (on ne sait pas assez ce qui marche, pour qui, et dans la durée) **Conséquences concrètes :** * Inégalités d’accès : des citoyens mieux armés là où il y a des actions, mais pas partout, créant une éducation aux médias “à deux vitesses” * Débat public plus fragile : progression de la désinformation, méfiance accrue envers journalistes, institutions, science et justice, décisions collectives plus difficiles * Pression accrue sur l’école et les acteurs locaux (associations, bibliothèques, collectivités) et risque de déplacer la responsabilité sur les individus (“si tu as été manipulé, c’est que tu n’étais pas assez formé”) 🔎 Analyse détaillée (expert) ## Ce que le rapport constate Le rapport observe un changement net dans la façon d’agir. Les actions “sur le terrain” augmentent très vite. Elles progressent de 75 % en un an. Elles deviennent même le type d’initiative le plus développé. Elles passent devant les contenus éducatifs diffusés à la télévision, à la radio, ou sur leurs sites. En parallèle, l’ensemble des actions d’éducation aux médias et au numérique augmente aussi. +35 % pour les chaînes de télévision et de radio. Concrètement, on voit plus de présence “en vrai”. Des ateliers. Des visites de rédactions. Des interventions en classe. Des dispositifs itinérants, comme un camion qui se déplace. Ces actions touchent des publics plus variés qu’avant. Avant, c’était surtout des jeunes. Maintenant, c’est plus équilibré entre jeunes, étudiants, et “tout public”. Le rapport cite aussi des publics nouveaux ou mieux pris en compte. Des seniors. Des personnes en prison. Des parents. Des enseignants. Des bibliothécaires. Des conseillers numériques. L’Arcom, par exemple, dit avoir sensibilisé plus de 13 000 personnes sur le territoire. Les thèmes les plus fréquents sur le terrain sont clairs. La désinformation arrive en tête (56 %). Puis la découverte du métier de journaliste (30 %). L’éducation au numérique est beaucoup moins présente (5 %). Enfin, le rapport pointe un décalage important. Il y a peu de programmes dédiés à ces sujets dans les médias eux-mêmes. Seulement 12 % sur les antennes. Et 27 % sur les supports numériques des médias. Donc on fait beaucoup d’actions en présentiel. Mais on en fait relativement peu dans les contenus que tout le monde regarde ou écoute. \--- ## Pourquoi c’est un problème Ce n’est pas un problème parce que le terrain serait “mauvais”. Au contraire, c’est souvent utile et concret. Le problème, c’est ce que cette montée en puissance peut vouloir dire. ### 1) On compense un manque ailleurs Si les actions de terrain deviennent le principal outil, c’est aussi parce que le reste ne suit pas. Or la télévision, la radio et les grandes plateformes touchent des millions de personnes. Un atelier touche quelques dizaines de personnes. Même multiplié, cela reste limité. Donc on risque d’avoir une action très visible localement. Mais trop faible à l’échelle du pays. ### 2) On crée une action “à deux vitesses” Ceux qui bénéficient d’un atelier apprennent à vérifier une info. À repérer une manipulation. À comprendre comment travaille un journaliste. Ceux qui n’y ont pas accès n’ont pas cette aide. Parce qu’ils habitent loin. Parce qu’ils ne sont pas dans le bon établissement. Parce qu’ils ne sont pas dans le bon réseau. Résultat possible : une inégalité d’accès à des compétences de base. Comme savoir trier le vrai du faux. ### 3) On dépend de projets ponctuels Beaucoup d’actions de terrain reposent sur des partenariats. Sur des équipes motivées. Sur des événements. Sur des financements qui peuvent s’arrêter. Si ce n’est pas stable, ça peut retomber aussi vite que ça a monté. ### 4) On ne sait pas toujours ce que ça produit vraiment Le rapport recommande de mesurer l’impact. Cela montre qu’aujourd’hui, on ne sait pas assez bien ce qui marche. Ni pour qui. Ni combien de temps. Sans mesure, on peut multiplier les actions. Mais sans être sûr qu’elles changent réellement les pratiques. \--- ## Ce que cela révèle des limites actuelles de l’action publique Le rapport met en lumière plusieurs limites. ### 1) L’État n’a pas un levier simple et direct sur l’information en ligne Une grande partie de la désinformation circule sur les réseaux sociaux. Et sur des plateformes qui ne sont pas des médias traditionnels. L’action publique a donc tendance à passer par des “campagnes”, des “partenariats”, des “outils pédagogiques”. C’est utile. Mais ça montre aussi une difficulté à agir au cœur du problème. ### 2) On agit beaucoup par “sensibilisation”, moins par transformation du système Sensibiliser, c’est expliquer. C’est former. C’est faire prendre conscience. Mais cela ne change pas forcément les mécanismes qui poussent les contenus trompeurs. Ni la vitesse de circulation. Ni les logiques de buzz. Ni les contenus qui provoquent la haine. Le rapport insiste d’ailleurs sur la prévention de la haine en ligne. Et sur la responsabilisation des publics. Cela montre que le problème dépasse la simple “méconnaissance”. ### 3) Les médias eux-mêmes ne portent pas assez ces sujets dans leurs programmes Le chiffre est parlant. 12 % sur les antennes. 27 % sur le numérique. Cela révèle une limite : on compte sur des actions à côté des programmes. Au lieu d’intégrer davantage ces sujets dans ce que les gens consomment tous les jours. ### 4) L’action publique s’appuie sur une mosaïque d’acteurs Éducation nationale, Arcom, associations, médias, bibliothèques, plateformes. C’est une force. Mais c’est aussi une fragilité. Parce que la coordination est complexe. Et parce que la qualité peut varier selon les endroits. \--- ## Les conséquences concrètes pour la société ### 1) Des citoyens mieux armés… mais pas partout Là où ces actions existent, elles peuvent améliorer des choses très concrètes. Moins de partage automatique. Plus de vérification. Plus de recul face aux images truquées ou à l’IA. Mais si l’accès dépend du territoire, l’effet sera inégal. ### 2) Un risque de fracture entre ceux qui comprennent et ceux qui subissent Comprendre les médias devient une compétence de protection. Comme savoir repérer une arnaque. Si certains publics restent à l’écart, ils seront plus exposés. Aux manipulations. Aux rumeurs. Aux escroqueries. Aux discours de haine. ### 3) Un débat public plus fragile Quand la désinformation progresse, les gens ne discutent plus sur les mêmes faits. Ils ne partagent plus la même base. Cela peut augmenter la méfiance. Envers les journalistes. Envers les institutions. Envers la science. Envers la justice. Et cela peut rendre les décisions collectives plus difficiles. Parce que tout devient contestable, même le réel. ### 4) Une pression accrue sur l’école et les acteurs locaux Si la réponse principale devient “aller sur le terrain”, alors on demande beaucoup à l’école, aux associations, aux bibliothèques, aux collectivités. Cela peut marcher. Mais cela peut aussi épuiser les équipes. Et créer une dépendance à des personnes clés. ### 5) Une normalisation de l’idée que “se former” est indispensable pour se protéger C’est positif sur le principe. Mais cela peut aussi déplacer la responsabilité. On finit par dire : “si tu t’es fait manipuler, c’est que tu n’étais pas assez formé”. Alors que le problème vient aussi de la façon dont les contenus sont poussés et amplifiés. \--- Si tu veux, je peux te l’expliquer à travers une situation concrète du quotidien (un parent, un senior, un collégien) pour montrer comment ces actions de terrain changent, ou ne changent pas, les comportements. Pages sources : 2, 4, 5, 9, 10, 11, 12, 13, 14, 15, 22 ## Des contenus éducatifs encore trop rares à l’antenne et en ligne **Plus d’actions d’éducation aux médias, mais trop peu de décryptage régulier et visible** **Le problème :** Malgré une hausse des actions d’éducation aux médias et au numérique, il manque des programmes vraiment dédiés au décryptage de l’information (comment elle est fabriquée, triée, mise en scène et diffusée). Ces contenus restent minoritaires et insuffisamment réguliers et visibles à grande échelle. **Pourquoi c’est important :** Sans repères simples et accessibles là où les gens s’informent (télé, radio, numérique), les citoyens comprennent moins bien l’information, deviennent plus vulnérables aux manipulations et l’écart se creuse entre ceux qui savent déjà chercher ces outils et les autres. Cela fragilise la qualité du débat public et, à terme, la démocratie. **Ce qui bloque :** * Trop peu de programmes de décryptage sur les antennes et en ligne (12 % des programmes éducatifs à l’antenne, 27 % en ligne). * Une action encore trop ponctuelle et événementielle (campagnes, opérations) au lieu de rendez-vous réguliers, identifiables et massifs. * Une dépendance forte aux partenariats et à la bonne volonté des plateformes, dont les priorités peuvent être commerciales plutôt qu’éducatives. **Conséquences concrètes :** * Plus de confusion dans le débat public, avec des discussions polarisées et des désaccords sur des “faits” mal établis. * Plus de manipulation possible (rumeurs, montages, faux comptes, contenus générés par IA imitant des médias ou des personnes). * Des inégalités et une fragilisation démocratique accrues, car certains publics restent sans outils pour trier l’information et la confiance collective se dégrade. 🔎 Analyse détaillée (expert) ### Ce que le rapport constate Le rapport dit qu’il y a plus d’actions qu’avant. Les chaînes de télé et de radio ont augmenté leurs actions d’éducation aux médias et au numérique de 35 %. Il dit aussi que les actions “sur le terrain” ont beaucoup progressé. Elles ont augmenté de 75 %. Elles touchent des publics plus variés. Mais le rapport pointe un manque précis. Il manque des programmes vraiment dédiés au “décryptage” des médias. C’est-à-dire des contenus qui expliquent comment l’information est fabriquée, triée, mise en scène, et diffusée. Et ce manque est chiffré. Sur les antennes, seuls 12 % des programmes éducatifs abordent vraiment ces sujets. En ligne, c’est 27 %. Le rapport note aussi un déséquilibre dans les thèmes traités. On parle surtout de désinformation et d’usages du numérique. On parle moins d’autres compétences utiles au quotidien. Enfin, il constate que des initiatives existent sur les plateformes et réseaux sociaux. Avec des campagnes, des outils pédagogiques, et des partenariats. Mais cela ne compense pas l’absence de programmes réguliers et visibles à grande échelle. \--- ### Pourquoi c’est un problème Parce que beaucoup de gens s’informent tous les jours. Et beaucoup se font une opinion à partir de ce qu’ils voient et partagent. Si on ne comprend pas comment fonctionne l’information, on est plus vulnérable. On confond plus facilement un fait et une opinion. On prend une vidéo sortie de son contexte pour une preuve. On croit qu’un message très partagé est forcément vrai. Le problème n’est pas seulement “les fake news”. Le problème, c’est le manque d’outils simples pour se repérer. Et ces outils devraient être présents là où les gens sont. À la télé, à la radio, et sur les supports numériques des médias. Quand ces contenus sont rares, ils touchent moins de monde. Ils deviennent réservés à ceux qui vont déjà les chercher. Donc on creuse l’écart entre les publics. \--- ### Ce que cela révèle des limites actuelles de l’action publique Le rapport montre une action publique qui progresse, mais qui reste incomplète. 1) **On fait plus d’actions, mais pas assez de contenus visibles et réguliers.** Les ateliers et interventions sont utiles. Mais ils ne remplacent pas des programmes diffusés largement. Un atelier touche des centaines. Une émission ou une série en touche des millions. 2) **L’effort est encore trop “événementiel”.** On fait des campagnes. On fait des opérations ponctuelles. Mais on manque de rendez-vous clairs, fréquents, identifiables. 3) **La couverture des compétences du quotidien est trop partielle.** Le rapport demande de mieux traiter des sujets concrets. Par exemple : distinguer faits et opinions. Repérer des ingérences étrangères. Reconnaître des contenus fabriqués par l’IA. Limiter la haine en ligne et la propagation de contenus violents. 4) **L’action dépend beaucoup de partenariats et de la bonne volonté des acteurs.** Les plateformes et réseaux sociaux peuvent aider. Mais leurs priorités ne sont pas toujours l’éducation. Leur logique est aussi commerciale. Donc l’éducation ne peut pas reposer principalement sur eux. \--- ### Les conséquences concrètes pour la société 1) **Plus de confusion dans le débat public.** Quand les gens ne savent pas trier, les discussions deviennent plus agressives. On se dispute sur des “faits” qui n’en sont pas. On se replie sur son camp. 2) **Plus de manipulation possible.** Des acteurs malveillants peuvent influencer l’opinion. Avec des rumeurs, des montages, des faux comptes. Ou des contenus générés par IA qui imitent des médias ou des personnes. 3) **Une haine en ligne qui se diffuse plus facilement.** Sans repères, on partage plus vite. On banalise des propos violents. On participe parfois à du harcèlement sans s’en rendre compte. 4) **Des inégalités qui s’aggravent.** Ceux qui ont déjà des codes et du temps s’en sortent mieux. Les autres subissent. Ils se méfient de tout, ou ils croient trop facilement. Dans les deux cas, on perd la confiance. 5) **Une démocratie plus fragile.** Voter, débattre, décider ensemble demande une base commune. Si chacun vit dans sa bulle d’informations, cette base se casse. Et les décisions collectives deviennent plus difficiles à accepter. Le rapport ne dit pas qu’il ne se passe rien. Il dit que l’effort existe, mais qu’il n’est pas encore au bon endroit, ni à la bonne échelle. Et que, sans contenus éducatifs plus nombreux et plus réguliers, on laisse trop de citoyens seuls face à un environnement informationnel de plus en plus complexe. Pages sources : 2, 4, 16 ## Le rôle des plateformes : campagnes, outils pédagogiques et limites **Éducation aux médias : les plateformes agissent, mais surtout à distance, et cela ne suffit pas** **Le problème :** Les plateformes en ligne mènent des actions d’éducation aux médias (campagnes, outils intégrés, partenariats), mais elles font peu d’actions de terrain et restent juges et parties. En parallèle, les médias audiovisuels augmentent leurs actions, mais proposent encore peu de programmes dédiés et visibles de décryptage. **Pourquoi c’est important :** L’éducation aux médias est plus efficace quand elle s’appuie sur un accompagnement concret (ateliers, échanges, pratique). Or l’action publique dépend fortement d’acteurs privés et de dispositifs changeants, ce qui limite la continuité, la transparence et l’égalité d’accès à ces apprentissages. **Ce qui bloque :** * Peu d’actions de terrain des plateformes (écoles, quartiers, bibliothèques) malgré des besoins d’accompagnement direct * Conflit d’intérêt et manque de contrôle : les plateformes hébergent et rendent visibles des contenus trompeurs tout en expliquant comment s’en protéger, avec des outils et règles qui peuvent changer sans explication * Offre grand public insuffisante : peu de programmes dédiés au décryptage sur TV/radio et en ligne, et une action publique plus forte sur le cadre que sur l’organisation d’actions régulières de proximité **Conséquences concrètes :** * Vulnérabilité accrue aux manipulations et à la désinformation, qui circule plus vite que les corrections * Inégalités renforcées : les publics déjà à l’aise avec le numérique profitent davantage des ressources, tandis que les autres restent plus exposés aux arnaques et rumeurs * Dégradation de la confiance et risque démocratique : doute généralisé, tensions dans la vie quotidienne et fragmentation de l’espace public sous l’effet des contenus sélectionnés par algorithmes 🔎 Analyse détaillée (expert) ### Ce que le rapport constate Les plateformes en ligne (réseaux sociaux, moteurs de recherche) font des actions d’éducation aux médias. Elles le font surtout de trois façons. D’abord, elles lancent des campagnes. Par exemple, des vidéos et messages pour apprendre à repérer la désinformation. C’est souvent pensé pour les jeunes. Ensuite, elles ajoutent des outils “dans” leurs services. Des conseils, des alertes, des parcours pédagogiques. Parfois sous forme de jeux. Exemple cité : des programmes comme **Interland** ou **Super Searchers**. Enfin, elles font des partenariats. Avec des médias, des associations, des acteurs de l’éducation. Exemple cité : **TikTok avec l’AFP** pour produire des vidéos de décryptage. Le rapport note aussi une limite nette. Les plateformes font **peu d’actions de terrain**. Peu d’interventions directes dans les écoles, les quartiers, les bibliothèques. Peu de présence là où les publics ont besoin d’accompagnement concret. Le rapport replace ces actions dans un cadre plus large. Les plateformes agissent aussi parce que l’Europe leur demande de réduire les risques liés à la désinformation. Donc ce n’est pas seulement “volontaire”. C’est aussi lié à des obligations et à la surveillance. En parallèle, le rapport montre que l’audiovisuel (TV et radio) augmente ses actions d’éducation aux médias. +35 % d’actions, et +75 % d’actions de terrain. Mais il y a un autre problème : il y a encore **peu de programmes dédiés** au décryptage sur les antennes et en ligne. Seulement **12 %** à la télévision/radio, et **27 %** sur leurs supports numériques. Enfin, l’Arcom joue un rôle de coordination et de stimulation. Elle sensibilise sur tout le territoire. Elle touche plus de **13 000 personnes** sur la période citée. Elle pousse les acteurs à faire plus, et elle collecte leurs bilans. \--- ### Pourquoi c’est un problème Parce que l’éducation aux médias ne marche pas seulement avec des contenus en ligne. Elle marche quand on peut poser des questions. Quand on peut être accompagné. Quand on peut pratiquer, se tromper, recommencer. Or les plateformes proposent surtout des solutions “à distance”. Des vidéos. Des pages d’aide. Des modules. C’est utile. Mais ça ne remplace pas un adulte formé, un atelier, un échange. Autre problème : les plateformes restent juges et parties. Elles hébergent les contenus trompeurs. Elles organisent aussi la visibilité des contenus. Et en même temps, elles expliquent comment s’en protéger. Il y a un conflit d’intérêt possible. Il y a aussi un problème de contrôle. Une campagne peut être très visible un mois, puis disparaître. Un outil peut changer sans prévenir. Les règles de modération peuvent évoluer. Et le public ne sait pas toujours pourquoi. Enfin, les partenariats ont une limite. Même avec un média sérieux, la plateforme garde la main sur la diffusion. Le rapport donne un exemple clair : TikTok a choisi de ne pas publier certains sujets jugés sensibles. Donc l’éducation dépend aussi des choix de la plateforme. \--- ### Ce que cela révèle des limites actuelles de l’action publique Cela montre que l’État s’appuie beaucoup sur les plateformes pour toucher le public. Parce que c’est là que les gens sont, surtout les jeunes. Mais cela veut dire que l’action publique dépend d’acteurs privés. Cela montre aussi que l’action publique est plus forte sur le cadre général que sur le terrain. On a des règles européennes. On a des obligations. On a de la supervision. Mais on a moins de moyens pour organiser partout des actions concrètes, régulières, proches des gens. Autre limite : l’éducation aux médias n’est pas encore assez présente dans les programmes “grand public”. Le rapport le dit pour la TV et la radio : il manque des émissions dédiées, visibles, régulières. Donc on compte sur des formats dispersés, des initiatives, des projets. Pas sur une offre massive et continue. Enfin, l’action publique mesure et encourage. Mais elle ne peut pas tout imposer dans le détail. Elle peut demander des rapports. Elle peut recommander. Elle peut sanctionner dans certains cas. Mais elle ne peut pas transformer une plateforme en service public d’éducation. \--- ### Les conséquences concrètes pour la société D’abord, une société plus vulnérable aux manipulations. Si l’esprit critique progresse trop lentement, les fausses infos circulent plus vite que les corrections. Et elles laissent des traces. Ensuite, des inégalités qui se creusent. Les familles déjà à l’aise avec le numérique utilisent mieux les outils pédagogiques. Les autres restent seules face aux arnaques, aux rumeurs, aux contenus toxiques. Sans actions de terrain, on aide moins ceux qui en ont le plus besoin. Troisième conséquence : une confiance abîmée. Quand on ne sait plus distinguer une info fiable d’une intox, on doute de tout. Des médias. Des institutions. Des scientifiques. Et ce doute peut devenir un réflexe. Quatrième conséquence : des tensions dans la vie quotidienne. Dans les familles, à l’école, au travail. Des disputes sur “ce qui est vrai”. Des décisions prises sur de mauvaises bases. Par exemple en santé, en politique, en sécurité. Enfin, un risque démocratique. Si une partie de la population se forme surtout via des contenus choisis par des algorithmes, l’espace public se fragmente. Chacun voit “son” monde. Et il devient plus difficile de débattre sur des faits communs. Le rapport pousse donc une idée simple. Les plateformes peuvent aider. Mais elles ne peuvent pas être le cœur de la solution. Sans programmes visibles dans les médias, et sans actions de terrain plus fortes, l’éducation aux médias reste incomplète. Pages sources : 2, 4, 7, 8, 17, 18, 19 ## Toucher tous les publics : jeunes, parents, seniors et publics spécifiques **Éducation au numérique : inclure parents et seniors et mesurer ce qui fonctionne** **Le problème :** L’éducation aux médias et au numérique progresse, mais reste trop centrée sur l’école et ne touche pas assez les parents et les seniors. En plus, l’efficacité réelle des actions est encore mal évaluée, ce qui empêche de savoir ce qui change vraiment les comportements (vérifier, signaler, protéger ses comptes, etc.). **Pourquoi c’est important :** Les usages numériques se transmettent dans les familles et les cercles proches. Si seuls les jeunes sont formés, ils retrouvent souvent des adultes peu outillés, ce qui laisse circuler désinformation, haine en ligne et risques pour les mineurs. Les seniors, parfois moins familiers des codes et des arnaques, peuvent être particulièrement ciblés. Sans action plus inclusive et mieux évaluée, la vulnérabilité collective augmente et le débat démocratique se fragilise. **Ce qui bloque :** * Action publique encore trop centrée sur l’école et sur des interventions ponctuelles, sans couverture durable pour tous les publics * Forte dispersion des acteurs et des moyens selon les territoires, créant des zones bien couvertes et d’autres presque pas * Manque d’évaluation simple et systématique de l’efficacité des actions (on compte les actions, mais on mesure mal leurs effets) **Conséquences concrètes :** * La désinformation circule dans les familles et les réseaux locaux, créant tensions, méfiance et propagation de rumeurs * La haine en ligne se banalise et les mineurs restent exposés faute d’adultes capables d’accompagner, de réagir et d’orienter vers l’aide * Les seniors et autres publics fragiles subissent davantage arnaques et manipulations, tandis que le débat démocratique et l’égalité face au numérique se dégradent 🔎 Analyse détaillée (expert) ### Ce que le rapport constate Le rapport part d’un fait simple. Le numérique est partout. Presque tout le monde est connecté. Et presque tout le monde a un smartphone. Dans ce contexte, les risques augmentent. La désinformation circule vite. La haine en ligne circule vite. Les mineurs voient encore des contenus qui ne sont pas adaptés. Face à ça, il y a plus d’actions d’éducation aux médias et au numérique. Les chaînes de télé et de radio en font davantage. Les actions ont augmenté fortement. Surtout les actions “sur le terrain”. Ateliers, rencontres, interventions, événements locaux. Le rapport note aussi un changement important. Les publics visés se diversifient. Avant, on ciblait surtout les jeunes. Maintenant, on touche aussi des étudiants et le “tout public”. Et on voit apparaître des actions pour des publics spécifiques. Par exemple des seniors. Ou des personnes détenues. Mais le rapport dit aussi autre chose. Cette diversification reste incomplète. Il recommande d’aller plus loin. En particulier vers deux publics. Les parents. Et les seniors. Pourquoi eux. Parce qu’ils comptent beaucoup dans la vie des jeunes. Et parce qu’eux aussi peuvent être exposés à la désinformation. Le rapport montre enfin un autre point. Il y a beaucoup d’initiatives. Mais on mesure encore mal ce qui marche vraiment. Il demande donc d’évaluer l’efficacité des actions. Avec des outils simples et utilisables. \--- ### Pourquoi c’est un problème Parce que l’information ne se “consomme” pas seul. Dans une famille, les usages se transmettent. Les réflexes aussi. Les erreurs aussi. Si on forme seulement les élèves, on laisse un trou dans la raquette. Le jeune rentre chez lui. Et il retrouve des adultes qui ne sont pas toujours outillés. Pour vérifier une info. Pour repérer une manipulation. Pour réagir face au harcèlement. Pour régler la confidentialité d’un téléphone. Pour comprendre ce que fait une plateforme. Or les parents ont un rôle direct. Ils autorisent. Ils interdisent. Ils accompagnent. Ils rassurent. Ils conseillent. Ils donnent l’exemple. Si les parents sont perdus, l’accompagnement devient incohérent. Un jour on dit “attention aux fausses infos”. Le lendemain on partage une rumeur sur un groupe de parents. Sans vérifier. Pour les seniors, le problème est différent mais réel. Beaucoup arrivent sur les réseaux sociaux plus tard. Ils ont parfois moins de repères sur les codes. Sur les arnaques. Sur les images truquées. Sur les faux comptes. Sur les contenus générés par intelligence artificielle. Et ils peuvent être très ciblés. Par des arnaques. Par des discours de peur. Par des contenus politiques trompeurs. Par des chaînes de messages “à transférer”. Donc si on ne les inclut pas, on laisse une partie de la population plus vulnérable. Et on laisse la désinformation circuler dans des cercles familiaux. Ou locaux. Ou associatifs. \--- ### Ce que cela révèle des limites actuelles de l’action publique Le rapport montre une action publique qui progresse. Mais qui reste trop centrée sur l’école. Et sur des actions ponctuelles. On fait plus d’ateliers. C’est utile. Mais ce n’est pas encore une couverture “pour tous”. Ni une habitude durable. Autre limite. Il y a beaucoup d’acteurs. L’école. Les médias. Les associations. Les bibliothèques. Les plateformes. Les institutions. Mais tout le monde n’agit pas de la même façon. Et pas au même endroit. Résultat possible. Des territoires très couverts. Et d’autres presque pas. Autre limite. Les plateformes font des campagnes et des outils en ligne. Mais elles font peu d’actions de terrain. Or le terrain est souvent ce qui aide le plus. Parce qu’on peut poser des questions. Parce qu’on peut partir de cas concrets. Parce qu’on peut aider des personnes qui ne vont pas chercher l’info toutes seules. Dernière limite mise en avant. On compte les actions. Mais on ne sait pas assez ce qu’elles changent. Est-ce que les gens vérifient plus. Est-ce qu’ils partagent moins de rumeurs. Est-ce qu’ils savent signaler un contenu haineux. Est-ce qu’ils protègent mieux leurs comptes. Sans mesure, on risque de faire “beaucoup”. Sans faire “mieux”. \--- ### Les conséquences concrètes pour la société Si on ne touche pas tous les publics, plusieurs effets apparaissent. **1) La désinformation devient un problème familial, pas seulement individuel.** Une fausse info partagée par un adulte peut influencer un jeune. Et l’inverse aussi. Cela crée des tensions. Des disputes. De la méfiance. **2) La haine en ligne se banalise.** Si les témoins ne savent pas quoi faire, ils se taisent. Si les victimes ne savent pas où chercher de l’aide, elles s’isolent. Et les agresseurs gagnent du terrain. **3) Les mineurs restent exposés malgré les dispositifs.** Le rapport rappelle que les protections actuelles ne suffisent pas. Donc sans adultes mieux formés, les jeunes restent seuls face aux risques. Alors même qu’une partie d’entre eux demande à être mieux accompagnée. **4) Les arnaques et manipulations touchent davantage les personnes fragiles.** Les seniors peuvent perdre de l’argent. Ou donner des informations personnelles. Ou relayer des contenus trompeurs sans le vouloir. **5) Le débat démocratique se dégrade.** Quand beaucoup de gens ne partagent plus les mêmes faits de base, discuter devient difficile. On ne débat plus sur des idées. On se bat sur “ce qui est vrai”. Et la confiance dans les médias et les institutions baisse. **6) Les inégalités se creusent.** Ceux qui ont déjà des outils critiques s’en sortent mieux. Ceux qui n’ont pas accès à des ateliers, ou pas d’accompagnement, restent plus exposés. Cela crée une société à deux vitesses face au numérique. Toucher les jeunes est nécessaire. Mais ce n’est pas suffisant. Le rapport pousse une idée simple. Pour protéger et rendre autonomes les citoyens, il faut inclure aussi les parents et les seniors. Et vérifier, preuves à l’appui, ce qui fonctionne vraiment. Pages sources : 3, 4, 5, 6, 9, 10, 12, 13, 14, 15, 17, 19, 20, 21, 22 ## Créer et diffuser des ressources pédagogiques avec des partenaires **Beaucoup de ressources d’éducation au numérique, mais une action encore trop dispersée et inégale** **Le problème :** Malgré l’existence de nombreuses ressources pédagogiques sur les risques numériques (haine, cyberharcèlement, données personnelles, désinformation, IA), elles ne protègent pas et n’outillent pas toute la population de façon homogène : elles arrivent parfois trop lentement, sont dispersées entre acteurs, inégalement accessibles selon les territoires et les établissements, et leur efficacité est insuffisamment mesurée, tandis que les mineurs restent exposés malgré les dispositifs actuels. **Pourquoi c’est important :** Les usages numériques augmentent fortement, surtout chez les jeunes, et les risques évoluent vite. Sans action coordonnée, à l’échelle, et évaluée, les inégalités d’accès aux bons réflexes se creusent, la protection des mineurs reste insuffisante, et la société subit davantage de désinformation, de violences en ligne et d’atteintes à la vie privée, avec des effets sur la démocratie et la confiance dans l’action publique. **Ce qui bloque :** * Décalage de rythme : les pratiques et menaces numériques évoluent plus vite que la production, la diffusion et l’adoption des supports éducatifs * Dispersion et inégalités d’accès : ressources portées par de multiples acteurs, parfois locales, avec une diffusion dépendante du territoire, de l’établissement ou de la motivation d’un adulte * Pilotage et dépendances : manque d’évaluation de l’efficacité, capacité limitée de formation des enseignants, et dépendance aux plateformes/médias dont les règles de visibilité peuvent filtrer certains contenus **Conséquences concrètes :** * Inégalités entre jeunes et territoires : certains bénéficient d’ateliers et d’enseignants formés, d’autres non, ce qui creuse les écarts de compétences (vérifier, se protéger, signaler) * Hausse des vulnérabilités : victimes de haine/cyberharcèlement plus isolées faute d’outils connus, rumeurs et manipulations plus efficaces, atteintes à la vie privée (traçage, arnaques, usurpation) * Fragilisation du débat public : polarisation et agressivité des échanges, défiance envers médias et institutions, et baisse de confiance dans l’action publique si les campagnes se multiplient sans résultats visibles 🔎 Analyse détaillée (expert) ## Ce que le rapport constate Le rapport montre une chose simple. Beaucoup de ressources pédagogiques existent déjà. Elles sont souvent créées à plusieurs. Ces partenaires sont très variés. Des ministères. La CNIL. Des associations. Des médias. Des bibliothèques. Des villes et des acteurs locaux. Et aussi des plateformes du numérique. Les formats sont nombreux. Des jeux. Des bandes dessinées. Des dépliants. Des vidéos. Des programmes pour l’école. Des conférences en présentiel et en ligne. Les thèmes couverts sont très concrets. La haine en ligne. Le cyberharcèlement. La protection des données personnelles. Les usages des écrans. La recherche d’information. La désinformation. Et l’impact de l’intelligence artificielle sur l’information. Le rapport donne des exemples précis. Un dépliant “Haine en ligne” pour aider une victime ou un témoin, fait avec le ministère de l’Intérieur et d’autres institutions. Un jeu “L’Odyssée du numérique” pour apprendre les bons réflexes, fait avec l’Éducation nationale, l’Arcom, la CNIL et d’autres partenaires. Une BD créée par la Ville de Marseille avec l’Arcom et la CNIL pour des élèves de primaire. Des contenus médias pensés pour les jeunes, sur des réseaux où ils sont présents. Une campagne TikTok avec l’AFP pour apprendre à repérer les manipulations. Le rapport insiste aussi sur le contexte. Les jeunes consomment beaucoup plus de contenus numériques qu’avant. Les risques évoluent vite. Désinformation, haine, contenus inadaptés. Et les protections actuelles ne suffisent pas toujours, surtout pour les mineurs. Enfin, le rapport dit qu’il faut aller plus loin. Former davantage les enseignants et les professionnels. Faire plus d’actions “près des gens”. Toucher aussi les parents et les seniors. Et mesurer si les actions marchent vraiment. ## Pourquoi c’est un problème Avoir beaucoup de ressources n’est pas la même chose que protéger et outiller toute la population. Le rapport laisse voir un décalage. Premier décalage. Les pratiques numériques changent très vite. Les supports éducatifs, eux, mettent du temps à être produits, diffusés, adoptés. Pendant ce temps, les risques continuent. Deuxième décalage. Les ressources sont dispersées. Elles viennent de nombreux acteurs. Elles sont parfois locales. Elles ne touchent pas forcément les mêmes publics. Donc l’accès dépend du lieu, de l’établissement, ou de la motivation d’un adulte. Troisième décalage. On produit des contenus, mais on ne sait pas toujours ce qui fonctionne. Le rapport appelle à évaluer l’efficacité. Cela veut dire qu’aujourd’hui, on manque de mesures claires. On peut faire beaucoup d’actions sans savoir si elles changent vraiment les comportements. Quatrième décalage. Les mineurs restent exposés malgré les dispositifs existants. Le rapport le dit explicitement. Donc l’éducation seule ne compense pas des protections techniques et des règles encore insuffisantes. Cinquième décalage. Les partenariats avec des plateformes peuvent aider à toucher les jeunes. Mais ils posent une limite. Le rapport cite un cas où TikTok n’a pas publié certains sujets jugés sensibles. Même si l’AFP garde ses règles, la diffusion dépend quand même de la plateforme. Donc l’accès à l’information éducative peut être filtré. ## Ce que cela révèle des limites actuelles de l’action publique Le rapport montre une action publique qui avance, mais qui n’est pas encore “à l’échelle”. L’État et les autorités publiques ne peuvent pas tout faire seuls. Ils s’appuient sur des partenaires pour produire vite et parler aux bons publics. C’est utile. Mais cela révèle aussi une dépendance. Dépendance aux médias et aux plateformes pour atteindre les jeunes. Si les jeunes sont sur TikTok, on va sur TikTok. Mais les règles de visibilité ne sont pas décidées par l’école ou par l’État. Elles sont décidées par la plateforme. Dépendance aux acteurs locaux pour faire du “proche”. Une ville, une association, une bibliothèque peuvent faire un excellent travail. Mais ce n’est pas garanti partout. Donc l’égalité entre citoyens n’est pas assurée. Limite de capacité dans l’école. Le rapport recommande de former les enseignants. Cela signifie que la formation n’est pas encore suffisante. Or sans enseignants formés, les ressources restent des fichiers ou des liens. Elles ne deviennent pas des apprentissages. Limite de pilotage par les résultats. Le rapport demande de mesurer l’efficacité. Cela montre qu’on est encore trop dans la logique “on a fait une action”. Et pas assez dans la logique “on a réduit un risque” ou “on a amélioré une compétence”. Enfin, limite face à la vitesse du numérique. Les menaces changent vite. L’IA change la manière de produire et de diffuser l’information. L’action publique a du mal à suivre au même rythme. ## Les conséquences concrètes pour la société Ces limites ont des effets visibles. Sur les jeunes. Ils peuvent apprendre des bons réflexes. Mais de façon inégale. Certains auront des ateliers, des jeux, des profs formés. D’autres non. Donc les écarts se creusent entre ceux qui savent vérifier, se protéger, signaler. Et ceux qui subissent. Sur la haine en ligne et le harcèlement. Des outils existent pour aider les victimes et les témoins. Mais si ces outils ne sont pas connus, ils servent peu. Résultat possible : des victimes isolées. Des témoins qui ne savent pas quoi faire. Et une banalisation de la violence en ligne. Sur la désinformation. Si l’esprit critique n’est pas travaillé partout, les rumeurs circulent plus vite. Les manipulations trouvent plus facilement un public. Cela abîme le débat public. Et cela peut augmenter la méfiance envers les médias et les institutions. Sur la vie privée. Sans apprentissage clair, beaucoup partagent trop d’informations. Ou acceptent des réglages par défaut. Cela augmente les risques d’arnaques, d’usurpation, de pression sociale. Et cela rend les citoyens plus “traçables”. Sur la démocratie. Quand l’information est moins bien comprise, les discussions deviennent plus agressives. Les opinions se polarisent. Les jeunes peuvent se détourner du débat, ou au contraire s’y engager avec des repères fragiles. Sur la cohésion sociale. Si l’éducation numérique dépend du territoire et du réseau local, on crée une “France à plusieurs vitesses”. Ceux qui ont accès aux bons programmes gagnent en autonomie. Les autres restent plus vulnérables. Enfin, sur la confiance dans l’action publique. Quand on voit beaucoup de campagnes et de ressources, mais que les problèmes persistent, les citoyens peuvent conclure que “ça ne marche pas”. D’où l’importance, soulignée par le rapport, de mesurer l’efficacité et d’agir de façon plus coordonnée. Pages sources : 1, 3, 5, 15, 18, 19, 20, 21 ## Mesurer l’efficacité des actions et améliorer la cohérence **Éducation au numérique : agir ne suffit pas, il faut mesurer ce qui fonctionne** **Le problème :** De nombreuses actions existent pour aider face aux risques en ligne (désinformation, haine, contenus inadaptés), mais leur efficacité est rarement évaluée. On compte des ateliers ou des ressources diffusées, sans mesurer les effets réels sur les comportements, l’autonomie et la protection des publics. **Pourquoi c’est important :** Sans évaluation, on avance à l’aveugle : on peut répéter des actions peu utiles, viser les mauvais publics ou négliger certains sujets clés. Mesurer permet de mieux cibler les besoins, de coordonner les acteurs et de rendre l’action publique plus durable, plus juste et plus efficace. **Ce qui bloque :** * Manque d’outils et de pratiques communes pour évaluer l’impact réel des actions (au-delà du nombre d’ateliers ou de participants). * Multiplicité d’acteurs (école, médias, institutions, associations, collectivités) sans cadre partagé, ce qui crée un patchwork d’initiatives peu comparables et parfois mal coordonnées. * Ciblage insuffisant des publics et des besoins : risque de s’adresser au mauvais public ou de traiter surtout certains thèmes (désinformation) en laissant de côté d’autres compétences (faits/opinions, vérification, mécanismes de diffusion de la haine). **Conséquences concrètes :** * Protection inégale selon les territoires et les publics : certains bénéficient d’actions solides, d’autres restent à l’écart, ce qui creuse les écarts. * Vulnérabilité qui persiste : la désinformation et la haine continuent de circuler, les mineurs restent exposés, et les adultes manquent d’outils pour réagir. * Gaspillage de ressources et baisse de confiance : temps, argent et énergie peuvent être mobilisés sans impact prouvé, et les citoyens peuvent se décourager si les problèmes restent visibles malgré les campagnes. 🔎 Analyse détaillée (expert) ### Ce que le rapport constate Le rapport part d’un fait simple. Le numérique est partout dans la vie quotidienne. Presque tout le monde est connecté. Presque tout le monde a un smartphone. Dans ce contexte, les risques augmentent. Désinformation. Haine en ligne. Contenus inadaptés pour les mineurs. Le rapport constate aussi une demande claire. Beaucoup de mineurs disent vouloir être mieux accompagnés face aux risques en ligne. Cela montre qu’ils se sentent exposés. Et qu’ils ne se sentent pas toujours outillés. Face à cela, beaucoup d’actions existent déjà. Des médias, des institutions, des associations interviennent. Ils produisent des ressources. Ils font des ateliers. Ils créent des partenariats. Mais le rapport pointe un point faible. On ne sait pas assez bien ce qui marche vraiment. On fait des actions. On compte parfois le nombre d’ateliers. Mais on mesure mal les effets réels sur les personnes. Le rapport insiste donc sur une priorité. Évaluer l’efficacité des actions. Et améliorer la cohérence entre elles. Il propose des outils concrets pour y arriver. Un kit en ligne. Un questionnaire pour mieux cibler les besoins avant d’agir. Des ressources pour évaluer après coup. L’idée est simple. Mieux comprendre les besoins. Mieux choisir les actions. Et vérifier si elles améliorent vraiment les choses. \--- ### Pourquoi c’est un problème Si on ne mesure pas l’efficacité, on avance à l’aveugle. On peut faire beaucoup. Et pourtant rater l’objectif. On peut répéter des actions qui rassurent les organisateurs. Mais qui ne changent pas les comportements. Ou qui ne protègent pas mieux. On peut aussi se tromper de public. Par exemple, parler surtout aux élèves. Alors que les parents et les seniors ont aussi besoin d’outils. Et qu’ils jouent un rôle important dans la circulation de l’information. On peut se tromper de sujet. Le rapport montre que beaucoup d’actions portent sur la désinformation. C’est utile. Mais d’autres sujets sont moins traités. Comme apprendre à distinguer faits et opinions. Ou savoir vérifier une info. Ou comprendre comment la haine se diffuse. Sans mesure, on ne voit pas ces déséquilibres. On ne corrige pas. On disperse l’énergie. Et surtout, on ne peut pas garantir une action durable. Une action ponctuelle peut faire du bien sur le moment. Mais ne rien laisser derrière. Sans suivi, l’effet peut disparaître vite. \--- ### Ce que cela révèle des limites actuelles de l’action publique Cela révèle une limite fréquente. L’action publique sait lancer des initiatives. Mais elle a plus de mal à piloter dans la durée. Il y a beaucoup d’acteurs. École. Médias. Institutions. Associations. Collectivités locales. Chacun fait sa part. Mais sans cadre commun, cela peut devenir un patchwork. Des actions utiles, mais pas toujours coordonnées. Pas toujours comparables. Pas toujours adaptées aux besoins locaux. Cela révèle aussi une autre limite. On confond parfois “faire” et “réussir”. Faire un atelier, ce n’est pas la même chose que rendre quelqu’un plus autonome. Distribuer une ressource, ce n’est pas la même chose que changer une pratique. Enfin, cela montre une difficulté à écouter finement les citoyens. Pas seulement “les citoyens en général”. Mais des publics différents, avec des besoins différents. Un collégien n’a pas les mêmes risques qu’un senior. Un parent n’a pas les mêmes questions qu’un enseignant. Sans outil de ciblage, on peut répondre à côté. \--- ### Les conséquences concrètes pour la société Quand on ne mesure pas ce qui fonctionne, plusieurs effets apparaissent. D’abord, une protection inégale. Certains territoires ont des actions solides. D’autres moins. Certains publics sont touchés. D’autres restent à l’écart. Résultat : les écarts se creusent. Ensuite, une vulnérabilité qui dure. La désinformation continue de circuler. La haine en ligne continue de se propager. Les mineurs restent exposés à des contenus inadaptés. Et les adultes ne savent pas toujours comment réagir. Il y a aussi un coût collectif. Du temps mobilisé. De l’argent public ou privé. De l’énergie associative. Si l’impact n’est pas vérifié, on peut gaspiller des ressources. Et manquer des solutions plus efficaces. Enfin, il y a un effet sur la confiance. Si les citoyens voient des campagnes et des actions, mais que les problèmes restent, ils se découragent. Ils peuvent penser que “ça ne sert à rien”. Ou que les institutions ne comprennent pas la réalité. À l’inverse, le rapport défend une idée simple. Mesurer, ce n’est pas contrôler pour contrôler. C’est apprendre. C’est corriger. C’est rendre l’action plus juste. Et plus utile dans la durée. Pages sources : 3, 5, 6, 11, 22 ## Acronymes * **IA** : Abréviation d’« intelligence artificielle », c’est-à-dire des outils informatiques capables de produire ou modifier des textes, images, sons ou vidéos, ce qui peut rendre des contenus faux très crédibles. * **Arcom** : Autorité publique française qui régule l’audiovisuel et le numérique, en surveillant certains acteurs, en protégeant notamment les mineurs et en encourageant l’éducation aux médias. * **CNIL** : Autorité publique française chargée de protéger les données personnelles et de veiller au respect de la vie privée dans les usages numériques. * **AFP** : Agence de presse qui produit et vérifie des informations pour les médias, souvent utilisée comme référence pour des contenus factuels et du décryptage.