Ce blog a été co-écrit par Silvia Montoya (ISU), Hetal Thukral and Melissa Chiappetta (USAID), Diego Luna-Bazaldua and Joao Pedro De Azevedo (Banque mondiale), Manuel Cardoso (UNICEF), Rona Bronwin (FCDO), Ramya Vivekanandan (GPE) and Clio Dintilhac (BMGF).
Nous vivons une crise mondiale de l'apprentissage : les rapports sur la pauvreté de l'apprentissage suggèrent que dans les pays à revenu faible ou intermédiaire 7 enfants sur 10 sont incapables de lire et comprendre un texte simple avant l'âge de 10 ans. Cependant, dans la plupart des pays en développement, nous ne pouvons qu'estimer le nombre d'enfants qui savent lire, car nous ne disposons pas de données fiables pour mesurer les résultats et les progrès de l'apprentissage au fil du temps.
Dans 86 % des pays à revenu faible ou intermédiaire, nous ne pouvons évaluer le niveau de pertes d'apprentissage dues aux fermetures d'écoles durant la pandémie de COVID-19. Si nous voulons mesurer les progrès entre pays et à l’intérieur des pays au fil des ans, nous avons besoin de données qui mesurent ce qui compte et qui soient fiables et comparables dans le temps.
Heureusement, nous sommes plus proches que jamais de cet objectif. L’élan politique est bien perceptible : les partenaires [du secteur] de l'éducation se sont réunis récemment lors du Sommet des Nations Unies sur la Transformation de l'éducation et se sont engagés à agir en faveur de l'apprentissage fondamental, notamment en faveur de la collecte des données sur l'apprentissage. Plus important encore, les pays disposent désormais de méthodes pour renforcer leurs évaluations et ancrer leur mesure dans des avis d'experts.
Pourquoi la collecte de données sur l'apprentissage comparables et fiables a-t-elle été si difficile ?
En dépit du nombre croissant d’évaluations nationales et internationales, la collecte de données sur l'apprentissage comparables dans le temps et entre les pays n'est pas une mince affaire. En effet, la plupart des évaluations :
- Ne mesurent pas ce qui compte : la plupart des évaluations ne mesurent pas les sous-compétences spécifiques qui permettent de lire et comprendre ; et donnent souvent la priorité à la mesure de la connaissance du contenu. La mesure des sous-compétences est importante pour permettre aux acteurs de l'éducation d'identifier et de cibler les lacunes spécifiques parmi les apprenants incapables de lire et comprendre ce qu’ils lisent ;
- Ne sont pas comparables dans le temps : de nombreuses évaluations ne sont pas conçues pour être comparables sur le plan psychométrique dans le temps. Lorsque la matière et le niveau évalués changent, cela empêche également toute comparabilité ;
- Ne sont pas comparables entre les pays : les évaluations menées dans différents pays testent différentes compétences à différents niveaux. Il est donc difficile d'apprendre ou de comparer ce qui se fait d'un pays à l'autre car, les niveaux de difficulté ne sont pas les mêmes.
Par ailleurs :
- Les évaluations internationales peuvent permettre la comparabilité, mais concernent peu de pays à faible revenu et à revenu intermédiaire de la tranche inférieure, en particulier pour les premières années de l'école primaire. De plus, les évaluations internationales du primaire se déroulent par cycles, tous les cinq à six ans, ce qui est trop long pour fournir des informations significatives et éclairer les décisions. Cela contraste avec les évaluations du premier cycle du secondaire qui ont lieu tous les trois ans.
- Les évaluations de l'apprentissage dans les projets des donateurs sont souvent limitées aux bénéficiaires et au calendrier des projets, ce qui limite la durabilité de ces efforts.
Cela explique pourquoi il manque toujours autant de données. 24 pays d'Afrique subsaharienne, par exemple, n'ont pas communiqué de données dans le rapport 2022 sur la pauvreté des apprentissages (en anglais). La carte de l'ISU ci-dessous met en évidence ces lacunes.