A quoi servent les nouvelles évaluations de CP et CE1 ?

La rentrée 2018 est marquée par l’arrivée de nouvelles évaluations nationales en CP et en CE1. La Foire aux questions ci-dessous vise à répondre aux questions que peuvent légitimement se poser les enseignants et les parents d’élèves à leur sujet. Elle a été rédigée par mes soins, et a fait l'objet d'une relecture attentive et de corrections par plusieurs membres du CSEN. Le résultat final n'engage bien sûr que moi. Si de nouvelles questions sont soulevées, elles pourront être ajoutées à la liste. Une version pdf de ce texte est également disponible.


Foire aux Questions

Version du 18/09/2018.

Par rapport à la version du 11/09, la version du 18/09 complète les réponses aux questions 7, 12, 13 et 14, et ajoute les questions 15 et 16.

  1. Pourquoi de nouvelles évaluations en CP et CE1 ?
  2. A quoi servent-elles ?
  3. Comment les évaluations vont-elles se dérouler ?
  4. Quels principes ont guidé leur conception ?
  5. Qu’est-ce que les enseignants sont censés faire entre la rentrée et le début des évaluations le 17 septembre ?
  6. Les évaluations vont-elles induire du bachotage ? Les enseignants ne seront-ils pas incités à entrainer leurs élèves au test ?
  7. Les évaluations vont-elles être une source de stress pour les élèves ? Vont-elles induire de la compétition ? de la sélection ?
  8. Que va-t-il arriver aux élèves qui échouent aux évaluations ? Ne risquent-ils pas d’être étiquetés, stigmatisés, découragés, enfermés dans un diagnostic ?
  9. Les évaluations vont-elles servir à évaluer les enseignants ? les établissements ?
  10. Ces évaluations et interventions vont-elles entraver la liberté pédagogique des enseignants ?
  11. Les enseignants évaluaient déjà leurs élèves. Pourquoi cela ne suffisait-il pas ?
  12. Pourquoi les enseignants ne corrigent-ils pas eux-mêmes les évaluations ?
  13. On ne comprend pas l’intérêt de certains tests. Ils ne correspondent à rien de ce qui est enseigné en maternelle ou en CP.
  14. Certains exercices semblent trop difficiles pour le début de CP
  15. Pourquoi certains tests sont en temps limité et impossibles à terminer?
  16. Pourquoi certains tests comportent-ils des "pièges"?

Réponses

Pourquoi de nouvelles évaluations en CP et CE1 ?

Lors de l’installation du Conseil scientifique de l’éducation nationale (CSEN), le ministre Jean-Michel Blanquer lui a demandé de faire évoluer les évaluations nationales de CP qui avaient été introduites à la rentrée 2017. Les évaluations de CP et CE1 qui arrivent à la rentrée 2018 ont finalement été entièrement repensées. Ce travail a pu être réalisé en seulement six mois, grâce à une collaboration très étroite du CSEN avec la direction de l’évaluation, de la prospective et de la performance (DEPP), la direction de l’enseignement scolaire (DGESCO) et l’inspection générale de l’éducation nationale (IGEN).

A quoi servent-elles ?

Pour commencer, tous les acteurs se sont accordés sur la fonction même de ces évaluations : ce sont des « repères » qui ont pour objectif principal d’aider les enseignants à déterminer avec précision les acquis, les besoins et les progrès de chaque enfant de CP et de CE1 dans différents domaines du langage et des mathématiques. L’idée est de pouvoir intervenir au plus vite si un enfant rencontre des difficultés d’apprentissage, afin de mieux l’aider à surmonter ces difficultés.

Bien que l’objectif premier soit de renforcer l’aide personnalisée, le projet aura également comme conséquence secondaire d’offrir aux enseignants, aux chefs d’établissement, aux inspecteurs et aux recteurs, un état des lieux fiable des compétences des enfants dont ils s’occupent. Année après année, en collaboration avec les chercheurs, cet état des lieux permettra de suivre l’évolution des compétences des enfants et sa variation en fonction des interventions et des expérimentations. Un retour aux parents est également prévu.

Comment les évaluations vont-elles se dérouler ?

Pour remplir au mieux leur objectif principal, les évaluations vont maintenant se dérouler en trois temps : début CP, mi-CP et début CE1.

Les évaluations de début CP et de début CE1 se déroulent du 17 au 28 septembre, et portent sur le français et les mathématiques (repères de début d’année).

Fin janvier, d’autres évaluations se dérouleront pour les élèves de CP. (point d’étape CP)

Les modalités précises sont décrites sur le site Eduscol

Quels principes ont guidé leur conception ?

L’objectif des évaluations de début CP est de repérer les enfants qui, du fait de faiblesses dans certaines compétences, risquent de rencontrer des difficultés dans l’apprentissage de la lecture et des mathématiques. A l’issue des tests, les résultats de chaque élève seront très rapidement restitués à chaque enseignant, ce qui lui permettra de connaître les compétences et les besoins de chaque élève. Simultanément, la DGESCO mettra à la disposition des enseignants un ensemble de ressources pédagogiques qu’ils pourront utiliser de manière à aider les élèves à travailler les compétences précises pour lesquelles les tests ont identifié des faiblesses.

Les évaluations ne conduisent donc absolument pas à une note ou un classement des élèves sur un axe unidimensionnel. Au contraire, il s’agit d’évaluer toute une panoplie de compétences qui concernent les apprentissages fondamentaux. Parmi ces compétences, il y a par exemple la connaissance des lettres, la conscience phonologique et le vocabulaire, qui sont toutes importantes pour l’apprentissage de la lecture, et peuvent nécessiter des efforts ciblés. Il y a également par exemple la connaissance de la grandeur des nombres, de la suite numérique, et de la correspondance nombre-espace, qui sont importantes pour l’apprentissage des mathématiques.

L’un des buts essentiels des évaluations de début CP est de prévenir les difficultés d’apprentissage en lecture et en mathématiques pour chaque enfant, en raccourcissant le délai entre la détection d’un besoin et le renforcement de l’action pédagogique correspondante. Elles permettent aussi d’établir un niveau de départ des élèves dans les différentes compétences, qui servira de référence pour les évaluations ultérieures.

En début de CP, les évaluations donnent des repères sur les besoins des élèves à l’entrée à l’école, et permettent déjà aux enseignants d’adapter leur enseignement. A la mi-CP, vers la fin janvier, les évaluations donnent un « point d’étape » sur les progrès de l’enfant. Leur objectif est d’aider l’enseignant à repérer les élèves qui, à l’issue de 4 mois d’école, sont en difficulté d’apprentissage de la lecture ou des mathématiques, et à identifier précisément la nature de ces difficultés. Ces élèves risquent d’éprouver des difficultés scolaires grandissantes, il importe donc d’intervenir le plus tôt possible. Ainsi, comme en début de CP, les résultats individuels des élèves sont restitués à leurs enseignants, à qui il est proposé une palette d’outils d’intervention visant à renforcer l’apprentissage de la lecture ou des mathématiques de ces élèves. Il s’agit là de la mise en application de l’approche dite « réponse à l’intervention », détaillée dans cet article, une approche qui a déjà fait ses preuves dans d’autres pays.

 

Enfin, les évaluations de début CE1 viennent clore le dispositif, en permettant de déterminer dans quelle mesure les interventions proposées aux élèves ont atteint leur objectif. Elles permettent aux enseignants de CE1 de déterminer, pour chaque élève, s’il est utile de poursuivre l’intervention, s’il faut la réorienter, ou bien si elle peut être arrêtée car l’élève a développé les compétences attendues. Pour les élèves qui manifestent des difficultés persistantes en CE1 malgré l’intervention pédagogique proposée, il pourra alors être utile de voir avec le médecin scolaire si un bilan individuel plus poussé est nécessaire.

Un certain nombre de propositions d’interventions pédagogiques ont déjà été listées par la DGESCO, mais le dispositif devra continuer à évoluer dans les mois et les années suivantes, en s’appuyant sur les apports des enseignants eux-mêmes. En juin 2019, la DEPP recueillera les retours d’un échantillon d’enseignants de CP et leurs suggestions sur les pratiques d’intervention qu’ils proposent ou qu’ils ont mises en œuvre au cours de l’année. Ainsi, le dispositif s’enrichira chaque année, et les chercheurs, en comparant la progression des élèves entre les différents types d’intervention, pourront examiner si certaines sont plus efficaces que d’autres. A terme, le dispositif permettra ainsi d’améliorer nos connaissances sur l’efficacité des interventions, et de sélectionner les plus efficaces à proposer aux enseignants les années ultérieures.

Qu’est-ce que les enseignants sont censés faire entre la rentrée et le début des évaluations le 17 septembre ?

Ils n’ont rien à changer aux activités qu’ils avaient prévues pour les premières semaines.

Les évaluations vont-elles induire du bachotage ? Les enseignants ne seront-ils pas incités à entrainer leurs élèves au test ?

Comme il ne s’agit pas d’un examen, les élèves n’ont absolument rien à étudier ou à réviser en vue des évaluations. Ni les parents, ni les enseignants ne doivent les entraîner aux tests. L’objectif des évaluations est de fournir le panorama le plus objectif possible des compétences des élèves. Il n’y a aucun intérêt à vouloir biaiser ou altérer cet état des compétences, ce serait au contraire nuisible à l’objectif même des évaluations, dans la mesure où cela fausserait l’outil et nuirait à l’usage que les enseignants pourraient en faire au bénéfice de leurs élèves.

Les évaluations vont-elles être une source de stress pour les élèves ? Vont-elles induire de la compétition ? de la sélection ?

L’objectif visé est que les élèves ne ressentent aucun stress, aucune anxiété de performance. Ils doivent simplement faire du mieux qu’ils peuvent, comme pour toutes les autres activités en classe. Les évaluations sont d’ailleurs conçues pour avoir une durée brève et contrôlée, de sorte qu’un élève ne reste pas en situation d’échec, mais passe rapidement à l’étape suivante.

Cette année, la grande majorité des évaluations seront passées sur papier, mais elles existent également sur tablette, et des expérimentations pilotes suggèrent que cela augmente considérablement leur aspect ludique – c’est pourquoi la passation sur tablette, après expérimentation, sera vraisemblablement étendue l’année suivante.

La manière dont les élèves percevront ces évaluations dépendra étroitement de la manière dont les enseignants les leur présenteront (les parents ne devraient même pas leur en parler). Les évaluations ne doivent donc pas être présentées aux élèves comme ayant un enjeu particulier pour eux (quelque chose qui peut être « réussi » ou « raté »). Il n’est même pas nécessaire de prononcer le mot « évaluation » devant les élèves. Les tests peuvent être simplement présentés comme d’autres activités pédagogiques, qui ont des règles particulières. Les instructions données aux enseignants dans les documents d’accompagnement vont dans ce sens.

Aucune note ne sera attribuée aux élèves après les évaluations. Ils n’auront aucun retour sur leur performance, et il n’y a pas de raison de leur en donner. Les élèves n’auront donc aucun moyen de comparer leur performance à celle des autres, et il n’y aura donc aucun esprit de compétition.

Le mot « évaluation » a souvent une connotation négative, associée à une sanction ou à un classement, mais cela n’est nullement le cas ici, et c’est pourquoi nous préférons parler de « repères ». Aucune sélection particulière ne sera faite sur la base des évaluations – bien au contraire, il s’agit de renforcer l’action pédagogique individualisée. L’enseignant adaptera donc simplement son action aux besoins identifiés chez les élèves. Les informations concernant les évaluations et les interventions pédagogiques ne sont pas incluses dans le livret scolaire qui suit l’élève tout au long de sa scolarité.

Que va-t-il arriver aux élèves qui échouent aux évaluations ? Ne risquent-ils pas d’être étiquetés, stigmatisés, découragés, enfermés dans un diagnostic ?

Il n’y a pas de notion d’échec aux évaluations. Les enseignants ne doivent en aucun cas renvoyer aux élèves l’idée que certains ont réussi et d’autres échoué. Ils ne doivent pas restituer aux élèves les résultats des évaluations, ni individuellement, ni a fortiori collectivement.

Les élèves étant repérés comme ayant besoin de développer certaines compétences ne doivent en aucun cas être explicitement désignés comme tels. Simplement, les enseignants pourront mettre en œuvre une pédagogie différenciée, qui impliquera que certains élèves feront certaines activités pendant que d’autres élèves en feront d’autres ; certains participeront aux activités pédagogiques complémentaires (APC), et d’autres pas, comme c’est aujourd’hui le cas dans le fonctionnement normal de la classe. Les évaluations offrent un outil précis et systématique pour aider les enseignants à structurer ce fonctionnement.

Le repérage n’implique en aucun cas un diagnostic. Repérer les enfants ayant des compétences particulières à développer et leur apporter une aide rapidement est le meilleur moyen pour qu’ils ne s’enfoncent pas durablement dans un diagnostic.

Les évaluations vont-elles servir à évaluer les enseignants ? les établissements ?

Non, les évaluations ne serviront à évaluer, ni les enseignants, ni les établissements. Le seul objectif est qu’elles fournissent une image fidèle des compétences et des progrès des élèves – et que ce diagnostic précis soit mis à profit dans les choix pédagogiques des enseignants, avec l’aide des conseillers pédagogiques et des inspecteurs de l’Education Nationale.

Ces évaluations et interventions vont-elles entraver la liberté pédagogique des enseignants ?

Les enseignants doivent faire passer les évaluations, en recevront les résultats, et un éventail d’outils et de ressources pédagogiques sera mis à leur disposition. A partir de là, les enseignants sont entièrement libres d’utiliser l’un ou l’autre de ces outils, d’en utiliser d’autres issus d’autres sources, ou même de n’offrir aucune intervention particulière à leurs élèves. La manière d’utiliser les informations issues des évaluations est de la seule responsabilité de l’enseignant, en toute autonomie. (Cela n’exclut évidemment pas que certaines équipes pédagogiques choisissent ensemble de mettre en œuvre des actions concertées.)

Lorsque des enseignants seront interrogés à la fin de l’année sur les interventions qu’ils auront mises en œuvre ou pas, les informations recueillies serviront exclusivement à alimenter la recherche sur l’efficacité respective des différents types d’intervention. Elles ne seront en aucun cas rendues disponibles pour l’évaluation des enseignants.

Les enseignants évaluaient déjà leurs élèves. Pourquoi cela ne suffisait-il pas ?

Bien sûr, tous les enseignants évaluent leurs élèves régulièrement avec des outils variés. Il s’agit ici de leur offrir des tests cognitifs plus complets et plus précis que ceux qu’ils utilisent la plupart du temps. Ces tests permettent, non seulement de repérer les difficultés (par exemple : la difficulté à lire), mais donnent aussi des éléments concrets sur la nature de ces difficultés (par exemple : une difficulté de traitement visuel, ou bien phonologique), permettant donc aux enseignants d’identifier chez chaque enfant les compétences spécifiques qui demandent à être développées.

Par ailleurs, les informations recueillies par les enseignants dans leurs évaluations habituelles sont très dépendantes des tests choisis, et sont relatives à la classe, à l’établissement, au quartier, à l’académie, sans référence fixe. Le risque est d’ajuster le niveau d’exigence et les aides apportées au niveau local moyen, et par conséquent de ne pas apporter suffisamment d’aide dans les milieux les plus défavorisés.

Seules des évaluations nationales permettent de situer chaque élève par rapport à une référence nationale, et ainsi d’avoir le même niveau d’exigence et les mêmes critères pour apporter une aide, quels que soient la région et le milieu. Pour la première fois, les enseignants sauront précisément où les compétences de leurs élèves se situent, non seulement au sein de leur classe et de leur établissement, mais par rapport à tous les élèves français. Disposer d’une référence nationale est un moyen pour lutter contre les inégalités territoriales, et contre les inégalités tout court.

Bien entendu, le fait d’avoir des évaluations nationales permet aussi de recueillir des informations précieuses permettant au ministère et aux chercheurs de suivre de près l’état et l’évolution des compétences clefs en lecture et en mathématiques des jeunes élèves français.

Pourquoi les enseignants ne corrigent-ils pas eux-mêmes les évaluations ?

Dans les versions précédentes des évaluations, les enseignants devaient corriger chaque copie, en suivant un barème très précis, et saisissaient les scores sur une plateforme en ligne de la DEPP. Dans la nouvelle version, il est apparu plus simple qu’ils saisissent directement les réponses des élèves sur la plateforme. Cela permet à la DEPP de recueillir une information intégrale sur les réponses des élèves (et donc d’analyser les types d’erreurs), et de calculer les scores automatiquement avec une plus grande fiabilité que par correction manuelle. La qualité des données recueillies est donc sensiblement améliorée.

Du point de vue des enseignants, ils ont plus d’informations à saisir sur la plateforme, mais en contrepartie ils sont dispensés du travail très chronophage de correction et de calculs de scores en suivant le barème. Au final, le travail est plus aisé et la quantité de travail demandée est moindre.

On ne comprend pas l’intérêt de certains tests. Ils ne correspondent à rien de ce qui est enseigné en maternelle ou en CP.

De manière générale, un test n’a pas la même fonction et donc pas les mêmes caractéristiques qu’un exercice à visée pédagogique.

Contrairement à un exercice, un test vise à évaluer une fonction cognitive bien précise. Cela amène parfois à lui donner une forme ou des caractéristiques qui sont différentes de celles des exercices, et qui sont peu familières pour les élèves. Cela ne remet pas en cause la validité du test, bien au contraire.

Les documents d’accompagnement des évaluations reçus par les enseignants incluent un descriptif et une explication de l’intérêt de chaque test inclus dans les évaluations (encadré « Pourquoi ce test ? »).

A deux exceptions près ("discrimination visuelle" et "utiliser le nombre pour exprimer une position"), tous les tests inclus dans les évaluations de début-CP se basent sur les attendus en fin de maternelle, tels que spécifiés dans les programmes. Les compétences associées à chaque test dans le guide du maître reprennent même littéralement ces attendus (par exemple: "reconnaître les lettres de l'alphabet", "Comprendre des textes écrits sans autre aide que le langage entendu", "Discriminer des sons"), pour que lien soit absolument évident pour les enseignants. Néanmoins, ces évaluations n’ont pas pour objectif d’évaluer ce qui a été fait à la maternelle ou dans les deux premières semaines du CP. Elles ont pour objectif d’évaluer un certain nombre de compétences cognitives qui sont des prérequis pour le programme de français et de mathématiques du CP. Certains de ces prérequis ont été enseignés à la maternelle, d’autre pas, mais ils n’en sont pas moins importants.

Ce qui justifie l'inclusion de ces tests dans les évaluations, ce n'est pas ce qui a été enseigné auparavant ou pas, c'est leur valeur pronostique et diagnostique pour l’apprentissage de la lecture et des mathématiques au CP, ainsi qu’il est expliqué dans les documents d’accompagnement.

Certains exercices semblent trop difficiles pour le début de CP

A nouveau, un test n’a pas la même fonction et donc pas les mêmes caractéristiques qu’un exercice à visée pédagogique.

Alors qu’un exercice est conçu pour pouvoir être réussi par la plupart des élèves, un test vise à être le plus sensible possible aux différences individuelles entre les élèves. Il est conçu pour révéler les difficultés, pas pour les masquer. De ce point de vue, un test qui donnerait le score maximal à 95% (ou à même à 50%) des élèves serait peu informatif. C’est pour cela que les tests sont conçus de manière à ce que l’obtention du score maximal soit difficile. Le symétrique est vrai également : si tous les élèves échouent, le test est aussi peu informatif. La plupart des tests visent donc une difficulté intermédiaire de manière à observer la plus grande variabilité possible.

Tous les tests proposés à la rentrée 2018 ont fait l’objet d’une étude pilote menée par la DEPP sur 6000 élèves, en collaboration avec de nombreux enseignants, de la conception au pilote. La difficulté des tests proposés ne doit donc rien au hasard, elle a au contraire été soigneusement calibrée sur la base de l’étude pilote.

Les résultats de l’étude pilote montrent d’ailleurs que les craintes sur la difficulté des exercices sont en large part infondées. Par exemple, dans l’étude pilote réalisée à la fin de GSM pour les tests de début CP, plus de la moitié des élèves ont réussi au moins 5 items sur 8 au test consistant à repérer le mot commençant par le même phonème que le mot cible. Ce test est donc tout à fait au bon niveau de difficulté. De même, le texte sur la glande pinéale qui offusque certains enseignants a donné 53% de réponses correctes chez les élèves dans l'étude pilote, qui ont été testés en fin de CP. Ce test est donc aussi au niveau de difficulté recherché. Il ne nécessite de connaître aucun mot compliqué comme glande pinéale ou mélatonine (les questions ne portent pas là-dessus).

Cela étant dit, certains exercices sondent effectivement des compétences qui sont probablement encore insuffisamment développées chez les élèves de début CP. Ces exercices ont été inclus parce qu’ils ont été jugés importants pour leur valeur diagnostique, ainsi que pour mesurer les progrès entre le début et le milieu du CP. Les analyses des résultats permettront de vérifier si c’est bien le cas. S’il s’avère que ces compétences sont très importantes pour la suite, et qu’elles sont insuffisamment maîtrisées par la plupart des élèves en début de CP, cela serait un argument fort pour motiver l’introduction de ces compétences dans les programmes de maternelle.

Le fait qu’un élève ne parvienne pas à faire un exercice ne doit pas poser de problème. Comme précisé dans les instructions, les enseignants doivent prévenir les élèves qu’ils ne parviendront pas à faire certains exercices, que cela est parfaitement normal, et que cela n’aura aucune conséquence. L’important est simplement que les élèves fassent de leur mieux sur chaque test.

Pourquoi certains tests sont en temps limité et impossibles à terminer?

Encore une fois, un test n’a pas la même fonction et donc pas les mêmes caractéristiques qu’un exercice à visée pédagogique.

Contrairement à un exercice, un test vise à évaluer une fonction cognitive bien précise. Dans certains cas, la fonction cognitive qui est visée par le test n’est pas juste la capacité à faire quelque chose (par exemple, reconnaître des lettres), mais l’automaticité de cette capacité (ce qui peut être très important, par exemple pour la fluence de lecture). Dans de tels cas, la mesure pertinente est le nombre de réponses correctes qu’un élève est capable de produire dans un temps donné.

A nouveau, de manière à être le plus sensible possible aux différences individuelles, il importe que tous les élèves ne puissent pas donner toutes les réponses dans le temps imparti. C’est pour cela que la liste d’items est trop longue pour pouvoir être terminée.

Et encore une fois, cela n’a pas lieu d’engendrer de la détresse ou de la frustration chez les élèves, dans la mesure où les enseignants prennent bien la précaution de leur expliquer qu’il est parfaitement normal de ne pas terminer le test dans le temps imparti. La collaboration des enseignants pour rassurer les élèves par rapport à leur performance est absolument cruciale.

Pourquoi certains tests comportent-ils des "pièges"?

Il n’y a évidemment aucune intention de « piéger » les élèves dans le but de les faire échouer.

Mais comme vous l’avez maintenant bien compris, un test n’a pas la même fonction et donc pas les mêmes caractéristiques qu’un exercice à visée pédagogique.

Si un test vise à évaluer, par exemple, la sensibilité aux phonèmes (est-ce que deux mots commencent par le même phonème ?), il est crucial de s’assurer que les réponses des élèves reflètent bien leur sensibilité aux phonèmes, et pas aux rimes, ni au sens des mots, ni à toute autre similarité de surface entre deux mots. Par conséquent, pour s’assurer que les bonnes réponses reflètent bien la compétence visée et aucune autre, il convient de mettre parmi les mots proposés comme réponse possible certains qui présentent d’autres similarités que celle qui est testée. Ainsi, si un élève choisit régulièrement la bonne réponse, on est sûr que c’est bien le phonème initial qu’il a repéré. Si au contraire il se laisse souvent « piéger » par un mot qui rime, alors c’est qu’il ne maîtrise pas encore parfaitement la distinction entre rime et phonème. Dans le cadre d’un test, il importe de le savoir, c’est justement ce niveau de précision qui va aider les enseignants à mieux connaître les besoins des élèves.

En résumé, ces différences entre les tests des évaluations nationales et les exercices habituels, qui semblent dérouter certains enseignants, ce sont précisément les caractéristiques qui leur donnent leurs qualités psychométriques, et qui font que ces évaluations nationales sont plus précises, plus valides et plus fiables que tout autre outil à leur disposition. Elles sont donc un complément indispensable à la panoplie d’exercices qu’utilisent déjà les enseignants.


158 commentaires pour “A quoi servent les nouvelles évaluations de CP et CE1 ?”

  1. Sylvain Répondre | Permalink

    Bonjour, si je suis d'accord sur la majorité des point et sur l'intérêt que peut représenter une évaluation multiple pour évaluer les actions pédagogiques, j'ai cependant de gros doutes...
    la personnalisation de la réponse pédagogique est un leurre vu les effectifs dans les classes et quand on voit que le 'ministère n'est même pas fichu de repo dre aux nécessités dans les cas le plus extrêmes (enfants avec handicap sans l'encadrement specifique necessaire et donc de fait quasi interdits d'école publique tellement leur accueil est complique pour un instit isolé dans une classe de 26!

    Par ailleurs, il me semble qu'il y a quelque jour, JMblanquer a clairement dit dans une interview que la prime accordée aux enseignant en rep+ serait finalement conditionnee aux performant c'est a dire aux résultats des évaluations.... A partit de là, toutes les dérivés sont envisageables....

    • Franck Ramus Répondre | Permalink

      Il ne s'agit pas d'individualiser totalement l'enseignement (ce qui serait impossible, évidemment), mais plutôt de regrouper les enfants par groupes de besoins similaires pour des activités ciblées. Il existe tout de même de multiples manières de faire travailler des groupes sur des activités différentes, même dans une classe de 30. Il y a aussi les heures d'APC qui sont prévues pour cela.

      • MASSABO Répondre | Permalink

        Bonjour,
        Dans la classe de CE1 de mon petit fils 4 élèves n'ont pas réussi leurs évaluations aussi bien que le reste de la classe.
        Les résultats ont été communiqués aux parents et la pédagogie différenciée qui leur est proposée est de faire retourner ces élèves en CP tous les matins. Ce qui va à l'encontre de ce que vous avancez quand vous dites :
        "Les élèves étant repérés comme ayant besoin de développer certaines compétences ne doivent en aucun cas être explicitement désignés comme tels."
        Si après ce traitement nos 4 petits ne sont pas stigmatisés ! ....
        Les parents peuvent ils s'opposer à cette décision et faire valoir qu'il existe d'autres méthodes pour aider les enfants à avancer ?
        Merci pour votre réponse

        • Franck Ramus Répondre | Permalink

          Je suis d'accord avec vous que c'est une curieuse manière de gérer la difficulté de ces 4 élèves. Les outils proposés aux enseignants pour répondre aux difficultés constatées étaient plutôt destinés à être utilisés au sein de la classe. Mais rien ne le prescrit non plus. On peut bien sûr se poser la question du ressenti de ces élèves qu'on ramène dans la classe inférieure. Il faudrait voir exactement comment c'est communiqué et mis en œuvre.
          Bref, ce n'est pas vraiment l'esprit de ce qui était proposé aux enseignants. Mais rien ne dit non plus que cette solution qu'a trouvé l'équipe pédagogique soit plus mauvaise qu'une autre. Cela ne me semble pas justifier une opposition de principe. En revanche, si les élèves concernés le vivent mal, là ce serait une bonne raison de remettre en cause cette approche.

      • JJosé Répondre | Permalink

        Bonjour,
        Des heures d'APC prévues en effet pour remédier aux difficultés observées chez nos élèves. Mais que dire de la possibilité donnée aux enseignants de pouvoir récupérer les heures passées à gérer ces évaluations nationales sur du temps d'APC ?
        Il fut une année ou deux où les enseignants avaient touché une prime pour corriger les évaluations nationales. (Tâche autrement plus passionnante et utile dans l'interprétation des résultats qu'une simple saisie).

    • Franck Ramus Répondre | Permalink

      Concernant le 2ème point, je ne peux pas parler pour le ministre. Mais si l'on pense que les évaluations nationales pourraient
      servir à évaluer les enseignants, alors seuls les enseignants de CP pourraient être évalués. Est-ce que cela aurait le moindre sens de
      n'évaluer que les enseignants de CP? Pour évaluer tous les autres, il faudrait avoir des évaluations nationales en début et en fin de chaque
      niveau scolaire. Ce n'est actuellement le cas dans aucun autre niveau. Et ce serait totalement invraisemblable que ce soit un jour le cas, ce serait une logistique colossale qui dépasserait les capacités du ministère et qui aurait un coût exorbitant. A ma connaissance, personne n'a jamais envisagé une telle chose. Donc cette idée d'évaluer les enseignants par les résultats des élèves est peut-être un rêve un peu fou caressé par certains, mais n'a strictement aucune plausibilité.

      • Samuel Répondre | Permalink

        Certes, mais comme il y a une évaluation en début de CP et une en début de 6ème (fin de CM2, donc), ça permet d'évaluer non pas les enseignants individuellement mais les écoles, donc les équipes, donc un groupe d'enseignants et ce sur un seul quinquennat (bon, là on a un an de retard pour ce "fantasme"). Je ne dis pas que c'est ce qui est prévu, c'est peut-être le "rêve fou carressé par certaines", mais c'est davantage plausible. Et ça a été fait dans d'autres pays, donc ce n'est pas simplement un fantasme (même si l'appliquer à ce ministère est un procès d'intention, je l'admets).

        • Franck Ramus Répondre | Permalink

          Ah oui, sur 5 ans, on pourrait faire un avant/après pour toute une école. Si seulement on était capable de suivre les élèves entre l'école élémentaire et le collège. Ce qui est, dans l'état actuel des systèmes d'information de l'éducation nationale, impossible. Quelqu'un y travaille, sans doute. Mais en attendant il n'y a rien qui justifie de terroriser tous les enseignants de France et de Navarre à l'idée qu'on va les évaluer avec les évaluations nationales de CP et CE1!

  2. Lola Répondre | Permalink

    Bien bien bien... et sinon t’as été payé combien pour rédiger ton article ? Manifestement ça fait bien longtemps que tu n’as pas eu de classe...

  3. FICHER Répondre | Permalink

    Nous sommes à moins d'une semaine du début de la passation... et toujours pas de livret d'élèves... ni de livret du maître d'ailleurs !!!

    • Franck Ramus Répondre | Permalink

      Certains les ont bien reçus. C'est distribué par les académies, elles ne sont sans doute pas toutes organisées de la même manière.

  4. BONNEFOIS Répondre | Permalink

    Qui êtes-vous exactement monsieur Ramus ?

  5. BONNEFOIS Répondre | Permalink

    Je viens de lire vos fonctions et je n'en reviens pas.
    C'est tellement simpliste votre discours que je pensais qu'il provenait de quelqu'un qui ne connaissait pas grand chose à l'enseignement et qui avait des idées préconçues.
    Là je suis attérée ! Comment faire croire que des évaluations qui vont mettre en lumière des difficultés de conscience phonologique, de connaissance des lettres ou connaissance de la suite numérique vont révolutionner le système éducatifs. Fort heureusement ces évaluations que vous avez citées sont la base de l'évaluation habituelle de tout enseignant. Et souvent grâce aux livrets d'évaluation transmis par les collègues, ces difficultés ont déjà été repérées dès la maternelle et ont fait l'objet de premières remédiations.
    Et croyez moi la maîtresse de CP repère très vite ce genre de difficultés dès les premières semaines de classe.
    Proposer des outils de rémédiation pourquoi pas ! Il faut savoir que les enseignants sont envahis de supports écrits divers et qu'ils n'ont pas toujours le temps de se les approprier.
    Mais ne faudrait-il pas plutôt envisager une vraie formation initiale avec de vrais stages accompagnés. Et proposer également une vraie formation continue.
    C'est à ce prix que l'on fera évoluer l'enseignement et non pas à coup d'injonctions, de projets d'aide en tout genre que même les enseignants ont du mal à différencier et de rapports écrits.
    Maître E en RASED nous recevons déjà les premières demandes d'aide pour des enfants dont les enseignants ont déjà repéré leur difficultés.

    • Franck Ramus Répondre | Permalink

      Si vous et les maîtres de CP que vous connaissez mettez déjà tout cela en œuvre, je veux bien vous croire sur parole et je m'en réjouis. Mais ne commettez pas l'erreur de croire que cela correspond à la situation générale. Il existe suffisamment d'études qui montrent que ce n'est pas le cas, et que 18 à 20% des élèves sortant d'élémentaires sont de très faibles lecteurs, faute d'avoir été repérés et aidés à temps. Ne vous offusquez donc pas qu'on vous explique ce que vous faites déjà. L'objectif est de donner à 100% des élèves français la même chance qu'ont les vôtres.

    • Franck Ramus Répondre | Permalink

      Quant à vos remarques sur la formation et les stages, j'y adhère totalement. Mais cela n'est pas mutuellement exclusif! Le ministère travaille justement très sérieusement à une réforme de la formation.

      • BONNEFOIS Répondre | Permalink

        Je pense que le problème se situe moins dans le repérage que dans les solutions à apporter.
        Je viens en tant que nouvelle maître E de consulter les documents des aides pédagogiques apportées ces 3 dernières années en élémentaire à des élèves qui étaient passés par ma classe de maternelle.
        Sans surprise, j'y ai retrouvé des élèves déjà repérés en maternelle notamment dans le domaine numérique ou phonologique par exemple.
        Il arrive exceptionnellement que les difficultés de certains élèves ne soient pas repérées à temps mais cela reste rare.
        J'ai rencontré l'enseignante de CP et là encore les élèves qui rencontrent les premières difficultés sont des élèves que j'avais suivi en APC en moyenne-section. Ce sont souvent des élèves qui présentent des difficultés massives et associées. On arrive heureusement à remédier assez facilement aux difficultés plus spécifiques et moins lourdes d'autres élèves.C'est d'ailleurs tout l'enjeu de notre travail.
        Que ces évaluations tracent une photographie nationales des potentialités des élèves français à un temps donné , je n'en doute pas. Qu'elles permettent aux enseignants de détecter les enfants en difficulté dans leur classe, j'ai beaucoup plus de doutes. Et c'est plutôt rassurant de savoir que la majorité des enseignants de CP ont la capacité de percevoir et d'analyser les difficultés de leurs élèves. C'est même l'essence de leur travail.
        Reste à réfléchir sur les solutions à apporter et même à anticiper. Je pense aux excellents travaux de Brissiaud qui remet en cause le comptage numérotage dès la petite section et qui constate que depuis cette pratique les enfants rencontrent plus de problème en élémentaire que quand on n'apprenait pas à compter à 3 ans.
        Voilà des travaux qui ont révolutionné ma pratique et m'ont permis d'analyser finement les difficultés de certains de mes élèves. Mais ce sont des heures de formation y compris formation personnelle hors éducation nationale (bien obligé vu le peu de formation), un budget personnel.conséquent pour accéder à ces formations qui m'ont permis cette évolution. Et on ne peut blâmer les enseignants de ne pas tous pouvoir s'engager dans une telle démarche.
        Psychomotricienne durant 10 ans et reprenant mes études à 36 ans, je suis sortie complètement démunie après 1 an de formation IUFM avec une conscience aiguë de mes incompétences. Et j'avais pourtant certaines connaissances grâce à mon précédent métier. Je me suis retrouvée face à une classe de GS sans qu'on ne m'ait jamais enseigné comment on apprend à un enfant à écrire par exemple.
        Quel autre métier n'a besoin que d'un ou deux ans de formation ? Les infirmières, les orthophonistes, les psychomotricienne bénéficient de 3 à 4 ans de formation.
        Alors certes en sortant de mes études de psychomotricité , ça n'a pas été facile mais il y avait un gouffre par rapport à ce sentiment d'incompétence à la sortie de l'IUFM.
        Pour moi, voilà le principal problème de l'enseignement aujourd'hui : le manque de formation initial des enseignants avec un nombre limité de stages en présence d'un enseignant et des stages très précoces dans la formation de stages en responsabilité.
        Il n'y a plus de phénomène de tutorat entre les enseignants chevronnés et les nouveaux Pourtant on apprend énormément aux contact de ceux ci ! Et je ne parle pas de la formation continue qui n'est accessible aux enseignants qu'après plus de 10 ans d'ancienneté.
        Après il reste à définir ce qu'il faudrait mettre en place pour améliorer la prise en charge de ces enfants en difficulté.
        Partager les classes de CP en REP, c'est accrédité l'idée commune et bien ancrée que c'est l'année charnière où tout se joue.
        En tant qu'enseignante de maternelle durant 20 ans, j'ai toujours travaillé à faire comprendre aux parents combien la maternelle était importante er que le CP n'était qu'une marche d'escalier supplémentaire si les enfants y étaient bien préparés.
        J'ai été soulagé comme la plupart de mes collègies lors de la parution des derniers programmes qui redonnaient à la maternelle un vrai sens et s'éloignaient d'objectifs pré-CP mécaniques.
        J'ai applaudi quand on a réaffirmé la place de l'oral, compétence indispensable dans les apprentissages futurs. Alors non je ne suis pas d'accord, on a beau mettre tous les ateliers possibles en marche, on ne peut pas être efficace dans cet apprentissage avec des classes de plus de 25 élèves voire 30 dans certains cas.
        Il y a de vraies réflexions à entamer sur cette prise en charge des enfants en difficulté scolaire mais on n'obtiendra des résultats qu'en restant au plus proche des acteurs que sont les enseignants et surtout pas par l'obligation de méthodes imposées.
        Il faut pour ce travail auprès des enfants une bonne dose d'enthousiasme et de passion. Ce n'est possible qu'en étant profondément impliqué dans les processus d'apprentissage mis en place et persuadé de leur possible effacité.
        Une passionnée !!!

        • Franck Ramus Répondre | Permalink

          Je ne sais pas où vous avez lu qu'il y avait des méthodes imposées. Il n'y en a pas. La seule chose qui est imposée, ce sont les évaluations nationales, parce que c'est le seul moyen de fournir un tableau objectif des compétences de 100% des élèves, de qualité égale sur tout le territoire. A partir de là, les enseignants sont libres de la pédagogie qu'ils mettent en œuvre. Un éventail de ressources leur est proposé, mais ils en font ce qu'ils veulent.

          • David | Permalink

            Comme vous le rappelez très clairement, ces évaluations sont imposées mais rajoutons bien qu'elles ne sont en aucun cas obligatoires. Plusieurs DASEN ont déjà rappelé qu'aucun texte ne permettait de prendre des sanctions à l'égard d'enseignants qui ne feraient pas passer ces évaluations ou qui ne feraient pas remonter les résultats.

      • BONNEFOIS Répondre | Permalink

        Excusez moi pour les fautes de frappe ....enfin je l espère !!

  6. Funji63 Répondre | Permalink

    Le problème avec cette "culture de l'évaluation" particulièrement à la mode c'est dernières années, c'est qu'à force de consacrer du temps à évaluer, on en passe de moins en moins à APPRENDRE, ce qui est pourtant, il me semble, la fonction première de l'école... L'objectif de ces évaluations est justement d'être plus efficace dans ce que l'on propose aux élèves me direz-vous ? Dans ce cas j'y vois plusieurs problèmes :
    - le calendrier et le temps consacré déjà : il me semble que quelques évaluations diagnostiques beaucoup plus light et proposées les tout premiers jours de classe permettent d'avoir une bonne idée des besoins particuliers des élèves sans perdre autant de temps et permettant d'être réactif tout de suite.
    - l'organisation pratique : je travaille dans une école rurale où chaque classe comprend 2 niveaux. Une fois encore, ce genre de situation est complètement ignorée par ceux qui nous pondent ces évaluations... En effet leur passation requiert une présence complète de l'enseignant, et pendant ce temps que font les grands à côté ? Eh bien ils sont en autonomie bien sûr... Mais comme d'habitude ce cas de figure, qui est pourtant la norme dans les petites écoles comme la mienne, n'est pas du tout pris en compte par ceux qui nous pondent ces évaluations, pensées pour des classes stéréotypées, sans multi-niveaux et sans enfants à besoins particuliers déjà identifiés (qui n'ont pas tous nécessairement une AVS, non non...)
    Bref, je m'arrête là, mais tout ça pour dire qu'entre les intentions de départ et les réalités du terrain il y a une nouvelle fois un gouffre, et franchement c'est fatiguant. J'y vois une dénégation de ce qu'est réellement l'école publique française aujourd'hui, dans toute la diversité de ses besoins et de ses réalités plurielles, qui font que des outils standardisés comme ces évaluations nationales sont, dans de nombreux cas, complètement inadaptés.

  7. Cosme Répondre | Permalink

    Bonjour,
    je ne comprends pas la réaction de mes collègues... Certes, on peut faire toujours mieux. Certes, la formation continue tarde à se mettre en place. Mais les référents maths prévus pour cette année repose sur une bonne idée.
    Quant aux évaluations, je suis pour. Le Rased n'est interpellé au mieux qu'en CE2 sur les mathématiques (qui est ma discipline d'origine) : on a un vrai besoin en cycle 2 d'aides sur les maths...
    Si certains PE sont déjà outillés tant mieux pour eux. Si certaines écoles arrivent à se faire passer de l'information faible d'une année sur l'autre, tant mieux, c'est super. Mais ce n'est pas le cas partout et pour tous. Plus du tiers des PE que je connais ont encore du mal à avoir une connaissance fine de leurs élèves en période 3... De plus, les exercices proposés ont été, pour une fois (mais en partie, certes) basés sur la recherche... Arrêtons d'être stressés et parasités par des peurs qui me semblent infondées. Serrons nous les coudes et avançons : l'enseignement (en maths) va mal et il est temps de réagir. Testons, essayons, rectifions, améliorons.

    • Funji63 Répondre | Permalink

      Vous vous focalisez sur les mathématiques, ce qui n'est visiblement pas le cas du ministère qui veut désormais limiter les APC à la lecture, ce qui en exclut de fait les mathématiques (source = lettre du ministre aux enseignants en date du 26/04/18) Est-ce bien judicieux, en particulier pour les élèves de cycle 3 ?

      Pour en revenir aux évaluations nationales, je vous rappelle qu'elles présentent, cette année, un caractère obligatoire... Les enseignants qui ne ressentent pas le besoin d'utiliser un tel outil ne sont pas censés pouvoir s'en dispenser...

      Enfin vous rappelez que les exercices proposés s'appuient sur la recherche, ils n'en restent pas moins TRÈS imparfaits ! Entre un texte pour des élèves de CE1 qui parle de "sommeil paradoxal", de "mélatonine" ou encore de "glande pinéale" ou encore un exercice où on représente le petit garçon qui fait du sport, coupe des arbres et bricole versus une petite fille qui se fait belle, choisit ses vêtements avec soin et se lève avec grâce, on peut franchement se poser des questions... Et je ne vous parle pas des exercices chronométrés, sur des pages contenant la bagatelle de 60 items différents (vive la surcharge)

      Bref, vous dites en préambule de votre message "Certes, on peut faire toujours mieux. " Je vous confirme que dans le cas présent, vous avez plus que jamais raison 🙂

      • Franck Ramus Répondre | Permalink

        Les enseignants qui ne ressentent pas le besoin d'utiliser un tel outil ne sont pas censés pouvoir s'en dispenser

        La bonne question à se poser, c'est pourquoi est-ce que des enseignants ne ressentiraient-ils pas ce besoin, et ont-ils raison? Peut-on légitimement défendre l'idée que les enseignants ne fassent que ce dont ils ressentent le besoin? Et s'ils ne ressentent pas le besoin d'aider les élèves en difficulté? et de les évaluer pour repérer ceux qui sont en difficulté?
        Malgré tous les beaux discours qui clament que les enseignants le font déjà, on ne peut que constater que nombre d'enfants en difficulté de l'apprentissage de la lecture ou de l'arithmétique ne sont repérés que tard au cours de l'élémentaire, parfois beaucoup trop tard, lorsqu'ils sont enfoncés dans un échec scolaire durable et généralisé. C'est la stratégie "attendre l'échec", cf. mon précedent article. Il y a donc tout de même une certaine légitimité à faire en sorte que 100% des enseignants de CP et de CE1 repèrent ces élèves et leur viennent en aide à temps.

      • Franck Ramus Répondre | Permalink

        Concernant le texte sur la glande pinéale, cf. la réponse à la question 14. Je précise (pour ceux qui n'ont pas vu le cahier d'évaluation CE1) qu'il n'y a nul besoin de connaître ces mots pour répondre aux questions posées sur le texte, ce n'est évidemment pas le propos.
        Concernant les illustrations que vous trouvez choquantes, c'est de très mauvaise foi. Pourquoi n'avez-vous pas relevé le garçon qui fait de la couture (p. 3 du même exercice)?
        Concernant les exercices chronométrés, cf. question 15.

        • Funji63 Répondre | Permalink

          « Non, je ne vois pas pourquoi vous dites cela. »
          Je répondais au message de « Cosme », qui évoque à plusieurs reprises les mathématiques

          « La bonne question à se poser, c'est pourquoi est-ce que des enseignants ne ressentiraient-ils pas ce besoin, et ont-ils raison? Peut-on légitimement défendre l'idée que les enseignants ne fassent que ce dont ils ressentent le besoin? Et s'ils ne ressentent pas le besoin d'aider les élèves en difficulté? »
          Désolé, mais c’est un homme de paille : je n’ai jamais prétendu que les enseignants peuvent faire ce qu’ils veulent / comme ils veulent, ni même qu’ils sont forcément les plus à même de déterminer ce qui est « bon » pour leurs élèves d’ailleurs. On pourrait d’ailleurs débattre sur les missions du professeur des écoles, en particulier si l’administration de ce type de test par leurs soins doit en faire partie mais pour ce qui est de l’aide aux enfants en difficulté, ça ne souffre aucun débat… Que certains collègues soient démunis (ou pas formés) face à la difficulté scolaire est selon moi une toute autre question. Leur permettre de mettre le doigt sur les difficultés de leurs élèves – si tant est que ces évaluations le permettent réellement, ce dont je doute encore en raison des biais évoqués par d’autres messages ici – est certainement une intention louable, je ne le nie pas, mais l’outil utilisé pour y parvenir est selon moi encore bien trop perfectible pour être généralisé si vite. Je rejoins l’avis d’un autre intervenant qui suggérait qu’il soit proposé à un échantillon représentatif, sur lequel une attention particulière aurait sans doute permis d’éviter bon nombre de biais ; le premier d’entre eux étant d’ailleurs la posture adoptée par des enseignants, même avec toute la bonne volonté du monde.

          « Malgré tous les beaux discours qui clament que les enseignants le font déjà, on ne peut que constater que nombre d'enfants en difficulté de l'apprentissage de la lecture ou de l'arithmétique ne sont repérés que tard au cours de l'élémentaire, parfois beaucoup trop tard, lorsqu'ils sont enfoncés dans un échec scolaire durable et généralisé. C'est la stratégie "attendre l'échec", cf. mon précedent article. »
          J’ai lu avec attention l’article en question et je souscris à la majorité des idées développées. On comprend bien d’ailleurs, à la lecture de cet article, l’importance des années de CP et CE1, ce qui justifie pleinement les efforts sur ces niveaux comme le dédoublement de ces classes en REP. Toutefois vous évoquez « les beaux discours qui clament [ce que] les enseignants font déjà », je lui opposerais un autre beau discours réclamant à corps et à cris plus de moyens (humains en particulier) pour répondre de façon la plus adaptée possible aux besoins spécifiques des élèves. Comme je le disais, le dédoublement des classes et la limitation des effectifs est très positive à ce titre ; je reste persuadé que c’est la bonne direction, mais on s’éloigne du sujet de départ que sont ces évaluations nationales.

          « Il y a donc tout de même une certaine légitimité à faire en sorte que 100% des enseignants de CP et de CE1 repèrent ces élèves et leur viennent en aide à temps. »
          Si cibler est une chose, leur venir en aide (efficacement de surcroit) en est une autre. Une question à ce propos : au-delà de ce repérage que vous évoquez, un « suivi » des élèves ciblés est-il envisagé dans le futur (à des fins statistiques par exemple) ?

          « Concernant le texte sur la glande pinéale, cf. la réponse à la question 14. Je précise (pour ceux qui n'ont pas vu le cahier d'évaluation CE1) qu'il n'y a nul besoin de connaître ces mots pour répondre aux questions posées sur le texte, ce n'est évidemment pas le propos. »
          J’entends votre argument, mais dès lors était-ce bien judicieux d’y ajouter cette difficulté que constituent ces mots de vocabulaire ? N’est-ce pas là un « bruit » qui va biaiser l’approche que les enfants auront du texte en risquant de focaliser (ou au contraire de perdre) leur attention avec des éléments qui ne sont pas évalués dans les questions ?

          « Concernant les illustrations que vous trouvez choquantes, c'est de très mauvaise foi. Pourquoi n'avez-vous pas relevé le garçon qui fait de la couture (p. 3 du même exercice)? »
          Je vous prie de m’excuser, je n’avais pas vu le garçon qui coud, au temps pour moi.

  8. André Répondre | Permalink

    Monsieur,

    Mais quelle est donc votre conception des élèves, des enseignants et de leur métier?
    Pour vous les élèves ne seraient que des objets d'analyses et d'expériences plus ou moins douteuses quant à leur sens et leurs motivations. Ils seraient donc désincarnés et sans affect! La conception de "tests" qui ont pour fonction de les piéger et de les mettre en échec, répond à une toute autre logique que celle que vous semblez défendre.
    Pour vous les enseignants sont de petits soldats aux ordres d'un ministre et dont la seule mission serait d'obéir sans conscience. Vous soutenez l'injonction du passage de "tests" qui n'ont fait l'objet d'aucune concertation avec la profession, dont des IEN aux ordres interdises parfois de les consulter avant leur passation. Vous en appelez, et cela est particulièrement inquiétant pour qui se présente comme un chercheur, au reflex d'obéissance plutôt qu'à l'intelligence. Pour rappel, dans cette opération, la mission des enseignants se résument à faire passer des tests (à piéger leurs élèves), rentrer sagement les réponses de leurs élèves et récupérer des fiches automatisées qui indiqueront ce qu'ils devraient mettre en place pour résoudre les difficultés repérées par la machine! J'en ai des frissons dans le dos.
    Enseigner repose sur un contrat de confiance entre l'élève et l'enseignant, celui du respect, de la bienveillance et de la prise en compte de l'affect. Ces "tests" sont un insultes à ces principes.
    Blanquer n'est pas un inconnu, il sévissait déjà sous les pires ministres de l'éducation nationale que nous avons eu (Chatel, De Robbien). C'est un libéral convaincu proche de l'Institut Montaigne et de mouvances réactionnaires! Il rêve de mise en concurrence des écoles, des élèves, des enseignants dans une société, où le citoyen laissera la place des individus en perpétuelle concurrence. Il rêve de casser le service public pour assurer la création de sociétés privées financées sur fond public. Ces "tests" participent de cette entreprise...
    Vous faites le choix de servir corps et âmes ce ministre! Je fais le choix de servir mes élèves en les soustrayant à des tests néfastes pour leur estime et leurs apprentissages.
    Bien à vous,

    • Franck Ramus Répondre | Permalink

      Vous n'avez visiblement lu aucune explication, ou vous feignez de ne pas les comprendre. Sans m'attarder sur les procès d'intention, je corrige quelques points factuels:
      - Tester les élèves n'implique en rien de les voir désincarnés et sans affect. Il s'agit simplement de les aider au mieux, ce qui ne peut se faire que si l'on établit un tableau objectif et fiable de leurs apprentissages. Le fait de ne pas réussir tous les items de tous les tests n'a aucune raison d'engendrer des émotions négatives chez les élèves, si vous suivez scrupuleusement les instructions pour dédramatiser les évaluations. (cf. Question 7)
      - les tests n'ont nullement pour fonction de "piéger" les élèves, cf. la réponse à la question 16.
      - quant à les mettre en échec, ce n'est pas le but, mais il faut que des erreurs soient possibles. Un test sert à révéler les difficultés (s'il y en a), pas à les masquer (ce qui n'aurait strictement aucun intérêt et n'aiderait en rien les élèves). Cf. réponse à la question 14.
      - Effectivement il est demandé aux enseignants de faire passer les tests, ce qui est la condition nécessaire pour disposer d'un tableau objectif sur les apprentissages de 100% des élèves français. Cela n'implique en rien que les enseignants seraient dépossédés de leur métier, ils restent entièrement maîtres de leur enseignement et de la manière de prendre en compte l'information donnée par les évaluations. (cf. question 10)
      - En choisissant de soustraire vos élèves à ces tests, non seulement vous les privez d'un outil conçu pour les aider, mais vous faussez aussi l'appréciation des acquis de l'ensemble des élèves français, et donc vous faussez la référence nationale qui doit servir à tous les autres enseignants pour situer objectivement le niveau de leurs élèves. Ce choix est analogue à un refus de vaccination, il s'agit d'une décision individuelle qui a des répercussions collectives bien plus vastes.

      • F68.10 Répondre | Permalink

        La comparaison avec la vaccination est oiseuse. Sur le penchant purement statistique de ces evaluations, c'est aux personnes traitant les donnees recues de faire attention a traiter les donnees de maniere robuste. "Robuste" est un terme statistique qualifiant la tolerance des outils statistiques aux donnees aberrantes ou censurees. Ce qui arrivera immanquablement.

        Le principal obstacle a la vaccination reste la stupidite. Par contre, mettre les gens dans la peau de tueurs d'enfants est une forme de chantage affectif qui aura probablement pour effet de radicaliser davantage les opposants a la vaccination. Le seul critere qui compte est celui de la couverture vaccinale (cf. rougeole). Les indignations morales n'ont pas vraiment leur place.

        Et tant qu'on y est sur les vaccins, le lien suivant, c'est du complot? De la provoc? Ou de la science?

        https://ebm.bmj.com/content/early/2018/07/27/bmjebm-2018-111012.long

  9. Hélène Répondre | Permalink

    Pourquoi appeler cela "évaluations" ?

    Ce terme génère un stresse car dans le cadre scolaire évaluation n'a pas juste la valeur de prise de recul et de mise à plat du niveau des connaissances. Vous avez niés le stresse induit par l'école chez certains enfants, chez certaines familles. Par ailleurs, depuis quelques années, on entend beaucoup parler d'évaluation des enseignants, il faudrait pouvoir les noter pour connaitre leur valeur (ce qui n'a pas de sens pour moi). Ce terme est donc aussi stressant pour les enseignants, alors qu'ils ne sont pas assez soutenus dans leurs démarches pédagogiques, pas assez formés et le peu de formations adaptées n'est pas toujours facilement accessible. Le terme évaluation sonne comme un coup de bâton que l'on veut donner en cas d'échec. Il ne devrait pas y avoir de notion d'échec ou de succès en fonction des résultats dans votre action, car je pense que votre but est de faire un constat afin de progresser dans la façon de transmettre des connaissances.... et pourtant le gouvernement et les médias ne pourront s'empêcher de dévaloriser l'école, les enseignants et les familles. Même si je comprends l'intérêt de cette action, elle a un réel manque de bienveillance dans sa mise en place.... on manque beaucoup trop de bienveillance dans notre pays....

    Par ailleurs, je ne crois pas à votre "blabla" sur la soit disant valeur de cette évaluation pour un maitre. Un maître consciencieux n'a pas besoin d'évaluations nationales pour voir les forces et les faiblesses chez ses propres élèves et pour les autres soit ça ne changera rien, soit ça mettra de la compétition pour avoir de meilleurs résultats (ce qui n'est pas un bon moteur à mon sens pour aller de l'avant, mais chacun ses valeurs....). Le classement des université n'est pas une bonne chose pour la recherche ni pour le bien être des étudiants, le classement des écoles primaires ne sera pas meilleur. Car quoique vous écriviez, classement il y aura.... ne sous-estimez pas les politiques ni les journaux (le point, marianne, etc.... vont adorer !). Ils le font pour les lycées, alors pourquoi pas les écoles primaires.

    De plus, je ne vois pas l'intérêt d'un "recensement" national, faire une étude sur un échantillon bien calibré et de taille suffisante me semble suffisant et moins lourd à mettre en place... vu de l'extérieur, un recensement national a un effet Big Brother désagréable (même si la finalité est la même lorsque l'on fait des sondages). On pourrait lisser les données comme le fait l'insee avec le recensement de la population en modifiant l'échantillon d'une année sur l'autre, afin de pouvoir couvrir tout le territoire en quelques années.

    Je ne critique pas tant que cela le fond de cette mesure, car je trouve intéressant de faire un état des lieux dans le but de s'améliorer collectivement. Par contre, je critique vigoureusement la forme. Cette mesure est trop verticale (d'en haut vers le bas) et sans bienveillance envers les individus.

    • Franck Ramus Répondre | Permalink

      Sur le mot "évaluations", vous avez raison sur le fait qu'il peut être connoté négativement. C'est pour cela qu'à la fois le ministère et nous-mêmes avons bien insisté sur le sens et le rôle de ces évaluations, qui n'est nullement de sanctionner ceux qui ne réussiraient pas. Il n'existe pas des dizaines de mots que l'on pourrait utiliser à la place. On fait tout de même l'hypothèse qu'on s'adresse à des professionnels qui sont capables de comprendre de quoi on parle si on leur explique. Après, s'ils ne veulent pas croire ce qu'on dit, je ne vois pas ce que changer de mot pourrait changer. Je précise à nouveau que le mot "évaluations" est destiné aux enseignants, pas aux enfants. N'utilisez pas ce mot avec eux.

    • Franck Ramus Répondre | Permalink

      "Un maître consciencieux n'a pas besoin d'évaluations nationales pour voir les forces et les faiblesses chez ses propres élèves": comme d'autres enseignants qui se sont exprimés, vous semblez manifester une très grande confiance à ce sujet. Et pourtant, dans votre formation initiale ou continue, quelle formation avez-vous reçue en psychologie, en psychométrie, en docimologie, qui vous donne la compétence pour concevoir des tests valides et fiables, qui vous permettent non seulement de déterminer quel élève est en difficulté, mais pourquoi? Etes-vous si sûre d'avoir la science infuse de l'évaluation? Ne croyez-vous vraiment pas que vous n'auriez rien à gagner à utiliser des tests qui ont été conçus par des experts de ces sujets (en collaboration avec des enseignants, bien entendu)?

    • Franck Ramus Répondre | Permalink

      Sur la question du meilleur moyen pour obtenir une référence nationale, vous avez raison sur le fait qu'un échantillon représentatif suffirait.
      Mais rappelons que la fonction première de ces évaluations n'est pas de constituer une norme, mais de venir en aide à 100% des élèves français qui en ont besoin, pas seulement à un échantillon.

  10. Caroline Répondre | Permalink

    Bonjour,

    Quand on enseigne depuis longtemps, on repère dès les deux premières semaines les enfants qui vont rencontrer des difficultés dans l’apprentissage de la lecture/écriture et/ou des mathématiques.

    Ce dont on a besoin pour ceux qui sont déjà en décalage à l’issue de leurs trois années de maternelle, ce n’est pas d’aide personnalisée, mais de moyens supplémentaires : des effectifs plus faibles pour pouvoir passer plus de temps à manipuler en petits groupes, voire en face à face pour certains, et pas qu’une heure par semaine en-dehors du temps de classe (APC), et pourquoi pas la présence d’orthophonistes et de psychomotriciens directement dans les écoles.

    Dans ma classe j’ai 25 élèves, dont 13 CP (dont un autiste Asperger pour lequel l’AVS n’a pas été nommé, et un allophone arrivé il y a plus d’un an et qui ne parle toujours pas français, même les mots simples comme « arbre » ou « voiture » lui manquent, et qui n’a bénéficié l’an dernier que d’une heure de FLE par semaine, faute d’enseignant spécialisé davantage disponible !) et 12 Ce1. Je manque de temps pour chacun, les plus faibles comme les plus forts, parce qu’ils sont trop nombreux.
    Avez-vous pensé à la complexité de mener de telles évaluations dans un cours double, voire même triple ? Que de temps perdu sur les apprentissages pour au final apprendre quelque chose qu’on a déjà évalué !

    Alors quand on aura tous des classes à moins de 20 élèves, un réseau d’enseignants spécialisés digne de ce nom (dans le village où j’enseigne, c’est très simple, il n’y en a plus depuis 10 ans !), et des orthophonistes et des psychomotriciens que nous pourrons faire intervenir (et non sur la seule demande de parents qui sont parfois bien démunis et qui font la demande parfois bien tard, après plusieurs années d’alertes de la part des enseignants), on pourra dire que l’on prend correctement en charge la difficulté scolaire.
    Dans mon école de 12 classes, un temps plein scolaire en orthophonie serait rempli. Une classe ULIS aussi.
    En attendant, je ne vois que de l’affichage, de la communication. On va tester, mais on n’aura pas d’aide supplémentaire et adaptée encore une fois.

    Et pour la blague : notre IEN nous a demandé combien nous souhaitions de livrets adaptés. « Adaptés à qui, en quoi ? » avons-nous répondu. « Aux dys-, sans doute. »... il n’en sait strictement rien !
    Vendredi, les livrets n’étaient toujours pas arrivés dans les circonscriptions. Et quand ils y seront, ce sera à nous d’aller les chercher bien entendu... on n’a que ça à faire...

    • Franck Ramus Répondre | Permalink

      Quand on enseigne depuis longtemps, on repère dès les deux premières semaines les enfants qui vont rencontrer des difficultés dans l’apprentissage de la lecture/écriture et/ou des mathématiques.

      Mais cela ne suffit pas à faire un diagnostic précis des compétences à renforcer.

      • Catherine Répondre | Permalink

        Bonjour

        Faire un diagnostic nécessite sûrement une analyse plus subtile et approfondie, que la réussite aux tests... Cette vision me semble extremement simpliste et dangereuse. Les enfants ne sont pas des machines. Beaucoup de facteurs peuvent intervenir dans la réussite ou dans l'échec aux tests. On n'est pas uniquement dans "la compétence à renforcer", un schéma stimulus-réponse.

    • Franck Ramus Répondre | Permalink

      Sur les moyens concernant les AVS, le FLE, ou les enseignants spécialisés, je ne peux que vous rejoindre.
      Concernant les paramédicaux, on peut bien sûr souhaiter qu'ils interviennent plus facilement dans les écoles. Mais attention à ne pas reporter toute la difficulté scolaire sur eux.
      On observe tout de même une tendance actuelle à envoyer très vite des enfants chez l'orthophoniste à la moindre difficulté de lecture, alors que ces enfants ont juste besoin qu'on leur enseigne la lecture, selon une méthode phonique enseignant les correspondances graphèmes-phonèmes de manière systématique, explicite et intensive. Du coup nombre d'orthophonistes se retrouvent saturées avec des enfants qui n'ont aucun trouble mais qui ont juste besoin qu'on leur enseigne la lecture selon une pédagogie adaptée. C'est pour cela que l'approche "réponse à l'intervention", qui inspire ces nouvelles évaluations, redonne à l'enseignant toute sa place dans la réponse de première intention à la difficulté d'apprentissage de la lecture.

      • Caroline Répondre | Permalink

        Je tiens à préciser que j'enseigne la lecture par phonèmes/graphèmes, en utilisant les gestes de Suzanne Borel Maisonny. Un apprentissage "syllabique" comme le diraient les médias aujourd'hui. Et je n'ai pas attendu les injonctions du ministère pour le faire, pratiquant ainsi depuis des années à contre courant des méthodes prônées par les IUFM, IEN et autres "conseillers" pédagogiques.
        En général je n'envoie chez les orthophonistes que ceux qui s'avèrent plus tard être "très" dys-. Et le retour des parents est en général que l'orthophoniste a été "rassurée" quant à la méthode de lecture employée.

        Attention donc à ne pas laisser croire que la difficulté scolaire ne serait qu'un problème de méthodes qui serait résolu par une meilleure formation (et pas seul devant un écran, de préférence...).
        Nous sommes parfois bien démunis face à des enfants qui présentent de forts troubles des apprentissages et/ou du comportement et/ou un handicap. On se rend bien compte que la seule réponse "différenciation+AVS" ne suffit pas. Laisser croire aux familles que ce serait le cas est mensonger.

    • jerome Répondre | Permalink

      Entièrement d'accord avec tout ce qui est dit ici. Je rajoute aussi le travail supplémentaire rajouté à l'énorme énergie dépensée en ce début d'année pour faire tourner ce genre de multi niveaux. Je suis "ravi" de mon cp ce1.

      • jerome Répondre | Permalink

        je précise que je suis d'accord avec Caroline

  11. G Quentin Répondre | Permalink

    Autant je suis d'accord avec l'idée de faire passer des tests cognitifs aux élèves pour aider les profs à les accompagner d'un point de vue pédagogique concernant les troubles des apprentissages, autant j'ai un gros souci avec tout ça. Comment comptez-vous évaluer des "compétences cognitives fondamentales" par des tests qui mettent en jeu des connaissances scolaires/culturelles que tous les enfants n'ont pas nécessairement à l'entrée au CP, à savoir les lettres de l'alphabet ?

    • Franck Ramus Répondre | Permalink

      Mon texte parle d'évaluer "une panoplie de compétences qui concernent les apprentissages fondamentaux". Ces compétences mettent bien évidemment en jeu des connaissances scolaires et culturelles, concernant le langage oral, écrit, et les mathématiques. Connaître les lettres de l'alphabet est l'une de ces compétences. Le fait que tous les enfants n'ont pas nécessairement toutes ces compétences à l'entrée du CP est justement ce que les évaluations visent à documenter le plus précisément et objectivement possible, de manière à ce que l'enseignant de CP sache précisément qui a besoin de quoi pour démarrer.

  12. G Quentin Répondre | Permalink

    Bonjour,

    Comment compte-t-on évaluer des "compétences cognitives fondamentales", cf le document officiel, en s'appuyant sur des exercices qui mettent en jeu des connaissances qui ne sont pas censées être maîtrisées en début de CP, telles que les lettres de l'alphabet ? L'alphabet étant au programme de CP, un test qui met en jeu des lettres, comme c'est le cas pour un certain nombre. J'avoue être assez choqué sur ce point. En fait, il me paraît difficile dans le cadre de nombreux tests proposés de distinguer ce qui relève de "compétences cognitives" et ce qui relève... de connaissances, dans le contexte de ces évaluations.

    • Franck Ramus Répondre | Permalink

      Les évaluations nationales ne proposent pas de remplacer un bilan neuropsychologique! Mais de faire le point sur les acquis. Que l'alphabet soit au programme de la maternelle ou pas, il est connu par beaucoup d'enfants (mais pas tous) à l'arrivée au CP, et il est nécessaire pour apprendre à lire. A partir de là, il faut que l'enseignant sache où en sont ses élèves, c'est tout.

  13. David J Répondre | Permalink

    Bonjour,

    Le texte de CE1 sur le sommeil (exercice 2 du livret 2 de français) me parait présenter un vocabulaire difficilement accessible à des élèves de début de CE1. En effet en trouve la notion de cycle de sommeil, de fraction (un tiers), d'hormone, de glande, de sommeil paradoxal. Pourtant le vocabulaire non maîtrisé est l'un des premiers freins à la compréhension d'un texte. Hors là, l'élève de CE1 va se retrouver non pas devant une expression qu'il devra interpréter avec le reste du texte ou ce qu'il sait déjà mais bien 5 ou 6.

    De plus, il est noté que cet exercice permet de tester la capacité d'un élève à comprendre. Hors ici l'élève doit d'abord lire le texte seul. On est donc en présence de 2 compétences distinctes et successive : la capacité à déchiffrer un texte et la capacité à comprendre ce texte. Cela est paradoxal quand on visualise l'une des vidéos mise en ligne par le ministère où l'on peut entendre que la compréhension d'un texte fait appel au même mécanisme que l'on lise le texte ou qu'on l'entende. Il aurait été surement plus judicieux de faire lire le texte par l'enseignant.

    Je ne vois donc pas comment cet exercice permettra d'évaluer correctement la compréhension de texte d'un élève de CE1

    Cordialement

    • Franck Ramus Répondre | Permalink

      Pour commencer par votre 2ème remarque, il s'agit ici d'évaluer la compréhension en lecture, c'est donc bien à l'élève de lire le texte, pas à l'enseignant. La compréhension de texte est une compétence complexe, qui implique vocabulaire (comme vous le soulignez), mais aussi déchiffrage, grammaire, connaissances et inférences. Les compétences élémentaires que sont le vocabulaire, le déchiffrage et la compréhension orale sont évaluées par ailleurs dans des tests distincts.

      En l'espèce, on ne peut pas avoir un avis sur un test de compréhension en lecture si on ne regarde que le texte, et pas les questions qui sont posées. Regardez les questions, et vous constaterez qu'y répondre ne nécessite pas de connaître les mots difficiles, et est tout à fait à la portée d'élèves de CE1. Les élèves de fin de CP du pilote ont d'ailleurs obtenu 53% de réponses correctes, ce qui montre que la difficulté est bien calibrée par rapport à l'objectif du test.

  14. RACHEL THIRIFAYS Répondre | Permalink

    Bonjour, Quand est il des enfants avec handicap ? Rien à ce sujet ? Pourtant, des élèves en situation de handicap sont soumis à ces évaluations et sont elles adaptées?
    Merci d'avance

    • Franck Ramus Répondre | Permalink

      Très bonne question. Le CSEN accorde une très grande importance à l'inclusion des enfants en situation de handicap, et a un groupe de travail dédié à ce sujet.

      Dès le début de la conception des évaluations nationales, il a été souligné que les évaluations devaient viser à être inclusives. Néanmoins, étant donné le peu de temps disponible pour préparer ces évaluations pour la rentrée 2018, elles ne le sont que partiellement. La version sur tablette est plus inclusive que celle sur papier (par exemple: présentation d'un seul item à la fois) et peut être obtenue sur demande pour contourner certaines situations de handicap. La situation reste imparfaite et nous espérons pouvoir l'améliorer au cours des prochaines années.

  15. Samuel Répondre | Permalink

    Bonjour,

    Tout d'abord, merci pour ce FAQ qui a le mérite de tout expliquer et de ne pas prendre les enseignants pour des simples exécutants. Comme avec les parents ou les élèves, tout va toujours mieux quand c'est explicite et qu'il n'y a pas de malentendu. Et c'est une bonne base de discussion. Au moins, il y a votre caution scientifique, tout en admettant que vous ne pouvez contrôler l'aspect politique.

    Cependant, j'ai quand même du mal à comprendre ces exercices qui évaluent ce qui n'a pas été vu en maternelle et qui serviront à recadrer le BO si , éventuellement, c'est utile. Est-ce que ça ne dépasse pas le cadre des évaluations diagnostiques/de suivi pour être des données de recherche? Donc l'idée ce serait de mettre en échec (ou pas, comme vous le dites pour l'alphabet!) des élèves qui n'en ont pas bénéficié car pas dans le BO, pour ensuite "normer" puis voir si on le met dans le BO ou pas? Selon moi, c'est fait à l'envers. On devrait évaluer ces exercices en dehors des évaluations (échantillon représentatif, études fiables, comme ce qu'a fait Cogniscience avec le nombre de MCLM, très très utile pour situer, justement, nos élèves par rapport à une norme), puis "normer", changer le BO, puis, enfin, tester (car c'est dans le BO). Notre base, c'est le BO, il ne faut pas l'oublier, donc faire un test qui évalue ce qui n'y est pas enseigné, c'est un peu étrange. Et les dérives, on les connait (pilotage par le test, bachotage, même si j'ai compris, comme vous, que ça n'avait aucun intérêt... mais certains le feront, par fierté /égo ... Ce métier est très dévalorisé, ce qui inciterait cette dérive: comparaison fiable, du coup, entre collègues/écoles...). Lors des dernières évaluations nationales CM2, ça se passait comme ça. Mais de toute façon, vues les méthodes de passation de ces évaluations (bachotage possible entre la réception des livrets et les tests, personne qui dirige les tests pas neutre), ces résultats ne pourraient même pas être des données de recherche. D'où mes interrogations.

    Je précise que je suis enseignant reconverti, avec une formation scientifique en biologie, notamment les sciences de l'évolution, génétique, donc domaine qui permet de comprendre comment fonctionne la science, car il est vrai que ce métier (en tout cas dans le premier degré) manque cruellement d'esprit critique /scientifique.

    • Franck Ramus Répondre | Permalink

      Commençons par un petit rappel des programmes de la maternelle.

      Ce qui est attendu des enfants en fin d'école maternelle concernant le langage:
      - Communiquer avec les adultes et avec les autres enfants par le langage, en se faisant comprendre.
      - S'exprimer dans un langage syntaxiquement correct et précis. Reformuler pour se faire mieux comprendre.
      - Pratiquer divers usages du langage oral : raconter, décrire, évoquer, expliquer, questionner, proposer des solutions, discuter un point de vue.
      - Dire de mémoire et de manière expressive plusieurs comptines et poésies.
      - Comprendre des textes écrits sans autre aide que le langage entendu.
      - Manifester de la curiosité par rapport à l'écrit. Pouvoir redire les mots d'une phrase écrite après sa lecture par l'adulte, les mots du titre connu d'un livre ou d'un texte.
      - Participer verbalement à la production d'un écrit. Savoir qu'on n'écrit pas comme on parle.
      - Repérer des régularités dans la langue à l'oral en français (éventuellement dans une autre langue).
      - Manipuler des syllabes.
      - Discriminer des sons (syllabes, sons-voyelles ; quelques sons-consonnes hors des consonnes occlusives).
      - Reconnaître les lettres de l'alphabet et connaître les correspondances entre les trois manières de les écrire : cursive, script, capitales d'imprimerie. Copier à l'aide d'un clavier.
      - Écrire son prénom en écriture cursive, sans modèle.
      - Écrire seul un mot en utilisant des lettres ou groupes de lettres empruntés aux mots connus.

      Ce qui est attendu des enfants en fin d'école maternelle concernant les nombres:
      Utiliser les nombres
      - Évaluer et comparer des collections d'objets avec des procédures numériques ou non numériques.
      - Réaliser une collection dont le cardinal est donné. Utiliser le dénombrement pour comparer deux quantités, pour constituer une collection d'une taille donnée ou pour réaliser une collection de quantité égale à la collection proposée.
      - Utiliser le nombre pour exprimer la position d'un objet ou d'une personne dans un jeu, dans une situation organisée, sur un rang ou pour comparer des positions.
      - Mobiliser des symboles analogiques, verbaux ou écrits, conventionnels ou non conventionnels pour communiquer des informations orales et écrites sur une quantité.
      Étudier les nombres
      - Avoir compris que le cardinal ne change pas si on modifie la disposition spatiale ou la nature des éléments.
      - Avoir compris que tout nombre s'obtient en ajoutant un au nombre précédent et que cela correspond à l'ajout d'une unité à la quantité précédente.
      - Quantifier des collections jusqu'à dix au moins ; les composer et les décomposer par manipulations effectives puis mentales. Dire combien il faut ajouter ou enlever pour obtenir des quantités ne dépassant pas dix.
      - Parler des nombres à l'aide de leur décomposition.
      - Dire la suite des nombres jusqu'à trente. Lire les nombres écrits en chiffres jusqu'à dix.

    • Franck Ramus Répondre | Permalink

      Les évaluations de début-CP ont été construites sur la base (d'une partie de) ces attendus.

      La seule exception évidente, c'est le fait de situer un nombre sur une ligne numérique. Et encore, on pourrait argumenter que c'est un cas particulier de "Mobiliser des symboles analogiques" pour communiquer des informations sur une quantité. Mais on est d'accord que, si l'on avait voulu que la ligne numérique soit enseignée en maternelle, il aurait fallu l'écrire explicitement plutôt que de laisser les symboles analogiques à l'appréciation des enseignants. Donc on peut s'accorder sur le fait que la ligne numérique n'est pas vraiment au programme de la maternelle.
      Ce test a été ajouté du fait des nombreux travaux de recherche qui montrent son lien avec l'acquisition et la maîtrise de la notion de quantité par l'enfant. Ce qui en fait un outil diagnostique potentiellement intéressant (conforme au but des évaluations nationales), que cela ait été enseigné en maternelle ou pas. Personne à ce stade ne sait quel est le niveau de compétence moyen des élèves de début CP sur la ligne numérique, dans quelle mesure cette compétence est variable entre les élèves, et dans quelle mesure cette compétence prédit les apprentissages en arithmétique au CP en France. Le seul fait d'obtenir cette information grâce aux évaluations nationales sera un grand progrès. On peut donc considérer que ce test (et uniquement celui-là) est inclus dans les évaluations pour répondre avant tout à une question de recherche.
      Ensuite, comme je le disais dans ma réponse à la question 14, si les résultats des évaluations confirmaient que situer les nombres sur une ligne numérique est une compétence très importante pour l'apprentissage de l'arithmétique en CP, cela serait un argument fort pour suggérer de préciser le programme de maternelle en ce sens. C'est en fait le seul exemple que j'avais en tête en émettant cette hypothèse. Celle-ci n'engage que moi. Mais à la base, les évaluations n'ont pas du tout été conçues dans le but de guider une éventuelle modification des programmes. Ma suggestion illustre simplement le retour intéressant que pourrait potentiellement avoir la recherche sur l'amélioration des programmes.

  16. Nicole Répondre | Permalink

    Je viens aujourd'hui de faire passer la séquence 1 du premier cahier de français, en CP... enfin d'essayer. Au bout de 40 mn (40 !) ce n'était toujours pas fini : il manque encore deux exercices.. Je l'ai fait passer alors que mes élèves étaient en demi groupe, à 7 donc... Je suis en REP et ai en effet un CP à 14. C'est une "bonne" classe, composée de gamins curieux, volontaires et attentifs. Et j'ai respecté les 10 secondes pour faire ci, 20 secondes pour faire ça...

    Quand je vois le type d'exercices proposés, j'ai presque honte de leur avoir imposé cela...Je ne vais pas reprendre tout ce qui a été dit ici ou ailleurs mais ce qui m'a frappé c'est effectivement le nombre de pièges. Dans un des exercices il fallait associer "pirate" et "lunettes" comme se terminant par le même son. J'ai proposé ce travail à mon entourage professionnel, composé, je l'espère, de lecteurs experts et pas un n'a répondu rapidement : ils ont tous mis au moins 6 secondes... alors un enfant de 6 ans...

    En fait j'aurais vraiment préféré des exercices évidents. Là je ne peux rien en faire.. c'était clairement trop compliqué pour la majorité de mes élèves...

    Cela fait plus de vingt ans que je suis en CP et je sais que ces évaluations ne vont rien m'apprendre. J'ai déjà repéré les enfants qui sont bien entrés dans la lecture : ils comprennent les consignes qu'ils lisent seuls, peuvent répondre à des questions sur un texte lu seul. J'ai également très vite repéré les enfants "en difficultés". Ils avaient d'ailleurs été signalés par la maternelle. Évidemment j'adapte mes interventions, le travail... et je ne doute pas qu'ils seront lire...

    • Franck Ramus Répondre | Permalink

      Des exercices évidents n'auraient servi strictement à rien, ils ne vous auraient apporté aucune information et n'auraient aidé en rien vos élèves.
      Sur les soi-disant "pièges", cf. Question 16.

      • Nicole Répondre | Permalink

        " quant à les mettre en échec, ce n'est pas le but, mais il faut que des erreurs soient possibles. Un test sert à révéler les difficultés (s'il y en a), pas à les masquer"

        Mais même avec des exercices "évidents" les erreurs auraient été possibles ! J'ai beaucoup d'élèves qui n'ont aucune "conscience phonologique" ! Quant à distinguer rime et phonème.... je serais ravie que mes élèves trouvent déjà des mots qui riment !

        Je tiens à préciser que la majorité de mes élèves étaient contents d'avoir passer ses tests .... même si je suis persuadée que nous avons perdu notre temps !!

        • RC Répondre | Permalink

          "Je tiens à préciser que la majorité de mes élèves étaient contents d'avoir passer ses tests ...."
          En général, les enfants aiment qu'on leur pose des questions, même s'ils n'en connaissent pas obligatoirement la réponse : la curiosité, peut-être. Ca persiste (parfois) à l'âge adulte 😉

  17. Nicole Répondre | Permalink

    Quant au texte proposé en CE1, sur le sommeil, vous oubliez une donnée : des enfants risquent de paniquer vraiment devant le nombre de mots inconnus qu'ils auront pourtant déchiffrer... Oui j'ai lu les questions, oui je sais qu'on peut y répondre. Mais je connais aussi des gamins qui vont perdre tous leurs moyens fasse au vocabulaire utilisé.

    Vous dites qu'en fin de CP les enfants ont obtenu 53 % de réponses correctes... Eh bien ce n'est vraiment pas satisfaisant ! Alors en début de CE1, après deux mois de vacances pendant lesquelles la majorité des gamins n'ont rien lu... On espère quoi ? 30% de réponses correctes ?

    • Franck Ramus Répondre | Permalink

      Encore une fois, la panique présumée de vos élèves dépend entièrement de la manière dont vous leur présenterez la tâche (d'où l'importance des consignes rassurantes que vous trouvez ridicules).
      Mais je ne suis pas convaincu par votre argument. Les élèves de CE1 passent leur temps à lire des textes dont ils ne connaissent pas tous les mots. C'est parfaitement normal pour eux, pourquoi paniqueraient-ils? Peut-être que vous avez une aversion pour les termes scientifiques comme "pinéale" et "mélatonine", mais pour eux ce sont juste des mots inconnus comme plein d'autres.

      • Nicole Répondre | Permalink

        Je vous assure que je fais tout pour que les gamins ne paniquent pas...

        Le jour de la rentrée, deux enfants sont venus me voir, les larmes aux yeux, pour me dire "je ne sais pas lire .." Je vous parle bien d'enfants de CP.

        • Franck Ramus Répondre | Permalink

          Là, vous n'êtes pas aidée par les parents, ou par je ne sais qui leur a fait croire qu'ils étaient censés savoir lire à l'entrée du CP!
          Les évaluations, en tous cas, n'impliquent rien de tel.

  18. Nicole Répondre | Permalink

    Ah oui, encore autre chose qui m'a vraiment hérissé le poil. A la fin de chaque séquence, on doit dire aux enfants, c'est écrit : "Bravo les enfants, vous avez bien travaillé..."
    Dites moi, heureusement que vous l'avez écrit, je n'y aurais pas pensé toute seule !!...Et c'est écrit sur les cahiers "École de la confiance" !
    Mais vous nous prenez pour qui ?

    • Franck Ramus Répondre | Permalink

      Il y a des choses qui vous paraissent évidentes et qui ne le sont certainement pas pour nombre de vos collègues.
      Quand je vois le nombre de commentaires du style "ça va stresser les enfants" (dont le vôtre!), je me dis qu'effectivement des consignes très explicites sur ce qu'il faut dire pour présenter les évaluations et rassurer les élèves sont nécessaires. Celles qui sont données semblent être même encore en-dessous de ce qui serait nécessaire.

  19. Jeanneaud Répondre | Permalink

    Bonsoir,
    Tout comme la précédente collègue, j'ai fait passer les premiers exercices du livret 1 à mes élèves aujourd'hui. Ils étaient calmes et attentifs, j'ai suivi le temps imparti dans le guide et pourtant j'ai consacré 35 min pour 3 exercices sur 7! A ce rythme-là on doit envisager au minimum 1 heure par livret. Toute personne travaillant auprès d'enfant sait évidemment qu'un élève de 6 ans ne peut rester concentré sur une même tâche autant de temps! Il finit forcément par s'ennuyer, s'impatienter...Pour ma part, comme je sais qu'ils ont encore le livret N2 et le livret de maths, j'ai préféré m'arrêter tant qu'ils n'étaient pas encore "lessivés" voire dégoutés par l'activité. Ce serait dommage qu'ils se lassent si vite des "cahiers blancs".

  20. Laurence Répondre | Permalink

    Nous refusons que ces jeunes élèves — dont certains sortent tout juste de maternelle — commencent leur scolarité élémentaire par le bizutage que représentent des tests inutilement stressants, pour eux et leurs parents !

    http://www.cafepedagogique.net/lexpresso/Pages/2018/09/12092018Article636723336846151570.aspx

    "Nous refusons une vision de la lecture low cost et ringarde où tout serait affaire de décodage, approche justifiant que figurent dans ces évaluations des mots aussi incompréhensibles pour nos élèves (et même nombre d’adultes) que « glande pinéale », « paradoxale », « mélatonine »..."

    • RC Répondre | Permalink

      "Nous refusons une vision de la lecture low cost et ringarde où tout serait affaire de décodage, approche justifiant que figurent dans ces évaluations des mots aussi incompréhensibles pour nos élèves (et même nombre d’adultes) que « glande pinéale », « paradoxale », « mélatonine »..." Étonnant programme que celui qui consisterait à lire que des mots qu'on connaît et dont on connaît la signification. Bien sur, on pourrait utiliser des logatomes, mais est-ce qu'il n'est pas préférable d'utiliser des mots de la langue dont on peut espérer qu'ils seront vus et entendus par les élèves au cours de leur scolarité ou de leurs activités extra-scolaires? Est-il préférable de se résigner à voir se creuser "the thirty million word gap" (qui même s'il est discuté semble se confirmer dans les données de la cohorte ELFE https://www.gynger.fr/les-ecarts-se-creusent-chez-les-enfants-de-la-cohorte-elfe/ )

    • Franck Ramus Répondre | Permalink

      Vous n'avez visiblement lu aucune des explications ni aucune des réponses aux commentaires ci-dessus. Merci de commencer par là.
      Vous semblez n'avoir même pas réalisé que 4 questions (niveau CE1) sont posées sur ce texte, ce qui en fait bien un test de compréhension en lecture, pas de déchiffrage en tant que tel.

      Heureusement que moi, je ne refuse pas les commentaires "low cost" sur ce blog! 😉

  21. Elisabeth Répondre | Permalink

    Le problème posé par ces pseudo-évaluations est celui-ci: ce ne sont pas des évaluations diagnostiques de début de CP ou CE1, mais bien des tests psychométriques élaborés par vous et d'autres chercheurs en sciences cognitives & expérimentales. C'est donc ainsi qu'il fallait présenter les choses et demander s'il y avait des enseignants volontaires pour faire passer ce type de tests. Comme les enseignants n'ont pas vocation à faire passer des tests à leurs élèves, mais bien des évaluations, il est normal qu'ils s'offusquent d'être ainsi embrigadés dans une expérimentation d'ampleur national. Il y a donc là, pour les scientifiques que vous êtes, une absence totale de rigueur intellectuelle dans la présentation du dispositif, puisque l'on prétend apprécier "certains acquis fondamentaux" alors qu'il s'agit dans la plupart des cas de vérifier des compétences cognitives en dehors de tout apprentissage. On ne voit donc pas très bien en quoi les orientations pédagogiques qui seront données en retour par la DGESCO pourront aider les enseignants, puisque ce test est déconnecté des programmes et acquisitions des élèves... Par contre, on imagine aisément les recherches qui pourront être effectuées à partir de ces résultats pour essayer d'insuffler une vision cognitiviste et comportementaliste à l'enseignement. Tout n'est pas à rejeter dans ce type de démarche; encore fallait-il la présenter comme telle. Sachant que l'enseignement ne se réduira jamais à une approche scientifique, sinon il y a longtemps que les robots auraient remplacés les humains à l'école!

    • Franck Ramus Répondre | Permalink

      Vous semblez faire une distinction catégorielle entre évaluations diagnostiques et tests psychométriques, mais il n'y a pas de frontière claire. Je ne dirais pas que les évaluations nationales sont des tests psychométriques (dans le même sens que les tests de QI par exemple). Ce sont essentiellement des tests scolaires, mais qui ont des qualités psychométriques particulières du fait de leur conception (par exemple, avoir un nombre suffisant d'items et une variabilité suffisante des scores), ce qui est loin d'être le cas de la plupart des tests scolaires.
      Vous parlez de "vérifier des compétences cognitives en dehors de tout apprentissage", or cela n'existe pas. Tout résultat à un test reflète à la fois des prédispositions cognitives et des apprentissages.
      L'objectif des tests proposés est simplement d'évaluer les apprentissages antérieurs (qu'ils soient au programme ou pas, ce n'est pas la question), et certains pré-requis cognitifs des apprentissages à venir (mais même ces pré-requis cognitifs reflètent en partie des apprentissages antérieurs). Les deux sont importants pour repérer les élèves qui ont besoin d'une attention particulière dans certains domaines. Il s'agit donc bien d'évaluations diagnostiques.

      • Laëtitia Répondre | Permalink

        Encore faudrait il que ces évaluations diagnostiques soient suffisamment bien construites pour permettre à un enfant de début de C.P de rentrer facilement dans la tâche demandée. La forme même des exercices est inadaptée. Autant de données sur une même page suscite chez les enfants une surcharge d'informations visuelles qui induit pour la plupart des enfants une surcharge cognitive. Cela empêche l’enfant d'entrer dans l'activité ou d'aller jusqu'au bout de l'activité. Ce qui est dommage car certains exercices auraient pu être pertinents. Je suis professeure des écoles spécialisée et j'ai toujours fait des évaluations diagnostiques construites avec des outils comme le médial... Mais là, ce matin, j'ai eu mal au cœur pour mes CP et moi en tant qu'enseignante, j'ai ressenti un grand mal être par rapport à ce que j'infligeais à mes élèves. Où est l'école de la bienveillance là dedans !

    • André Répondre | Permalink

      Cher monsieur,

      Je reviens vers vous en cette fin de mercredi. La réponse que vous apportez à mon commentaire est conforme au mépris condescendant du ministre de l'éducation. De toute évidence, et puisque vous êtes présenté comme le concepteur de ce test, vous ne parvenez pas à la distanciation critique que l'on peut attendre d'un scientifique. Sans doute le financement de votre laboratoire ou de vos recherches dépende-t-il de votre degré d'adaptation à votre ministre. Cela ne conduit pas automatiquement à l'humilité indispensable pour agir avec ses semblables. Tout comme le ministre vous avez raison, toujours raisons. Vous ne supportez aucun débat contradictoire et vous traitez avec mépris ces petits enseignants qui osent faire part de leur conviction et de leur réalité.
      Je ne crois pas que ce soit une attitude qui grandisse!
      Vous énoncez, de plus, des contre vérités. Ainsi, lorsque vous m'affirmez que je me priverai "d'un outil conçu pour les aider", de quoi s'agit-il, à partir des résultats des élèves que je rentre dans un logiciel, on va m'envoyer des fiches par typologie de difficultés de mes élèves ... je ne comprends pas, pour le dire autrement, sans doute avez vous créé un super logiciel qui sur la base des résultats de chaque élève me fournira un prêt à enseigner pour "corriger", ...
      35 ans que j'enseigne (dans tous les niveaux mais avec je le reconnais une préférence en élémentaire) et je n'ai jamais cru que mon métier était de cette nature, je mets les élèves dans des situations que je modifie en fonction des observations que je fais, ils avancent, se trompent, réussissent, se découragent, se passionnent, en un mot ils s'engagent, grandissent et progressent. Tout n'est pas que félicité, moi aussi je me trompe, je réussis, je me questionne, je reste passionné et engagé à faire de chacun d'eux un futur citoyen acteur de sa vie!
      Alors vos tests mécanisés conçus pour des élèves-éprouvettes, je ne peux les faire passer, je respecte trop mes élèves et ma mission pour cela.
      A vous lire

      • Franck Ramus Répondre | Permalink

        Sur les questions factuelles:
        - je ne suis pas le concepteur des tests, je suis l'un des membres du groupe de travail qui les a conçus.
        - ni moi ni mon laboratoire n'avons un seul centime à gagner dans l'affaire. Le travail est effectué bénévolement et sans aucun financement associé. Les coûts des évaluations sont essentiellement supportés par la DEPP.

      • Franck Ramus Répondre | Permalink

        "Vous énoncez, de plus, des contre vérités. Ainsi, lorsque vous m'affirmez que je me priverai "d'un outil conçu pour les aider", de quoi s'agit-il, à partir des résultats des élèves que je rentre dans un logiciel, on va m'envoyer des fiches par typologie de difficultés de mes élèves ... je ne comprends pas, pour le dire autrement, sans doute avez vous créé un super logiciel qui sur la base des résultats de chaque élève me fournira un prêt à enseigner pour "corriger", ..."

        Comment pouvez-vous parler de "vérité" à propos de comptes-rendus de résultats que vous n'avez jamais vu et dont vous ne savez visiblement rien? Le terme est tout à fait inapproprié.
        Il serait plus juste de dire: "je n'arrive pas à imaginer que les résultats de ces évaluations puissent être utiles, à mes élèves et à moi-même". Certes, vous n'arrivez pas à l'imaginer. Je regrette que mes arguments n'aient pas de prise sur vous et ne parviennent pas à vous faire entrevoir le bénéfice que vos élèves pourraient en tirer. Mais en aucun cas vous ne pouvez assimiler les contours de votre imagination à "la vérité", et ce qui se situe au-delà à une "contre-vérité".

      • Franck Ramus Répondre | Permalink

        Quant au reste... Je trouve fascinant les différences entre nos perspectives. Laissez-moi donc vous faire entrevoir la mienne.

        Le débat contradictoire, c'est le pain quotidien de mon activité de chercheur, et au-delà. Car qu'est-ce que je fais sur ce blog, si ce n'est du débat contradictoire? Par conséquent, votre phrase "Vous ne supportez aucun débat contradictoire" m'est totalement incompréhensible.

        Qu'est-ce que je fais sur ce blog? J'accueille tous les points de vue, sans aucune censure. J'accueille toutes sortes de commentaires, y compris ceux (comme les vôtres) qui disent ou sous-entendent que je suis incompétent, que le travail auquel j'ai participé est sans intérêt et mal conçu, que nous avons des intentions cachées machiavéliques qui ne sont pas celles que nous affichons, autrement dit, que nous sommes des menteurs, ou encore que nous sommes des mercenaires attirés là par l'appât du gain, etc. Nous sommes là bien loin du débat contradictoire qui a cours dans la recherche, dans lequel les désaccords peuvent être profonds, les débats vifs, mais le respect mutuel est toujours là et la bonne foi et l'honnêteté sont toujours présumées.
        Malgré tout, je fais abstraction de tout cela, j'extrais des commentaires les points factuels auxquels une réponse peut être apportée, et j'y réponds, poliment, méthodiquement, de manière argumentée, en citant mes sources lorsqu'il y a lieu, comme je le fais dans mon travail scientifique. Si ça n'est pas aimer le débat contradictoire, qu'est-ce que c'est?
        Vous y voyez du mépris dans mes réponses. Moi, j'y vois du respect. Être contredit, ce n'est pas être méprisé, c'est être pris au sérieux.

  22. Christophe Dumont Répondre | Permalink

    Citation extraite de http://eduscol.education.fr/cid132705/evaluations-au-cp.html
    Stanislas Dehaene, 4 min 45 : "situer l'ensemble de sa classe par rapport à des normes nationales". Voici donc un test normatif qui n'a rien d'une aide (que vous pourriez d'ailleurs apporter sans attendre - nous sommes déjà en mesure de savoir à qui donner les exercices de secours!). A moins que vous ayez rencontré des enseignants si nuls qu'ils n'en seraient pas capables. Mais là il faut vous tourner vers les recruteurs...
    Ma classe est-elle dans la norme? Mon élève est-il dans la norme? A propos de quoi au fait? Tenez vous compte de son histoire personnelle, de ses handicaps, de ses forces, de sa famille, de son milieu, de son âge réel (pas celui de l'administration qui n'a que faire de la notion de mois, pourtant particulièrement importante relativement au court vécu des enfants de CP), de son comportement ou de celui de ses voisins de classe, de ses désirs, de ses angoisses, de sa vue ou de son audition, etc. Bref, tout ce qui fait l'humain semble très éloigné des considérations techniques de ces tests parfaitement inutiles pour changer quoique ce soit à la médiocrité ambiante et ancienne de l'EN. Attention, tous ceux qui ne sont pas dans la norme sont coupables!
    Vous semblez tenir caché dans vos tiroirs toutes les solutions aux problèmes des élèves, toutes les médecines efficaces pour soigner ces grands malades qu'on envoie à l'école pour qu'ils soient enfin guéris de leurs difficultés. Ils sont tous nés avec des difficultés forcément, non? Et après les avoir longuement auscultés, et défini leurs maux, vous nous enverrez les remèdes. Pourquoi perdre du temps, vous avez les bonnes pratiques, transmettez donc illico. Nous sommes en urgence, nous avons besoin de vos potions miracles bien avant la correction des ces petits tests. Faisons de la prévention..; sinon ils vont tomber malades. Au passage, c'est incroyable, il existe des cahiers spéciaux pour les élèves handicapés. Ils sont super. Ce sont les mêmes que les autres, mais en plus grand. Les élèves en inclusion auraient-ils donc tous les mêmes défauts, mauvaise vision ou écriture trop grosse???
    J'ai fait passer les tests, ça ne me dérange pas au fond et puis mes élèves savent déjà lire. En outre, j'apprécie les apports de la science. Je participe donc à l'effort sans rechigner. Mais je souris parfois de la naïveté de certains réformateurs et souhaite aussi que les scientifiques ne prennent pas de trop haut les bonnes idées qui naissent de la pratique besogneuse. Ecrivez-moi et je vous transmettrai une vision de l'apprentissage de la lecture qui met à pied la plupart des idées reçues sur la question. a moins que vous ne pensiez que la culture ne circule que dans un sens...

    • Franck Ramus Répondre | Permalink

      ""situer l'ensemble de sa classe par rapport à des normes nationales". Voici donc un test normatif qui n'a rien d'une aide "
      Je ne comprends pas le raisonnement. Pourquoi, sous prétexte qu'un test se réfère à une norme, ne pourrait-il apporter aucune aide?
      Par ailleurs, le fait de se référer à une norme n'empêche pas de se référer aussi à des repères absolus, si l'on pense que c'est plus pertinent pour intervenir. C'est d'ailleurs ce qui est prévu pour la restitution des résultats.

  23. jerome Répondre | Permalink

    Ma journée d'enseignant sur le terrain de12 h.

    J'ai un cp ce1 d'une vingtaine d'élèves en zone rurale défavorisée, d'un niveau très moyen et qui bougent beaucoup. J'ai "recruté " plusieurs cas d'autres écoles à la rentrée. Je n'ai aucune aide. J'ai parfois des cp à 12 mais j'ai des ce1 à coté eux aussi parfois à 12.

    Hier j'ai laissé mes ce1 (7 ans) en totale autonomie pendant 1h15. Pendant ce temps dépensant une énergie folle j'étais avec mes cp sur le cahier dévaluation 1 à les remettre à la bonne page, à la bonne ligne, à gérer les problèmes de crayon, à répéter consignes après consignes, à encourager mes élèves, à chronométrer. Je n'en pouvais plus, ils n'en pouvaient plus. Certains ont fait n'importe quoi à la fin. Quid de la valeur de ce.test.

    1h 15 c'est plus long qu'une évaluation d'un collégien et j'ai infligé ça a des enfants de 6 ans !
    Heureusement mes ce1 ont été plutôt sages pendant ce temps.

    Je précise qu'il faisait 25 degrés dans la classe et que j'ai terminé ma journée par la réunion avec les parents jusqu à 19h45. J'ai aussi commencé un son , l'addition avec mes cp, de la lecture, de l'orthographe de la grammaire, de la géométrie avec mes ce1.

    Hier soir j'étais écoeuré.

    et puis bientôt je vais me taper les 2 autres cahiers de tests , les 3 autres de ce1 et puis bien sûr viendront aussi les heures de saisies.

    Je ne suis pas contre les évals même nationales, mais il faudrait vraiment quelque chose de plus light. On ne me fera pas croire que le premier cahier cp a été testé en conditions réelles. 1h 15 de passation avec des CP!
    De plus que je sais que peu importe les résultats, je n'aurai pas d'aides.

    • Franck Ramus Répondre | Permalink

      "On ne me fera pas croire que le premier cahier cp a été testé en conditions réelles."
      Et pourtant, il a non seulement été testé sur 6000 enfants de fin de GSM, mais il était encore plus épais. L'étude pilote incluait en effet des tests et des items supplémentaires, parmi lesquels une sélection a été faite, de manière à réduire les évaluations au strict nécessaire. Les temps moyens de passation annoncés sont basés sur les temps rapportés par les enseignants de l'étude pilote.
      Je suis bien désolé que cela ait pris beaucoup plus de temps dans votre classe, je ne suis évidemment pas capable de dire pourquoi.

      • Nicole Répondre | Permalink

        Pour l'instant, dans les écoles de mon quartier, tout le monde a mis 1 heure (ou plus) à faire passer les tests de la séquence 1...

  24. Marie Laure Répondre | Permalink

    Je viens de lire les commentaires de mes collègues et je ne reviendrai pas sur bon nombre d'entre eux dont je partage les critiques.
    Lorsqu'on observe les difficultés d'apprentissage des élèves, je suis maîtresse de CP, il est très rare que celles-ci relèvent d'un seul facteur, du style déficience de conscience phonologique, et si tel est le cas alors la remédiation est assez simple. La plupart du temps, il s'agit de difficultés associées qui nous obligent à prendre en compte le milieu familial et la langue qu'on y parle, la non implication des parents à s'engager dans un "soin" à l'extérieur de l'école, l'histoire personnelle de l'enfant etc Nous consacrons beaucoup de temps à essayer de lever ces verrous. Tout ça pour dire que l'apprentissage est un processus, à mon humble avis, complexe. Lorsque je suis passée à l'Ecole Normale en 86, on nous enseignait que le jeune élève était avant toute chose un enfant à prendre dans sa globalité. A ce titre, je déplore avoir vu disparaître la psychomotricienne de mon école. Le secteur d'intervention du psychologue scolaire s'est agrandi au point que son intervention n'est jamais simple . Même remarque pour l'infirmière scolaire qui était un relais précieux avec les familles. C'est la réalité du terrain, de la vraie vie et de l'énergie que nous y laissons loin des mises en grilles, en courbes, en camemberts et que sais-je encore de l'exploitation que vous ferez des résultats des évaluations.
    Pouvez-vous me dire si la recherche prend actuellement en compte cette dimension systémique de l'apprentissage puisque je crois savoir que c'est là, la toute nouvelle piste pour comprendre le fonctionnement de la mémoire (cf recherche Institut Pasteur) ? Cela me rassurerai !

  25. Francoise Répondre | Permalink

    Quelle déception... des séances d'évaluations prévues en 20 minutes impossibles à réaliser en moins d'une heure! Enseignante en CP, j'utilise depuis 7 ans une méthode alphabétique et...devoir évaluer des élèves sur le nom des lettres au lieu du son me met en rage . Aucune cohérence entre ces livrets et l'objectif affiché de 100 pour 100 de réussite en CP. Pour garder la motivation et la confiance de mes élèves, je leur ai spécifié que ces livrets blancs n'étaient en rien préparés par moi!!!!!!

  26. Marcel D Répondre | Permalink

    Cher Franck Ramus,
    Vos explications sont claires mais il reste des ambigüités.
    Vous reconnaissez que l'exercice de localisation d'un nombre sur bande non graduée s'est glissé dans le test pour les besoins de la recherche. Il eut fallu l'annoncer avant que les enseignants reçoivent les livrets. Là, vous êtes pris en flagrant délit et ça jette le trouble.
    Vous affirmez que la visée principale est un diagnostic pour aider les enseignants. Or, dans la vidéo ( https://www.youtube.com/watch?v=ldw5LUhkQPs) Stanislas Dehaene dit à 4min 45 : pour savoir ...où en est l'ensemble de sa classe par rapport à des normes nationales.."
    Comparer des classes entre-elles est assez étrange en fait quand on connait l'hétérogénéité des situations de terrain. On retrouve donc un objectif normatif que vous feignez ne pas voir venir.
    Enfin, c'est étonnant, vous affirmez détenir de précieux exercices capables de réduire la difficulté rencontrée par les élèves, mais vous ne les donnez que sous condition. Pourquoi ne pas distribuer ces outils réparateurs dès le début de l'année? Pourquoi perdre du temps? Pourquoi ne pas les transmettre via les ESPE ou les circonscriptions? Des exercices bons pour les élèves les plus faibles sont tout autant profitables aux meilleurs. (Faible et meilleurs par rapport à la norme s'entend!)
    Cela ne peut que laisser penser qu'il y a anguille sous roche, que vous nous cachez quelques desseins peu avouables.
    Pourtant ces tests même mal vécus ne représentent pas vraiment un risque direct pour les enfants et ils se remettront bien vite du modeste désagrément que cela représente.
    Nous attendons donc pour les élèves vos exercices de réhabilitation vers la norme.

    • Franck Ramus Répondre | Permalink

      Encore une fois, il n'y a aucune contradiction entre un diagnostic pour aider les enseignants et le fait de se référer à une norme nationale. Pour aider leurs élèves, les enseignants ont tout intérêt à savoir où chaque compétence de chaque élève se situe, par rapport aux autres élèves de France tout comme par rapport à des repères absolus.
      Oui, les situations de terrain sont hétérogènes, tout le monde le sait, et c'est bien pour cela qu'il est utile de pouvoir situer les compétences de ses élèves dans l'absolu, et pas seulement relativement au contexte local. Cf. la question 11.

      En fait votre remarque, similaire à bien d'autres, me semble refléter la croyance selon laquelle ces évaluations serviraient à juger les élèves, à juger les enseignants, à juger les écoles. Auquel ce ne serait pas juste de les comparer ainsi, puisqu'ils sont dans des milieux et des contextes très différents, avec des antécédents très différents. Effectivement, si c'était le but, ce ne serait pas juste (et nous serions vraiment idiots de ne pas nous en rendre compte). Mais puisqu'on vous dit que ce n'est pas le but! Le but est d'avoir la photographie la plus fiable et la plus objective possible pour tous les élèves de France, avec la même référence pour tout le monde, parce qu'il n'est pas normal de se satisfaire que les élèves n'arrivent pas à lire en REP+, et que leurs difficultés justifient des efforts encore plus importants.

    • Franck Ramus Répondre | Permalink

      "Des exercices bons pour les élèves les plus faibles sont tout autant profitables aux meilleurs"
      Non, certainement pas. Il n'y a pas meilleur moyen pour démotiver les élèves que de leur donner des activités trop faciles pour eux. La différentiation n'est pas une option, c'est une nécessité.

      • Nicole Répondre | Permalink

        Et comme il est aisé de démotiver des enfants avec des exercices trop difficiles...
        La différenciation est effectivement une nécessité.

    • Franck Ramus Répondre | Permalink

      "vous affirmez détenir de précieux exercices capables de réduire la difficulté rencontrée par les élèves, mais vous ne les donnez que sous condition."
      La DGESCO va mettre à disposition des enseignants tout un éventail d'activités pouvant être utilisées pour renforcer les différentes compétences en fonction des besoins élèves. Elles n'ont rien de précieux ni de magique, et elles ne sont pas secrètes non plus. La plupart d'entre elles sont déjà disponibles sur Eduscol et autre ressources publiques.
      Mais si vous avez déjà cherché quelque chose sur Eduscol, vous devriez apprécier le fait qu'on donne des pointeurs beaucoup plus directs entre telle compétence identifiée comme faible, et telle activité précise. Du coup il est logique que cela arrive avec les restitutions des résultats des élèves. Ca aurait pu être envoyé avant, mais envoyé d'un coup en bloc, ça perdrait en pertinence et recréerait un jeu de piste pour les enseignants.

      Vous voyez, pas besoin d'échafauder des théories du complot, la réalité est souvent bien plus prosaïque...

  27. Marcel D Répondre | Permalink

    Merci de vos réponses.
    1) Je respecte au plus point votre engagement et votre rigueur. Loin de moi l'idée de vous classifier "idiots". Non, je vous trouve au contraire très malin(s).
    2) Je ne suis pas inquiet outre mesure, ni enclin à penser la théorie du complot rassurez-vous. J'ai passé l'âge.
    Je parlais surtout de mes collègues que je vois s'offusquer de tout parce qu'on les prend pour des jambons. Les passations ne se font pas dans les délais ou dans la bienveillance annoncée (j'ai vu des élèves sortir en pleurs car, comme le disait mon voisin de classe, on à beau dire à quelqu'un que le tigre est apprivoisé, ça fiche toujours les jetons!!!). Ils ne saisissent pas bien l'utilité des tests qui ne sont pas accompagnés d'une grille d'analyse immédiate des résultats ou de clairs motifs diagnostiques (pour aller vers quoi?). Ils s'inquiètent du type d'outil et peut-être d'injonctions qui vont leur arriver dans le buffet. Bref, je vous interpellais plus sur la forme que sur le fond ou sur un dessein supposé pervers.
    Je dis seulement que la méthodologie et le protocole sèment la zizanie et jettent le trouble... ressentit à tort ou à raison. Mais pour comprendre cela il faut avoir trempé dans les incessantes instabilité, incertitude ou indigence pédagogiques dans lesquelles baignent les enseignants depuis longtemps, voire toujours. Je pense que vous n'avez jamais été dans la peau d'un instit qui demande du soutien à sa hiérarchie. En général cela finit dans l'humiliation et le reproche. Il ne recommencera jamais. La bienveillance, c'est pour les textes ou pour le futur... De fait la plupart cherchent un appui plus rassurant du côté des collègues ou du net, voire du rien. Alors quand on leur dit qu'on va leur envoyer des conseils par voie ministérielle, ils ne sont pas très chauds!!! C'est triste mais ce ne sont pas les enseignants qui ont créé ce climat d'insécurité ou de défiance, ils en sont les premières victimes.
    Ma remarque sur la nécessité d'envoyer les outils par anticipation était une boutade destinée, mais c'est raté, à vous faire ressentir un brin la miséreuse ressource pédagogique dans laquelle se morfond la plupart des écoles pour des raisons très diverses.
    Vous croyez que les instits sont désinvoltes et ne vont jamais sur éduscol. Vous vous trompez lourdement, ils y vont (comme dans les formations continues) mais sortent toujours refroidis car ce qu'ils y trouve n'est que trop souvent inadapté, insuffisant, incomplet, utopique, inefficace, inapproprié, irréaliste, trop encombrant, décevant, pédant... Mais pour le savoir, il faut essayer (pour le commun des enseignants) de mettre vraiment en oeuvre ce qu'on y propose, et ne pas pérorer trop vite depuis son salon pédagogique sans élèves.
    C'est marrant comment les gens qui vous expliquent comment faire de la pédagogie sont totalement incapable de former eux-mêmes des enseignants opérationnels. Et comment ils restent systématiquement sourd à toutes leurs requêtes. Ah les paradoxes de l'EN....
    A titre personnel, je n'ai absolument pas peur de la comparaison. Mais je la trouve ridicule. Je ne compare même pas mes élèves entre-eux ; lequel d'entre eux est le plus normal? Alors avec le voisin...! Je les fais progresser, point. Vous pouvez trouver toutes les normes que vous voulez, chaque individu (maître ou élève) ne pourra développer que son propre potentiel. Vous savez, la plus belle femme du monde... Ceci dit, si vous voulez des bons enseignants ou motiver les présents, il va falloir trouver des arguments, on n'attrape pas les mouches avec du vinaigre. Mais ce n'est pas de votre ressort je sais. Je vous explique juste le contexte dans lequel vous évoluez.
    "Non, certainement pas. Il n'y a pas meilleur moyen pour démotiver les élèves que de leur donner des activités trop faciles pour eux. La différentiation n'est pas une option, c'est une nécessité"
    Vous prêchez un converti et un pratiquant de longue date ! Et qui pourrait en remontrer à beaucoup. Mais si les exercices (ceux dont vous parlez) ne s'adaptent pas à tout le monde c'est peut-être parce que leur conception et leur usage ne le permettent pas. Les miens sont systématiquement partagés par tous et ils ne génèrent ni difficulté ni ennui, ils sont prévus en particulier pour gérer des échéances très diversifiées dans les acquisitions. Cela implique en particulier qu'il n'est attendu aucune norme ponctuelle dans leur réalisation : seulement perfectionnement, renforcement, découverte, appropriation (dans un ordre et un rythme qui importe peu à l'échelle du groupe). La plupart des approches de la différenciation ne reposent que sur des exercices personnalisées ou "bricolés localement" qui deviennent très vite ingérables si vous devez contrôler ainsi l'ensemble des compétences (très nombreuses) étudiées au sein d'une classe de 25.
    Ainsi vous dites " ... des pointeurs beaucoup plus directs entre telle compétence identifiée comme faible, et telle activité précise." C'est l'exemple type des gens qui analysent les résultats d'un élève sans se demander si la remédiation (au malade) prévue peut ou non être intégrée à l'ordre du jour de la classe, négligeant de fait la présence de très nombreux indicateurs de "défauts" pour chaque élève et dans toutes les matières. Comme si nous, qui ne sommes pas orthophonistes ou autre rééducateurs, nous pouvions nous permettre de prendre les élèves un à un, sur rendez-vous, et pour une durée indéterminée allant jusqu'à la totale rémission.
    J'ai l'air prétentieux je sais. Mais je peux envoyer quelques justificatifs.

    • Caroline Répondre | Permalink

      Merci Marcel D de décrire ici la réalité du quotidien.

  28. David Répondre | Permalink

    question 1 : Pourquoi de nouvelles évaluations en CP et CE1 ?
    Car celles d’avant LREM était de l’ancien monde. Euh non en fait ça change avec chaque ministre de l’éducation nationale !

    question 2 : A quoi servent-elles ?
    Pour commencer, tous les acteurs se sont accordés sur la fonction même de ces évaluations.

    Tous les acteurs ?

    Ce n’est pas l’impression que cela donne quand on voit les débats dans les écoles.
    Ouvrons notre dictionnaire : Une évaluation, ça sert à E V A L U E R. Si on voulait repérer on aurait fait un repérage.

    question 3 : Comment les évaluations vont-elles se dérouler ?
    Comme une lettre à la poste pardi !

    question 4 : Quels principes ont guidé leur conception ?
    Le principe de celui qui a toujours raison ! Pourtant il me semblait que dans le domaine scientifique un des principes était, l’humilité. Mais oui c’est vrai, comme cela est souligné nous n’avons aucune formation. A qui la faute ?

    question 5 : Qu’est-ce que les enseignants sont censés faire entre la rentrée et le début des évaluations le 17 septembre ?
    Apprendre à connaître leurs élèves, les mettre en confiance, repérer les acquis de chacun (oups j’ai utilisé le terme d’acquis et non celui de difficultés). En gros, ils vont faire leur métier.

    question 6 : Les évaluations vont-elles induire du bachotage ? Les enseignants ne seront-ils pas incités à entraîner leurs élèves au test ?
    Cette année bien sûr que non ! Les fameuses évaluations n’ont été communiquées aux professionnels que sont les enseignants que quelques jours avant. Mais rassurons nous, sur les livrets, il est écrit « école de la confiance ». Alors nous, ben ! On a confiance !

    question 7 : Les évaluations vont-elles être une source de stress pour les élèves ? Vont-elles induire de la compétition ? de la sélection ?
    Ben non ! Il est vrai qu’un élève en difficulté est confiant, qu’il ne stresse jamais. Il ne sait pas quand on l’évalue. Il croit le maître. Mais non, il n’y a aucun élève qui ne stresse pas de ne pas réussir. Aucun. Et je ne parle pas de ceux qui réussissent qui, on le sait, ne sont pas stressé non plus.

    question 8 : Que va-t-il arriver aux élèves qui échouent aux évaluations ? Ne risquent-ils pas d’être étiquetés, stigmatisés, découragés, enfermés dans un diagnostic ?
    Il n’y a pas de notion d’échec aux évaluations. Si on ne réussit pas une évaluation et ben on la réussit quand même.

    question 9 : Pourquoi les enseignants ne corrigent-ils pas eux-mêmes les évaluations ?
    On ne sait jamais ! Peut être qu’ils pourraient comprendre ce qu’ils ont fait passer à leurs élèves !

    question 10 : Les enseignants évaluaient déjà leurs élèves. Pourquoi cela ne suffisait-il pas ?
    Donner à tous, le même outil, la même vision, le même diagnostic, la même vie, le même repas, la même maison, le même chien, ...

    question 11 : On ne comprend pas l’intérêt de certains tests. Ils ne correspondent à rien de ce qui est enseigné en maternelle ou en CP.
    On ne vous demande pas de comprendre mais de faire. Pour comprendre, il y a ceux qui ont fait les évaluations. Eux savent ! Pas vous.

    question 12 : Certains exercices semblent trop difficiles pour le début de CP
    Vu qu’on vous a rabaché que ce n’était pas une évaluation mais un test mais qu’on a quand même écrit évaluation car on ne voulait pas faire peur avec ce gros mot scientifique. Bordel ! On aurait dû écrire TEST en gros sur les livrets !

    question 13 : Pourquoi certains tests sont en temps limité et impossibles à terminer?
    Heureusement qu’on n’est pas à la piscine …

    question 14 : Pourquoi certains tests comportent-ils des "pièges"?
    On vous le répète encore, c’est un test pas une évaluation. Donc les pièges ne sont pas des pièges.

    • Franck Ramus Répondre | Permalink

      J'apprécie autant que vous la moquerie et la satire. Je laisse donc votre commentaire pour amuser la galerie. Tout en soulignant que la satire n'a jamais eu valeur d'argument.

      • David Répondre | Permalink

        Merci bien. Il est rassurant de voir que l'amusement peut avoir sa place. Mais arrêtez de vouloir avoir toujours le dernier bon mot. C'est agaçant. Sur ce je vous souhaite bien du plaisir pour votre prochain article scientifique qui se basera sur ces remontées nationales. Je vous souhaite bien du plaisir dans le traitement des données car aucune passation ne se sera faite à l'identique.

        Je vous le demande.

        Combien de professeur auront réellement respecter les consignes de passations, le temps imparti ?

        Combien de professeurs auront soutenu tel ou tel élève qui sans ce léger coup de pouce en début de test n'aurait rien fait. ?

        Combien de professeurs auront, devant un tel mépris de leur hierarchie ou de vous, fait en sorte de biaiser vos tests volontairement ?

        Combien de professeurs n'auront pas fait passer ces évaluations?

        Pour ma part, je me suis permis de présenter vos évaluations aux parents d'élèves de ma classe de CE1. J'ai pour cela utiliser les livrets et leur ai expliqué les consignes de passation, le temps imparti, la rigidité du protocole. Je leur ai expliqué que c'était un test scientifique (pour votre information, j'ai moi aussi travaillé il y a quelques années en laboratoire, pas dans votre domaine mais en géophysique) et qu'on pouvait malgré tout en tirer quelque chose.

        Ce qu'ils n'ont pas aimé dans vos tests, c'est la non prise en compte du facteur stress chez tel ou tel enfant, leur enfant peut être. Ils savent que, même avec toutes les propos rassurants que l'enseignant leur apportera, un enfant peut très vite se dévaloriser face à un test. En effet, les enfants et surtout les enfants en difficulté se compare très vite les uns aux autres. Et parfois on mesure bien longtemps après que telle ou telle situation où l'enfant a été mis en difficulté a provoqué chez lui une dévalorisation profonde. Et dans ces tests, les parents qui étaient présents n'ont pas vu de bienveillance.

        Ce qu'ils n'ont pas compris non plus c'est que le professeur de leur enfant ne pourra même pas corriger lui même ces test, qu'il n'a même pas les clés de correction car il n'a pas créer ces tests, ou ne lui a pas expliqué vraiment ce qu'il y a derrière en terme de correspondance item de test / capacité / savoir faire / etc.

        En gros, ils ne font pas confiance dans ces tests.

        Pour ma vision personnel. Je rejoins ce que dis Marcel D au sujet de la dépossession de cet outil. Si ces tests avaient fait l'objet d'explications plus en amont, d'appropriation voir même d'échanges ou de co-construction, peut être que notre profession aurait accueilli ces test avec plus de bienveillance. Là, notre ministre nous impose des tests à faire passer sans que l'on n'ait une connaissance approfondie de ces tests. Or vous savez à quel point, nous autres professeurs, aimons utiliser des outils que nous comprenons, que nous avons tester voir même que nous avons modifier pour les adapter.

        Enfin et là cela n'engage que ma vision mes fantasmes, mais j'ai du mal à croire que de tels tests ne vont servir qu'à améliorer le service public d'éducation. Qui peut encore croire que depuis 20 ans, nos politiques veulent que notre service public d'éducation fonctionne encore ?

        Je n'attends pas de réponse de votre part, car pour l'instant, dans toutes vos réponses, vous niez purement et simplement les inquiétudes des collègues et des parents.

        Pour finir, je trouve désolant qu'une tel tribune de votre part apparaisse dans un blog au sein d'une revue scientifique censée être indépendante des pouvoirs politiques. Je suis abonné à cette revue depuis plus de 10 ans. Cela fait la deuxième fois que je relève ce que j'appelle un conflit d'intérêt.

        Je vous souhaite une bonne continuation et j'espère que vous arriverez dans l'avenir à vous mettre à notre niveau.

        Cordialement

  29. Marcel D Répondre | Permalink

    Moi : Des exercices bons pour les élèves les plus faibles sont tout autant profitables aux meilleurs"
    Vous : "Non, certainement pas. Il n'y a pas meilleur moyen pour démotiver les élèves que de leur donner des activités trop faciles pour eux. La différentiation n'est pas une option, c'est une nécessité."

    J'ai déjà été trop long, mais bon, je ne voulais pas rester sur ce malentendu ou être pris pour un imbécile. Il y a longtemps qu'on ne m'avait plus parlé avec autant de condescendance.
    Lorsque je dis dis qu'un exercice qui est bon pour les uns doit être bon pour les autres, je ne parle pas forcément de tous les exercices, et je n'ai indiqué nulle part qu'ils devaient être mis en service simultanément pour les différents élèves. La différenciation se fait bien plus efficace quand elle est pensée dans le temps que dans la difficulté de tel ou tel exercice.

    • Franck Ramus Répondre | Permalink

      Je veux bien croire que votre phrase ne reflétait pas la complexité de votre pensée. Mais elle était tout ce que j'avais. Elle était claire, sans ambigüité, sans qualificatif. Ne me reprochez pas d'y avoir répondu telle qu'elle était!

      • Marcel D Répondre | Permalink

        « Je veux bien croire que votre phrase ne reflétait pas la complexité de votre pensée. Mais elle était tout ce que j'avais. »
        Navré d’avoir été trop évasif. Heureusement qu’on ne rentre pas trop dans la complexité de ma pensée, ça pourrait s’éterniser !!!

        Vous voyez donc que lorsque l’on transmet une information parcellaire, insuffisamment argumentée, naissent, chez votre interlocuteur, méprises, approximations, suppositions, etc. C’est exactement ce qu’ont manifesté beaucoup d’enseignants à la réception des livrets de « tests évaluatifs diagnostico-normatifs » , documents peu explicites en l’état (pour eux) consistant en une simple compilation d’exercices psychométriques (à première vue , celle du récepteur) :
        - n’ayant pas participé à la conception (eux qui conçoivent depuis toujours par obligation), ils se sentent dénigrés ;
        - ne devant pas les corriger, ils se voient dépossédés d’un certain nombre d’informations qu’ils auraient aimé connaître ou leur laisse imaginer qu’on les voit trop stupides pour savoir utiliser ces données avec pertinence ;
        - n’ayant pas vu émerger des objectifs clairs pour certains exercices de math, (sauf ici, mais c’est un peu tard) ils leur prêtent des intentions douteuses (et vous avec).
        - devant recevoir les résultats sous forme de conseils distants, ils envisagent plutôt (ils en ont la douloureuse expérience passée) des injonctions, des reproches, une tentative de « domptage » ;
        - Ne sachant pas de quels exercices ils vont devoir (ou librement pouvoir, selon vos propos) user, ils voient dans ce flou une menace pour leurs libertés comme pour leur considération (simples opérateurs...).

        Vous pouvez juger ces peurs irrationnelles, mais elles sont là quoique vous en pensiez. Ces mystères (ils en sont peur eux) prêtent à tous les fantasmes, je le répète, car même si vous savez, vous, de quoi il s’agit, rien n’a été garanti textuellement en accompagnement des livrets. C’est comme cela qu’ils ont reçu le message et comme cela qu’ils y ont projeté leurs angoisses, leurs interprétations devant une présentation insuffisamment étayée ou clarifiée. Sur eduscol, il y a de jolis intitulés, des vidéos aseptisées. On a l’habitude de ces démonstrations édulcorées : sur les vidéos, il n’y a jamais un élève qui hurle son envie pressante d’aller aux toilettes en pleine consigne, qui fait tomber son stylo en accusant le voisin de l’avoir provoqué... Dans la boite pédagogique à Oui-Oui, il n’y que des élèves dociles et bien disposés… Libre à vous de croire que c’est la réalité ou la norme.
        Vous pouvez arguer que c’est le boulot des enseignants que de se documenter, qu’ils n’avaient qu’à chercher, lire plus en détail ici où là. Le fait est qu’ils ont déjà, en cette période, beaucoup de travail pour lancer l’année et pas seulement pour faire des maths et de la lecture. Les enseignants sont payés chichement (en tant que cadres) pour un calcul de rémunération basé sur 27h « plafond » par semaine - ils en font plutôt 45 - et quand on leur demande d’en faire plus en bénévolat, sous prétexte de citoyenneté bienveillante parce qu’un pourcentage croissant d’élèves sont en difficulté (comme si c’était de leur faute exclusivement) on comprend aisément leurs réticences. Un jour, un IEN nous a dit : «  mais vous n’allez pas me dire que vous comptez encore vos heures? ». Mettez nous au standard des normes européennes en matière de salaire et on en reparlera. On fera 50 h quand on aura les moyens d’employer du personnel de maison. Il y a des normes qui semblent valoir plus que d’autres aux yeux de nos employeurs. Je ne râle pas, j’explique.

        Le protocole test / intervention mis en place dans votre dispositif vise donc à prendre en charge la différenciation en proposant de « bons » exercices aux élèves concernés par l’une ou l’autre de difficultés répertoriées et les outils réparateurs associés . Cela me semble la voie la plus naturelle pour accompagner une pédagogie qui génère elle-même de la difficulté et c’est donc tout à fait à propos dans un système utilisant massivement des stratégies de normalisation basées en premier lieu sur un référentiel fonction de l’âge administratif, le même qu’on utilise pour contingenter les enfants en promotions annuelles (cycles ou pas cycles), et des progressions communes annualisées.
        Ainsi, à l’instar du ministre, lorsque l’on encourage à utiliser une méthode de lecture (même jugée plus performante que d’autres), pour tous les élèves (groupes hétérogènes), qui démarre à une date commune avec des supports identiques pour tout l’effectif - les manuels sont ainsi conçus -, on crée les conditions parfaites d’une indifférenciation initiale et parfois durable. Celle-ci devra donc être compensée par de copieux suivis complémentaires (tests formatifs), ou tâches parallèles (soutien / APC/ exercices individualisés…) qui, soit divergent de la méthode, soit s’y substituent (en préceptorats multiples), soit s’y ajoutent (alourdissant les charges de travail). Je ne vois dans ce mode de fonctionnement qu’un pis-aller même si des outils plus fins et mieux ciblés peuvent en l’état actuel des choses, grâce à l’apport des sciences, engendrer une amélioration - celle que tout le monde attend désespérément depuis plusieurs mandatures… - et même probablement aider un certain nombre de débutants. Ont-ils été insuffisamment préparés ?
        Pour ces raisons, j’ai entrepris de ne plus utiliser de méthode. Je m’expose donc à ce que Stanislas D me fasse les gros yeux en me qualifiant de « bricoleur » inconscient. Je me console en me disant qu’il y a parfois des bricoleurs de génie. Pour autant, S. D n’est pas complètement hors sujet, car souvent les enseignants qui bidouillent des supports utilisent une construction méthodologique dont la trame s’éloigne assez peu des intentions propres des méthodes (selon l’orientation choisie : syllabique stricte, syllabique, mixte, analytique, globale (!!!)), à la différence qu’ils peuvent l’ajuster à volonté et qu’ils savent généralement pourquoi et comment le faire..
        A titre personnel, je ne me sens pas concerné par les tests présentés. C’est pour cela que je parle des autres. Car ce que je pratique est une non-méthode en ce sens qu’elle ne donne aucune indication précise sur les échéances d’apprentissage. Donc, on n’y considère jamais aucun élève comme étant en difficulté mais seulement à un niveau particulier de son développement personnel. Je pourrais aussi traiter son cas individuel en une série de prises de mesures et d’actions ciblées de la manière que vous semblez préconiser. Mais mener de front 25 dossiers de ce type est une gageure à laquelle je n’ai jamais trouvé de parade. J’ai des faiblesses…
        Ma pédagogie suppose des outils, des situations, des exigences, non standardisés qui permettent toujours d’affronter l’impondérable. Mon ambition repose tout autant sur la réussite que sur le bonheur et le respect de chacun. Mes outils sont inhabituels. Je les ai… bricolés… (comme beaucoup d’enseignants concepteurs) mais ils n’ont rien de prototypes incontrôlés et il y a belle lurette que mes élèves n’ont plus beaucoup de soucis d’apprentissage. En réalité, depuis que j’ai mis les méthodes et les tests de détection phonémique à la poubelle. Du coup ceux-là me font sourire, car c ‘est assez cocasse que de faire passer des qcm de phonologie (qu’ils ratent ! ) à des élèves déjà lecteurs.

        Pour terminer et compléter le propos pertinent de Jean B, ci-dessus.
        Vous ne pourrez jamais régler problèmes des élèves sans régler ceux de leurs maîtres et maîtresses.
        Tout ce petit (grand) monde, des êtres humains, souffre de bien d’autres maux que de simples questions de compétences scolaires ou de stratégie pédagogique. Ces maux-là, non techniques, davantage charnels, sociétaux, psychologiques, éthiques ou philosophiques pèsent lourdement sur la vie à l’école.
        Respectueusement.

  30. Jean B Répondre | Permalink

    Bonjour,
    Ma question est simple et elle est probablement la base de tout le mal-être des enseignants actuellement :
    Pourquoi ne pouvez-vous pas entendre les difficultés rencontrées ?
    Vous utilisez toutes les formes de réponses de l'humour à la condescendance et vous ne semblez pas vous poser la question : pourquoi me disent-ils tout cela ?
    C'est pourtant la seule réellement utile, la seule qui peut faire avancer les choses.
    Et la réponse est simple : ils disent tout cela car nous rencontrons des problèmes. Nous sommes face à des enfants, pour certains depuis fort longtemps, et nous rencontrons des difficultés avec ces tests car nous mettons en difficulté nos élèves. Ces tests ne nous semblent pas pertinents et n’apparaissent pas comme une aide. Il n’est pas possible de construire contre ceux qui doivent instruire.
    Cependant, je vous remercie d'avoir mis ici un espace d'échange. Même si, pour l'instant, c'est plutôt stérile.
    Je ne désespère pas, mais je ne rêve pas non plus.
    Cordialement.

    • Franck Ramus Répondre | Permalink

      Tout d'abord je tiens à repréciser ce qu'est cette page: il s'agit d'une initiative personnelle, consistant en un texte d'explication à propos des évaluations de CP-CE1, qui complète les instructions officielles, et qui vise à répondre aux questions les plus fréquemment posées par les enseignants. A aucun moment il n'a été dit que c'était un espace d'expression pour enseignants mécontents ou en difficulté. Il se trouve juste que sur mon blog personnel je laisse les commentaires ouverts, j'y réponds souvent, et ici cela m'a permis d'identifier de nouvelles questions et de mettre à jour la FAQ.

      Après, ce n'est pas que les retours des enseignants sur les évaluations ne m'intéressent pas, bien au contraire! Aucun test n'est jamais parfait, ces évaluations ne le sont pas non plus, nous comptons bien les améliorer d'année en année, et ce notamment en nous appuyant sur les retours indispensables des enseignants. Mais ce n'est pas sur ce blog que nous collectons les retours des enseignants. Il est prévu que la DEPP interroge un panel représentatif d'enseignants de CP et CE1 sur les conditions de passation, sur ce qu'ils en ont pensé, et sur les améliorations qu'ils suggèreraient. Cela permettra d'avoir une appréciation plus objective et représentative de l'avis des enseignants sur les évaluations, et des retours plus constructifs que les quelques témoignages postés ici, tout aussi respectables et entendables qu'ils soient.

      • Jean B Répondre | Permalink

        Bonjour,
        je vois que vous avez du mal à répondre sans une certaine agressivité. Qui a dit que c'était un espace d'expression pour enseignants mécontents ou en difficulté sinon vous ? Mais cela n'a strictement aucune importance mais par contre cela vous permet d'éviter de répondre à la question : Pourquoi ne pouvez-vous pas entendre les difficultés rencontrées ?
        Vous le faites dans les deux paragraphes de façon différentes, dans un premier temps en dénigrant d'une certaine façon les intervenants (mécontents et en difficultés), puis dans un second en leur retirant toute valeur puisque vous avez votre propre panel.
        Cependant, un tour rapide sur les forums enseignants, sur le café pédagogique ou sur les sites des différents syndicats devrait vous rendre plus sensible aux soucis que posent ces évaluations à différents niveaux. Ce ne sont donc pas seulement quelques mauvais grincheux.
        Vous mettez en avant la DEPP et un panel représentatif ce qui se voudrait rassurant. Malheureusement, les années nous ont fait la démonstration que la confiance (tant avancée par ailleurs) a des limites et que le crédit que l'on peut donner est restreint. Cette évaluation n'est ni la première, ni la dernière et soulève toujours autant de critiques. Pourtant en lisant vos intentions, cela ne devrait plus être le cas.
        Pour conclure, j'ai pourtant lu dans les messages exprimés de nombreux points constructifs et qui devraient être pris en compte. Je crains que ce ne soit pas le cas. Nous verrons en 2019 pour la nouvelle mouture.
        Ceci étant dit, je vous souhaite un excellent travail.
        Cordialement.

  31. Catherine. Répondre | Permalink

    Enseignante en maternelle, je suis avec un peu d'anxiété ces tests en me demandant quelles vont être les retombées en amont... et je vous avoue que je suis peu rassurée. En tous les cas j'espère pour les enseignants et les élèves que les préconisations arriveront avant la fin de l'année scolaire... :). "Anxiété", "peu rassurée", voilà un vocabulaire qui en dit long sur climat de quiétude et d'apaisement qui règne dans l'éducation nationale.

  32. Le Cancre Répondre | Permalink

    Bonjour,
    Tout d'abord, merci à Marcel D, je suis en accord avec vos propos mais je n'aurais pas pu les exprimer aussi clairement.
    Voici quelques remarques et questions personnelles à mon humble niveau de professeur des écoles.
    1- Nicole n'est pas la seule à avoir constaté un problème de calibrage en ce qui concerne le temps de passation, lisez les témoignages, nous enseignants ne sommes effectivement pas des experts en docimologie (considérant la piètre formation que nous recevons qui n'est évidemment pas du tout à la hauteur des enjeux de notre métier), nous disposons malgré tout d'une expérience de terrain et il est invraisemblable que les "experts" de la DEPP n'aient pas constaté ce problème de temps lors de la phase pilote. Non ce n'est pas un problème lié à la passation dans la classe de Nicole, mais bien une erreur de conception des tests, vous pourriez au moins reconnaître cela.
    2- Je vous cite :"Quand je vois le nombre de commentaires du style "ça va stresser les enfants" (dont le vôtre!), je me dis qu'effectivement des consignes très explicites sur ce qu'il faut dire pour présenter les évaluations et rassurer les élèves sont nécessaires. Celles qui sont données semblent être même encore en-dessous de ce qui serait nécessaire." Bon je passe sur le mépris incroyable envers les enseignants de ce commentaire... Encore une fois, non la panique ou le stress des élèves ne dépend pas uniquement de la façon dont on leur présente la tâche à effectuer. La quantité, la difficulté, le chronométrage incessant, le simple fait de leur présenter un livret bourré d'exercices... Malgré leur non expertise en docimologie beaucoup d'enseignants auraient pu vous avertir de cela lors de la conception. Ça semble très contradictoire avec les propos que vous tenez sur cette vidéo à partir de 7:05 : https://www.youtube.com/watch?v=jd1jqlLF4VE&t=453s
    3- Je vous cite : "On observe tout de même une tendance actuelle à envoyer très vite des enfants chez l'orthophoniste à la moindre difficulté de lecture, alors que ces enfants ont juste besoin qu'on leur enseigne la lecture, selon une méthode phonique enseignant les correspondances graphèmes-phonèmes de manière systématique, explicite et intensive." Considérez-vous que les difficultés en lecture soient uniquement ou principalement liées à un enseignement non systématique, explicite et intensif des correspondances "graphèmes-phonèmes ? Que dire de la procédure d'adressage qui n'est pas développée chez un élève malgré un entrainement intensif sur la procédure d'assemblage ?
    4- Je vous cite : "si les résultats des évaluations confirmaient que situer les nombres sur une ligne numérique est une compétence très importante pour l'apprentissage de l'arithmétique en CP, cela serait un argument fort pour suggérer de préciser le programme de maternelle en ce sens". Pourriez-vous préciser la démarche de cette recherche ? Comment les résultats des évaluations vont-ils préciser l'importance de la ligne numérique dans l'apprentissage de l'arithmétique ? Je suppose que vous ferez le lien entre la réussite ou non réussite de cet exercice avec la réussite ou non réussite aux autres exercices concernant les nombres. Y'a-t-il un réel consensus sur les recherches concernant cette ligne numérique approximative ? Brissiaud semble dire que non, cf. ce débat avec M.Piazza : https://forum.celinealvarez.org/clicks/track?url=https%3A%2F%2Fwww.college-de-france.fr%2Fsite%2Fstanislas-dehaene%2Fsymposium-2012-11-20-16h00.htm&post_id=30056&topic_id=6929
    Avez-vous différentes sources contradictoires à nous proposer à ce sujet ?
    5- Concernant cette partie des programmes :
    - Avoir compris que tout nombre s'obtient en ajoutant un au nombre précédent et que cela correspond à l'ajout d'une unité à la quantité précédente.
    - Quantifier des collections jusqu'à dix au moins ; les composer et les décomposer par manipulations effectives puis mentales. Dire combien il faut ajouter ou enlever pour obtenir des quantités ne dépassant pas dix.
    - Parler des nombres à l'aide de leur décomposition.
    Pourriez-vous m'indiquer précisément quels exercices s'assurent de l'acquisition de ces notions dans les évaluations proposées ?
    Merci pour vos réponses.

    • Franck Ramus Répondre | Permalink

      1- Nicole n'est pas la seule à avoir constaté un problème de calibrage en ce qui concerne le temps de passation, lisez les témoignages, nous enseignants ne sommes effectivement pas des experts en docimologie (considérant la piètre formation que nous recevons qui n'est évidemment pas du tout à la hauteur des enjeux de notre métier), nous disposons malgré tout d'une expérience de terrain et il est invraisemblable que les "experts" de la DEPP n'aient pas constaté ce problème de temps lors de la phase pilote. Non ce n'est pas un problème lié à la passation dans la classe de Nicole, mais bien une erreur de conception des tests, vous pourriez au moins reconnaître cela.

      Le constat des temps de passation ne vient pas des experts de la DEPP, il vient des 250 enseignants qui ont piloté ces tests sur 6000 élèves de fin de GSM l'an dernier (pour le début CP). Et non, la durée de passation n'est pas remontée comme posant problème lors de la phase pilote. A ce stade, je ne suis pas capable de dire pourquoi les retours de ces 250 enseignants diffèrent des quelques témoignages recueillis ici. Si ce n'est que les témoignages ici ne sont pas représentatifs, bien entendu, puisque seuls les mécontents s'expriment. C'est pour cela que la DEPP réalisera un sondage d'un échantillon représentatif d'enseignants de CP, pour avoir un retour objectif sur la question. Dans l'attente de ces résultats, je regrette de ne rien pouvoir dire de plus.

    • Franck Ramus Répondre | Permalink

      2- Je vous cite :"Quand je vois le nombre de commentaires du style "ça va stresser les enfants" (dont le vôtre!), je me dis qu'effectivement des consignes très explicites sur ce qu'il faut dire pour présenter les évaluations et rassurer les élèves sont nécessaires. Celles qui sont données semblent être même encore en-dessous de ce qui serait nécessaire." Bon je passe sur le mépris incroyable envers les enseignants de ce commentaire... Encore une fois, non la panique ou le stress des élèves ne dépend pas uniquement de la façon dont on leur présente la tâche à effectuer. La quantité, la difficulté, le chronométrage incessant, le simple fait de leur présenter un livret bourré d'exercices... Malgré leur non expertise en docimologie beaucoup d'enseignants auraient pu vous avertir de cela lors de la conception. Ça semble très contradictoire avec les propos que vous tenez sur cette vidéo à partir de 7:05 : https://www.youtube.com/watch?v=jd1jqlLF4VE&t=453s

      Ce n'est pas contradictoire, c'est la même chose.
      Prenons un peu de recul: pourquoi donc des élèves de début CP, dont le seul vécu scolaire est la maternelle, devraient-ils être stressés par des évaluations ou par un gros cahier d'exercices? Pourquoi le mot évaluation devrait-il avoir la moindre connotation négative pour eux? Pourquoi donc devraient-ils être sujets à l'angoisse de la note, l'anxiété de performance, la peur de ne pas réussir ou terminer un exercice? Si la maternelle les a déjà conditionnés de telle manière, la situation est vraiment plus dramatique que je ne le pensais. Cela existe sans doute mais ne peut pas tout expliquer.
      Certains parents y sont sans doute aussi pour quelque chose, si, ayant entendu parler des évaluations, ils ont transmis leur angoisse de performance à leurs enfants. A fortiori si des enseignants ont déballé les évaluations devant eux, cela ne peut qu'avoir accentué ce phénomène. Mais ça ne peut pas tout expliquer.
      Je reste donc convaincu que la clé principale est entre les mains des enseignants, dans la manière qu'ils ont de présenter les évaluations aux élèves, les mots qu'ils utilisent, la manière dont ils rassurent lorsque le temps est terminé, qu'on n'a pas fini, mais ce n'est pas grave du tout, on passe au suivant, etc. On peut se gausser des instructions qui étaient dans le guide de l'enseignant, en faisaient-elles trop, pas assez? Chacun à son avis. Ces choses-là sont intuitives pour certains enseignants, et les instructions peuvent leur sembler ridicules ou insultantes, mais d'autres ne savent pas faire passer une évaluation de manière non menaçante, et pour eux des instructions précises ne sont pas de trop. Ce n'est pas mépriser les enseignants que de leur fournir des instructions précises, c'est indispensable compte tenu de leur hétérogénéité.

      Comme on va tout de suite me répondre que je suis "hors sol" et que je ne sais pas de quoi je parle, je précise que j'ai une petite expérience dans ce domaine. J'ai moi-même testé de nombreux enfants, y compris dyslexiques (c'est ma spécialité), sur des tests qu'ils avaient pour certains les plus grandes difficultés à résoudre (des tests de lecture ou de phonologie avec des dyslexiques, vous imaginez). Malgré tout aucun n'est jamais sorti en pleurant. Il est vraiment possible de mettre en place la situation de test de manière non menaçante, qui ne porte pas atteinte à l'estime de soi, mais qui encourage simplement l'enfant à faire de son mieux. Je conçois aisément que c'est un peu plus difficile en passation collective qu'individuelle, mais certainement pas impossible. D'ailleurs je suis certain que bien des enseignants qui ne s'expriment pas ici y sont parvenus.

    • Franck Ramus Répondre | Permalink

      3- Je vous cite : "On observe tout de même une tendance actuelle à envoyer très vite des enfants chez l'orthophoniste à la moindre difficulté de lecture, alors que ces enfants ont juste besoin qu'on leur enseigne la lecture, selon une méthode phonique enseignant les correspondances graphèmes-phonèmes de manière systématique, explicite et intensive." Considérez-vous que les difficultés en lecture soient uniquement ou principalement liées à un enseignement non systématique, explicite et intensif des correspondances "graphèmes-phonèmes ? Que dire de la procédure d'adressage qui n'est pas développée chez un élève malgré un entrainement intensif sur la procédure d'assemblage ?

      En CP, oui. La procédure d'adressage est très importante, elle est à développer aussi, mais ça se joue sur toute l'école élémentaire et au-delà, en lisant des milliers et des milliers de mots, et si nécessaire en entrainant la fluence. Mais l'adressage n'est pas le problème du CP.
      Au CP, un élève qui ne lit pas a besoin d'apprendre à déchiffrer. Au CE2, un élève qui sait déchiffrer mais ne lit pas de manière fluente a besoin d'entrainer la procédure d'adressage (et donc de lire plus).

    • Franck Ramus Répondre | Permalink

      4- Je vous cite : "si les résultats des évaluations confirmaient que situer les nombres sur une ligne numérique est une compétence très importante pour l'apprentissage de l'arithmétique en CP, cela serait un argument fort pour suggérer de préciser le programme de maternelle en ce sens". Pourriez-vous préciser la démarche de cette recherche ? Comment les résultats des évaluations vont-ils préciser l'importance de la ligne numérique dans l'apprentissage de l'arithmétique ? Je suppose que vous ferez le lien entre la réussite ou non réussite de cet exercice avec la réussite ou non réussite aux autres exercices concernant les nombres. Y'a-t-il un réel consensus sur les recherches concernant cette ligne numérique approximative ? Brissiaud semble dire que non, cf. ce débat avec M.Piazza : https://forum.celinealvarez.org/clicks/track?url=https%3A%2F%2Fwww.college-de-france.fr%2Fsite%2Fstanislas-dehaene%2Fsymposium-2012-11-20-16h00.htm&post_id=30056&topic_id=6929
      Avez-vous différentes sources contradictoires à nous proposer à ce sujet ?

      Voici un exemple d'étude montrant le caractère prédictif et causal de la ligne numérique: https://onlinelibrary.wiley.com/doi/abs/10.1111/j.1467-8624.2008.01173.x
      Je ne sais pas si Rémi Brissiaud peut citer des études allant à l'encontre de ce résultat, ou s'il se repose juste sur des intuitions. Je ne suis pas expert des mathématiques et donc je ne pourrai pas débattre plus sur le sujet.

    • Franck Ramus Répondre | Permalink

      5- Concernant cette partie des programmes :
      - Avoir compris que tout nombre s'obtient en ajoutant un au nombre précédent et que cela correspond à l'ajout d'une unité à la quantité précédente.
      - Quantifier des collections jusqu'à dix au moins ; les composer et les décomposer par manipulations effectives puis mentales. Dire combien il faut ajouter ou enlever pour obtenir des quantités ne dépassant pas dix.
      - Parler des nombres à l'aide de leur décomposition.
      Pourriez-vous m'indiquer précisément quels exercices s'assurent de l'acquisition de ces notions dans les évaluations proposées ?

      Désolé, pas le temps de vérifier les cahiers. Mais si votre question est de savoir si toutes les compétences attendues en fin de maternelle sont testées, non, ce n'était pas possible. Encore une fois, le but n'est pas d'évaluer ce qui a été fait à la maternelle, mais de sonder, le plus rapidement possible, les compétences élémentaires les plus importantes pour le CP. Des choix ont été nécessaires.

      • Marcel D Répondre | Permalink

        Il n’y a pas que les mécontents d’ici. Ceux qui sont là sont des gens concernés. Ailleurs, il y en a beaucoup qui ne voient même plus l’intérêt d’en discuter. On entend la colère sourdre. Peut être de manière un peu trop épidermique sur ce sujet précis. Mais le malaise est ancien. J’ai exprimé celui de nombreux d’enseignants avec qui j’échange et qui sont parfois fort distants, qui m’écrivent ou qui m’appellent. J’essaie de comprendre leurs doutes, ce n’est pas pareil.

        Quelques remarques

        1) « 250 enseignants qui ont piloté ces tests sur 6000 élèves de fin de GSM »
        C’est très intéressant justement sur les conditions d’exercice. Un a priori laisserait à penser qu’en début CP cela devrait être encore plus simple qu’en maternelle. Et pourtant...En GS, contrairement à un CP/CE1, il y a souvent des ATSEM qui peuvent assister l’enseignant pendant le test (superviser, contrôler des groupes autonomes...). Les élèves connaissent leur enseignant, leur classe et leur matériel. La confiance est donc peut-être plus facile à trouver que dans la grande école toute nouvelle où l’on vient de se voir parachuté avec un gros bureau personnel et un cartable plein de mystères. Ce n’est qu’une hypothèse.
        Je ne sais pas non plus s’ils ont fait passer le test en classe entière à 28 élèves par exemple ???
        Je ne sais pas non plus s’il n’y avait pas ici où là quelques observateurs plus ou moins accompagnants. Pas de théorie du complot, juste l’habitude de voir des projets ou des séances types bidonnés, depuis des décennies. Même mon oncle qui était instit en 1930 m’en a raconté quelques-unes. (Pas en vidéo pour sûr.)

        2) Nous avons observé dans notre école que les tests de CE1 se passaient mieux. D’autant que nous disposions exceptionnellement à ce moment-là d’un personnel surnuméraire pour effectuer les tests de fluence par exemple.
        A titre personnel, j’aurai préféré davantage de situations en petits groupes, voire en individuel, avec l’appui du Rased (qui était en réunionsssss pendant la période). Je ne dis ça que pour la qualité des prises d’information.

        3) « Ce n'est pas mépriser les enseignants que de leur fournir des instructions précises, c'est indispensable compte tenu de leur hétérogénéité. »
        Il est peut-être temps de les mettre aux normes !! Après, si certains enseignants ne vous semblent pas au niveau, la bonne piste n’est pas de faire passer des tests aux élèves mais de mieux recruter et de mieux former. J’attends avec impatience le test qui révélera les défaillances de ceux qui s’en occupent. Ce n’est pas une plaisanterie.

        4) « Encore une fois, le but n'est pas d'évaluer ce qui a été fait à la maternelle, mais de sonder, le plus rapidement possible, les compétences élémentaires les plus importantes pour le CP. »

        Faut-il revoir la façon d'évaluer en maternelle pour ne pas avoir à faire un doublon de mesures?

        PS : pour l’élève en pleurs, ne vous faites pas trop de souci, elle sait déjà lire assez correctement à l’entrée au CP.

  33. Charivari Répondre | Permalink

    Bonjour,

    j'apprécie beaucoup cette FAQ et son effort de pédagogie. Ce type de démarche devrait être systématique quand le MEN impose des choses aux enseignants. Nous avons besoin de comprendre pourquoi certains choix sont faits. Cela montre de la considération à notre égard, du respect, et cela contribuerait certainement à l'adhésion d'un plus grand ombre de collègues.

    Par exemple, je comprends mieux la difficulté de certains exercices, maintenant que j'ai lu que l'objectif est de montrer aux élèves comme ils ont progressé.

    J'enseigne en CM, et, dans mon école, nous avons des évaluations de ce type, en début d'année ou même en début de cycle. Par exemple, en calcul mental, je donne 6 fois dans l'année 50 calculs, à réaliser en 5 minutes. Comme ce sont des types de calcul que nous allons étudier pendant l'année, le score de début d'année est souvent autour de 5/50. Certains élèves paniquent. Je dois écrire sur le test que celui-ci n'est qu'un point de départ, qu'il ne servira que, plus tard, à aider l'élève à mesurer ses progrès. Je trouve que c'est une très bonne démarche.

    En revanche, Je trouve dommage qu'ici l'évaluation mélange cette démarche de "point de départ" avec l'évaluation de ce qui a déjà été vu en maternelle. Les élèves, les parents, vont forcément s'inquiéter de ne pas savoir faire, et ce n'est pas la petit phrase "ce n'est pas grave si vous ne savez pas", qu'ils ont l'habitude d'entendre à chaque évaluation, qui va les rassurer.

    D'autres choses m'étonnent.

    Dans l'exercice 1 de français "discriminer les sons", comment analysez-vous la réponse d'un élève qui entoure p quand il entend "bulle" ? Si le but était de savoir si l'élève a reconnu le SON b de bulle, pourquoi avoir proposé des lettres en écriture scripte au lieu de capitales, bien mieux maitrisées par les élèves, et plus faciles à discriminer visuellement ?
    Il est très possible que l'enfant différencie très bien les sons mais confonde le p et le b et votre exercice ne permettra pas de savoir si le problème de l'élève vient de sa discrimination auditive ou visuelle.
    D'ailleurs, si c'est bien la discrimination auditive que vous évaluez, comme affirmé dans le guide du maitre, pourquoi avoir proposé les lettres d et surtout q, dont le son n'a rien à voir, et pas la lettre m, qui est pourtant souvent confondue avec le b ?

    J'aurais plusieurs autres exemples de ce type (pourquoi avoir présenté 14 crayons identiques sur le fichier de l'enfant quand le problème explique qu'on a 10 crayons DONT 4 qui ne fonctionnent pas ? Qu'est-ce que cette ligne graduée où le losange repère est entre le 1 et le 2 et où on demande à l'élève de choisir entre 1 et 2 ?)

    D'autre part, je trouve vraiment déplorable la forme des cahiers. Pourtant cette forme est essentielle et contribue pour une bonne part à la réussite ou à l'échec. On s'adresse ici à des enfants qui sortent de maternelle, qui n'ont jamais eu de fichier entre les mains.

    Or on leur remet ces fichiers en noir et blanc (plus de 50 pages !) mal mis en page, mal illustrés, aux cadres inégaux, aux textes mal alignés... Rien ne semble avoir été pensé pour des enfants de cet âge : ni le format du papier, ni les polices de caractère, ni la maquette.
    On dirait un cahier (mal) réalisé sur Word par un enseignant pressé. Quel amateurisme... Comment donner confiance aux enseignants qui les reçoivent ?

    • Franck Ramus Répondre | Permalink

      "Je trouve dommage qu'ici l'évaluation mélange cette démarche de "point de départ" avec l'évaluation de ce qui a déjà été vu en maternelle."
      L'objectif n'est pas d'évaluer ce qui a déjà été vu en maternelle, mais d'évaluer ce qui est important pour le CP. Maintenant, ce qui est important pour le CP ressemble évidemment (à quelques exceptions près) à ce qui a été vu en maternelle, parce que quand même il y a une certaine logique dans les programmes!
      Il n'y a donc pas de mélange, la démarche est très clairement définie, mais évidemment il y a un lien logique entre la maternelle et le CP, comment pourrait-il en être autrement?

    • Franck Ramus Répondre | Permalink

      "Dans l'exercice 1 de français "discriminer les sons", comment analysez-vous la réponse d'un élève qui entoure p quand il entend "bulle" ? Si le but était de savoir si l'élève a reconnu le SON b de bulle, pourquoi avoir proposé des lettres en écriture scripte au lieu de capitales, bien mieux maitrisées par les élèves, et plus faciles à discriminer visuellement ?
      Il est très possible que l'enfant différencie très bien les sons mais confonde le p et le b et votre exercice ne permettra pas de savoir si le problème de l'élève vient de sa discrimination auditive ou visuelle.
      D'ailleurs, si c'est bien la discrimination auditive que vous évaluez, comme affirmé dans le guide du maitre, pourquoi avoir proposé les lettres d et surtout q, dont le son n'a rien à voir, et pas la lettre m, qui est pourtant souvent confondue avec le b ?"

      Le guide du maître fait référence pour l'exercice 1 à la compétence "Discriminer des sons" du programme de la maternelle, mais de toute évidence cet exercice teste la connaissance que les élèves peuvent avoir des correspondances phonèmes-graphèmes. Ce n'est pas au programme de la maternelle, mais il n'est pas inintéressant de sonder ce qui est déjà connu de l'élève. Du coup, cet exercice nécessite à la fois de discriminer les sons, de discriminer les lettres, et de connaître le lien entre les deux. Il est donc possible d'échouer à cet exercice pour l'une de ces 3 raisons. C'est pour cela que la discrimination des lettres et la discrimination des sons font l'objet de tests à part entière (exercices 2, 3 et 4), ce qui permet à l'enseignant d'avoir un diagnostic clair de la source des erreurs éventuelles.

    • Franck Ramus Répondre | Permalink

      "pourquoi avoir présenté 14 crayons identiques sur le fichier de l'enfant quand le problème explique qu'on a 10 crayons DONT 4 qui ne fonctionnent pas ?"

      Dans cet exercice il s'agit de faire des soustractions entre deux nombres. Ces deux nombres sont rappelés visuellement sur le cahier (10 feutres d'un côté, 4 de l'autre), de manière à ne pas surcharger la mémoire à court-terme de l'enfant, c'est-à-dire éviter qu'il échoue juste parce qu'il a oublié l'une des données du problème. C'est le même format pour tous les items de cet exercice (et pour les items d'exemple), donc la compréhension de la tâche ne devrait pas poser de problème.
      Si l'on avait représenté seulement 10 feutres, en distinguant ceux qui marchent et ceux qui ne marchent pas, il aurait suffit à l'élève de compter ceux qui marchent pour avoir la bonne réponse, et l'on n'aurait pas testé la compétence voulue (la soustraction).

    • Franck Ramus Répondre | Permalink

      "Qu'est-ce que cette ligne graduée où le losange repère est entre le 1 et le 2 et où on demande à l'élève de choisir entre 1 et 2 ?"

      Si vous faites référence à l'exercice 6 de repérage sur la ligne numérique, la ligne n'est pas graduée. Autant que je puisse voir, le losange repère n'est placé que sur des entiers. Il est sur le 1 sur un item, et sur le 2 sur un autre. Mesurez les distances si vous n'êtes pas convaincu!

    • Franck Ramus Répondre | Permalink

      "on leur remet ces fichiers en noir et blanc (plus de 50 pages !) mal mis en page, mal illustrés, aux cadres inégaux, aux textes mal alignés... Rien ne semble avoir été pensé pour des enfants de cet âge : ni le format du papier, ni les polices de caractère, ni la maquette."

      Sur les 50 pages, oui, c'est beaucoup, parce qu'il y a beaucoup de tests différents, et aussi parce que la mise en page a été la plus aérée possible.
      Noir et blanc, parce que la couleur n'était pas cruciale pour le but des évaluations, et pour une raison de coût évidente: ce sont 800 000 cahiers qu'il a fallu imprimer!

      Pour vos autres critiques, honnêtement, je ne les comprends pas. La mise en page est claire et aérée, je ne vois rien qui déborde ou ne soit pas bien aligné (sauf éventuels problèmes d'impression). Il y a d'ailleurs eu des progrès considérables faits par rapport à des versions antérieures, dans lesquelles la mise en page était beaucoup plus surchargée, ce qui pouvait poser des problèmes de repérage pour un certain nombre d'élèves. Ce n'est évidemment pas parfait, et ce n'est certainement pas un format aussi inclusif que nous l'aurions aimé pour tous les élèves en situation de handicap, mais sachez que des efforts importants ont déjà été faits dans ce sens. A terme, on vise d'avoir les évaluations sur tablette, avec présentation d'un seul item à la fois.

      • Berezina Répondre | Permalink

        "A terme, on vise d'avoir les évaluations sur tablette, avec présentation d'un seul item à la fois."

        Bonjour,

        Ce serait à quelle échéance, approximativement ? Doit-on en déduire qu'on se dirigerait à plus ou moins moyen terme vers une dotation des écoles primaires en matériel de ce type ? Certaines communes sont parfois équipées mais beaucoup d'écoles en sont péniblement à un vieux PC fixe tournant sous Windows XP 🙂

  34. Marcel D Répondre | Permalink

    Bonjour monsieur Ramus,
    J'ai saisi les résultats de ma classe. Pas de problème rencontré. Techniquement fonctionnel et rapide, bien qu'ennuyeux...
    J'en ai profité pour regarder les réponses de mes élèves que je n'avais pas encore observées (ce n'est pas moi qui ai réalisé la passation pour l'essentiel).
    Des interrogations me viennent quant à la prise en charge (et l'interprétation) de certaines réponses :

    - Par exemple, une élève à répondu deux fois sur un même item en inscrivant visiblement la réponse due à la moitié inférieure de la page. (image du chien).
    - Un élève n'a rien inscrit sur deux pages alors qu'il est, de mon point de vue (je le connais depuis plusieurs années) largement capable d'y répondre.
    Enfin, un élève était absent en français, et j'estime que lui a besoin d'aide. Comment puis-je faire passer les tests sensés aider à lui venir en aide? Accès à un référentiel de correction après passage du test hors cadre? Comparaison avec d'autres élèves de l'école ou d'ailleurs?
    Tant qu'a suivre ce protocole, autant qu'il soit utile. Donc j'essaie d'y trouver les bonnes réponses.
    Merci de vos lumières.

    • Franck Ramus Répondre | Permalink

      "- Par exemple, une élève à répondu deux fois sur un même item en inscrivant visiblement la réponse due à la moitié inférieure de la page. (image du chien)."
      Si à l'examen du cahier il est évident que l'élève avait la bonne réponse mais qu'elle l'a juste donnée au mauvais endroit, il parait sensé de considérer qu'elle a donné la bonne réponse.

    • Franck Ramus Répondre | Permalink

      "- Un élève n'a rien inscrit sur deux pages alors qu'il est, de mon point de vue (je le connais depuis plusieurs années) largement capable d'y répondre."
      En revanche, ici, on ne peut pas non plus inventer des données qui n'existent pas. Les données sont manquantes, et la compétence en question ne peut pas être évaluée (du point de vue de la DEPP; en ce qui vous concerne, vous savez où en est l'élève, cela vous suffit).
      Je ne sais pas si, sur la plateforme de saisie, il y a une distinction entre "donnée manquante" et "non-réponse". Il me semble que vous décrivez un cas de "donnée manquante" qui ne doit pas être interprété comme non-réponse. Si cette distinction n'existe pas sur la plateforme, c'est certainement une lacune à combler.

    • Franck Ramus Répondre | Permalink

      De même, en cas d'absence et d'impossibilité de faire repasser les épreuves pendant la période "officielle" des évaluations, les données sont manquantes pour les besoins des évaluations nationales. Pour votre usage personnel et l'intérêt de l'enfant, vous pouvez bien sûr réutiliser les cahiers si vous le souhaitez. Dans ce cas, il serait utile que vous puissiez encore avoir accès à la plateforme pour la saisie et la restitution des résultats. Il faudrait donc que la plateforme reste accessible pour ce genre de cas. Si ce n'est pas le cas, et s'il y a une demande, on devrait pouvoir laisser cette possibilité.

    • Marie Répondre | Permalink

      Eh bien comment avez-vous fait pour rentrer les résultats ?!...
      J'essaye depuis mardi et je n'ai toujours pas réussi à saisir les résultats du premier cahier de mes 13 CP... 4h45 pour l'instant. Je ne suis vraiment pas sûre de continuer..
      Surtout qu'au vu des réponses, je n'ai toujours rien appris que je ne sache déjà...

  35. Marie Répondre | Permalink

    Ah si une surprise ! Un gamin, vif, plein d'humour, dont j'ai pu vérifier la parfaite compréhension des textes entendus à maintes reprises et qui s'est trompé à quasiment toutes les réponses du dernier exercice du cahier 1... Je viens d'aller le voir pour lui demander ce qui s'est passé et il m'a répondu : "J'en avais marre. Je n'avais rien écouté, tu avais dit que ce n'était pas grave."...

    Au fait, ça y est, j'ai saisi tous les résultats du cahier 1 de mes 13 élèves : quasiment 5 heures...et il reste encore deux cahiers...

    • Marcel D Répondre | Permalink

      Moi, j'en ai eu pour 1h30 pour mes 8 CP et pour les trois cahiers. Pas de mauvaise foi.
      Mais dans mon coin, ce sont les saisies de CE1 qui posent problème. Les pages se déconnectent automatiquement si l'on ne saisit pas très vite. Il faut se reconnecter complètement et le temps de chargement des pages est long (bien que nous ayons la fibre!). Plusieurs collègues disent en être à plus de 10 heures pour leur classe. Bien au-delà donc des cinq heures de compensation (réduction des APC ou de la formation continue) allouées par l'administration. Quand la passation permet d'observer les élèves en action, il y a toujours quelque chose à en tirer. En revanche, si de trop nombreuses heures sont occupées en secrétariat de saisie, elles sont définitivement perdues. Ce n'est pas très malin et il vaudrait mieux être en APC ou en préparation de séquences différenciées...
      Je confirme que l'on n'a pas appris grand chose de plus sur nos élèves que nous suivons depuis la PS pour la plupart. Mais comme le dit notre hôte (F.R), il y a ici ou là des praticiens fort peu compétents qui ont besoin d'un outil pour les guider. Cela ne répond en rien à la problématique : que font-ils donc là et qui les y a mis? On va donc leur donner un coup de pouce temporaire et très ciblé (mais en visant large!!!). C'est à vérifier, alors observons ce que donnera ce dispositif. Sait-on jamais.

  36. Marie Répondre | Permalink

    Problèmes identiques pour les saisies CP : pages qui mettent 50 secondes-1 minute à charger, et parfois plus de 5 minutes ! Sachant qu'il y a 24 pages dans le cahier 1...Il est nécessaire de temps à autre de reculer d'une, deux, trois pages pour relancer la machine. Exceptionnellement, ça fonctionne bien et on saisi les réponses d'un cahier en 5 minutes.

    Il semblerait que les concepteurs de l'outil de saisie aient oublié qu'on était nombreux à enseigner en CP ou CE1 et qu'on risquait de se connecter tous à peu près aux mêmes heures...

  37. André Répondre | Permalink

    Cher Monsieur,

    Je vous invite à lire le petit article sur le site de "franceinfo" dont on peut difficilement considérer que les journaliste sont tous d'affreux gauchistes. Juste un extrait: "Cette semaine, on a appris une nouvelle démission du Conseil supérieur des programmes, la troisième en quelques mois. La série interpelle, comme questionnent les propos de la démissionnaire, M-A Grard, estimant que le CSP « est devenu un lieu où on enregistre les textes proposés mais où il est impossible d’avoir des discussions. Or la richesse du CSP était dans ses débats ». Cela commence à ressembler à un refrain : discussion impossible, absence de concertation, décisions venues d’en haut, décrets directifs, corps intermédiaires court-circuités, la gouvernance actuelle de l’Education nationale accumule les signes d’un dirigisme autoritaire. Retour sur les épisodes précédents."
    mais on peut aussi aller plus loin https://blog.francetvinfo.fr/l-instit-humeurs/2018/10/07/rue-de-grenelle-les-signes-dune-gouvernance-dirigiste-et-autoritaire-saccumulent.html
    Il devient assez visible que le ministère de l'éducation nationale est gouverné d'une main de fer et mis au pas au gré d'une orientation inquiétante.
    Inquiétant et peu ragoutante, ainsi ce titre de Capital pourrait (vous) interroger peut-être: "EDUCATION: POUR LE FN LES PROPOSITIONS DU MINISTRE SONT UNE "VICTOIRE""
    et pour aller plus loin :https://www.capital.fr/economie-politique/education-pour-le-fn-les-propositions-du-ministre-sont-une-victoire-1259934
    Pas rassurant tout cela
    Cordialement

  38. André Répondre | Permalink

    Monsieur,

    Permettez moi de mettre à votre disposition trois articles:
    - le premier paru dans Médiapart et provient du blog par STELLA BARUK:
    Ce que ces évaluations semblent laisser prévoir, c’est qu’avec les meilleures intentions du monde, le petit sujet connaissant qui entre en classe aujourd’hui a toute chance d’être regardé par l’institution scolaire comme un « sujet neurocognitif » qui, plutôt qu’un apprentissage, subira un entraînement, sur le mode sportif de la recherche de performance. Pour aller plus ploin: https://blogs.mediapart.fr/stella-baruk/blog/280918/nouvelles-evaluations-l-enfant-charge-de-chiffres?utm_source=twitter&utm_medium=social&utm_campaign=Sharing&xtor=CS3-67
    - un autre paru dans sur france info "Rue de Grenelle, les signes d’une gouvernance dirigiste et autoritaire s’accumulent"
    pour aller plus loin: https://blog.francetvinfo.fr/l-instit-humeurs/2018/10/07/rue-de-grenelle-les-signes-dune-gouvernance-dirigiste-et-autoritaire-saccumulent.html
    - le dernier enfin paru dans Capital, inquiétant et angoissant: "EDUCATION: POUR LE FN LES PROPOSITIONS DU MINISTRE SONT UNE "VICTOIRE" "https://www.capital.fr/economie-politique/education-pour-le-fn-les-propositions-du-ministre-sont-une-victoire-1259934
    De quoi se poser quelques questions...
    Cordialement

  39. David Répondre | Permalink

    Bonjour,

    J'ai dans ma carrière à faire passer les évaluations CE2 puis CM2 puis les dernières de CE1.
    Je ne commente pas le contenu (voir les commentaires précédents) ni les buts de ces évaluations (voir aussi les commentaire précédents).
    Je voulais ajouter mon sentiment alors que je suis en train de rentrer les résultats (je l'avoue plus pour tester le protocole que vous avez contribué à mettre en place). J'ai enfin trouvé la tâche la plus dégradante de mon métier (peut être la seule de ma carrière !). Celle de n'être réduit qu'à RECOPIER les réponses des élèves, celle de n'être qu'un pantin.
    Je pense que l'an prochain je vous ferai un colis pour que vous et vos comparses (chercheurs et haut fonctionnaires) vous les rentriez vous même.
    J'espère que vous aurez au moins l'attention de nous communiquer vos résultats y compris que l'on ait accès aux résultats bruts de tous les élèves anonymés histoire que nous aussi pauvres exécutants puissions ces résultats massifs. J'attends avec impatience vos retours et commentaires, notamment sur la qualité des données récoltées ainsi que leur cohérence.
    Mais je pense que je me trompe car ce gouvernement ne publiera que ce qui l'arrangera et vous verrez à ce moment là que vous êtes comme vos collaborateurs à leurs bottes.

    Bienvenue dans le monde de Oui-Oui

    A bon entendeur salut.

    • David Répondre | Permalink

      Désolé pour les erreurs de frappes dues à la colère.

  40. Marcel D Répondre | Permalink

    J’ai écouté avec religiosité votre conférence au dernier séminaire des IEN. Vous y expliquez les protocoles des études comparatives. Les évaluations nationales actuelles aurait d’ailleurs pu faire l’objet d’un pré-test. Ce qui n’est nullement problématique du moment qu’on l’annonce. Mais n’ayant pas de renseignement sur les stratégies propres à chaque enseignant, cela ne peut évidemment pas être le cas. Peut-être plus tard… ? J’y retrouve tous les éléments attendus et partage pour l’essentiel les conclusions que vous y faites. Pas d’antagonisme...
    Sauf cette assertion (non fondée scientifiquement et fort dépendante d’un biais psychologique lié à une intuition peut-être fausse) :
    « Cette histoire de progression des graphèmes-phonèmes, on ne peut pas demander aux enseignants de l’inventer eux-mêmes… C’est une tâche d’expert, de linguiste… Et il y a déjà des experts qui ont proposé différents types de progressions parfaitement rationnelles… Ne surtout pas demander aux enseignants de réinventer la roue, qui risquerait d’être moins bonne. » 
    Vous voyez que vous considérez les enseignants avec peu de déférence. Le diplôme seul ferait-il valeur ? Beaucoup des vos confrères, vous même peut-être, se plaignent parfois que les enseignants ne sont pas assez à l'écoute de la recherche. Et si l'inverse était aussi un inconvénient? Il y a, dans l'histoire de la médecine, des tas de généralistes qui ont trouvé ce que des spécialistes n'avaient pas vu. S’il y a une chance, une seulement, que la roue soit meilleure, êtes-vous prêt à la saisir, à la considérer? La réponse est probablement non, car elle vient ne vient pas d’un expert (à définir). Ou bien non parce qu’il n’y a pas d’étude. Et comment y aurait-il une étude dès lors qu’on ne dépasse pas un seuil de diffusion suffisant pour être pris en compte ? Et pour dépasser ce seuil, il ne faut surtout sortir du paradigme, et se contenter de publier un manuel assez standard, facile à commercialiser… D’autant qu’on demande aujourd’hui explicitement de s’armer d’un manuel. Cela s’appelle un cercle vicieux.
    Ce système de réflexion sur la pédagogie ne peut guère qu’ optimiser ce qui existe déjà. Et c’est déjà bien nécessaire. Mais il est regrettable qu’il n’y ait plus beaucoup de place pour l’innovation.
    Ite missa est.

    • Franck Ramus Répondre | Permalink

      "Les évaluations nationales actuelles aurait d’ailleurs pu faire l’objet d’un pré-test."
      Comme indiqué précédemment, elles ont bien été pré-testées l'année dernières sur 6000 élèves pour le CP et 6000 autres pour le CE1.
      Je ne comprend pas ce que vous attendriez de plus. Une évaluation n'est pas une intervention, dont l'efficacité devrait être testée contre celle d'une autre. C'est juste un instrument de mesure, qui pourra à l'avenir servir à l'évaluation rigoureuse de différentes interventions qui se caleront entre deux phases d'évaluation (notamment entre mi-CP et CE1, afin de tester la réponse à différentes interventions).

      • Marcel D Répondre | Permalink

        Non je n'attends rien de plus. Je me suis sans doute mal exprimé. Le pré-test vous sert de base. Les évaluations au niveau national n'en sont pas un (protocole pas sous contrôle précis et dépendant du bon vouloir des individus épars). Tout est ok.
        Question accessoire : comment vais-je faire pour étalonner la valeur des mes propres interventions sachant que :
        1) ma façon de procéder est unique;
        2) nombre de mes élèves lisent déjà en entrée de CP sans avoir vu un manuel ou suivi une progression.
        Je dois être voué à devenir un ectoplasme...

    • Franck Ramus Répondre | Permalink

      "Sauf cette assertion (non fondée scientifiquement et fort dépendante d’un biais psychologique lié à une intuition peut-être fausse) :
      « Cette histoire de progression des graphèmes-phonèmes, on ne peut pas demander aux enseignants de l’inventer eux-mêmes… C’est une tâche d’expert, de linguiste… Et il y a déjà des experts qui ont proposé différents types de progressions parfaitement rationnelles… Ne surtout pas demander aux enseignants de réinventer la roue, qui risquerait d’être moins bonne. »
      Vous voyez que vous considérez les enseignants avec peu de déférence. Le diplôme seul ferait-il valeur ? "

      C'est étonnant comme toute suggestion selon laquelle les enseignants ne seraient pas omniscients et omnicompétents est prise pour une offense, une critique ou un signe de mépris. Quelle susceptibilité à fleur de peau!
      Et pourtant, ce n'est insulter personne que de dire que chaque profession a sa formation et ses compétences propres, et qu'on ne peut pas exiger des professionnels des compétences auxquelles ils n'ont pas été formés.
      Vous connaissez comme moi la formation initiale et continue des enseignants. Comment voulez-vous qu'un enseignant ait les éléments pour concevoir une progression des correspondances graphèmes-phonèmes qui tienne compte à la fois des régularités et de la fréquence? Pour commencer, dans quelle base de données va-t-il chercher la liste de toutes les CGP, la liste de leurs exceptions, et les fréquences des différents graphèmes? Quand je dis que c'est un travail d'expert, je le pense vraiment. Je ne m'y risquerais pas moi-même, car je n'ai pas l'expertise de certains de mes collègues dans ce domaine. Soyons donc raisonnables, et ne demandons pas aux enseignants de faire un travail de chercheur en linguistique.

  41. Marcel D Répondre | Permalink

    Je ne dis pas que les enseignants sont omniscients - on en est loin -, je dis juste qu'il n'y a aucune raison de penser que leur statut ou leur position hiérarchique leur interdit d'avoir des compétences ou des qualités, et pourquoi pas d'être parfois plus pertinents que ceux qui ont suivi UNE AUTRE VOIE DIPLOMANTE. Nuance. Qu'est-ce qui devrait justifier que la parole d'un expert est, hors débat contradictoire, forcément supérieure? Rien. Des experts en médecine ont propagé pendant des siècles l'idée que la saignée améliorait la santé des patients... Qu'est-ce qui devrait justifier scientifiquement que la progression des CPG soit la seule et unique façon d'entrer en lecture? Rien. Ce n'est qu'un postulat et pas une démonstration. Les études ne valident ou n'invalident que ce qu'elles ont étudié. Elles ne peuvent pas invalider par défaut, ou limiter le champs des possibles à ce qu'elles ont déjà observé.
    La recherche en linguistique ne conduit pas à un enseignement de la lecture dans le cadre d'une classe. La compétence des enseignants est de savoir ce qui peut ou ne peut pas se passer correctement en classe. Mais tous n'ont pas une appréciation lucide, fiable, expérimentée, rigoureuse... Il faudrait des échanges entre les deux "mondes". 35 ans de carrière et pas un échange possible. Quand un expert formateur vous parle ce n'est jamais pour avoir un retour. Et si on le "coince " sur une incohérence, il change de sujet. Je vous le dis et le redis, l'avis des enseignants est toujours pris avec dédain. Les experts font des listes, moi j'apprend à lire à des gens. Les pires moments de ma carrière sont ceux où j'ai suivi l'avis des experts : ceux qui font éditer des méthodes. Les progressions en grapho-phonologie sont un simple classement empirique et elles sont d'ailleurs différentes d'un expert à l'autre. Mon premier travail de réflexion sur le sujet fut d'ailleurs d'essayer de comparer toutes les progressions pour en tirer un principe fondateur. Rien à en sortir sauf une approximative alternance de quelques voyelles et quelques consonnes pour démarrer le principe alphabétique. Toutes différentes et sans construction solide basée sur la réponse des élèves. Seulement un classement d'experts pour des experts, que ne sont pas les élèves. Eux ne savent rien de ce classement. Dommage! Les progressions se font sur l'idée totalement saugrenue que tous les élèves, serviles et disposés, pourraient les suivre en temps et en heure. Ce qui n'est d'évidence jamais le cas. Sinon d'où sortent les élèves en difficulté. C'est édifiant d'ailleurs, chaque fois qu'un texte est publié sur le sujet, au bout de trois lignes on a déjà fait mention de la difficulté. Belle méthode en réalité que celle qui conduit aussi vite dans le mur!
    Lisez Boscher et vous y verrez que le manuel est explicitement construit pour le maître et pas pour les élèves. C'est là tout le malheur de notre système pédagogique fondé sur l'illusion que ce qui est dispensé par le maître est, ou devrait être, enregistré par l'élève. Illusion d'une croyance en l'efficacité d'une pédagogie basée sue l'organisation des apprentissages bien ficelée et planifiée, mais davantage conçue pour des machines enregistreuse que pour des humains en groupe. Le préceptorat, c'est autre chose.
    Vous croyez en la force d'un classement basé sur la fréquence par exemple (peut-être seulement à cause du fait qu'on peut faire des calculs dans le corpus). Soi-disant parce que cela permet de lire plus vite plus de mots. Mais en fait l'élève ne lit que ce qu'on lui demande de lire. Ce critère de fréquence n'a comme seul avantage que de pouvoir faire plus facilement des textes. Cette limitation par le choix des lettres est d'ailleurs fort contraignante pour les auteurs de méthodes syllabiques strictes. Mais vous le dites vous même : " Léo a vu Léa est une révélation tout à fait passionnante pour l'élève, pas besoin immédiatement de littérature..." Alors pourquoi se prendre la tête avec des textes? Juste pour donner l'illusion que la méthode est plus intéressante que celle du voisin. Or le vrai plaisir de l'élève est simplement de lire n'importe quoi, un mot seulement. Les progressions dans les manuels génèrent de l'échec parce qu'elles sont prévues pour avancer mécaniquement quels que soient les résultats de chaque élève. C'est pour cela qu'on a envisagé d'autres types d'approche. Mais, j'en conviens, les évolutions formulées se sont plutôt avérées inefficaces au vu des mesures. Mais ça on le savait. Ce ne sont pas les enseignants qui ont demandé à travailler avec des albums en méthode analytique. C'est venu d'en haut. C'est venu des experts (certains experts).
    Vous pensez qu'étudier /b/ est plus complexe que d'étudier /r/. Mais ça c'est juste parce qu'on constate une difficulté à répondre aux exercices posés en matière de manipulation des phonèmes. Changez les exercices et vous verrez que c'est seulement une difficulté contextuelle. Mes élèves peuvent sans aucun problème commencer par étudier /b/ ou /n/ bien avant le /l/ ou le /r/ d'ordinaire très appréciés en début de méthode. De même le classement préférentiel du /a/ selon un critère d'encodage, alors qu'on prévoit un décodage, est la plus belles arnaque du siècle. Le a ( la lettre et pas le graphème) écrit et vu par l'élève ne fait pas souvent /a/ parce que sa conversion dépend constamment du voisinage littéral : le a est-il ou non accompagné d'autres lettres? Mes élèves savent répondre à cette question avant le CP...

  42. Marcel D Répondre | Permalink

    Vous dites : "ce n'est insulter personne que de dire que chaque profession a sa formation et ses compétences propres"
    Je réponds par une métaphore (vraie) qu'un esprit aussi éclairé que le votre n'aura aucun mal à interpréter.
    Au bord d'un circuit de F1 un ingénieur vocifère après le pilote en exigeant qu'il passe un virage plus vite. Au volant, Fernando Alonso, champion du monde. Il lui dit que ça ne passe pas. L'ingénieur assure que son ordinateur lui indique que la vitesse de passage pourrait être meilleure. Le pilote répond : " c'est moi qui tiens le volant et quand je te dis que ça ne passe pas, ça ne passe pas!!! Mais si tu veux, tu peux prendre le volant et essayer!

    Il faut toujours se confronter au principe de réalité. Et pour gagner la course, on a autant besoin de l'ingénieur que du pilote. Aucun des deux ne peut prétendre avoir davantage raison que l'autre.

  43. Marcel D Répondre | Permalink

    "Pour commencer, dans quelle base de données va-t-il chercher la liste de toutes les CGP, la liste de leurs exceptions, et les fréquences des différents graphèmes?"
    Les stats sont faites, pas besoin de les refaire. Mais elles ne répondent qu'aux critères retenus et aux questions posées. Par exemple, j'ai cherché quel était la rapport d'utilisation entre le graphème a (la lettre a, y compris as, ah, at... faisant /a/) et le groupe des autres graphèmes utilisant le a (au, an, ai, am, eau...). Question posée : a seul ou pas? Si les autres données favorables à la justification des progressions graphophonologiques sont très faciles à trouver, celle-ci est soit inexistante soit peu mise en valeur. Mais je ne suis pas dans le sérail et n'ai pas accès aisé à toutes sortes de données. J'ai écrit à un linguiste, il ne m'a pas répondu. Suis-je un hurluberlu pour lui? Pour certains cette question n'a pas d'intérêt. Je vous ai écrit (mailé) aussi...
    Comment trouver des bases? J'ai utilisé le petit logiciel Rechlexique (educampa) qui permet de trier (et quantifier) les mots selon des critères croisés de présence graphémique et phonémique, sur des réservoirs variables (différents dictionnaires incluant les diverses formes verbales, etc.) selon la richesse du vocabulaire. (Je crois de mémoire que celui retenu faisait 11000 mots). Une observation indicative, mais pas en rapport avec la fréquence d'usage des mots. Alors, j'ai aussi fait quelques comptes sur des textes, la question posée étant étroite. J'ai même fait faire l'exercice à mes petits élèves...
    J'ai trouvé un début de réponse, certes approximatif, mais tout à fait significatif.
    Autre question sans réponse : fréquence des mots contenant au moins un digramme voyelle?
    Les exceptions? Feraient-elles varier les pourcentages d'un facteur tel que leur prise en compte, ou pas, changerait fondamentalement la donne.
    Une petite métaphore :
    Le prof de tennis indique à mon fils : " si tu regardes jouer les gens, tu vas penser qu'il faut passer son temps à faire des revers et des coups droits. Mais si tu ne sais pas servir, pas la peine de te croire apte à ce sport"
    En dehors de la prédominance des voyelles, les fréquences, on s'en fiche. Pourquoi s'obstiner à tout tabler là-dessus. Pour lire bien, il faut tout déchiffrer. Il n'y a pas d'alternative. Alors qu'on ait vu le ç avant le q n'a aucune espèce d'importance. Sauf pour celui qui veut absolument mettre un ordre pour se donner bonne conscience.
    Les classements de fréquence phonémique sont beaucoup moins intéressants pour les élèves que les classements structurels et catégoriels des graphèmes. C'est mon avis, mon constat, pas une preuve.

  44. Marie Répondre | Permalink

    Bonjour !

    C'est quand même incroyable... Notre ministre parle des résultats des évaluations dans les médias et moi je n'ai toujours pas accès aux résultats de mes élèves...

  45. David Répondre | Permalink

    Sur tous les médias, ce matin, les résultats des évaluations tombent. 30% des enfants de CP ne savent pas lire toutes les lettres ! 45% des élèves de CP ont des difficultés en calcul mental !
    Comment est il possible que le ministre de l'éducation nationale ose présenter des résultats si précocement ? Vous monsieur Ramus vous nous avez vendu un protocole expérimental. Comment peut on sortir des résultats 3 jours après la fin de la saisie des données. Ne me dites pas que les services du ministère ont vérifié les données comme tout bon protocole expérimental le souhaiterait. Aucune donnée n'a été vérifiée. J'ai pour ma part travaillé plusieurs années dans un laboratoire en géophysique et, monsieur Ramus, avant de publier des résultats on fait au moins un travail sérieux de vérification. Tout ceci ne fait que décrédibiliser tout votre travail aussi sérieux et plein de bonne volonté que vous voulez bien le dire.
    Tout cela ne fait que confirmer ce que tout le monde dénonce. Ces évaluation vont servir à instrumentaliser une vision particulière des apprentissages, de l'école et de ses professeurs : Celle de monsieur Blanquer.
    Bienvenue dans le monde de Oui-oui

    • Marcel D Répondre | Permalink

      On a bien compris. Il faudrait que les élèves sachent lire les lettres et le son qu'elles produisent avant d'avoir fait le CP.
      Pourquoi pas, mais il suffit de le dire au lieu de l'insinuer sournoisement.
      C'est sûr que, du coup, le CP serait plus facile, non?
      Eh Oui David, Ramus nous a annoncé un outil pour les maîtres, et on voit immédiatement dans la gestion de la com qu'il s'agit de préparer de futures modifications des programmes ou de la gestion des personnels. Pourtant, au vu, des modifications incessantes dans notre belle boite à Oui Oui, il n'y a pas besoin de faire autant de gesticulations.

      • David Répondre | Permalink

        A la vue du projet de loi Blanquer, on s'oriente bien vers une mise en concurrence des écoles avec la publication des résultats aux évaluations par école.
        J'espère juste que ce "foutage de gueule" permettra aux enseignants de se réveiller et d'ouvrir enfin les yeux sur la réalité des objectifs de notre cher ministre et ses gentils chercheurs associés.
        Allez, relisez bien les recommandations de l'OCDE de l'année 1992.

        Sinon j'aimerais entendre Mr Ramus, chercheur émérite, et grand défenseur de la méthode scientifique en ce qui concerne ces tests (car nos IEN ne disent plus évaluations mais test de positionnement, histoire de retourner une nouvelle fois de plus leur veste), sur la publication précoce des "résultats" par son ministre à l'opposé de toute rigueur scientifique.

        Mais ne rêvons pas.

  46. Marie Répondre | Permalink

    ...Donc la réponse se pose toujours : A quoi servent vraiment ces évaluations ?
    Nous n'aurons les résultats qu'en novembre ! (Je suis à Paris.)

    • Marcel D Répondre | Permalink

      J'ai eu les résultats dimanche matin chez moi. Mais ils sont bizarres : les scores de certaines compétences ne correspondent pas aux données saisies (vérification faite deux fois). Avec mes élèves, ce matin on a analysé ensemble leurs résultats. Quand j'ai dit à deux enfants qu'ils ne savaient pas reconnaître les lettres, ils ont fait des bonds! Eux, ils savent lire.
      Je ne veux pas en faire un affaire d'état, mais, bon, c'est pas très sérieux.

  47. Sylvie Répondre | Permalink

    Monsieur Ramus,
    J'ai galéré des heures pour faire passer ces évals dans ma classe de CE1.
    Sans pleurs, sans stress pour mes élèves que j'ai bien rassurés comme il était écrit.
    J'ai respecté les temps de passation.
    J'ai agi comme un bon petit soldat.J'ai eu un bug.Je pensais certains exos sécables, ils ne l'étaient pas.(Ce qui est incroyable quand on connait le temps d'attention d'un enfant à cet âge).

    Des heures encore pour faire une saisie robotique des résultats de mes élèves sans les corriger, sans avoir une idée de leurs réponses , bonnes ou mauvaises. Simple saisie.Soldat encore.De nombreux bugs techniques sont apparus et ont été commentés ici ou ailleurs je ne reviens pas dessus.Puis améliorés, trop tard, bien trop tard.

    A ce jour je n'ai aucune info sur le profil de mes élèves (selon ces évals car j'ai déjà ma petite idée heureusement),mais le Ministre en parle à la radio ce lundi 15 octobre au matin.Il sait mais pas moi.

    Certains items m'ont particulièrement hérissé le poil :

    Je ne citerai qu'un exemple (il y en a plusieurs) en CE1 :

    Maths CE1, exercice 4 : compétence visée : comparer des nombres
    exercice à faire : 60 items, à réaliser en 1 minute, en disant et sachant que ce n'est pas faisable.
    Ce n'est pas cette compétence qui est visée, c'est une autre qui n'est pas dite clairement

    Je ne ferai aucune transmission aux parents sauf obligation légale : les médias le feront pour moi et bien avant.

    Je n'ai pas confiance, j'ai plutôt honte de m'être dévouée inutilement.Je jette l'éponge et contacte collègues de secteur et syndicats.

    • Franck Ramus Répondre | Permalink

      "Maths CE1, exercice 4 : compétence visée : comparer des nombres
      exercice à faire : 60 items, à réaliser en 1 minute, en disant et sachant que ce n'est pas faisable.
      Ce n'est pas cette compétence qui est visée, c'est une autre qui n'est pas dite clairement"
      Nul besoin de chercher un complot derrière ce test. La compétence visée est simplement l'automaticité de l'accès aux quantités et de leur comparaison. C'est pour cela que le test est en temps limité. Cf. les réponses aux questions 14 et 15.

      • Marcel D Répondre | Permalink

        Certes, mais il y a une compétence parallèle qui est enchâssée : la résistance à un effort de concentration, l'endurance aux tests scolaires.
        Si je cherche à vérifier que vous êtes capable de courir longtemps en faisant un test sur 120 km, et que vous lâchez au bout de 40, votre score est de 30%. On en conclut, monsieur, que vous êtes une bille en course à pied. Or courir un marathon, ce n'est pas rien. On devrait vous applaudir. Votre performance et l'appréciation qu'on en fait dépendent uniquement de la limite fixée. On s'éloigne donc de l'idée d'évaluation positive : c'est l'histoire du verre à moitié plein...

        Pour l'instant, votre score personnel est 0/20. Vous n'avez encore convaincu personne. C'est médiocre monsieur le professeur Ramus. Vous vous rendez compte peut-être ce qu'est l'inertie de l'apprenant. On n'a pas compris, il vous faudra recommencer, encore et encore. Cela doit vous agacer. C'est ce que nous vivons tous les jours.
        Dommage, nous sommes nombreux à considérer que vos compétences pourraient nous être utiles.

        • Franck Ramus Répondre | Permalink

          Cette analogie est incorrecte. Nous n'avons demandé à aucun élève de traiter 60 items coûte que coûte, quel que soit le temps qu'il y passe. Nous leur avons demandé d'en faire autant qu'ils peuvent pendant 1 minute, et ce n'est pas grave s'ils n'en font pas beaucoup.
          Dans votre analogie, cela revient à demander au coureur d'aller le plus loin possible en 1 minute, sans même essayer de sprinter. Pas de quoi l'épuiser ni le stresser.
          C'est tout l'intérêt des exercices en temps limité (plutôt que simplement chronométrés jusqu'au bout): cela limite drastiquement le temps et les efforts qu'y consacrent les élèves et les enseignants, tout en fournissant une mesure aussi valide de l'automaticité du traitement, en nombre d'items traités par unité de temps.

          • Marcel D | Permalink

            Désolé mais le résultat est promulgué en pourcentages. Pourcentage dépendant du fait que vous ayez choisi 60 et pas 40. Pourquoi 60?
            Pour faire des comptes ronds? Moi je n'en sais rien, je suis obligé de faire avec ce que vous donnez.
            Je n'ai rien rien contre la mesure du moment qu'elle fait l'objet d'une référence individuelle utile à l'élève et au maître. Une base qui servira à l'élève de vérifier l'amélioration de ses performances comme l'a expliqué charivari.
            Mais en aucun cas on ne devrait exprimé cette référence en terme de bon ou mauvais résultat. Ce que semble pourtant propager les médias et que doivent expliquer les enseignants aux parents. Non?

          • Marie | Permalink

            Finalement j'ai eu les résultats aujourd'hui...Ouf, à deux jours des vacances il était temps... Heureusement que j'ai depuis longtemps repérer mes élèves "à besoin" ou "fragiles"... Comme outil pour le maitre, on repassera...
            Bref, j'ai les résultats et ma foi, aucune surprise... sauf en maths justement. Trois de mes élèves sont repérés "à besoin" à cause de cet exercice...Ils ont réussi tous les autres (score de 66,7 % - au dernier...- à 100%)
            Deux de ses élèves manquent terriblement de confiance en eux, ont besoin de vérifier et vérifier encore, alors le temps limité non, ça ne marche pas avec eux ! J'ai depuis pu vérifier qu'ils savaient comparer des nombres...

  48. Marcel D Répondre | Permalink

    "exprimer" et "semblent". J'écris trop vite!

  49. David Répondre | Permalink

    Allez dernier mot sur ces évaluations car il y a tellement mieux à faire. Sans surprise les élèves en difficulté que pointent les évaluations sont ceux qu'on avait détecté en difficulté dès la 2ème semaine.

    Enfin bon, nos amis chercheurs auront plein de données pour étayer leurs futurs articles qui iront, on le sait déjà, dans le sens de notre cher ministre dont la politique sera évaluée par lui même. On rigole.

    Ah si, Sachez que dans mon cas, vos protocoles de passation n'ont pas été respectés et je ne suis pas le seul. Ce amènera un peu de piment dans vos données. A vous d'isoler les données erronées messieurs les chercheurs. Et je pense qu'une bonne partie de vos données le seront. C'est le problème quand on oblige les laborantins à faire une expérience qu'ils n'ont pas choisi ou pire, une expérience qu'ils contestent.

  50. Cath Répondre | Permalink

    Pour nous, parents, il est intéressant d'avoir ces résultats. Je ne comprendrai jamais pourquoi les instits sont autant ronchons quand il s'agit de nouveauté... cette photographie à un instant T d'un niveau en début de CP et en début de CE1 donne un ordre d'idée précis de certaines difficultés d'apprentissage. Pour l'un des intervenants de ces derniers jours qui semblait regretter que l'on reporte sur la GS de maternelle l'apprentissage des lettres et des sons : je vous le confirme, mon fils qui est en GS cette année apprend les lettres et les sons, comme tous les élèves de GS. Je suis étonnée que vous ne le sachiez pas ! Et non, ce test n'a pas pour objectif de vous aider à accompagner les enfants en difficulté, vous êtes les mieux "armés" pour le faire, non ? Les cadors de l'éducation nationale !

    • Marcel D Répondre | Permalink

      Teu teu teu !
      J'ai mentionné le report sur la maternelle pour signaler que si l'on veut le faire, il faut le dire clairement.
      Moi, cela ne me gêne pas, mes élèves de GS savent déjà pratiquement lire pour 50% de l'effectif cette année.
      Les autres le feront plus tard, je sais exactement qui a besoin de quoi, ce qui ne vaut pas dire que je suis omnipotent en la matière, je fais mon maximum, c'est tout, comme beaucoup de collègues.
      Et justement, prendre une photographie, à l'instant t, des capacités de mes élèves de CP qui savent lire depuis longtemps,
      en m'obligeant à passer quand même des tests de "pré-lecture" me semble inapproprié.
      Vous parents, moi parent aussi !!!!?? Moi pas être race à part sélectionnée génétiquement pour devenir instit ronchon !!!
      L'apprentissage des sons et des lettres n'est pas obligatoirement exhaustif selon les programmes de maternelle actuels. Il y a même des collègues qui se font taper sur les doigts parce qu'ils en font trop. "Apprendre toutes les lettres, c'est dangereux"(sic) a dit un conseiller pédagogique. Voilà notre situation.
      Le problème de l'apprentissage en GS est que s'il n'est pas conduit de manière très subtile, la classe risque de se transformer en mini CP, ce qui n'est pas une bonne chose. Sinon, pas de problème, on peut commencer à apprendre à lire même en MS.

    • Marcel D Répondre | Permalink

      Pour ce qui concerne les "armes", c'est bien là qu'est le problème. Il y en a peu. Vous connaissez très mal la boutique à Oui Oui sans doute. Et contrairement à ce qu'annonce notre hôte quant aux outils d'aide disponibles sur Eduscol en lien avec les compétences évaluées sur les tests... il n'y a rien de nouveau et, à vrai dire, pas grand chose. Allez y vous avez l'air investie. Les propositions d'aide se résument à des choses du genre :
      Ayez les enfants en difficulté à l'oeil
      Faites des groupes de besoins,
      Portez une attention particulière pendant son activité,...
      Faites lui faire des exercices relatifs à cette compétence.
      Bref, des déclarations d'intention et 99,99% du boulot pour nous. Les enseignants sont obligés, je dis bien obligés, de trouver des solutions tous seuls. Certains sont des cadors (j'en ai vu dans ma carrière) et d'autres sont moins performants. Quelques-uns vraiment mauvais. Comme dans toute profession. Le problème est donc (tant que l'on apporte aucune aide autre que l'injonction) : pourquoi sont-ils mauvais et que font-ils là? Mais ce n'est pas à moi de répondre à cela.
      Cordialement.

  51. Samuel Répondre | Permalink

    Que répondez-vous à cette analyse de Goigoux?

    https://drive.google.com/file/d/1Uff8rYzPvqelmHmsPwXtzq27bMgHbRX7/view

    On est en plein dans le débat scientifique, c'est maintenant que ça devient intéressant et que votre FAQ peut-être mis en perspective à la fois avec les résultats annoncés par notre cher ministre expert en pédagogie/sciences/rouages politiques, le travail d'autres chercheurs, leurs remarques contradictoires ainsi qu'avec l'utilisation qui en est faite d'un point de vue politique (joli timing de notre cher ministre expert en pédagogie/sciences/rouages politiques mais également amateur d'échecs, dans 2 définitions différentes du mot d'ailleurs...)

  52. I Villaroya Répondre | Permalink

    Enseignante au CP depuis plusieurs années, très intéressée par tout ce qui pourrait améliorer ma pratique et donc les compétences de mes élèves j'étais plutôt enthousiaste de la venue de ces évaluations. J'étais car:
    - Vous m'apprenez que ce n'est pas des évaluations mais des tests.
    - J'ai perdu du temps, avec mes élèves pour les faire passer m'entendant leur dire qu'il ne saurait pas tout faire, qu'il n'aurait pas le temps de tout faire mais que ce n'était pas grave. Étrange de commencer ainsi l'année avec des enfants prêts à la grande aventure de l'apprentissage de la lecture où comme un jeu vidéo bien huilé on est censé les guider pas à pas vers le niveau supérieur.
    - Je me suis sentie humiliée par la tâche indigne de rentrer comme un petit élève les résultats de mes 23 élèves ( et en plus ça ne fonctionnait pas) Que d'énergie gaspillée! Un master? A quoi bon!
    - J'ai reçu les résultats deux jours avant les vacances. Heureusement que je me suis attaquée à la tâche avant... De l'aide? Rien de nouveau proposé...
    - Et je devrai recommencé mi-CP. Je ferai passé le test mais je ne passerai pas 7 heures à entrer les résultats. Est-ce vraiment mon travail?????

  53. Catherine Répondre | Permalink

    Extrait de l'interview d'Olivier HOUDE dans l'Obs qui résume très justement l'opinion de nombreux enseignants dont la mienne.

    "La question que je pose est : a-t-on pris le soin d'expliquer le sens de ces évaluations aux enseignants, de co-construire les tests avec eux ? Hélas, la réponse est non. Ayant été moi-même instituteur, j'ai un grand respect pour le cerveau des élèves, mais aussi pour celui du maître ! Il doit être traité avec bienveillance, attention, en lui donnant à lui aussi des feedbacks, en veillant à sa sécurité affective. C'est essentiel puisque, sans la bonne volonté et l'implication de professeurs, la meilleure des idées n'aura aucune chance de trouver une traduction concrète dans la salle de classe. Qu'on cherche à mieux appréhender les besoins cognitifs des élèves, c'est une très bonne idée, ça peut être génial, c'est comme la médecine individualisée, mais il y a des façons de le faire. Je dirais même que tout est dans la façon de le faire, ce qu'on appelle le « translationnel », le transfert de la science vers le terrain. Or, là, nous sommes dans une absence totale de « translationnel ». Comme les membres du CSEN, à quelques exceptions près, ne veulent pas aller au charbon et pour tout dire ont parfois peur de l'école, on s'appuie sur les services du ministère en espérant que tous les profs travailleront comme de bons petits robots, collecteront les données, les feront remonter et appliqueront les consignes qu'on leur transmettra. On est dans cette idée, somme toute assez hallucinante, que l'ensemble des écoles de France pourraient être prises comme un labo, un vivier de big data, qu'on pourrait y expérimenter à loisir des propositions de chercheurs à très grande échelle. Personne n'accepterait cela dans un autre domaine que l'éducation ! "

  54. Philippe Rogel Répondre | Permalink

    Bonjour Franck Ramus,
    Les évaluations ont eu lieu et le ministère commence à communiquer sur les résultats.
    Les commentaires de Roland Goigoux, (http://www.cafepedagogique.net/lexpresso/Pages/2019/05/13052019Article636933706640890148.aspx), qui vous cite à plusieurs reprise, et pour lequel j'ai cru comprendre que vous aviez une certaine estime scientifique, sont extrêmement sévères et plutôt argumentés.
    J'imagine que votre position au CSEN vous met dans une situation singulière, mais il serait incompréhensible pour nous, et pour moi qui vous lit avec constance et confiance depuis plusieurs années, qu'aucune réponse ne soit apportée à ces arguments. Ni d'ailleurs qu'aucune rectification ou apport critique du CSEN ne soit apportée à la communication buldozer du ministre.
    Cordialement

    • Franck Ramus Répondre | Permalink

      Nous n'avons pas souhaité répondre à Roland Goigoux d'une part parce qu'il cherche la polémique avec beaucoup de mauvaise foi, et nous ne souhaitons pas nous placer sur ce terrain; d'autre part parce que nous étions en train d'apporter la touche finale au document d'accompagnement des évaluations nationales, qui explique tout ce qu'il n'a pas compris (ou feint de ne pas comprendre). Ce document est maintenant à votre disposition en ligne: https://www.reseau-canope.fr/fileadmin/user_upload/Projets/conference_role_experimentation_domaine_educatif/2018_presentation_conseil_scientifique.pdf
      Bonne lecture.

      • Marcel D Répondre | Permalink

        Document un peu long et sans grand intérêt. Se résume à la locution : "asinus asinum fricat".
        N'est pas indiqué ce que vous avez bu à l'apéro...
        Je ne suis pas une groupie de Goigoux, loin s'en faut, mais je suis surpris que le seul argument retenu à son encontre soit une supposée mauvaise foi. Quelle serait donc sa motivation? Est-il un agent étranger en mission contre notre nation? Fait-il lui aussi de la politique? S'ennuierait-il à ce point qu'il n'ait d'autre occupation que de créer des polémiques? Son article ressemble plus à de simples constats qu'à une compilation d'interprétations tendancieuses.
        Mais nous n'en savons rien, pauvres observateurs, des manigances des uns et des autres...
        Et donc vous avez peaufiné votre document d'accompagnement.
        L'année prochaine sera à n'en pas douter un meilleur millésime. Enfin, espérons. Car cette année, de l'avis de tous les interlocuteurs que j'ai côtoyés, les évaluations nationales n'ont apporté aucun élément nouveau en matière de détection des "difficultés" (rayez ce mot et substituez lui "profils d'élèves"). Mais elles ont eu le retentissement souhaité en politique, elles ont en sus infléchi subtilement les programmes (sans avoir à les modifier).Très finement joué.
        Le point positif est qu'un certain nombre d'enseignants vont arrêter de jouer avec des méthodes qu'ils ne maîtrisent pas.

    • Catherine Répondre | Permalink

      Effectivement le jugement est sévère mais juste. En tant qu'enseignante, recevoir un courrier personnalisé pour découvrir que les enfants apprennent (maintenant ?) à lire au CP est proprement renversant. Je cite "Les évaluations nationales des acquis des élèves montrent que les premiers résultats sont là. Si, en début de CP, 23 % des élèves n’identifiaient que la moitié des lettres et des sons qui leur étaient soumis, ils ne sont plus que 3,3 % au mois de janvier. En ce qui concerne les mathématiques, si 23,9% des élèves en début d’année de CP ne réussissaient pas plus de 12 items dans l’exercice de comparaison de nombres, ils ne sont plus que 6,3 % à n’en réussir que 19 en milieu d’année." Il est nécessaire de prendre du recul.

  55. Thierry Répondre | Permalink

    J'ai lu avec interet cet article et les commentaires qui le completent. Mon epouse est "instit" depuis 20 ans et nous debattons regulierement de sa pratique et de celle de ses collegues.
    Quelques commentaires et pistes de reflections.
    1/ selon ses dire le passage des tests cp est problematique. Trop long, stessant pour les enfants, penible a traiter, et cerise sur le gateau ,non remuneré contrairement aux evaluations nationales.
    2/l' entrée en cp est en elle meme deja un "evenement" stressant pour certains. Croire que les tests puissent etre
    percu comme anodin me semble tres optimiste.
    3/ Vous avancez que les enseignants puissent mal percevoir quels eleves sont en difficultés.Avez vous des etudes qui vont dans ce sens et qui montre que l'intuition ( ou l experience, la competence, le savoir faire ect) des enseignants est mis en defauts des tests somme toute sommaire?
    4/ le cp, n est ce pas deja trop tard? Mon epouse defend l'idée que, malheureusement, en petite section , on peut, a 80% predire la scolarité future.
    5/ Pourquoi ne pas tester les parents et travailler sur eux et avec eux? Tout le monde s accordent sur un determinisme de classe contre lequel l' ecole ne peut que peu.Pourquoi ne pas aider les parents a aider leurs enfants?Developper l 'ecole parents-enfants?

    Liberal dans l'ame, ( je suis admiratif de l investissement et de l implication des "instits".

  56. Samuel Répondre | Permalink

    Bonjour,

    Juste une petite question, toute bête: pourquoi les évaluations et toutes les consignes de passation sont disponibles en ligne? N'y a-t-il pas là un énorme biais?

    • Marcel D Répondre | Permalink

      Bonjour Samuel,
      Mais non, il n'y a aucun biais. Ce ne sont pas des outils pour faire des études de terrain, ce sont des outils pour aider les enseignants à repérer les spécificités de leurs élèves afin de mieux programmer par la suite le soutien dont ils auront besoin (aujourd'hui les élèves ont besoin d'aide et non plus d'apprentissages). Ils n'ont donc aucune raison de truquer le dispositif.
      Bon, ce que Franck Ramus ne sait pas, c'est que les équipes reçoivent des remontrances de leurs IEN selon les comparaisons entre scores locaux et moyennes diverses (circo, département, région, national). Alors qu'on ne peut tirer de conclusion hâtive sur l'écart à la moyenne dans un échantillon réduit et local.
      Par exemple, si madame X a 7 élèves en CP (CP/CE) et que l'un d'entre eux présente de grandes difficultés à progresser (repérées depuis la PS), on lui dira que son pourcentage d'élèves en difficulté est de 14,2% ce qui est aujourd'hui intolérable. Mais si le même élève avait été orienté par la "carte scolaire" dans l'école d'à côté... Madame X aurait été félicité pour son grand talent...

      Il est vrai aussi que les enseignants chevronnés, dont je fais partie, disposent depuis longtemps d'outils bien plus précis pour tester leurs élèves. Mais on n'est pas là pour contempler leurs compétences. Dans les couloirs du ministère traînent forcément des gens plus diplômés et donc plus compétents...
      Enfin, il y a tous ces enseignants parfaitement nuls qui n'ont pas sous la main un tel appareillage de mesure et dont on peut se demander qu'est-ce qu'on leur avait fourni à l'embauche - un peu comme si on recrutait un livreur sans lui filer les clés du camion quoi? Pour eux, il y a probablement matière à s'appuyer sur les résultats de ces évaluations. Enfin, je n'en sais trop rien, car je ne fais plus partie de cette population pédagogiquement défavorisée.

Publier un commentaire