Indicateurs de l'éducation au Canada : manuel pour le rapport du Programme d'indicateurs pancanadiens de l'éducation Juin 2016
Section C :
Études primaires et secondaires

Warning Consulter la version la plus récente.

Information archivée dans le Web

L’information dont il est indiqué qu’elle est archivée est fournie à des fins de référence, de recherche ou de tenue de documents. Elle n’est pas assujettie aux normes Web du gouvernement du Canada et elle n’a pas été modifiée ou mise à jour depuis son archivage. Pour obtenir cette information dans un autre format, veuillez communiquer avec nous.

Passer au texte

Début du texte

C1 La maturité scolaire au cours des premières années

Tableaux C.1.1 et C.1.2

L’indicateur C1 porte sur les jeunes enfants et sur la maturité scolaire de ceux qui sont âgés de 4 et 5 ans. On examine dans cette partie leur état de santé (y compris les limitations à cet égard, le cas échéant), leur participation à des activités, les contacts qu’ils ont avec des documents à lire et la lecture (tableau C.1.1) ainsi que leurs scores linguistiques/habiletés en matière de vocabulaire (tableau C.1.2).

Concepts et définitions

  • La santé générale de l’enfant a été classée dans les catégories suivantes : excellente; très bonne; bonne; ou passable ou médiocre. Les catégories étaient lues aux adultes qui répondaient au nom des enfants dans l’Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ).
  • Cette indicateur examine également certaines limitations physiques affectant l’enfant. Une série de questions porte sur la santé de l’enfant au quotidien et se concentre sur ses capacités par rapport à d’autres enfants du même âge. Les répondants adultes étaient informés que ces questions étaient posées à tout le monde. Cet indicateur porte sur les limitations suivantes : difficulté à voir; difficulté à entendre; difficulté à se faire comprendre; difficulté à marcher; et douleur ou gêne physique.  L’élément douleur ou gêne physique tient compte des réponses négatives à la question par laquelle on cherche à savoir si l’enfant éprouve habituellement des douleurs ou des malaises. Ces questions font partie d’un indice qui s’appelle l’Indice de l’état de santé.
  • Avant qu’il réponde aux questions sur les conditions chroniques, le répondant adulte était informé qu’on faisait référence à « un problème qui persiste ou qui devrait persister pendant six mois ou plus identifié par un professionnel de la santé ».  Il était aussi informé d’indiquer toutes les situations applicables à l’enfant. Cet indicateur présente des renseignements sur les allergies chroniques, la bronchite chronique et l’asthme. Les questions sur l’asthme ont été posées séparément, et les renseignements présentés reflètent le pourcentage d’enfants âgés de 4 ou 5 ans pour lesquels un spécialiste de la santé a posé à un moment donné un diagnostic d’asthme, et non simplement le pourcentage d’enfants qui ont eu une crise d’asthme dans les 12 mois précédant l’enquête.
  • Les activités physiques hebdomadaires en dehors des heures de classe (entre la plupart des journées et environ une fois par semaine) signifient la participation aux activités suivantes : sports avec un entraîneur ou un instructeur; leçons ou cours d’activités physiques organisés avec un entraîneur ou un instructeur tels que la danse, la gymnastique ou les arts martiaux; leçons ou cours de musique, d’art ou participation à d’autres activités non sportives; et  clubs, groupes ou programmes communautaires animés par des adultes. Les adultes qui avaient répondu au nom de ces jeunes enfants ont été invités à fournir des informations sur les activités physiques des enfants pour la période de 12 mois qui a précédé l’entrevue de l’enquête.
  • Les données concernant les activités de lecture quotidienne en dehors des heures de classe proviennent des réponses à certaines questions sur la littératie, notamment sur la fréquence à laquelle un parent lit un texte à haute voix à l’enfant ou écoute l’enfant lire (ou essayer de lire). On a également demandé au répondant à quelle fréquence l’enfant regarde spontanément des livres, des revues, des bandes dessinées, etc., ou essaie de lire spontanément (chez lui).
  • L’Échelle de vocabulaire en images Peabody-(EVIP) évalue le vocabulaire réceptif de l’enfant, soit le vocabulaire qu’il comprend quand on s’adresse à lui au moyen de la parole. Comme il s’agit d’un test normatif, le rendement des participants est noté par rapport à celui d’une population globale d’enfants du même âge. On considère qu’une large fourchette de notes correspond à un niveau d’aptitude moyen, compte tenu de l’âge de l’enfant. Les notes se situant sous le seuil inférieur de cette fourchette dénotent un retard dans le développement des capacités de compréhension, tandis que les notes supérieures à ce seuil révèlent des capacités de compréhension avancées.
  • L’EVIP-R est graduée en fonction d’une moyenne de 100. La fourchette des capacités de compréhension moyennes du vocabulaire passif mesurées par l’EVIP-R comprend les notes de 85 à 115. On considère qu’une note inférieure à 85 correspond à un retard dans le développement des capacités de compréhension du vocabulaire passif et qu’une note supérieure à 115 correspond à des capacités avancées. La notation est rajustée en fonction des différentes capacités des enfants âgés de 4 et 5 ans.  Les normes pour les notes des tests en anglais et en français sont appliquées séparément; les notes ne sont donc pas directement comparables.

Méthodologie

  • L’Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) est une étude à long terme sur les enfants canadiens qui permet de suivre leur croissance et leur bien-être de la naissance au début de l’âge adulte. L’enquête a été conçue pour recueillir des renseignements sur les facteurs qui influent sur le développement social et émotionnel ainsi que sur le comportement des enfants et des jeunes. Elle permet en outre de suivre les conséquences de ces facteurs sur leur développement au fil du temps.
  • L’indicateur est fondé sur des données nationales représentatives concernant des enfants âgés de 4 et 5 ans et extraites du cycle 8 de l’ELNEJ, mené en 2008-2009.
  • L’information présentée provient de la composante de l’enfant de l’ELNEJ, et plus particulièrement, des questions sur l’état de santé, les activités (sports, cours, clubs, etc.) et le degré de littératie de l’enfant. Les réponses ont été fournies par la personne la mieux renseignée au sujet de l’enfant (PMR), habituellement la mère.

Limites

  • L’ELNEJ se fie sur les perceptions de l’adulte qui connaît le mieux l’enfant au regard de l’état de santé générale et du développement de celui-ci. Or, ces déclarations peuvent ne pas toujours être complètement objectives ou exactes.
  • Voici quelques raisons possibles d’erreurs non dues à l’échantillonnage dans l’ELNEJ : erreurs de réponse attribuables à des questions de nature délicate, à une mauvaise mémoire, aux erreurs de traduction dans les questionnaires, aux réponses vagues et au biais dû au conditionnement; erreurs dues à la non-réponse; et erreurs de couverture.

Source des données

  • Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ), Statistique Canada. Pour plus d’information, consulter « Définitions, sources de données et méthodes », site internet de Statistique Canada, enquête numéro 4450.

C2 Écoles primaires et secondaires : effectifs et éducateurs

Tableaux C.2.4 à C.2.7

L'indicateur C2 présente certaines caractéristiques représentatives des éducateurs (tableau C.2.4, tableau  C.2.5, tableau C.2.6 et tableau C.2.7).

Concepts et définitions

  • Écoles publiques : Écoles élémentaires et secondaires publiques exploitées par des commissions scolaires ou la province ou territoire. Sont incluses toutes les écoles publiques ordinaires, et aussi les établissements d'éducation surveillée ou les établissements de garde, tout comme les autres établissements que finance une province ou un territoire.
  • Les éducateurs portent sur tous les employés des écoles publiques qui appartiennent à l'une ou l'autre des trois catégories suivantes : les enseignants, le personnel de direction et le personnel de soutien pédagogique.
    • Les enseignants comprennent le personnel directement impliqué dans l'enseignement aux élèves. Sont inclus les enseignants en salle de classe, les enseignants en éducation spécialisée, les enseignants spécialistes (musique, éducation physique, etc.) et les autres enseignants qui travaillent avec les élèves dans une salle de classe, avec des petits groupes dans une salle de ressource, ou de façon individualisée à l'intérieur ou à l'extérieur de la salle de classe régulière, y compris les enseignants suppléants. Les chefs de département qui consacrent la majeure partie de leur temps de travail à l'enseignement doivent également être inclus dans cette catégorie, ainsi que le personnel temporairement absent du travail (p. ex., pour des raisons de santé ou de blessures, en congé de maternité ou en congé parental, ou en vacances). Les aides-enseignants ou les étudiants-maîtres ainsi que les autres personnes qui ne sont pas payées pour leur emploi sont exclusVeuillez vous référer à la catégorie « personnel de soutien pédagogique » ci-dessous pour les assistants en éducation et les aides-enseignants.
    • Le personnel de direction comprend le personnel responsable de l'administration et de la gestion d'une école, c'est-à-dire les directeurs, les directeurs adjoints et les autres employés de la gestion qui assurent des responsabilités semblables, seulement si ceux-ci ne consacrent pas la majorité de leur temps à l'enseignement. Sont exclus les cadres supérieurs, les réceptionnistes, secrétaires, commis et autres employés qui soutiennent les tâches administratives de l'école et les employés déclarés sous « autres qu'éducateurs ».
    • Le personnel de soutien pédagogique comprend les employés professionnels non enseignants qui fournissent des services aux élèves afin de les aider dans leur programme d'enseignement. Sont inclus les assistants en éducation, les aides-enseignants rémunérés, les conseillers en orientation scolaire et les bibliothécaires. Sont exclus les spécialistes de la santé et des services sociaux, lesquels doivent être déclarés sous « autres qu'éducateurs ».
  • Le nombre d'éducateurs (dénombrement) est le nombre d'éducateurs travaillant en date du 30 septembre (ou à la date la plus rapprochée après cette date) de l'année scolaire qui ont la responsabilité de fournir des services aux élèves déclarés dans les tableaux d'effectifs.  

Méthodologie

  • L'Enquête sur l'enseignement primaire et secondaire (EEPS) est une enquête, à l'échelle nationale, qui permet à Statistique Canada de publier de l'information sur les effectifs, les diplômés, les enseignants et les statistiques financières des établissements d'enseignement publics et privées, primaires et secondaires, du Canada. L'enquête fournit aussi de l'information sur l'enseignement à domicile.
  • L'EEPS recueille chaque année des données agrégées auprès de chaque ministère provincial-territorial ou du département de l'Éducation. L'information sur les programmes réguliers est recueillie selon le type de programme (régulier, recyclage, et professionnel), l'année d'études, l'âge et le sexe.
  • L'enquête recueille également des données sur les diplômés des écoles secondaires selon le type de programme (régulier, de recyclage et professionnel), le secteur (jeunes ou adultes), l'âge et le sexe.
  • Des renseignements concernant les enseignants à temps plein ou à temps partiel, selon le groupe d'âge et le sexe, sont également recueillis. Enfin, l'enquête recueille des données sur les dépenses par ordre de gouvernement (commission scolaire et autres ordres de gouvernement) et par type de dépenses.

Limites

  • En raison de la nature de la collecte de données de l'Enquête sur l'enseignement primaire et secondaire (EEPS), ces données sont mises à jour régulièrement et sont donc susceptibles à d'autres révisions.
  • Il faut exercer de la prudence lorsqu'on fait des comparaisons entre les provinces et les territoires. La proportion d'éducateurs (et la composition d'enseignants, de personnel de direction et de support pédagogique) est différents selon les provinces et territoires.

Source des données

  • Enquête sur l'enseignement primaire et secondaire, Statistique Canada. Pour plus d'information, consulter « Définitions, sources de données et méthodes », site internet de Statistique Canada, enquête numéro 5102.

C4 Rendement des élèves

Programme international pour le suivi des acquis des élèves (PISA)

Tableaux C.4.2, C.4.4, C.4.5, C.4.10 et C.4.17

L’indicateur C4 présente le rendement des élèves en ce qui concerne trois compétences fondamentales — lecture, mathématiques et sciences — et analyse l’évolution de ces résultats de rendement au fil du temps. Le rendement a été examiné à l’aide des résultats obtenus du Programme international pour le suivi des acquis des élèves (PISA), une initiative internationale de l’Organisation de coopération et de développement économiques (OCDE).

Ce sous-indicateur donne des renseignements détaillés sur le rendement des élèves canadiens âgés de 15 ans en mathématiques, le domaine majeur du PISA en 2012, en examinant les scores moyens et la répartition des élèves par niveau de compétence sur l’échelle globale des mathématiques (tableau C.4.2) et les scores moyens sur les sous-échelles des mathématiques (tableau C.4.17). Il permet aussi de comparer le rendement au fil du temps en lecture (tableau C.4.4), en sciences (tableau C.4.5) et en mathématiques (tableau C.4.10).

Concepts et définitions

  • Le Programme international pour le suivi des acquis des élèves (PISA) représente un effort collectif des pays membres de l’OCDE en concert avec des pays partenaires pour évaluer régulièrement, au moyen de tests internationaux communs, les résultats des jeunes dans trois grands domaines : la lecture, les mathématiques, et les sciences. Le PISA définit la lecture, les mathématiques et les sciences non seulement en termes de maîtrise de disciplines scolaires, mais aussi en termes des connaissances et des compétences requises pour participer pleinement à la société.
  • La lecture : Capacité de comprendre et d’utiliser des textes ainsi que d’y réfléchir et y réagir afin de réaliser ses objectifs personnels, de développer ses connaissances et son potentiel et de prendre une part active dans la société.
  • Les mathématiques : Capacité d’identifier et de comprendre le rôle joué par les mathématiques dans le monde, de porter des jugements fondés à leur propos, et de s’engager dans des activités mathématiques, en fonction des exigences de sa vie en tant que citoyen constructif, impliqué et réfléchi.
  • Les sciences : Capacité d’utiliser des connaissances scientifiques pour identifier les questions auxquelles la recherche scientifique peut apporter une réponse et pour tirer des conclusions fondées sur des faits, en vue de comprendre le monde naturel et les changements qui y sont apportés par l’activité humaine et de prendre des décisions à ce propos.

Méthodologie

  • Au niveau international, près de 510 000 étudiants de 65 pays et économies participantes ont pris part au PISA 2012. La population comprenait les personnes âgées de 15 ans qui fréquentaient l’école dans une des dix provinces du Canada. À ce jour, les territoires ne participent pas au PISA. L’évaluation du PISA a été menée à l’école, pendant les heures normales de cours, au printemps. Les élèves des écoles situées dans des réserves indiennes étaient exclus de même que ceux des écoles pour élèves ayant de graves troubles d’apprentissage et des écoles pour malvoyants et malentendants, ainsi que les élèves qui étudiaient à domicile. Le PISA en 2012 a pris la forme d’un test papier-crayon d’une durée totale de deux heures. Il a été administré en anglais ou en français, selon le système scolaire.
  • Bien que les trois domaines du PISA soient évalués à chaque cycle, un seul constitue le principal domaine d’un cycle, et englobe un nombre plus important d’items d’évaluation que les deux autres domaines. Pour chaque cycle, les deux tiers du temps de l’évaluation sont alloués au domaine principal. En 2003 et 2012, le domaine principal était les mathématiques, la lecture en 2000 et 2009, et en 2006, les sciences.
  • Les résultats obtenus sont présentés pour les domaines principaux sur une échelle globale (représentant le rendement global des élèves à toutes les questions de l’évaluation dans ce domaine) ainsi que pour les sous-domaines formant chaque échelle globale. Comme un moins grand nombre d’éléments sont évalués dans le contexte des domaines mineurs, seuls les résultats globaux sont disponibles.
  • En 2012, les sous-échelles des mathématiques concernent trois aspects des mathématiques ——continus et non continus.
    • Sous-échelle des processus mathématiques :
      • Formuler des situations de façon mathématique : être capable d’utiliser les mathématiques dans le contexte d’un problème, puis de structurer sous forme mathématique un problème présenté jusqu’à un certain point sous une forme contextualisée. 
      • Employer des concepts, faits, procédures et raisonnements mathématiques : être capable d’employer ces éléments pour résoudre des problèmes énoncés de façon mathématique.
      • Interpréter, appliquer et évaluer des résultats mathématiques : être des résultats ou des conclusions mathématiques, et les interpréter dans le cadre de problèmes tirés du monde réel.
    • Sous-échelle des contenus mathématiques :
      • La catégorie de contenu variations et relations comprend l’étude des relations provisoires et permanentes entre les phénomènes, dans le cadre desquelles des changements se produisent entre des systèmes comprendre les types fondamentaux de changements et d’utiliser des modèles mathématiques adaptés qui permettent de décrire et de prévoir les changements. En termes mathématiques, cela revient à modéliser les variations et les relations grâce à des fonctions appropriées ainsi qu’à créer, interpréter et traduire des représentations graphiques et symboliques des relations. Certains aspects mathématiques traditionnels des fonctions et de l’algèbre, notamment les expressions symboliques, ou les représentations sous forme de graphiques et de tableaux, sont essentiels pour décrire, modéliser et interpréter les variations.
      • La catégorie de contenu espace et formes englobe un large éventail de phénomènes visuels omniprésents dans notre environnement : les régularités, les propriétés des objets, les positions et les orientations, les représentations d’objets, le décodage et l’encodage d’informations visuelles, la navigation et les interactions dynamiques avec des formes réelles ainsi qu’avec leur représentation. Du point de vue des programmes d’études et de l’enseignement, il importe de noter que les concepts de géométrie sont un fondement essentiel de la catégorie de contenu espace et formes. La culture mathématique dans la catégorie de contenu espace et formes implique un large éventail d’activités, notamment comprendre la notion de perspective : par exemple, la perspective joue un rôle dans la peinture, la création et la lecture de cartes, la transformation des formes au moyen de la technologie, l’interprétation des vues de scènes en trois dimensions sous diverses perspectives et la construction de représentations de formes.
      • La catégorie de contenu quantité il faut comprendre les mesures, les comptes, les indicateurs, la taille relative ainsi que les tendances numériques et les régularités. La culture mathématique dans la catégorie de contenu quantité repose fortement sur les connaissances et les processus associés aux nombres, appliqués dans un large éventail de situations.
      • La catégorie de contenu incertitude et données processus, de comprendre l’ampleur de cette variation, d’admettre la notion d’incertitude et d’erreur des statistiques, cette catégorie offre un moyen de décrire, de modéliser et d’interpréter des phénomènes de l’incertitude et de faire des inférences. Elle comprend également la connaissance des nombres et de certains aspects de l’algèbre, comme les graphiques et la représentation symbolique, en mettant l’accent sur l’interprétation et la présentation des données.
  • Dans le contexte du PISA, on a quantifié le rendement des élèves en attribuant un certain nombre de points sur une échelle établie de telle sorte que la note moyenne des élèves de tous les pays participants pour les domaines principaux était de 500 et l’écart-type, de 100.  En 2012 la moyenne de l’OCDE était de 494.  Cela signifie que globalement, parmi les pays de l’OCDE, une légère détérioration des compétences en mathématiques peut être observée au cours des neuf dernières années.  Environ deux tiers de tous les élèves des pays de l’OCDE on obtenu des scores se situant entre 394 et 594 (c.-à-d., dans un écart-type de la moyenne) dans l’évaluation du PISA 2012.  En raison de l’évolution du rendement au fil du temps, les scores moyens des élèves des pays de l’OCDE s’écartent légèrement de 500 dans le PISA 2012.
  • Les résultats du PISA peuvent également être présentés sous forme de répartition du rendement des élèves pour tous les niveaux de rendement.  Le degré de difficulté des tâches de l’évaluation PISA 2012 est représenté par six niveaux de culture mathématique qui sont alignés sur ceux utilisés pour décrire les résultats des élèves lors de l’évaluation PISA 2003. Ces six niveaux vont du moins élevé, le niveau 1, au plus élevé, le niveau 6. Ces niveaux ont tous été décrits sur la base de la charge cognitive des items, tel qu’indiqué dans le cadre d’évaluation, pour montrer les types de savoirs et savoir-faire requis pour y répondre correctement, ce qui permet de caractériser chaque niveau de compétence. Pour faciliter l’interprétation, on a lié ces niveaux à des tranches de notes bien définies sur l’échelle initiale.
    • Au-dessous du niveau 1 (scores inférieurs ou égal à 358);
    • niveau 1 (scores supérieurs à 358 mais inférieurs ou égaux à 420 points)
    • niveau 2 (scores supérieurs à 420 mais inférieurs ou égaux à 482 points)
    • niveau 3 (scores supérieurs à 482 mais inférieurs ou égaux à 545 points)
    • niveau 4 (scores supérieurs à 545 mais inférieurs ou égaux à 607 points)
    • niveau 5 (scores supérieurs à 607 mais inférieurs ou égaux à 669 points)
    • niveau 6 (scores supérieurs à 669).
  • Selon l’OCDE, le niveau 2 peut être considéré comme un niveau seuil de compétence, auquel les élèves commencent à manifester les compétences en mathématiques qui leur permettront de participer à la vie efficacement et de manière productive. Les élèves dont le rendement se situe à des niveaux inférieurs au niveau 2 peuvent exécuter certaines tâches de mathématiques avec succès, mais ils ne possèdent pas certaines des compétences fondamentales propres à les préparer à entrer sur le marché du travail ou à poursuivre des études postsecondaires.
  • Lorsque l’on compare les scores entre les pays, les provinces ou les sous-groupes de population, les tableaux du PISA identifient les différences statistiquement importantes. L’importance statistique est définie par des formules mathématiques et tient compte d’éléments telles les erreurs d’échantillonnage et de mesure. Les erreurs d’échantillonnage se produisent car le rendement est calculé d’après les scores obtenus par des échantillons aléatoires d’élèves de chaque pays et non d’après ceux obtenus par la population des élèves de chaque pays. Par conséquent, on ne peut affirmer avec certitude qu’une moyenne d’échantillon a la même valeur que la moyenne de la population qu’on aurait obtenue si tous les élèves de 15 ans avaient été évalués. De plus, un degré d’erreur de mesure est associé aux scores décrivant le rendement de l’élève puisque ces scores sont estimés à partir des réponses de l’élève aux questions du test.
  • On s’appuie sur l’erreur-type et les intervalles de confiance pour procéder à ces tests statistiques de comparaison. L’erreur-type exprime le degré d’incertitude associé à l’erreur d’échantillonnage et à l’erreur de mesure. On peut se servir de l’erreur-type pour produire un intervalle de confiance, qui indique la probabilité qu’une certaine marge d’erreur (définie par l’erreur-type) dans les statistiques de l’échantillon concerne le nombre d’individus dans une population donnée. Les résultats du PISA sont statistiquement différents si les intervalles de confiance ne se chevauchent pas. En outre, un autre test a été effectué pour confirmer la différence statistique.
  • Il est possible avec le PISA de comparer les changements dans les performances des étudiants au fil du temps dans chacun des domaines car un certain nombre de questions communes sont utilisées dans les tests de chacune des enquêtes. Cependant comme le nombre d’items communs utilisés est limité, les probabilités d’erreurs de mesure sont plus importantes. C’est la raison pour laquelle une erreur supplémentaire, l’erreur de couplage est ajoutée à l’erreur standard. Les erreurs standards qui incluent les erreurs de couplage doivent être utilisées lorsque des comparaisons entre les différentes évaluations sont effectuées (mais elles ne sont pas nécessaires pour effectuer des comparaisons entre les pays/économies ou sous-populations qui ont participé à la même évaluation).
  • Cet indicateur compare la performance des étudiants à l’évaluation du PISA 2012 avec celle des évaluations précédentes de chacun de ces domaines en domaine principal : lecture en 2009 (tableau C.4.4), mathématiques en 2003 (tableau C.4.10) et sciences en 2006 (tableau C.4.5).

Limites

  • L’examen du rendement relatif de divers groupes d’élèves à l’égard d’évaluations identiques ou similaires, pour différentes périodes, permet de déterminer si le niveau de rendement change. De toute évidence, les résultats d’une seule évaluation ne peuvent servir à évaluer un système scolaire, de nombreux facteurs se combinant pour produire les résultats moyens indiqués ici. Il s’agit toutefois d’un des indicateurs du rendement global.
  • Comme les données ne sont disponibles que pour deux périodes seulement, il est impossible d’évaluer dans quelle mesure les différences observées sont valables pour de plus longues périodes.
  • La signification statistique est déterminée à l’aide de formules mathématiques et dépend de facteurs tels que l’échantillonnage. Que la différence entre les résultats ait une signification en éducation est une question d’interprétation. Il est par exemple possible qu’une différence statistiquement significative soit très petite et n’ait que peu de signification. Il y a également des situations où une différence perçue comme ayant une signification en éducation n’a en fait aucune signification statistique.

Sources des données

  • Conseil des ministres de l’Éducation (Canada), Emploi et Développement social Canada et Statistique Canada, 2013, À la hauteur : Résultats canadiens de l’étude PISA de l’OCDE – La performance des jeunes du Canada en mathématiques, en lecture et en sciences – Premiers résultats de 2012 pour les Canadiens de 15 ans.
  • Organisation de coopération et de développement économiques, 2014, Résultat du PISA 2012 : Savoirs et savoir-faire des élèves : Performance des élèves en mathématiques, en compréhension de l’écrit et en sciences (Volume 1).

Programme pancanadien d’évaluation (PPCE)

Tableaux C. 4.13, C.4.14, C.4.15, C.4.16, C.4.18, C.4.19  et C.4.20

L’indicateur C4 présente le rendement des élèves dans les trois matières étudiées (appelées aussi « les domaines ») soit les mathématiques, les sciences et la lecture. Il examine également le processus de résolution de problèmes en mathématiques. Ce sous-indicateur examine le rendement des élèves à l’aide des résultats obtenus au Programme pancanadien d’évaluation (PPCE),  une initiative des provinces et des territoires réalisée par l’entremise du Conseil des ministres de l’Éducation (Canada) [CMEC].

Des renseignements détaillés sur le rendement des élèves canadiens de 8e année en sciences, le domaine principal du PPCE de 2013 sont présentés. Les scores moyens et la répartition des élèves par niveaux de rendement pour le domaine global des sciences et les scores moyens pour les sous-domaines des sciences (tableaux C.4.18 et C.4.19) sont aussi mentionnés. Le rendement des élèves en sciences et en lecture à l’évaluation de 2013 (tableau C.4.13) est également présenté ainsi que leur performance en sciences au fil du temps (tableau C.4.20). Les résultats sont présentés selon la langue du système d’éducation. 

Concepts et définitions

  • Le Programme pancanadien d’évaluation (PPCE) est un programme cyclique d’évaluations qui mesure le rendement des élèves de 8e année au Canada. Il est administré par le Conseil des ministres de l’Éducation, (Canada) [CMEC]. Le PPCE présente des résultats plus détaillés de chacun des domaines l’année où celui-ci constitue le domaine principal à l’étude (la lecture en 2007, les mathématiques en 2010, et les sciences en 2013), ainsi que des évaluations secondaires pour les deux autres domaines d'évaluation.  La première évaluation du PPCE qui s’est déroulée en 2007 a remplacé le Programme d’indicateurs du rendement scolaire (PIRS) du CMEC. PPCE a été conçu pour déterminer si les élèves atteignent, dans tout le Canada, un niveau de rendement similaire dans ces matières principales à un âge à peu près identique et complète les évaluations effectuées présentement dans chaque instance.
  • Le PPCE de 2013 a mis l'accent sur la culture scientifique, définie en fonction de trois compétences (recherche scientifique, résolution de problèmes et raisonnement scientifique), de quatre sous-domaines (nature des sciences, sciences de la vie, sciences physiques et sciences de la Terre) et de l'attitude des élèves à l'égard des sciences et de leur rôle dans la société. Les niveaux de rendement en sciences ont été définis en consultation avec des spécialistes indépendants des milieux de l'éducation et de l'évaluation et harmonisés de façon générale avec la pratique acceptée sur la scène internationale. Les provinces ont également veillé à ce que les qualités uniques des systèmes éducatifs de notre pays soient prises en compte.
  • Les mathématiques : les mathématiques sont évaluées comme un outil conceptuel que les élèves peuvent utiliser pour accroître leur capacité à calculer, à décrire et à résoudre des problèmes.
  • La lecture : on considère la lecture comme un processus dynamique et interactif par lequel la lectrice ou le lecteur construit un sens à partir de textes. Une lecture efficace comporte une interaction de la lectrice ou du lecteur, du texte et de l’objectif de la lecture ainsi que du contexte avant, pendant et après la lecture.
  • Bien que les trois domaines du PPCE soient évalués à chaque cycle, un seul constitue le principal domaine d’un cycle, et englobe un nombre plus important d’items d’évaluation que les deux autres domaines. Le PPCE a été et sera administré aux élèves aux  dates suivantes :
Trois domaines du Programme pancanadien d’évaluation des élèves (PPCE) évalués
Sommaire du tableau
Le tableau montre les résultats de Trois domaines du Programme pancanadien d’évaluation des élèves (PPCE) évalués. Les données sont présentées selon Domaine Principal (titres de rangée) et 2013, 2016, 2019 et 2022(figurant comme en-tête de colonne).
Domaine Principal 2013 2013 2016 2019 2022
Principal Mathématiques Sciences Lecture Mathématiques Sciences
Secondaire Sciences Lecture Mathématiques Sciences Lecture
Secondaire Lecture Mathématiques Sciences Lecture Mathématiques

Méthodologie

  • Près de 32 000 élèves de 8e année des dix provinces canadiennes et du Yukon ont pris part au PPCE 2010. Les Territoires du Nord-Ouest et le Nunavut n’ont pas encore participé au PPCE.
  • Quand le PPCE a débuté en 2007, la population cible était celle des élèves de 13 ans.  En 2010, la population cible a été modifiée pour être administré aux élèves de 8e année, indépendamment de leur âge. La sélection des élèves était plus simple et les écoles et les classes moins dérangées.  En 2007, une large proportion de l’échantillon des élèves de 13 ans du PPCE était en 8e année.
  • Pour sélectionner les participantes et les participants du PPCE, la méthode suivante a été utilisée :
    • sélection au hasard d’écoles de chaque instance, à partir d’une liste complète des écoles financées par les fonds publics fournie par l’instance;
    • sélection au hasard de classes de 8e année à partir d’une liste de toutes les classes de 8e année admissibles dans chacune des écoles;
    • sélection de tous les élèves inscrits dans les classes de 8e année retenues;
    • lorsqu’ une classe entière de 8e année, n’a pu être choisie, une sélection au hasard d’élèves de 8e année a été faite.
  • Le taux de participation au PPCE a été de plus de 85 % des élèves échantillonnés.  L’école déterminait si oui on non un élève pouvait être exempté de participer au PPCE. Il s’agissait d’élèves présentant une incapacité fonctionnelle, une déficience intellectuelle, des troubles socio-affectifs ou d’élèves qui ne maîtrisaient pas la langue de l’évaluation.
  • La structure actuelle du PPCE  a été conçue pour s’harmoniser avec le Programme international pour le suivi des acquis des élèves (PISA) de l'Organisation de Coopération et de Développement Économiques (OCDE).
  • Environ 32 000 élèves ont répondu à l’évaluation du PPCE 2013 en anglais et 8 000 en français. Les résultats du Canada francophone sont ceux des élèves qui fréquentent le système d’éducation francophone de leur province ou territoire respectif. Les résultats du Canada anglophone sont ceux des élèves qui fréquentent le système anglophone de leur province ou territoire respectif. Les résultats globaux sont ceux de l’ensemble des élèves, peu importe le système fréquenté. Les résultats obtenus par les élèves des programmes d’immersion en français qui ont subi le test en français sont inclus dans les résultats du système anglophone puisque ces élèves sont considérés comme faisant partie de la cohorte anglophone. (Il est recommandé d’être prudent au moment de comparer le rendement en fonction d’instruments d’évaluation préparés dans deux langues différentes. En dépit des efforts importants mis en œuvre afin de garantir un test équivalent dans les deux langues, chaque langue a ses caractéristiques uniques qui rendent les comparaisons difficiles.)
  • Les résultats obtenus sont présentés pour les domaines principaux sur une échelle globale (représentant le rendement global des élèves à toutes les questions de l’évaluation dans ce domaine) ainsi que pour les sous-domaines formant chaque échelle globale. Comme un moins grand nombre d’éléments sont évalués dans le contexte des domaines mineurs, seuls les résultats globaux sont disponibles.
  • Lorsque les scores obtenus par diverses populations sont destinés à des comparaisons entre années et entre versions d’un même test, il devient essentiel d’élaborer une façon commune de présenter les scores obtenus qui permettra de faire directement des comparaisons entre les populations et entre les tests. La méthode commune utilisée consistait à faire une conversion numérique des scores bruts en « scores d’échelle standard ». Dans le cas du PPCE de 2013, les scores bruts ont été convertis à une échelle sur laquelle la moyenne de la population canadienne était établie à 500, avec  un écart-type de 100. À partir de cette conversion, les scores de deux tiers de tous les élèves participants se sont trouvés dans l’intervalle de 400 à 600 points, ce qui représente une « distribution statistiquement normale » des scores.
  • Les résultats à l’évaluation du PPCE dans un domaine principal d’études peuvent être également présentés selon la proportion des élèves qui obtiennent les différents niveaux de performance. Les niveaux de rendement représentent les résultats des élèves en fonction du niveau cognitif et du degré de difficulté des items. Le niveau cognitif est défini par le niveau de raisonnement auquel l’élève devra avoir recours pour répondre correctement à un item, d’une exigence élevée à une exigence faible. Le degré de difficulté est déterminé de manière statistique, selon le rendement collectif des élèves à l’évaluation. Le volet sur les sciences du PPCE 2013 comporte quatre niveaux de rendement :
    • Niveau 4 (les scores sont supérieurs ou égaux à 655)
    • Niveau 3 (les scores se situent entre 516 et 654)
    • Niveau 2 (les scores se situent entre 379 et 515)
    • Niveau 1 (les scores sont inférieurs ou égaux à 378).
  • Selon les attentes, les élèves de 8e année doivent faire preuve d’un rendement de niveau 2. Le niveau 1 représente le rendement des élèves dont le niveau est inférieur aux attentes pour leur année d’études. Les niveaux 3 et 4 sont des niveaux de rendement supérieurs. Les attentes en matière de rendement ont été établies par un groupe de spécialistes des milieux de l’éducation et de l’évaluation provenant de l’ensemble du Canada. Les réponses réelles des élèves au test ont confirmé qu’elles étaient raisonnables.
  • Lorsque l’on compare les scores entre les provinces et territoires ou  les sous-groupes de population, il est important de considérer les différences statistiquement significatives. On s’appuie sur l’erreur-type et les intervalles de confiance pour procéder à ces tests statistiques de comparaison. L’erreur-type exprime le degré d’incertitude associé à l’erreur d’échantillonnage et à l’erreur de mesure. On peut se servir de l’erreur-type pour produire un intervalle de confiance. L’intervalle de confiance représente la fourchette dans laquelle la note de la population est susceptible de se retrouver avec une probabilité de 95 %.  Il est calculé comme une fourchette de plus ou moins deux erreurs-type autour du score moyen.  La différence entre les scores moyens est statistiquement significative quand les intervalles de confiance ne se chevauchent pas.
  • Cet indicateur compare la performance des étudiants à l’évaluation en mathématiques du PPCE 2013 avec celle de la première évaluation principale de ce domaine en 2010. Il n’est pas possible d’inclure dans ces comparaisons les résultats des évaluations d’un domaine secondaire avant qu’il n’ait fait l’objet de l’évaluation en tant que domaine principal, la raison étant que le cadre conceptuel du domaine n’est pas pleinement développé tant qu’il ne fait pas l’objet d’une évaluation en tant que domaine principal. C’est pourquoi les résultats de l’évaluation d’un domaine secondaire observés lors des années antérieures ne sont pas comparables.
  • En plus de l’évaluation des connaissances et compétences des élèves en mathématiques, lecture et sciences, le PPCE administre également un questionnaire contextuel aux élèves, enseignants et écoles.

Limites

  • L’examen du rendement relatif de divers groupes d’élèves à l’égard d’évaluations identiques ou similaires, pour différentes périodes, permet de déterminer si le niveau de rendement change. Cependant, de toute évidence, les résultats d’une seule évaluation ne peuvent servir à évaluer un système scolaire, de nombreux facteurs se combinant pour produire les résultats moyens indiqués ici. Il s’agit toutefois d’un des indicateurs du rendement global.
  • Comme les données ne sont disponibles que pour deux périodes seulement, il est impossible d’évaluer dans quelle mesure les différences observées sont valables pour de plus longues périodes.
  • La signification statistique est déterminée à l’aide de formules mathématiques et dépend de facteurs tels que l’échantillonnage. Que la différence entre les résultats ait une signification en éducation est une question d’interprétation. Il est par exemple possible qu’une différence statistiquement significative soit très petite et n’ait que peu de signification. Il y a également des situations où une différence perçue comme ayant une signification en éducation n’a en fait aucune signification statistique.

Source des données

  • Programme pancanadien d'évaluation, PPCE de 2013: Rapport de l’évaluation pancanadienne en sciences, en lecture et en mathématiques, Conseil des ministres de l'Éducation (Canada) [CMEC], 2011.

C5 Les technologies de l’information et des communications (TIC)

Tableaux C.5.1, C.5.6, C.5.7 et C.5.8

Cet indicateur C5 présente des données sur la disponibilité d’ordinateurs et de logiciels dans les écoles (tableaux C.5.1 et C.5.6), l’utilisation des ordinateurs par les élèves à l’école (tableau C.5.7), et la confiance qu’ont les élèves lorsqu’ils exécutent des tâches associées aux technologies de l’information (tableau C.5.8). Les données présentées sur le Canada, les provinces, et certains pays membres de l’Organisation de coopération et de développement économiques (OCDE) sont tirées du Programme international pour le suivi des acquis des élèves (PISA) 2009 de l’OCDE.

Concepts et définitions

  • Les renseignements pour cet indicateur sont tirés du Programme international pour le suivi des acquis des élèves (PISA) 2009, qui vise à déterminer dans quelle mesure les jeunes de 15 ans ont acquis certaines des connaissances et compétences essentielles à une pleine participation à la société moderne et qui fait la lumière sur une gamme de facteurs qui contribuent à la réussite des élèves, des écoles et des systèmes d’enseignement. L’information sur la disponibilité des ordinateurs et des logiciels dans les écoles provient du questionnaire contextuel de l’école dans le cadre du Programme international pour le suivi des acquis des élèves (PISA) dans lequel les directeurs ont fourni de l’information sur la disponibilité d’ordinateurs dans leur école et ont indiqué si une pénurie d’ordinateurs était un obstacle à l’enseignement dans leur école. L’information sur l’utilisation des ordinateurs par les élèves à l’école et l’auto-évaluation de leur confiance dans l’exécution de tâches associées aux technologies de l’information a été obtenue du questionnaire facultatif sur les technologies de l’information faisant partie du questionnaire contextuel de l’élève.
  • Le nombre d’ordinateurs par élève est souvent utilisé comme une approximation renvoyant à la technologie mise à la disposition des élèves. Il désigne le nombre total d’ordinateurs accessibles à des fins éducatives aux élèves dans les écoles, selon l’année modale du pays pour les élèves de 15 ans (10e année ou l’équivalent au Canada), divisé par le nombre total d’élèves dans l’année modale.
  • La pénurie ou l’inadéquation signalée en matière d’ordinateurs ou de logiciels a été explorée dans le questionnaire contextuel de l’école du PISA 2009 selon un autre angle pour analyser l’accès des élèves aux ressources de TIC. Sur le questionnaire de l’école du PISA, la directrice ou le directeur a indiqué si une pénurie ou une inadéquation d’ordinateurs ou de logiciels a nui à l’enseignement que l’école est à même de dispenser en classe. On juge qu’il y a pénurie ou inadéquation d’ordinateurs ou de logiciels lorsque la direction de l’école a répondu que la situation nuit « dans une certaine mesure » ou « beaucoup » à l’enseignement. La perception qu’ont les directrices et directeurs d’école d’une pénurie est subjective et doit être interprétée avec prudence. En effet, les facteurs culturels, les attentes et les pratiques pédagogiques peuvent influer sur la gravité de cette pénurie aux yeux des directrices et directeurs. Ces derniers peuvent faire état d’un problème de pénurie ou d’inadéquation parce qu’ils ont de plus grandes aspirations dans le domaine de l’utilisation de l’informatique à des fins pédagogiques et non parce qu’ils disposent de moins ordinateurs à usage pédagogique.
  • L’Indice de confiance en soi dans l’exécution de tâches de haut niveau associées aux technologies de l’information et des communications a été créé pour faire le point sur le degré de confiance qu’ont les élèves dans l’exécution de certaines tâches informatiques. Cet indice est un résultat combiné, basé sur les indications des élèves, du degré selon lequel ils sont capables d’exécuter les cinq types de tâches techniques suivants : retoucher des photographies numériques ou d’autres images graphiques; créer une base de données; utiliser un chiffrier pour tracer un graphique; créer une présentation; créer une présentation multimédia. Pour chaque tâche, il y avait quatre réponses possibles : je sais très bien le faire tout seul; je sais le faire avec l’aide de quelqu’un; je sais de quoi il s’agit mais je ne sais pas le faire; je ne sais pas de quoi il s’agit. Cet indice est normalisé de sorte que la valeur de l’élève moyen de l’OCDE est égale à 0 et que la valeur de deux tiers environ de l’effectif d’élèves de l’OCDE est comprise entre -1 et 1. Un résultat négatif à cet indice révèle un niveau de confiance en soi inférieur à la moyenne calculée pour les élèves de tous les pays de l’OCDE. Le jugement subjectif des élèves lié à leur capacité de réaliser les tâches concernées peut varier selon les secteurs de compétence. Chaque indice est indépendant, c’est-à-dire que le résultat d’un secteur de compétence pour un indice donné ne peut pas être directement comparé avec son résultat pour un autre secteur.
  • L’Indice d’utilisation de l’ordinateur à l’école vise à donner une idée de la fréquence avec laquelle les élèves s’adonnent, à l’école, à divers types d’activités liées aux technologies de l’information et des communications (TIC). Il s’agit d’un score composite déterminé à la lumière des réponses des élèves à une question leur demandant à quelle fréquence ils s’adonnent aux neuf activités suivantes : clavarder en ligne; utiliser le courrier électronique; naviguer sur Internet pour un travail d’école; télécharger, consulter des documents sur le site Web de l’école ou y déposer des fichiers; afficher des travaux sur le site Web de l’école; jouer avec des logiciels de simulation; faire des exercices (par exemple, pour un cours de langue ou de mathématiques); faire des devoirs sur un ordinateur; et utiliser des ordinateurs pour un travail de groupe ou pour communiquer avec d’autres élèves. Pour chacune des activités il y avait quatre réponses possibles: Jamais ou presque jamais; Une ou deux fois par mois; Une ou deux fois par semaine; Tous les jours ou presque. Cet indice est normalisé de sorte que la valeur de l’élève moyen de l’OCDE est égale à 0 et que la valeur de deux tiers environ de l’effectif d’élèves de l’OCDE est comprise entre -1 et 1. Si la valeur d’indice est positive, la fréquence d’utilisation de l’informatique est supérieure à la moyenne. Chaque indice est indépendant; ainsi, le résultat d’une instance à un indice ne peut être directement comparé à celui d’un autre indice.
  • L’année modale du pays pour les élèves de 15 ans s’agit de l’année fréquentée par la majorité des élèves de 15 ans dans le pays ou l’économie participant. Au Canada, la majorité des élèves de 15 ans est en 10e année (ou l’équivalent).
  • Le statut socioéconomique des élèves est mesuré par l’indice de statut économique, social et culturel du PISA (SESC). Il est important d’insister sur le fait que cet indicateur présente l’information reliée au statut socio-économique de l’élève et non celui de l’école qu’il fréquente.
  • L’indice de statut économique, social et culturel (SESC) du PISAfournit une mesure du statut socioéconomique des élèves. Cet indice a été créé en fonction des renseignements fournis par un échantillon représentatif d’élèves de 15 ans qui ont rempli le questionnaire de base du PISA. Les réponses à ce questionnaire de 30 minutes permettaient d’obtenir de l’information sur l’environnement de ces élèves, notamment sur leurs antécédents scolaires, leur situation familiale et à la maison, leurs activités de lecture et les caractéristiques de leur école. L’indice a été dérivé des variables suivantes : l’indice socioéconomique international de la situation au niveau de la profession du père ou de la mère (celle qui est la plus élevée); le niveau d’études du père ou de la mère (celui qui est le plus élevé) converti en années d’études; et l’indice sur les biens possédés à la maison, qui a été obtenu en demandant aux élèves s’ils avaient un bureau pour étudier à la maison, leur propre chambre, un endroit calme où étudier, un ordinateur qu’ils peuvent utiliser pour leurs travaux scolaires, des logiciels éducatifs, une connexion Internet, leur propre calculatrice, des livres de littérature classique, des livres de poésie, des œuvres d’art (p. ex., des peintures), des livres pour les aider avec leur travail scolaire, un dictionnaire, un lave-vaisselle, un lecteur de DVD ainsi que trois autres objets spécifiques à chaque pays, et leur demandant combien de téléphones cellulaires, de télévisions, d’ordinateurs, de voitures et des salles de bain à la maison. La raison pour laquelle ces variables ont été retenues était la suivante : les antécédents socioéconomiques sont généralement perçus comme étant déterminés par la situation sur le plan de la profession, l’éducation et la richesse. Comme PISA ne disposait pas de mesures directes du revenu ou de la richesse des parents, ces renseignements sur l’accès à des objets de maison ont été utilisés pour les remplacer dans la mesure où les élèves savaient s’ils avaient ou non ces objets à la maison. Ces questions ont été sélectionnées pour élaborer les indices en se basant sur des considérations théoriques et des recherches antérieures. Une modélisation d’équations structurelles a été utilisée pour valider les indices.
  • Les plus grandes valeurs de l’indice SESC représentent des antécédents sociaux plus avantageux, alors que des valeurs plus petites représentent des antécédents sociaux moins avantageux. Une valeur négative indique que le statut socioéconomique est inférieur à celui de la moyenne des pays de l’OCDE. L’indice est divisé en quartiles, en se basant sur les valeurs des élèves relativement à l’indice SESC. En conséquence, les élèves se situant dans le quartile inférieur sont ceux qui se situent dans le quartile le plus bas des élèves selon l’indice SESC, et ceux se situant dans le quartile supérieur sont ceux qui se situent dans le quartile le plus haut des élèves en se basant sur l’indice SESC.

Méthodologie

  • La population cible du PISA 2009 comprenait les personnes âgées de 15 ans qui fréquentaient l’école dans une des 10 provinces du Canada. Les territoires avaient choisi de ne pas participer. Les élèves des écoles situées dans des réserves indiennes étaient exclus, de même que ceux des écoles pour élèves ayant de graves troubles d’apprentissage et des écoles pour malvoyants et malentendants, ainsi que les élèves qui étudiaient à domicile.
  • En 2009, le PISA a été mis en œuvre dans 65 pays et économies, incluant le Canada ainsi que tous les autres pays membres de l’OCDE. Entre 5 000 et 10 000 personnes âgées de 15 ans et provenant d’au moins 150 écoles ont participé au PISA dans la plupart des pays. Au Canada, près de 23 000 élèves fréquentant environ 1 000 écoles des dix provinces y ont pris part. Cet important échantillon canadien était nécessaire afin de produire des estimations fiables pour chaque province.
  • L’information pour cet indicateur a été obtenue de certaines réponses à trois questionnaires contextuels administrés dans le cadre de l’évaluation principale de PISA : un questionnaire donnant de l’information sur les élèves et leur maisons ; un questionnaire sur la familiarité des élèves avec les technologies de l’information ; et un questionnaire visant les directeurs d’école. Le cadre conceptuel tenant lieu de base aux questionnaires ainsi que les questionnaires eux-mêmes se retrouvent dans Le cadre d’évaluation de PISA 2009 : Les compétences clés en compréhension de l’écrit, en mathématiques et en sciences (OCDE 2010), disponible à www.ocde.org.
  • Tous les pays membres de l’OCDE ont participé à l’évaluation principale du PISA en 2009 (qui comprenait les questionnaires de base sur les élèves et sur l’école, une source de données principale pour cet indicateur), et 29 pays membres ont choisi de faire remplir le questionnaire facultatif sur les technologies de l’information et de la communication (TIC). Cet indicateur présente l’information pour un sous-ensemble de ces pays participants, à savoir, les pays du G8 (le Canada, la France, l’Allemagne, l’Italie, le Japon, la Fédération de Russie, le Royaume-Uni, et les  États-Unis) et neuf pays de l’OCDE sélectionnés pour leur comparabilité au Canada sur le plan social et économique et qui présentaient donc un intérêt tout particulier pour la comparaison. Ces neuf pays sont : l’Australie, le Danemark, la Finlande, l’Irlande, la Corée, la Nouvelle-Zélande, la Norvège, la Suède, et la Suisse.
  • Les statistiques prises en compte dans l’indicateur sont des estimations basées sur des échantillons d’élèves et non des valeurs obtenues à partir de l’ensemble des élèves dans chacun des pays. Cette distinction est importante, car on ne peut affirmer avec certitude qu’une estimation à partir d’un échantillon a la même valeur que les paramètres de population qu’on aurait obtenus si tous les élèves de 15 ans avaient été évalués. Par conséquent, il importe de mesurer le degré d’incertitude des estimations. Dans le cadre du PISA, à chaque estimation est associé un degré d’incertitude, exprimé dans l’erreur type. L’erreur type peut à son tour servir à déterminer un intervalle de confiance autour de l’estimation (calculé comme suit : estimation +/- 1,96 x erreur type), ce qui permet d’apporter des inférences aux paramètres de population, reflétant ainsi l’incertitude associée aux estimations basées sur un échantillon. En utilisant cet intervalle de confiance, on peut inférer que la moyenne ou la proportion de la population sera comprise dans l’intervalle de confiance dans 95 répétitions sur 100 de la mesure, effectuées sur des échantillons aléatoires différents prélevés à partir de la même population.
  • Lorsque l’on compare les scores entre les pays, les provinces ou les sous-groupes de population, il faut tenir compte du degré d’erreur de chaque moyenne afin de déterminer si les moyennes de populations réelles diffèrent vraisemblablement les unes des autres. On peut s’appuyer sur les erreurs-types et les intervalles de confiance pour procéder à ces tests statistiques de comparaison. La différence est statistiquement significative si les intervalles de confiance ne se chevauchent pas.
  • Dans le tableau C.5.6, l’importance statistique des différences dans le pourcentage d’élèves dont les directeurs ont signalé une pénurie ou inadéquation en matière d’ordinateurs ou de logiciels entre le quartile supérieur et le quartile inférieur de l’indice PISA du statut économique, social et culturel a été analysée au Centre de la statistique de l’éducation de Statistique Canada. La méthode d’analyse consistait à calculer les intervalles de confiance entourant le pourcentage d’élèves dont les directeurs avaient signalé des inadéquations en matière d’ordinateurs ou de logiciels à la fois au quartile supérieur et au quartile inférieur de l’indice. Si ces intervalles de confiance ne se chevauchaient pas, la différence était alors considérée comme statistiquement significative à un niveau de confiance de 95 %.

Limites

  • Quelques données présentées auparavant à l’indicateur C5 du Programme d’indicateurs pancanadiens de l’éducation (PIPCE) ne sont pas disponibles dans le cadre du PISA 2009, puisque certaines questions n’étaient pas reprises ou que l’information n’est pas comparable avec celle des itérations passées de l’évaluation du PISA.
  • Les questionnaires de base du PISA portant sur les TIC ne visent pas à évaluer la qualité de l’utilisation des TIC à l’école, ni le degré d’intégration des TIC dans les pratiques pédagogiques ou leurs effets sur les aptitudes cognitives des élèves.
  • Les territoires avaient choisi de ne pas participer.

Source des données

  • Statistique Canada, Programme international pour le suivi des acquis des élèves (PISA), base de données de 2009; Organisation de coopération et de développement économiques (OCDE), base de données du PISA de 2009.
Date de modification :