Section C :
Études primaires et secondaires

Warning Consulter la version la plus récente.

Information archivée dans le Web

L’information dont il est indiqué qu’elle est archivée est fournie à des fins de référence, de recherche ou de tenue de documents. Elle n’est pas assujettie aux normes Web du gouvernement du Canada et elle n’a pas été modifiée ou mise à jour depuis son archivage. Pour obtenir cette information dans un autre format, veuillez communiquer avec nous.

C1 La maturité scolaire au cours des premières années [Version PDF]
C2 Écoles primaires et secondaires : effectifs et éducateurs [C2 Écoles primaires et secondaires : Version PDF]
C4 Rendement des élèves
Programme international pour le suivi des acquis des élèves (PISA) [Programme international Version PDF]
Programme pancanadien d'évaluation (PPCE) [rogramme pancanadien d'évaluation Version PDF]
C5 Les technologies de l'information et des communications (TIC) [C5 Les technologies de l'information Version PDF]

C1 La maturité scolaire au cours des premières années

Tableaux C.1.1 et C.1.2

L'indicateur C1 porte sur les jeunes enfants et sur la maturité scolaire de ceux qui sont âgés de 4 et 5 ans. On examine dans cette partie leur état de santé (y compris les limitations à cet égard, le cas échéant), leur participation à des activités, les contacts qu'ils ont avec des documents à lire et la lecture (tableau C.1.1) ainsi que leurs scores linguistiques/habiletés en matière de vocabulaire (tableau C.1.2).

Concepts et définitions

  • La santé générale de l'enfant a été classée dans les catégories suivantes : excellente; très bonne; bonne; ou passable ou médiocre. Les catégories étaient lues aux adultes qui répondaient au nom des enfants dans l'Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ).

  • Cette indicateur examine également certaines limitations physiques affectant l'enfant. Une série de questions porte sur la santé de l'enfant au quotidien et se concentre sur ses capacités par rapport à d'autres enfants du même âge. Les répondants adultes étaient informés que ces questions étaient posées à tout le monde. Cet indicateur porte sur les limitations suivantes : difficulté à voir; difficulté à entendre; difficulté à se faire comprendre; difficulté à marcher; et douleur ou gêne physique.  L'élément douleur ou gêne physique tient compte des réponses négatives à la question par laquelle on cherche à savoir si l'enfant éprouve habituellement des douleurs ou des malaises. Ces questions font partie d'un indice qui s'appelle l'Indice de l'état de santé.

    Avant qu'il réponde aux questions sur les conditions chroniques, le répondant adulte était informé qu'on faisait référence à « un problème qui persiste ou qui devrait persister pendant six mois ou plus identifié par un professionnel de la santé ».  Il était aussi informé d'indiquer toutes les situations applicables à l'enfant. Cet indicateur présente des renseignements sur les allergies chroniques, la bronchite chronique et l'asthme. Les questions sur l'asthme ont été posées séparément, et les renseignements présentés reflètent le pourcentage d'enfants âgés de 4 ou 5 ans pour lesquels un spécialiste de la santé a posé à un moment donné un diagnostic d'asthme, et non simplement le pourcentage d'enfants qui ont eu une crise d'asthme dans les 12 mois précédant l'enquête.

  • Les activités physiques hebdomadaires en dehors des heures de classe (entre la plupart des journées et environ une fois par semaine) signifient la participation aux activités suivantes : sports avec un entraîneur ou un instructeur; leçons ou cours d'activités physiques organisés avec un entraîneur ou un instructeur tels que la danse, la gymnastique ou les arts martiaux; leçons ou cours de musique, d'art ou participation à d'autres activités non sportives; et  clubs, groupes ou programmes communautaires animés par des adultes. Les adultes qui avaient répondu au nom de ces jeunes enfants ont été invités à fournir des informations sur les activités physiques des enfants pour la période de 12 mois qui a précédé l'entrevue de l'enquête.

  • Les données concernant les activités de lecture quotidienne en dehors des heures de classe proviennent des réponses à certaines questions sur la littératie, notamment sur la fréquence à laquelle un parent lit un texte à haute voix à l'enfant ou écoute l'enfant lire (ou essayer de lire). On a également demandé au répondant à quelle fréquence l'enfant regarde spontanément des livres, des revues, des bandes dessinées, etc., ou essaie de lire spontanément (chez lui).

  • L'Échelle de vocabulaire en images Peabody-(EVIP) évalue le vocabulaire réceptif de l'enfant, soit le vocabulaire qu'il comprend quand on s'adresse à lui au moyen de la parole. Comme il s'agit d'un test normatif, le rendement des participants est noté par rapport à celui d'une population globale d'enfants du même âge. On considère qu'une large fourchette de notes correspond à un niveau d'aptitude moyen, compte tenu de l'âge de l'enfant. Les notes se situant sous le seuil inférieur de cette fourchette dénotent un retard dans le développement des capacités de compréhension, tandis que les notes supérieures à ce seuil révèlent des capacités de compréhension avancées.

    L'EVIP-R est graduée en fonction d'une moyenne de 100. La fourchette des capacités de compréhension moyennes du vocabulaire passif mesurées par l'EVIP-R comprend les notes de 85 à 115. On considère qu'une note inférieure à 85 correspond à un retard dans le développement des capacités de compréhension du vocabulaire passif et qu'une note supérieure à 115 correspond à des capacités avancées. La notation est rajustée en fonction des différentes capacités des enfants âgés de 4 et 5 ans.  Les normes pour les notes des tests en anglais et en français sont appliquées séparément; les notes ne sont donc pas directement comparables.

Méthodologie

  • L'Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) est une étude à long terme sur les enfants canadiens qui permet de suivre leur croissance et leur bien-être de la naissance au début de l'âge adulte. L'enquête a été conçue pour recueillir des renseignements sur les facteurs qui influent sur le développement social et émotionnel ainsi que sur le comportement des enfants et des jeunes. Elle permet en outre de suivre les conséquences de ces facteurs sur leur développement au fil du temps.

  • L'indicateur est fondé sur des données nationales représentatives concernant des enfants âgés de 4 et 5 ans et extraites du cycle 8 de l'ELNEJ, mené en 2008-2009.

  • L'information présentée provient de la composante de l'enfant de l'ELNEJ, et plus particulièrement, des questions sur l'état de santé, les activités (sports, cours, clubs, etc.) et le degré de littératie de l'enfant. Les réponses ont été fournies par la personne la mieux renseignée au sujet de l'enfant (PMR), habituellement la mère.

Limites

  • L'ELNEJ se fie sur les perceptions de l'adulte qui connaît le mieux l'enfant au regard de l'état de santé générale et du développement de celui-ci. Or, ces déclarations peuvent ne pas toujours être complètement objectives ou exactes.

  • Voici quelques raisons possibles d'erreurs non dues à l'échantillonnage dans l'ELNEJ : erreurs de réponse attribuables à des questions de nature délicate, à une mauvaise mémoire, aux erreurs de traduction dans les questionnaires, aux réponses vagues et au biais dû au conditionnement; erreurs dues à la non-réponse; et erreurs de couverture.

Source des données

  • Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ), Statistique Canada. Pour plus d'information, consulter « Définitions, sources de données et méthodes », site internet de Statistique Canada, enquête numéro 4450, http://www.statcan.gc.ca/cgi-bin/imdb/p2SV_f.pl?Function=getSurvey&SDDS=4450&lang=fr&db=imdb&adm=8&dis=2.

C2 Écoles primaires et secondaires : effectifs et éducateurs

Tableaux C.2.1 à C.2.7

Cet indicateur C2 nous renseigne sur les effectifs des écoles primaires et secondaires (tableau C.2.1), ainsi que sur le nombre d'éducateurs à temps plein (tableau C.2.2). Un ratio élèves-éducateur, qui mesure les ressources humaines totales mises à la disposition des élèves, est également présenté (tableau C.2.3), de même que certaines caractéristiques représentatives des éducateurs (tableau C.2.4, tableau  C.2.5, tableau C.2.6 et tableau C.2.7).

Concepts et définitions

  • Les écoles publiques sont les écoles établies et administrées par les autorités scolaires locales en vertu de la loi sur les écoles publiques de la province ou du territoire. Cette catégorie comprend également les écoles séparées protestantes et catholiques romaines, et les écoles administrées au Canada par le ministère de la Défense nationale dans le cadre du système d'écoles publiques.

  • Toutes les données relatives à cet indicateur concernent uniquement les écoles primaires et secondaires publiques et non les écoles privées, les écoles fédérales ou les écoles pour les malvoyants et les malentendants. Les écoles sont classées comme des écoles primaires si elles offrent la 6e année et moins ou une majorité des années du niveau primaire, et comme des écoles secondaires si elles offrent la 7e année et plus ou une majorité des années du niveau secondaire. Les écoles fédérales comprennent les écoles administrées directement par le gouvernement fédéral, les écoles outre-mer administrées par le ministère de la Défense nationale pour les personnes à charge des membres du personnel des Forces canadiennes, ainsi que les écoles administrées par Affaires indiennes et Nord canadien ou par les conseils de bande. L'organisation des années d'études varie selon les provinces et les territoires et elle peut aussi varier à l'échelle locale. Une description de la structure de l'éducation et de la formation au Canada est disponible à l'annexe 1.

  • Les effectifs en équivalent temps plein représentent le nombre d'étudiants inscrits à temps plein dans les écoles primaires et secondaires au 30 septembre (ou à la date ultérieure la plus rapprochée) de l'année scolaire, plus les effectifs à temps partiel, selon la portion du temps passé en classe et pour laquelle les élèves sont visés par un financement (déterminée par la province ou le territoire) (tableau C.2.1).

  • Le terme éducateurs inclut tous les employés du réseau des écoles publiques primaires et secondaires (au niveau de l'école ou du district scolaire) faisant partie des trois catégories suivantes; enseignants, administrateurs d'école et support pédagogique. Cette définition comprend généralement le personnel enseignant, les directeurs, les directeurs adjoints et le personnel spécialiste non enseignant, notamment les conseillers pédagogiques, les conseillers en orientation, les éducateurs spécialisés et les conseillers religieux et de pastorale. Sont inclus tous les éducateurs des écoles publiques ordinaires, des établissements provinciaux d'éducation surveillée ou de garde ainsi que les éducateurs d'autres élèves fréquentant des écoles reconnues et financées par une province ou un territoire. Tous les enseignants des programmes réguliers pour les jeunes, des programmes de recyclage pour les adultes et des programmes professionnels pour jeunes et adultes sont inclus dans cette définition. Les programmes d'éducation par correspondance ou à distance, les programmes offerts au niveau postsecondaire, les écoles privées ou les écoles indépendantes financées par des ministères fédéraux, (comme le ministère de la Défense nationale de même que le ministère des Affaires indiennes et du Nord canadien) sont exclus ainsi que les suppléants, les remplaçants temporaires, les enseignants en congé, les étudiants assistants, les assistants à l'enseignement et tout autre personne non payée pour son travail.

  • L'expression éducateurs en équivalent temps plein signifie le nombre d'éducateurs à temps plein au 30 septembre (ou à la date ultérieure la plus rapprochée) de l'année scolaire, plus le nombre d'éducateurs à temps partiel, selon le pourcentage de l'affectation d'emploi à temps plein (déterminée par la province ou le territoire) (tableau C.2.2). Par exemple, si une affectation d'emploi à temps plein normale est de 10 mois par année, l'éducateur qui travaille six mois pendant une année représentera 0,6 (6/10) d'un équivalent temps plein. Il en est de même pour l'employé qui travaille à 60 % du temps plein pendant 10 mois : il représentera également 0,6 d'un équivalent temps plein.

  • Les éducateurs à temps plein (nombre d'individus) (tableau C.2.4) sont les éducateurs qui, au 30 septembre (ou à la date ultérieure la plus rapprochée) de l'année scolaire ont la responsabilité de fournir des services aux élèves faisant partie de l'effectif inscrit.

  • La population active comprend la partie de la population civile hors institution âgée de 15 ans et plus qui forme le bassin de travailleurs disponibles au Canada. Pour être considérée comme un membre de la population active, une personne doit être occupée (à temps plein ou à temps partiel) ou être en chômage tout en cherchant activement du travail. La répartition selon l'âge de la population active occupée à temps plein et à temps partiel est présentée au tableau  C.2.5.

Méthodologie

  • L'enquête sur l'enseignement primaire et secondaire (EEPS, anciennement le Projet statistique sur l'enseignement primaire et secondaire) est une enquête nationale qui permet à Statistique Canada de recueillir des données sur les effectifs (y compris les programmes d'enseignement dans une langue minoritaire et seconde), les diplômés, les éducateurs et le financement des écoles publiques primaires et secondaires du Canada. Le ministère de l'Éducation des 10 provinces et des 3 territoires envoie chaque année à Statistique Canada des données sur les effectifs, les diplômés, les éducateurs et le financement des écoles publiques primaires et secondaires relevant de sa compétence.

  • Le taux d'équivalence à temps plein (ETP) des effectifs représente la portion du temps passé en classe pour laquelle les élèves sont visés par un financement. Si cette portion est inconnue, on se sert d'une estimation. Par exemple, si des élèves de la maternelle et du jardin d'enfants sont inscrits à un programme à demi-temps et que ce programme est financé, l'effectif en ETP correspondra à l'effectif inscrit divisé par deux (0,5). Si un élève ne suit que le quart des cours habituels et est visé par un financement à ce titre, l'effectif en ETP correspondra à l'effectif inscrit divisé par quatre, c'est-à-dire un taux de 0,25.

  • Le ratio élèves-éducateur (tableau C.2.3) est établi en divisant le nombre d'inscriptions en équivalent temps plein de la 1ère à la 12e année (CPO en Ontario) et dans les programmes décloisonnés, plus le nombre d'inscriptions en équivalent temps plein au niveau préscolaire, par le nombre d'éducateurs en équivalent temps plein (enseignants et non enseignants).

  • Les données de l'Enquête sur la population active utilisées pour comparer la répartition selon l'âge de la population active globale occupée à temps plein avec celle des éducateurs à temps plein sont fondées sur une moyenne mensuelle établie de septembre à août (tableau  C.2.5).

Limites

  • En Ontario, les données relatives aux effectifs en équivalent temps plein (tableau C.2.1) et aux éducateurs en équivalent temps plein (tableau C.2.2) n'englobent pas les établissements de soins, de traitement et de correction, ainsi que les écoles hospitalières et provinciales recevant des fonds publics. Les données pour 2006-2007 et 2007-2008 ne sont pas directement comparables avec celles des années précédentes en raison d'un changement dans la méthode de collecte des données.

  • Les Territoires du Nord-Ouest et le Nunavut n'ont fourni aucune donnée sur le nombre d'éducateurs à temps plein ou à temps partiel ou aucune donnée combinée. Seules des données sur les éducateurs en équivalent temps plein ont été présentées. Les données relatives aux femmes de tous les groupes d'âge englobent un petit nombre de cas où l'âge n'a pas été déclaré. Les répartitions en pourcentage sont fondées sur les éducateurs pour lesquels l'âge est connu.

  • Les remarques suivantes s'appliquent aux données concernant la Saskatchewan : 1) Les éducateurs travaillant dans des écoles financées par la province (y compris les écoles secondaires « associées indépendantes » et « historiques ») sont compris, mais les éducateurs travaillant dans des écoles et des lieux d'enseignement postsecondaire « indépendants » des « Premières nations » sont exclus. 2) Le dénombrement varie d'année en année, notamment parce que le nombre d'écoles « associées indépendantes » recevant des fonds provinciaux en vertu d'ententes conclues avec des conseils scolaires a changé au fil des ans. 3) À Lloydminster, les éducateurs travaillent auprès d'élèves vivant en Alberta et en Saskatchewan, mais ils sont tous pris en compte dans les dénombrements de la Saskatchewan uniquement (tableau C.2.2 et tableau C.2.4). 4) Les dénombrements et les ETP englobent les enseignants en classe, les administrateurs scolaires au niveau de l'école (mais non au niveau de la haute direction) et le personnel de soutien pédagogique.

  • Il ne faudrait pas considérer le ratio élèves-éducateur comme un indicateur de la taille des classes. La taille moyenne des classes dépend non seulement du nombre d'enseignants et d'élèves, mais également des heures d'enseignement par semaine, des heures travaillées par enseignant, et de la répartition des heures entre l'enseignement en classe et les autres activités. Il faut en outre préciser que le nombre d'enseignants dans ce ratio englobe tant les éducateurs qui enseignent que ceux qui n'enseignent pas (comme les directeurs d'école, les bibliothécaires, les conseillers en orientation, etc.).

Sources des données

  • Enquête sur l'enseignement primaire et secondaire, Statistique Canada. Pour plus d'information, consulter « Définitions, sources de données et méthodes », site internet de Statistique Canada, enquête numéro 5102, http://www.statcan.gc.ca/cgi-bin/imdb/p2SV_f.pl?Function=getSurvey&SDDS=5102&lang=fr&db=imdb&adm=8&dis=2

  • Enquête sur la population active, Statistique Canada. Pour plus d'information, consulter « Définitions, sources de données et méthodes », site internet de Statistique Canada, enquête numéro 3701, http://www.statcan.gc.ca/cgi-bin/imdb/p2SV_f.pl?Function=getSurvey&SDDS=3701&lang=fr&db=imdb&adm=8&dis=2)

C4 Rendement des élèves

Programme international pour le suivi des acquis des élèves (PISA)

Tableaux C.4.2, C.4.4, C.4.5, C.4.10 et C.4.17

L'indicateur C4 présente le rendement des élèves en ce qui concerne trois compétences fondamentales — lecture, mathématiques et sciences — et analyse l'évolution de ces résultats de rendement au fil du temps. Le rendement a été examiné à l'aide des résultats obtenus du Programme international pour le suivi des acquis des élèves (PISA), une initiative internationale de l'Organisation de coopération et de développement économiques (OCDE).

Ce sous-indicateur donne des renseignements détaillés sur le rendement des élèves canadiens âgés de 15 ans en lecture, le domaine majeur du PISA en 2009, en examinant les scores moyens et la répartition des élèves par niveau de compétence sur l'échelle globale de la lecture (tableau  C.4.2) et les scores moyens sur les sous-échelles de la lecture (tableau C.4.17). Il permet aussi de comparer le rendement au fil du temps en lecture (tableau C.4.4), en sciences (tableau C.4.5) et en mathématiques (tableau C.4.10).

Concepts et définitions

  • Le Programme international pour le suivi des acquis des élèves (PISA) représente un effort collectif des pays membres de l'OCDE en concert avec des pays partenaires pour évaluer régulièrement, au moyen de tests internationaux communs, les résultats des jeunes dans trois grands domaines : la lecture, les mathématiques, et les sciences. Le PISA définit la lecture, les mathématiques et les sciences non seulement en termes de maîtrise de disciplines scolaires, mais aussi en termes des connaissances et des compétences requises pour participer pleinement à la société.

    La lecture : Capacité de comprendre et d'utiliser des textes ainsi que d'y réfléchir et y réagir afin de réaliser ses objectifs personnels, de développer ses connaissances et son potentiel et de prendre une part active dans la société.

    Les mathématiques : Capacité d'identifier et de comprendre le rôle joué par les mathématiques dans le monde, de porter des jugements fondés à leur propos, et de s'engager dans des activités mathématiques, en fonction des exigences de sa vie en tant que citoyen constructif, impliqué et réfléchi.

    Les sciences : Capacité d'utiliser des connaissances scientifiques pour identifier les questions auxquelles la recherché scientifique peut apporter une réponse et pour tirer des conclusions fondées sur des faits, en vue de comprendre le monde naturel et les changements qui y sont apportés par l'activité humaine et de prendre des décisions à ce propos.

Méthodologie

  • Au niveau international, près de 470 000 étudiants de 65 pays et économies participantes ont pris part au PISA 2009. La population comprenait les personnes âgées de 15 ans qui fréquentaient l'école dans une des dix provinces du Canada. À ce jour, les territoires ne participent pas au PISA. L'évaluation du PISA a été menée à l'école, pendant les heures normales de cours, au printemps. Les élèves des écoles situées dans des réserves indiennes étaient exclus de même que ceux des écoles pour élèves ayant de graves troubles d'apprentissage et des écoles pour malvoyants et malentendants, ainsi que les élèves qui étudiaient à domicile. Le PISA en 2009 a pris la forme d'un test papier-crayon d'une durée totale de deux heures1. Il a été administré en anglais ou en français, selon le système scolaire.

  • Bien que les trois domaines du PISA soient évalués à chaque cycle, un seul constitue le principal domaine d'un cycle, et englobe un nombre plus important d'items d'évaluation que les deux autres domaines. Pour chaque cycle, les deux tiers du temps de l'évaluation sont alloués au domaine principal. En 2000, le domaine principal était la lecture, en 2003, les mathématiques et en 2006, les sciences. Le cycle se répétant, le domaine principal de l'évaluation de 2009 était de nouveau la lecture.

  • Les résultats obtenus sont présentés pour les domaines principaux sur une échelle globale (représentant le rendement global des élèves à toutes les questions de l'évaluation dans ce domaine) ainsi que pour les sous-domaines formant chaque échelle globale. Comme un moins grand nombre d'éléments sont évalués dans le contexte des domaines mineurs, seuls les résultats globaux sont disponibles.

  • En 2009, les sous-échelles de la lecture concernent trois aspects de la lecture — accès et repérage, intégration et interprétation, et réflexion et évaluation — et deux types de textes — textes continus et non continus.

    • Sous-échelle des aspects de la lecture :
      Accès et repérage comprend le fait de se rendre dans l'espace d'information fourni et de naviguer dans cet espace pour localiser et extraire un ou plusieurs éléments d'information distincts.
      Intégration et interprétation comprend le traitement du texte lu pour en comprendre le sens.
      Réflexion et évaluation comprend le fait de s'appuyer sur des connaissances, des idées ou des attitudes extérieures au texte afin de relier l'information fournie dans le texte à ses propres cadres de référence conceptuels et expérientiels.

    • Sous-échelle des formats de textes :
      Les textes continus se composent de phrases organisées en paragraphes. Il s'agit entre autres d'articles de journal, de dissertations, de nouvelles, de critiques ou de lettres.
      Les textes non continus sont des documents qui combinent plusieurs éléments textuels comme des listes, des tableaux, des graphiques, des diagrammes, des textes publicitaires, des horaires, des catalogues, des répertoires ou des formulaires.

  • Dans le contexte du PISA, on a quantifié le rendement des élèves en attribuant un certain nombre de points sur une échelle établie de telle sorte que la note moyenne des élèves de tous les pays participants pour les domaines principaux était de 500 et l'écart-type, de 100. Cela signifie qu'environ les deux tiers des élèves se situaient entre 400 et 600 sur l'échelle. Cette moyenne a été établie pendant l'année au cours de laquelle l'évaluation ciblait le domaine principal. En raison de l'évolution du rendement au fil du temps, les scores moyens des élèves des pays de l'OCDE s'écartent légèrement de 500 dans le PISA 2009.

  • Les résultats du PISA peuvent également être présentés sous forme de répartition du rendement des élèves pour tous les niveaux de rendement. Dans le PISA 2009, le rendement en lecture a été réparti en sept niveaux. Ces niveaux représentent essentiellement les éléments les plus difficiles du test auxquels un élève est capable de répondre. On peut donc supposer qu'un élève qui se situe à un certain niveau pourrait répondre aux questions de tous les niveaux inférieurs. Pour faciliter l'interprétation, on a lié ces niveaux à des tranches de notes bien définies sur l'échelle initiale. Les sept niveaux sont les suivants :

    • Au-dessous du niveau 1b (scores inférieurs ou égal à 262);
    • niveau 1b (scores supérieurs à 262 mais inférieurs ou égaux à 335 points);
      niveau 1a (scores supérieurs à 335 mais inférieurs ou égaux à 407 points)
    • niveau 2 (scores supérieurs à 407 mais inférieurs ou égaux à 480 points)
    • niveau 3 (scores supérieurs à 480 mais inférieurs ou égaux à 553 points)
    • niveau 4 (scores supérieurs à 553 mais inférieurs ou égaux à 626 points)
    • niveau 5 (scores supérieurs à 626 mais inférieurs ou égaux à 698 points)
    • niveau 6 (scores supérieurs à 698).

    Selon l'OCDE, le niveau 2 peut être considéré comme un niveau seuil de compétence, auquel les élèves commencent à manifester les compétences en lecture qui leur permettront de participer à la vie efficacement et de manière productive. Les élèves dont le rendement se situe à des niveaux inférieurs au niveau 2 peuvent exécuter certaines tâches de lecture avec succès, mais ils ne possèdent pas certaines des compétences fondamentales propres à les préparer à entrer sur le marché du travail ou à poursuivre des études postsecondaires.

  • Lorsque l'on compare les scores entre les pays, les provinces ou les sous-groupes de population, les tableaux du PISA identifient les différences statistiquement importantes. L'importance statistique est définie par des formules mathématiques et tient compte d'éléments telles les erreurs d'échantillonnage et de mesure. Les erreurs d'échantillonnage se produisent car le rendement est calculé d'après les scores obtenus par des échantillons aléatoires d'élèves de chaque pays et non d'après ceux obtenus par la population des élèves de chaque pays. Par conséquent, on ne peut affirmer avec certitude qu'une moyenne d'échantillon a la même valeur que la moyenne de la population qu'on aurait obtenue si tous les élèves de 15 ans avaient été évalués. De plus, un degré d'erreur de mesure est associé aux scores décrivant le rendement de l'élève puisque ces scores sont estimés à partir des réponses de l'élève aux questions du test.

  • On s'appuie sur l'erreur-type et les intervalles de confiance pour procéder à ces tests statistiques de comparaison. L'erreur-type exprime le degré d'incertitude associé à l'erreur d'échantillonnage et à l'erreur de mesure. On peut se servir de l'erreur-type pour produire un intervalle de confiance, qui indique la probabilité qu'une certaine marge d'erreur (définie par l'erreur-type) dans les statistiques de l'échantillon concerne le nombre d'individus dans une population donnée. Les résultats du PISA sont statistiquement différents si les intervalles de confiance ne se chevauchent pas. En outre, un autre test a été effectué pour confirmer la différence statistique.

  • Il est possible avec le PISA de comparer les changements dans les performances des étudiants au fil du temps dans chacun des domaines car un certain nombre de questions communes sont utilisées dans les tests de chacune des enquêtes. Cependant comme le nombre d'items communs utilisés est limité, les probabilités d'erreurs de mesure sont plus importantes. C'est la raison pour laquelle une erreur supplémentaire, l'erreur de couplage est ajoutée à l'erreur standard. Les erreurs standards qui incluent les erreurs de couplage doivent être utilisées lorsque des comparaisons entre les différentes évaluations sont effectuées (mais elles ne sont pas nécessaires pour effectuer des comparaisons entre les pays/économies ou sous-populations qui ont participé à la même évaluation).

  • Cet indicateur compare la performance des étudiants à l'évaluation du PISA 2009 avec celle de la première évaluation de chacun des domaines alors que ce domaine était le domaine principal: lecture en 2000 (tableau C.4.4), mathématiques en 2003 (tableau C.4.10) et sciences en 2006 (tableau C.4.5). Il n'est pas possible d'inclure dans ces comparaisons les résultats des évaluations d'un domaine secondaire avant qu'il n'ait fait l'objet de l'évaluation en tant que domaine principal, la raison étant que le cadre conceptuel du domaine n'est pas pleinement développé tant qu'il ne fait pas l'objet d'une évaluation en tant que domaine principal. C'est pourquoi les résultats de l'évaluation d'un domaine secondaire observés lors des années antérieures ne sont pas comparables.

Limites

  • L'examen du rendement relatif de divers groupes d'élèves à l'égard d'évaluations identiques ou similaires, pour différentes périodes, permet de déterminer si le niveau de rendement change. De toute évidence, les résultats d'une seule évaluation ne peuvent servir à évaluer un système scolaire, de nombreux facteurs se combinant pour produire les résultats moyens indiqués ici. Il s'agit toutefois d'un des indicateurs du rendement global.

  • Comme les données ne sont disponibles que pour deux périodes seulement, il est impossible d'évaluer dans quelle mesure les différences observées sont valables pour de plus longues périodes.

  • La signification statistique est déterminée à l'aide de formules mathématiques et dépend de facteurs tels que l'échantillonnage. Que la différence entre les résultats ait une signification en éducation est une question d'interprétation. Il est par exemple possible qu'une différence statistiquement significative soit très petite et n'ait que peu de signification. Il y a également des situations où une différence perçue comme ayant une signification en éducation n'a en fait aucune signification statistique.
    Sources des données

  • Ressources humaines et Développement des compétences Canada, Conseil des ministres de l'Éducation (Canada) et Statistique Canada, 2010, À la hauteur : Résultats canadiens de l'étude PISA de l'OCDE – La performance des jeunes du Canada en lecture, en mathématiques et en sciences – Premiers résultats de 2009 pour les Canadiens de 15 ans, Statistique Canada N° 81-590-XIF au catalogue.

  • Organisation de coopération et de développement économiques, 2010, Résultat du PISA 2009 : Savoirs et savoir-faire des élèves : Performance des élèves en compréhension de l'écrit, en mathématiques et en sciences (Volume 1).

  • Pour plus d'information, consulter « Définitions, sources de données et méthodes », site internet de Statistique Canada, enquête numéro 5060 (http://www.statcan.gc.ca/cgi-bin/imdb/p2SV_f.pl?Function=getSurvey&SDDS=5060&lang=fr&db=imdb&adm=8&dis=2)

Nota

1. Pour la première fois en 2009, 20 pays ont choisi de poser à leurs étudiants des questions supplémentaires par voie électronique afin d'évaluer leur habileté à lire des textes numériques. Le Canada n'a pas posé ces questions additionnelles.

Programme pancanadien d'évaluation (PPCE)

Tableaux C. 4.13, C.4.14, C.4.15, C.4.16, C.4.18, C.4.19  et C.4.20

L'indicateur C4 présente le rendement des élèves dans les trois matières étudiées (appelées aussi « les domaines ») soit les mathématiques, les sciences,  et la lecture. Il examine également le processus de résolution de problèmes en mathématiques. Ce sous-indicateur examine le rendement des élèves à l'aide des résultats obtenus au Programme pancanadien d'évaluation (PPCE),  une initiative des provinces et des territoires réalisée par l'entremise du Conseil des ministres de l'Éducation (Canada) [CMEC].

Des renseignements détaillés sur le rendement des élèves canadiens de 8e année2 en mathématiques, le domaine principal du PPCE de 2010 sont  présentés.  Les scores moyens et la répartition des élèves par niveaux de rendement pour  le domaine global des mathématiques et les scores moyens pour les sous-domaines des mathématiques et pour le processus de  résolution de problèmes  (tableaux C.4.18 et C.4.19) sont aussi mentionnés. Le rendement des élèves en sciences et en lecture à l'évaluation de 2010 (tableau C.4.13) est également présenté ainsi que leur performance en lecture  au fil du temps (tableau C.4.20). Les résultats sont présentés selon la langue du système d'éducation. 

Concepts et définitions

  • Le Programme pancanadien d'évaluation (PPCE) est un programme cyclique d'évaluations qui mesure le rendement des élèves de 8e année au Canada. Il est administré par le Conseil des ministres de l'Éducation, (Canada) [CMEC]. Le PPCE présente des résultats plus détaillés de chacun des domaines l'année où celui-ci constitue le domaine principal à l'étude (la lecture en 2007, les mathématiques en 2010, et les sciences en 2013), ainsi que des évaluations secondaires pour les deux autres domaines d'évaluation.  La première évaluation du PPCE qui s'est déroulée en 2007 a remplacé le Programme d'indicateurs du rendement scolaire (PIRS) du CMEC. PPCE a été conçu pour déterminer si les élèves atteignent, dans tout le Canada, un niveau de rendement similaire dans ces matières principales à un âge à peu près identique et complète les évaluations effectuées présentement dans chaque instance.

    Les mathématiques : les mathématiques sont évaluées comme un outil conceptuel que les élèves peuvent utiliser pour accroître leur capacité à calculer, à décrire et à résoudre des problèmes.

    Le domaine des mathématiques du PPCE est divisé en quatre sous-domaines qui reflètent la manière traditionnelle de regrouper les compétences et les connaissances en mathématiques : nombres et opérations, géométrie et mesure, régularités et relations, et gestion des données et probabilités. L'évaluation en mathématiques permet également à l'élève de démontrer la façon d'acquérir et d'utiliser les contenus mathématiques : la résolution de problèmes, la communication, la représentation, le raisonnement ainsi que l'établissement de liens.

    Les sciences : L'évaluation en sciences du PPCE était basée sur la culture scientifique comme l'objectif global des programmes d'études en sciences au Canada. La culture scientifique est un concept selon lequel l'élève développe des compétences grâce auxquelles il peut mettre en œuvre des attitudes, des habiletés et des connaissances liées aux sciences. Elle inclut également une compréhension de la nature des sciences permettant de faire de la recherche, de résoudre des problèmes et de prendre des décisions fondées sur des preuves quant aux enjeux liés aux sciences.

    La définition de culture scientifique englobe la connaissance des sciences de la nature, des sciences physiques (chimie et physique) et des sciences de la Terre et de l'Univers, ainsi qu'une compréhension de la nature des sciences comme sphère d'activité humaine.

    La lecture : on considère la lecture comme un processus dynamique et interactif par lequel la lectrice ou le lecteur construit un sens à partir de textes. Une lecture efficace comporte une interaction de la lectrice ou du lecteur, du texte et de l'objectif de la lecture ainsi que du contexte avant, pendant et après la lecture.                                   

    Bien que les trois domaines du PPCE soient évalués à chaque cycle, un seul constitue le principal domaine d'un cycle, et englobe un nombre plus important d'items d'évaluation que les deux autres domaines. Le PPCE a été et sera administré aux élèves aux  dates suivantes :

    Trois domaines du Programme pancanadien d'évaluation des élèves (PPCE) évalués
    Domaine 20072010 2013
    Principal LectureMathématiquesSciences
    SecondaireMathématiquesSciencesLecture
    SecondaireSciencesLectureMathématiques

Méthodologie

  • Près de 32 000 élèves de 8e année des dix provinces canadiennes et du Yukon ont pris part au PPCE 2010. Les Territoires du Nord-Ouest et le Nunavut n'ont pas encore participé au PPCE.
  • Quand le PPCE a débuté en 2007, la population cible était celle des élèves de 13 ans.  En 2010, la population cible a été modifiée pour être administré aux élèves de 8e année, indépendamment de leur âge. La sélection des élèves était plus simple et les écoles et les classes moins dérangées.  En 2007, une large proportion de l'échantillon des élèves de 13 ans du PPCE était en 8e année alors qu'une plus faible proportion se retrouvait en 7e ou 9e année.
  • Pour sélectionner les participantes et les participants du PPCE, la méthode suivante a été utilisée :

    • sélection au hasard d'écoles de chaque instance, à partir d'une liste complète des écoles financées par les fonds publics fournie par l'instance;
    • sélection au hasard de classes de 8e année à partir d'une liste de toutes les classes de 8e année admissibles dans chacune des écoles;
    • sélection de tous les élèves inscrits dans les classes de 8e année retenues;
    • lorsqu' une classe entière de 8e année, n'a pu être choisie, une sélection au hasard d'élèves de 8e année a été faite.
  • Le taux de participation au PPCE a été de plus de 85 % des élèves échantillonnés.  L'école déterminait si oui on non un élève pouvait être exempté de participer au PPCE. Il s'agissait d'élèves présentant une incapacité fonctionnelle, une déficience intellectuelle, des troubles socio-affectifs ou d'élèves qui ne maîtrisaient pas la langue de l'évaluation.
  • La structure actuelle du PPCE  a été conçue pour s'harmoniser avec le Programme international pour le suivi des acquis des élèves (PISA) de l'Organisation de Coopération et de Développement Économiques (OCDE). Une part importante des élèves de la cohorte de 8e année qui ont participé au PPCE 2010 participeront vraisemblablement à l'évaluation du PISA 2012 à l'âge de 15 ans. Le domaine principal du PISA 2012 étant également les mathématiques, des comparaisons entre les tendances en matière de rendement pourront être faites des deux évaluations.
  • Environ 24 000 élèves ont répondu à l'évaluation du PPCE 2010 en anglais et 8 000 en français. Les résultats du Canada francophone sont ceux des élèves qui fréquentent le système d'éducation francophone de leur province ou territoire respectif. Les résultats du Canada anglophone sont ceux des élèves qui fréquentent le système anglophone de leur province ou territoire respectif. Les résultats globaux sont ceux de l'ensemble des élèves, peu importe le système fréquenté. Les résultats obtenus par les élèves des programmes d'immersion en français qui ont subi le test en français sont inclus dans les résultats du système anglophone puisque ces élèves sont considérés comme faisant partie de la cohorte anglophone. (Il est recommandé d'être prudent au moment de comparer le rendement en fonction d'instruments d'évaluation préparés dans deux langues différentes. En dépit des efforts importants mis en œuvre afin de garantir un test équivalent dans les deux langues, chaque langue a ses caractéristiques uniques qui rendent les comparaisons difficiles.)
  • Les résultats obtenus sont présentés pour les domaines principaux sur une échelle globale (représentant le rendement global des élèves à toutes les questions de l'évaluation dans ce domaine) ainsi que pour les sous-domaines formant chaque échelle globale. Comme un moins grand nombre d'éléments sont évalués dans le contexte des domaines mineurs, seuls les résultats globaux sont disponibles.
  • Lorsque les scores obtenus par diverses populations sont destinés à des comparaisons entre années et entre versions d'un même test, il devient essentiel d'élaborer une façon commune de présenter les scores obtenus qui permettra de faire directement des comparaisons entre les populations et entre les tests. La méthode commune utilisée consistait à faire une conversion numérique des scores bruts en « scores d'échelle standard ». Dans le cas du PPCE de 2010, les scores bruts ont été convertis à une échelle sur laquelle la moyenne de la population canadienne était établie à 500, avec  un écart-type de 100. À partir de cette conversion, les scores de deux tiers de tous les élèves participants se sont trouvés dans l'intervalle de 400 à 600 points, ce qui représente une « distribution statistiquement normale » des scores.
  • Les résultats à l'évaluation du PPCE dans un domaine principal d'études peuvent être également présentés selon la proportion des élèves qui obtiennent les différents niveaux de performance. Les niveaux de rendement représentent les résultats des élèves en fonction du niveau cognitif et du degré de difficulté des items. Le niveau cognitif est défini par le niveau de raisonnement auquel l'élève devra avoir recours pour répondre correctement à un item, d'une exigence élevée à une exigence faible. Le degré de difficulté est déterminé de manière statistique, selon le rendement collectif des élèves à l'évaluation. Le volet sur les mathématiques du PPCE 2010 comporte quatre niveaux de rendement :

    • Niveau 4 (les scores sont supérieurs à 668)

    • Niveau 3 (les scores se situent entre 514 et 668)

    • Niveau 2 (les scores se situent entre 358 et 513)

    • Niveau 1 (les scores sont inférieurs à 358).

  • Selon les attentes, les élèves de 8e année doivent faire preuve d'un rendement de niveau 2. Le niveau 1 représente le rendement des élèves dont le niveau est inférieur aux attentes pour leur année d'études. Les niveaux 3 et 4 sont des niveaux de rendement supérieurs. Les attentes en matière de rendement ont été établies par un groupe de spécialistes des milieux de l'éducation et de l'évaluation provenant de l'ensemble du Canada. Les réponses réelles des élèves au test ont confirmé qu'elles étaient raisonnables.
  • Lorsque l'on compare les scores entre les provinces et territoires ou  les sous-groupes de population, il est important de considérer les différences statistiquement significatives. On s'appuie sur l'erreur-type et les intervalles de confiance pour procéder à ces tests statistiques de comparaison. L'erreur-type exprime le degré d'incertitude associé à l'erreur d'échantillonnage et à l'erreur de mesure. On peut se servir de l'erreur-type pour produire un intervalle de confiance. L'intervalle de confiance représente la fourchette dans laquelle la note de la population est susceptible de se retrouver avec une probabilité de 95 %.  Il est calculé comme une fourchette de plus ou moins deux erreurs-type autour du score moyen.  La différence entre les scores moyens est statistiquement significative quand les intervalles de confiance ne se chevauchent pas.
  • Cet indicateur compare la performance des étudiants à l'évaluation du PPCE 2010 avec celle de la première évaluation principale de ce domaine en 2007. Il n'est pas possible d'inclure dans ces comparaisons les résultats des évaluations d'un domaine secondaire avant qu'il n'ait fait l'objet de l'évaluation en tant que domaine principal, la raison étant que le cadre conceptuel du domaine n'est pas pleinement développé tant qu'il ne fait pas l'objet d'une évaluation en tant que domaine principal. C'est pourquoi les résultats de l'évaluation d'un domaine secondaire observés lors des années antérieures ne sont pas comparables.
  • Les résultats de 2007 peuvent être comparés avec ceux de l'évaluation de 2010 mais ne peuvent pas être comparés directement avec les résultats originaux de 2007. La raison en est que les scores de 2007 utilisés pour les comparaisons ont été rééchelonnés sur l'échelle de 2010, en utilisant les items communs (appelés « des items d'ancrage ») qui relient  les deux tests en lecture (2007 et 2010). En outre, les scores de 2007 sont fondés uniquement sur le rendement des élèves de 8e année qui ont participé au test et non sur la population entière des élèves qui avaient 13 ans en 2007. En 2010, il est possible que les élèves de 8e année n'aient pas tous le même âge.
  • En plus de l'évaluation des connaissances et compétences des élèves en mathématiques, lecture et sciences, le PPCE administre également un questionnaire contextuel aux élèves, enseignants et écoles.

Limites

  • L'examen du rendement relatif de divers groupes d'élèves à l'égard d'évaluations identiques ou similaires, pour différentes périodes, permet de déterminer si le niveau de rendement change. Cependant, de toute évidence, les résultats d'une seule évaluation ne peuvent servir à évaluer un système scolaire, de nombreux facteurs se combinant pour produire les résultats moyens indiqués ici. Il s'agit toutefois d'un des indicateurs du rendement global.
  • Comme les données ne sont disponibles que pour deux périodes seulement, il est impossible d'évaluer dans quelle mesure les différences observées sont valables pour de plus longues périodes.
  • La signification statistique est déterminée à l'aide de formules mathématiques et dépend de facteurs tels que l'échantillonnage. Que la différence entre les résultats ait une signification en éducation est une question d'interprétation. Il est par exemple possible qu'une différence statistiquement significative soit très petite et n'ait que peu de signification. Il y a également des situations où une différence perçue comme ayant une signification en éducation n'a en fait aucune signification statistique.

Source des données

  • Programme pancanadien d'évaluation, PPCE de 2010: Rapport de l'évaluation pancanadienne en mathématiques, en sciences et en lecture, Conseil des ministres de l'Éducation (Canada) [CMEC], 2011.

Note

Au Québec le secondaire II est l'équivalent de la  8e année.

C5 Les technologies de l'information et des communications (TIC)

Tableaux C.5.1, C.5.6, C.5.7 et C.5.8

Cet indicateur C5 présente des données sur la disponibilité d'ordinateurs et de logiciels dans les écoles (tableaux C.5.1 et C.5.6), l'utilisation des ordinateurs par les élèves à l'école (tableau C.5.7), et la confiance qu'ont les élèves lorsqu'ils exécutent des tâches associées aux technologies de l'information (tableau C.5.8). Les données présentées sur le Canada, les provinces, et certains pays membres de l'Organisation de coopération et de développement économiques (OCDE) sont tirées du Programme international pour le suivi des acquis des élèves (PISA) 2009 de l'OCDE.

Concepts et définitions

  • Les renseignements pour cet indicateur sont tirés du Programme international pour le suivi des acquis des élèves (PISA) 2009, qui vise à déterminer dans quelle mesure les jeunes de 15 ans ont acquis certaines des connaissances et compétences essentielles à une pleine participation à la société moderne et qui fait la lumière sur une gamme de facteurs qui contribuent à la réussite des élèves, des écoles et des systèmes d'enseignement. L'information sur la disponibilité des ordinateurs et des logiciels dans les écoles provient du questionnaire contextuel de l'école dans le cadre du Programme international pour le suivi des acquis des élèves (PISA) dans lequel les directeurs ont fourni de l'information sur la disponibilité d'ordinateurs dans leur école et ont indiqué si une pénurie d'ordinateurs était un obstacle à l'enseignement dans leur école. L'information sur l'utilisation des ordinateurs par les élèves à l'école et l'auto-évaluation de leur confiance dans l'exécution de tâches associées aux technologies de l'information a été obtenue du questionnaire facultatif sur les technologies de l'information faisant partie du questionnaire contextuel de l'élève.
  • Le nombre d'ordinateurs par élève est souvent utilisé comme une approximation renvoyant à la technologie mise à la disposition des élèves. Il désigne le nombre total d'ordinateurs accessibles à des fins éducatives aux élèves dans les écoles, selon l'année modale du pays pour les élèves de 15 ans (10e année ou l'équivalent au Canada), divisé par le nombre total d'élèves dans l'année modale.
  • La pénurie ou l'inadéquation signalée en matière d'ordinateurs ou de logiciels a été explorée dans le questionnaire contextuel de l'école du PISA 2009 selon un autre angle pour analyser l'accès des élèves aux ressources de TIC. Sur le questionnaire de l'école du PISA, la directrice ou le directeur a indiqué si une pénurie ou une inadéquation d'ordinateurs ou de logiciels a nui à l'enseignement que l'école est à même de dispenser en classe. On juge qu'il y a pénurie ou inadéquation d'ordinateurs ou de logiciels lorsque la direction de l'école a répondu que la situation nuit « dans une certaine mesure » ou « beaucoup » à l'enseignement. La perception qu'ont les directrices et directeurs d'école d'une pénurie est subjective et doit être interprétée avec prudence. En effet, les facteurs culturels, les attentes et les pratiques pédagogiques peuvent influer sur la gravité de cette pénurie aux yeux des directrices et directeurs. Ces derniers peuvent faire état d'un problème de pénurie ou d'inadéquation parce qu'ils ont de plus grandes aspirations dans le domaine de l'utilisation de l'informatique à des fins pédagogiques et non parce qu'ils disposent de moins ordinateurs à usage pédagogique.
  • L'Indice de confiance en soi dans l'exécution de tâches de haut niveau associées aux technologies de l'information et des communications a été créé pour faire le point sur le degré de confiance qu'ont les élèves dans l'exécution de certaines tâches informatiques. Cet indice est un résultat combiné, basé sur les indications des élèves, du degré selon lequel ils sont capables d'exécuter les cinq types de tâches techniques suivants : retoucher des photographies numériques ou d'autres images graphiques; créer une base de données; utiliser un chiffrier pour tracer un graphique; créer une présentation; créer une présentation multimédia. Pour chaque tâche, il y avait quatre réponses possibles : je sais très bien le faire tout seul; je sais le faire avec l'aide de quelqu'un; je sais de quoi il s'agit mais je ne sais pas le faire; je ne sais pas de quoi il s'agit. Cet indice est normalisé de sorte que la valeur de l'élève moyen de l'OCDE est égale à 0 et que la valeur de deux tiers environ de l'effectif d'élèves de l'OCDE est comprise entre -1 et 1. Un résultat négatif à cet indice révèle un niveau de confiance en soi inférieur à la moyenne calculée pour les élèves de tous les pays de l'OCDE. Le jugement subjectif des élèves lié à leur capacité de réaliser les tâches concernées peut varier selon les secteurs de compétence. Chaque indice est indépendant, c'est-à-dire que le résultat d'un secteur de compétence pour un indice donné ne peut pas être directement comparé avec son résultat pour un autre secteur.
  • L'Indice d'utilisation de l'ordinateur à l'école vise à donner une idée de la fréquence avec laquelle les élèves s'adonnent, à l'école, à divers types d'activités liées aux technologies de l'information et des communications (TIC). Il s'agit d'un score composite déterminé à la lumière des réponses des élèves à une question leur demandant à quelle fréquence ils s'adonnent aux neuf activités suivantes : clavarder en ligne; utiliser le courrier électronique; naviguer sur Internet pour un travail d'école; télécharger, consulter des documents sur le site Web de l'école ou y déposer des fichiers; afficher des travaux sur le site Web de l'école; jouer avec des logiciels de simulation; faire des exercices (par exemple, pour un cours de langue ou de mathématiques); faire des devoirs sur un ordinateur; et utiliser des ordinateurs pour un travail de groupe ou pour communiquer avec d'autres élèves. Pour chacune des activités il y avait quatre réponses possibles: Jamais ou presque jamais; Une ou deux fois par mois; Une ou deux fois par semaine; Tous les jours ou presque. Cet indice est normalisé de sorte que la valeur de l'élève moyen de l'OCDE est égale à 0 et que la valeur de deux tiers environ de l'effectif d'élèves de l'OCDE est comprise entre -1 et 1. Si la valeur d'indice est positive, la fréquence d'utilisation de l'informatique est supérieure à la moyenne. Chaque indice est indépendant; ainsi, le résultat d'une instance à un indice ne peut être directement comparé à celui d'un autre indice.
  • L'année modale du pays pour les élèves de 15 ans s'agit de l'année fréquentée par la majorité des élèves de 15 ans dans le pays ou l'économie participant. Au Canada, la majorité des élèves de 15 ans est en 10e année (ou l'équivalent).
  • Le statut socioéconomique des élèves est mesuré par l'indice de statut économique, social et culturel du PISA (SESC). Il est important d'insister sur le fait que cet indicateur présente l'information reliée au statut socio-économique de l'élève et non celui de l'école qu'il fréquente.
  • L'indice de statut économique, social et culturel (SESC) du PISAfournit une mesure du statut socioéconomique des élèves. Cet indice a été créé en fonction des renseignements fournis par un échantillon représentatif d'élèves de 15 ans qui ont rempli le questionnaire de base du PISA. Les réponses à ce questionnaire de 30 minutes permettaient d'obtenir de l'information sur l'environnement de ces élèves, notamment sur leurs antécédents scolaires, leur situation familiale et à la maison, leurs activités de lecture et les caractéristiques de leur école. L'indice a été dérivé des variables suivantes : l'indice socioéconomique international de la situation au niveau de la profession du père ou de la mère (celle qui est la plus élevée); le niveau d'études du père ou de la mère (celui qui est le plus élevé) converti en années d'études; et l'indice sur les biens possédés à la maison, qui a été obtenu en demandant aux élèves s'ils avaient un bureau pour étudier à la maison, leur propre chambre, un endroit calme où étudier, un ordinateur qu'ils peuvent utiliser pour leurs travaux scolaires, des logiciels éducatifs, une connexion Internet, leur propre calculatrice, des livres de littérature classique, des livres de poésie, des œuvres d'art (p. ex., des peintures), des livres pour les aider avec leur travail scolaire, un dictionnaire, un lave-vaisselle, un lecteur de DVD ainsi que trois autres objets spécifiques à chaque pays, et leur demandant combien de téléphones cellulaires, de télévisions, d'ordinateurs, de voitures et des salles de bain à la maison. La raison pour laquelle ces variables ont été retenues était la suivante : les antécédents socioéconomiques sont généralement perçus comme étant déterminés par la situation sur le plan de la profession, l'éducation et la richesse. Comme PISA ne disposait pas de mesures directes du revenu ou de la richesse des parents, ces renseignements sur l'accès à des objets de maison ont été utilisés pour les remplacer dans la mesure où les élèves savaient s'ils avaient ou non ces objets à la maison. Ces questions ont été sélectionnées pour élaborer les indices en se basant sur des considérations théoriques et des recherches antérieures. Une modélisation d'équations structurelles a été utilisée pour valider les indices.

    Les plus grandes valeurs de l'indice SESC représentent des antécédents sociaux plus avantageux, alors que des valeurs plus petites représentent des antécédents sociaux moins avantageux. Une valeur négative indique que le statut socioéconomique est inférieur à celui de la moyenne des pays de l'OCDE. L'indice est divisé en quartiles, en se basant sur les valeurs des élèves relativement à l'indice SESC. En conséquence, les élèves se situant dans le quartile inférieur sont ceux qui se situent dans le quartile le plus bas des élèves selon l'indice SESC, et ceux se situant dans le quartile supérieur sont ceux qui se situent dans le quartile le plus haut des élèves en se basant sur l'indice SESC.

Méthodologie

  • La population cible du PISA 2009 comprenait les personnes âgées de 15 ans qui fréquentaient l'école dans une des 10 provinces du Canada. Les territoires avaient choisi de ne pas participer. Les élèves des écoles situées dans des réserves indiennes étaient exclus, de même que ceux des écoles pour élèves ayant de graves troubles d'apprentissage et des écoles pour malvoyants et malentendants, ainsi que les élèves qui étudiaient à domicile.
  • En 2009, le PISA a été mis en œuvre dans 65 pays et économies, incluant le Canada ainsi que tous les autres pays membres de l'OCDE. Entre 5 000 et 10 000 personnes âgées de 15 ans et provenant d'au moins 150 écoles ont participé au PISA dans la plupart des pays. Au Canada, près de 23 000 élèves fréquentant environ 1 000 écoles des dix provinces y ont pris part. Cet important échantillon canadien était nécessaire afin de produire des estimations fiables pour chaque province.
  • L'information pour cet indicateur a été obtenue de certaines réponses à trois questionnaires contextuels administrés dans le cadre de l'évaluation principale de PISA : un questionnaire donnant de l'information sur les élèves et leur maisons ; un questionnaire sur la familiarité des élèves avec les technologies de l'information ; et un questionnaire visant les directeurs d'école. Le cadre conceptuel tenant lieu de base aux questionnaires ainsi que les questionnaires eux-mêmes se retrouvent dans Le cadre d'évaluation de PISA 2009 : Les compétences clés en compréhension de l'écrit, en mathématiques et en sciences (OCDE 2010), disponible à www.ocde.org.
  • Tous les pays membres de l'OCDE ont participé à l'évaluation principale du PISA en 2009 (qui comprenait les questionnaires de base sur les élèves et sur l'école, une source de données principale pour cet indicateur), et 29 pays membres ont choisi de faire remplir le questionnaire facultatif sur les technologies de l'information et de la communication (TIC). Cet indicateur présente l'information pour un sous-ensemble de ces pays participants, à savoir, les pays du G8 (le Canada, la France, l'Allemagne, l'Italie, le Japon, la Fédération de Russie, le Royaume-Uni, et les  États-Unis) et neuf pays de l'OCDE sélectionnés pour leur comparabilité au Canada sur le plan social et économique et qui présentaient donc un intérêt tout particulier pour la comparaison. Ces neuf pays sont : l'Australie, le Danemark, la Finlande, l'Irlande, la Corée, la Nouvelle-Zélande, la Norvège, la Suède, et la Suisse.
  • Les statistiques prises en compte dans l'indicateur sont des estimations basées sur des échantillons d'élèves et non des valeurs obtenues à partir de l'ensemble des élèves dans chacun des pays. Cette distinction est importante, car on ne peut affirmer avec certitude qu'une estimation à partir d'un échantillon a la même valeur que les paramètres de population qu'on aurait obtenus si tous les élèves de 15 ans avaient été évalués. Par conséquent, il importe de mesurer le degré d'incertitude des estimations. Dans le cadre du PISA, à chaque estimation est associé un degré d'incertitude, exprimé dans l'erreur type. L'erreur type peut à son tour servir à déterminer un intervalle de confiance autour de l'estimation (calculé comme suit : estimation +/- 1,96 x erreur type), ce qui permet d'apporter des inférences aux paramètres de population, reflétant ainsi l'incertitude associée aux estimations basées sur un échantillon. En utilisant cet intervalle de confiance, on peut inférer que la moyenne ou la proportion de la population sera comprise dans l'intervalle de confiance dans 95 répétitions sur 100 de la mesure, effectuées sur des échantillons aléatoires différents prélevés à partir de la même population.
  • Lorsque l'on compare les scores entre les pays, les provinces ou les sous-groupes de population, il faut tenir compte du degré d'erreur de chaque moyenne afin de déterminer si les moyennes de populations réelles diffèrent vraisemblablement les unes des autres. On peut s'appuyer sur les erreurs-types et les intervalles de confiance pour procéder à ces tests statistiques de comparaison. La différence est statistiquement significative si les intervalles de confiance ne se chevauchent pas.

    Dans le tableau C.5.6, l'importance statistique des différences dans le pourcentage d'élèves dont les directeurs ont signalé une pénurie ou inadéquation en matière d'ordinateurs ou de logiciels entre le quartile supérieur et le quartile inférieur de l'indice PISA du statut économique, social et culturel a été analysée au Centre de la statistique de l'éducation de Statistique Canada. La méthode d'analyse consistait à calculer les intervalles de confiance entourant le pourcentage d'élèves dont les directeurs avaient signalé des inadéquations en matière d'ordinateurs ou de logiciels à la fois au quartile supérieur et au quartile inférieur de l'indice. Si ces intervalles de confiance ne se chevauchaient pas, la différence était alors considérée comme statistiquement significative à un niveau de confiance de 95 %.

Limites

  • Quelques données présentées auparavant à l'indicateur C5 du Programme d'indicateurs pancanadiens de l'éducation (PIPCE) ne sont pas disponibles dans le cadre du PISA 2009, puisque certaines questions n'étaient pas reprises ou que l'information n'est pas comparable avec celle des itérations passées de l'évaluation du PISA.
  • Les questionnaires de base du PISA portant sur les TIC ne visent pas à évaluer la qualité de l'utilisation des TIC à l'école, ni le degré d'intégration des TIC dans les pratiques pédagogiques ou leurs effets sur les aptitudes cognitives des élèves.
  • Les territoires avaient choisi de ne pas participer.

Source des données

  • Statistique Canada, Programme international pour le suivi des acquis des élèves (PISA), base de données de 2009; Organisation de coopération et de développement économiques (OCDE), base de données du PISA de 2009.
Date de modification :