Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (90)

Tout (90) (25 of 90 results)

  • Articles et rapports : 11F0019M2004219
    Description :

    Dans cette étude, on examine les tendances de l'inégalité du revenu familial durant les années 1980 et 1990, en accordant une attention particulière à la période de reprise économique des années 1990.

    Date de diffusion : 2004-12-16

  • Index et guides : 92-395-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour le recensement de 2001. Il fournit un historique de l'application de ces méthodes aux recensements du Canada ainsi que les fondements opérationnels et théoriques de ces méthodes, et présente les resultats des études d'évaluation.

    Date de diffusion : 2004-12-15

  • Index et guides : 92-394-X
    Description :

    Ce rapport décrit les erreurs de couverture qui se sont produites lorsque des personnes, des ménages, des logements ou des familles ont été oubliés ou dénombrés par erreur lors du recensement. Plusieurs études ont été réalisées après le recensement de 2001 en vue de produire des estimations du sous-dénombrement et du surdénombrement brut, de même que du sous-dénombrement net. Ce rapport présente les résultats de l'Étude sur la classification des logements, de l'Étude de la contre-vérification des dossiers, de l'Étude par appariement automatisé et de l'Étude sur les logements collectifs. On y décrit l'univers du recensement, l'erreur de couverture et les procédures de collecte et de traitement du recensement pouvant entraîner une erreur de couverture, puis on donne des estimations du sous-dénombrement net selon certaines caractéristiques démographiques. Le rapport technique présente ensuite les méthodes et les résultats de chacune des études de couverture, de même que les estimations d'erreur de couverture après qu'on ait décrit la manière dont les diverses études ont été combinées. Enfin, un aperçu chronologique met une touche finale au rapport.

    Date de diffusion : 2004-11-25

  • Articles et rapports : 13-604-M2004045
    Description :

    Quelle est la « qualité » des Indicateurs nationaux du tourisme (INT)? Comment peut-elle être mesurée? Cette étude vise à répondre à ces questions grâce à une analyse des révisions des estimations des INT de 1997 à 2001.

    Date de diffusion : 2004-10-25

  • Tableau : 53-500-X
    Description :

    Dans ce rapport, on présente les résultats d'une enquête pilote menée par Statistique Canada pour mesurer la consommation de carburant des véhicules sur route immatriculés au Canada. Cette étude a été réalisée au moyen de l'Enquête sur les véhicules au Canada (EVC), qui permet de recueillir des données sur les activités routières tels que les distances parcourues, le nombre de passagers et la raison de chaque déplacement.

    Date de diffusion : 2004-10-21

  • Enquêtes et programmes statistiques — Documentation : 31-533-X
    Description :

    Commençant avec le mois de référence août 2004, l'Enquête mensuelle sur les industries manufacturières (EMIM) utilise des données administratives (fichiers de la taxe sur les produits et services) pour l'estimation des livraisons manufacturières pour une portion de petits établissements de l'échantillon. Ce document a été publié pour servir de complément à la diffusion des données de l'EMIM pour ce mois.

    Date de diffusion : 2004-10-15

  • Produits techniques : 12-002-X20040027035
    Description :

    Lors du traitement des données du cycle 4 de l'Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ), des révisions historiques ont été apportées au trois premiers cycles de l'enquête afin de corriger des erreurs et faire une mise à jour des données. Au cours du traitement, une attention particulière a été portée à la variable PERSRUK (l'identificateur au niveau de la personne) et à la variable FIELDRUK (l'identificateur au niveau du ménage). Le même niveau d'attention n'a pas été accordé aux autres identificateurs incluent dans la base de données, soit, la variable CHILDID (un identificateur au niveau de l'enfant) et la variable _IDHD01 (un identificateur au niveau du ménage). Ces identificateurs ont été créés pour les fichiers publics et ils se retrouvent par défaut dans les fichiers maîtres. Lorsque les fichiers maîtres sont utilisés, la variable PERSRUK devrait être utilisée pour lier les différents fichiers de données de l'enquête entre eux et la variable FIELDRUK pour déterminer le ménage.

    Date de diffusion : 2004-10-05

  • Produits techniques : 12-002-X20040027034
    Description :

    L'utilisation des fichiers de commandes dans Stat/Transfer permet d'accélérer le transfert de plusieurs ensembles de données, de manière efficace et reproductible. Dans cette note, on décrit une méthode simple, étape par étape, pour créer des fichiers de commandes et on présente également un exemple de code.

    Date de diffusion : 2004-10-05

  • Produits techniques : 12-002-X20040027032
    Description :

    Dans cet article, on examine pourquoi un grand nombre d'enquêtes de Statistique Canada fournissent des poids bootstrap avec leurs microdonnées pour faciliter l'estimation de la variance fondée sur le plan de sondage. Les poids bootstrap ne fonctionnent pas sous les logiciels commerciaux comme SUDAAN et Wes Var. Cependant, il existe des façons d'utiliser ces applications pour produire des estimations de la variation bootstrap.

    On conclut cet article en donnant un bref aperçu des autres méthodes d'estimation de la variance ainsi que les logiciels, les programmes et les procédures dans lesquels ces méthodes sont employées.

    Date de diffusion : 2004-10-05

  • Produits techniques : 21-601-M2004072
    Description :

    L'Indice des prix des produits agricoles (IPPA) est une série mensuelle qui mesure la variation des prix que reçoivent les agriculteurs pour les produits agricoles qu'ils produisent et qu'ils vendent.

    L'IPPA a cessé de paraître en mars 1995; il a été relancé en avril 2001 en raison de la demande constante d'un indice des prix que reçoivent les agriculteurs.

    Date de diffusion : 2004-09-28

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2004001
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2002. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2004-09-15

  • Produits techniques : 11-522-X2002001
    Description :

    Depuis 1984, un série de conférences annuelles a été parrainé par Statistique Canada. Le recueil de la conférence est disponible depuis 1987.

    Le Symposium 2002 a été le dix-neuvième d'une série de colloques internationaux organisés par Statistique Canada sur des questions de méthodologie. Chaque année le symposium traite d'un thème particulier. Celui de 2002 était : « Modélisation des données d'enquête pour la recherche économique et sociale ».

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016726
    Description :

    Bien que les pays en voie de développement soient de plus en plus disposés à avoir recours à des subventions pour répondre aux besoins en matière d'éducation, l'effet de ces programmes reste à déterminer. Les évaluations à long terme dans ce domaine d'activité sont rares. Dans cet article, on examine l'effet à long terme du programme PACES de la Colombie, lequel a fourni à plus de 125 000 élèves de quartiers pauvres des chèques dont le montant couvrait la moitié du coût des études secondaires en établissement privé.

    Le programme PACES offre une occasion inhabituelle d'évaluer l'effet du financement de la demande de services d'éducation dans un pays d'Amérique latine où les écoles privées forment une part importante des élèves. Ce programme présente un intérêt particulier, car plusieurs chèques ont été attribués par tirage au sort, de sorte que l'on peut évaluer de façon fiable les effets du programme.

    Dans cet article, on se sert de dossiers administratifs pour évaluer l'effet à long terme des chèques du programme PACES sur l'obtention d'un diplôme d'études secondaires et le rendement scolaire. Le principal avantage des dossiers administratifs tient au fait qu'il n'y a aucune perte due à l'érosion et que les données administratives reviennent nettement moins cher qu'un effort d'enquête coûteux et dangereux. En revanche, les numéros d'identification individuels pourraient être inexacts, compliquant ainsi le couplage des enregistrements, et le biais de sélection contamine l'échantillon d'élèves qui passent l'examen. On discute d'autres approches pour résoudre ces problèmes. Les résultats provisoires indiquent que le programme a fait augmenter les taux d'achèvement des études secondaires et que les notes d'examens d'entrée au collège sont plus élevées pour les élèves qui ont gagné au tirage au sort que pour ceux qui ont perdu.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016719
    Description :

    Dans cette étude, on examine les méthodes de modélisation utilisées pour les données sur la santé publique. Les spécialistes de la santé publique manifestent un regain d'intérêt pour l'étude des effets de l'environnement sur la santé. Idéalement, les études écologiques ou contextuelles explorent ces liens au moyen de données sur la santé publique étoffées de données sur les caractéristiques environnementales à l'aide de modèles multiniveaux ou hiérarchiques. Dans ces modèles, le premier niveau correspond aux données des personnes sur la santé et le deuxième, aux données des collectivités. La plupart des données sur la santé publique proviennent d'enquêtes à plan d'échantillonnage complexe qui obligent, lors de l'analyse, à tenir compte de la mise en grappes, de la non-réponse et de la post-stratification pour obtenir des estimations représentatives de la prévalence des comportements posant un risque pour la santé.

    Cette étude est basée sur le Behavioral Risk Factor Surveillance System (BRFSS). Il s'agit d'un système américain de surveillance des facteurs de risque pour la santé selon l'État exploité par les Centers for Disease Control and Prevention en vue d'évaluer chaque année les facteurs de risque pour la santé chez plus de 200 000 adultes. Les données du BRFSS sont maintenant produites à l'échelle de la région métropolitaine statistique (MSA pour metropolitan statistical area) et fournissent des données de qualité sur la santé pour les études des effets de l'environnement. Les exigences conjuguées du plan d'échantillonnage et des analyses à plusieurs niveaux compliquent encore davantage les analyses à l'échelle de la MSA combinant les données sur la santé et sur l'environnement.

    On compare trois méthodes de modélisation dans le cadre d'une étude sur l'activité physique et certains facteurs environnementaux à l'aide de données du BRFSS de 2000. Chaque méthode décrite ici est un moyen valide d'analyser des données d'enquête à plan d'échantillonnage complexe complétées de données environnementales, quoique chacune tienne compte de façon différente du plan d'échantillonnage et de la structure multiniveau des données. Ces méthodes conviennent donc à l'étude de questions légèrement différentes.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016731
    Description :

    En recherche behavioriste, diverses techniques sont utilisées pour prédire les scores des répondants pour des facteurs ou des concepts que l'on ne peut observer directement. La satisfaction concernant l'emploi, le stress au travail, l'aptitude à poursuivre des études de deuxième ou de troisième cycle et les aptitudes mathématiques des enfants en sont des exemples. Les méthodes utilisées couramment pour modéliser ce genre de concepts incluent l'analyse factorielle, la modélisation d'équation structurelle, les échelles psychométriques classiques et la théorie de la réponse à l'item, et, pour chaque méthode, il existe souvent plusieurs stratégies distinctes permettant de produire des scores individuels. Cependant, les chercheurs se satisfont rarement de simples mesures de ces concepts. Souvent, ils utilisent des scores dérivés en tant que variables dépendantes ou indépendantes dans la régression multiple, l'analyse de la variance et de nombreuses autres procédures multivariées. Bien que ces applications de scores dérivés puissent produire des estimations biaisées des paramètres des modèles structuraux, ces difficultés sont mal comprises et souvent ignorées. Nous passerons en revue les publications qui traitent de la question, en mettant l'accent sur les méthodes de la TRI, en vue de déterminer quels sont les domaines problématiques et de formuler des questions à étudier dans l'avenir.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016740
    Description :

    En tenant compte de l'effet des différences entre les populations d'élèves, on examine, dans cette étude, la contribution des écoles aux différences interprovinciales de rendement des élèves de 15 ans en lecture, en mathématiques et en sciences. Grâce à l'utilisation d'une méthode semi-paramétrique de décomposition élaborée par DiNardo, Fortin et Lemieux (1996) pour les différences de distribution, on constate que les différences entre les écoles contribuent aux différences interprovinciales à divers endroits de la distribution du rendement et que l'effet varie selon la province et le type de compétences, et ce, même à l'intérieur d'une province. Par exemple, les différences entre les écoles représentent environ 32 % de la différence entre les rendements moyens en lecture observés pour le Nouveau-Brunswick et pour l'Alberta, mais elles réduisent l'écart entre les proportions d'élèves dont le rendement correspond au niveau le plus faible de compétences en lecture. En revanche, les différences entre les écoles représentent 94 % de l'écart entre le Nouveau- Brunswick et l'Alberta pour le 10e centile de la distribution des rendements en sciences. Les résultats révèlent que les études sur l'efficacité des écoles axées sur le premier moment de la distribution des rendements ne décèlent pas certains effets éventuellement importants pour des élèves particuliers.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016752
    Description :

    Discours d'ouverture

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016741
    Description :

    La linéarisation et le jackknife sont des méthodes fort répandues d'estimations des erreurs types des coefficients des modèles de régression linéaire ajustés à des échantillons à plusieurs degrés. Si le nombre d'unités primaires d'échantillonnage (UPE) est faible ou que quelques UPE ont un effet de levier important, les estimateurs par linéarisation peuvent présenter un biais négatif important et le jackknife de façon correspondante, un biais positif important. On décrit également les facteurs du plan de sondage qui produisent des biais importants dans ces estimateurs de l'erreur type. Dans cette étude, on propose un estimateur de rechange, appelé estimateur par linéarisation à biais réduit (LBR), inspiré des erreurs résiduelles corrigées pour mieux adoucir la covariance des erreurs vraies.

    Si les erreurs sont indépendantes et identiquement distribuées (iid), l'estimateur LDR est non biaisé. La méthode LDR s'applique à des échantillons stratifiés dont les poids de sélection ne sont pas constants et à des modèles linéaires généralisés tels que la régression logistique. On examine aussi les estimateurs LBR de l'erreur type pour les modèles à équation d'estimation généralisée qui modèlent explicitement l'interdépendance des observations faites sur la même UPE dans les données provenant de plans d'échantillonnage complexes. Les résultats d'une étude en simulation montrent que les erreurs types calculées par LBR combinées à l'approximation de Satterthwaite pour déterminer la distribution de référence produisent des tests avec des taux d'erreur de première espèce (type I) proches des valeurs nominales. On compare cette méthode à d'autres proposées par Kott (1994 et 1996) et par Mancl et DeRouen (2001).

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016712
    Description :

    Dans cet article, on considère l'effet de la censure par intervalle du moment du renoncement sur l'estimation des paramètres d'intensité en ce qui concerne le renoncement au tabac et la grossesse. Les données recueillies lors des trois cycles de l'Enquête nationale sur la santé de la population permettent d'appliquer les méthodes d'analyse de la chronologie des événements à l'étude du commencement de l'usage du tabac, du renoncement au tabac et de la rechute. L'une des questions étudiées est la relation entre le renoncement au tabac et la grossesse. Si une répondante longitudinale qui fumait lors du premier cycle a cessé de fumer lors du deuxième, on connaît le moment du renoncement au tabac à plus ou moins un an près, puisqu'on demande à la répondante l'âge auquel elle a cessé de fumer et qu'on connaît sa date de naissance. On sait également si elle était enceinte au moment du deuxième cycle et si elle a donné naissance depuis l'interview du premier cycle. Pour de nombreux sujets, on connaît la date de conception à un intervalle de temps près assez faible. Si l'on connaissait exactement le moment du renoncement au tabac et la période de la grossesse pour chaque membre du panel longitudinal qui a vécu l'un ou l'autre de ces événements entre deux cycles, on pourrait modéliser leur lien temporel d'après leurs intensités.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016737
    Description :

    Même si l'ensemble de données disponibles pour l'apprentissage automatique résulte d'un échantillonnage en grappes (par exemple les patients d'un échantillon de salles d'hôpital), l'estimation habituelle du taux d'erreur par validation croisée peut donner des résultats biaisés et trompeurs. Dans cet article technique, on décrit une validation croisée adaptée à ce cas. Par simulation, on compare la distribution d'échantillonnage de l'estimation du taux d'erreur en généralisation, sous l'hypothèse d'échantillonnage en grappes ou d'échantillonnage aléatoire simple, à la valeur réelle. Les résultats soulignent l'influence du plan d'échantillonnage sur l'inférence : l'effet de la mise en grappes est manifestement significatif; la répartition entre l'ensemble d'apprentissage et l'ensemble de test devrait résulter d'une partition aléatoire des grappes et non d'une partition aléatoire des exemples. Dans le cas de l'échantillonnage en grappes, la validation croisée type sous-estime le taux d'erreur en généralisation et ne donne pas de bons résultats pour la sélection du modèle. Ces résultats sont illustrés au moyen d'une application réelle de reconnaissance automatique de la parole.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016722
    Description :

    Le cancer du côlon et du rectum (CCR) est la deuxième cause de décès par cancer au Canada. Des essais randomisés avec témoins ont montré l'efficacité du dépistage par recherche du sang occulte dans les selles. Toutefois, il est nécessaire de procéder à une évaluation complète des coûts et des conséquences du dépistage du CCR pour la population canadienne avant de mettre en oeuvre un tel programme. Dans le cadre de cet article, on évalue la rentabilité du dépistage du CCR. Les résultats de ces simulations seront transmis au Comité national sur le dépistage du cancer colorectal du Canada en vue de faciliter la formulation de recommandations quant à la politique nationale à adopter.

    Le modèle de microsimulation de la santé de la population de Statistique Canada a été mis à jour afin d'y intégrer un module complet de dépistage du CCR fondé sur des données canadiennes et les résultats d'évaluation de l'efficacité du dépistage des essais randomisés avec témoins. Le module englobe des données sur la sensibilité et sur la spécificité de la recherche du sang occulte dans les selles et de la coloscopie, les taux de participation, l'incidence, la classification par stade, les options diagnostiques et thérapeutiques, l'évolution de la maladie, la mortalité et les coûts directs en services de santé pour divers scénarios de dépistage. Fait à noter, la reproduction de la réduction de la mortalité observée au moment de l'essai de dépistage de Funen a permis de valider ce modèle.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016745
    Description :

    L'attrait du plan expérimental de discontinuité de la régression tient à sa grande similarité avec un plan expérimental normal. Cependant, son applicabilité est limitée, puisqu'il n'est pas très fréquent que les unités soient affectées au groupe subissant le traitement d'après une mesure observable (par l'analyste) avant le programme. En outre, il permet uniquement de déterminer l'effet moyen sur une sous population très spécifique. Dans cet article, on montre que le plan expérimental de discontinuité de la régression peut être généralisé facilement aux cas où l'admissibilité des unités est établie d'après une mesure observable avant le programme et où est permise l'autosélection libre des unités admissibles dans le programme. Ces conditions s'avèrent aussi fort pratiques pour la construction d'un test de spécification sur des estimateurs non expérimentaux conventionnels de l'effet moyen du programme. On décrit explicitement les exigences concernant les données.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016746
    Description :

    En 1961, la Commission européenne a lancé un programme harmonisé d'enquêtes de conjoncture auprès des consommateurs et des chefs d'entreprise (industrie, services, construction, commerce de détail, investissements), qui couvre aujourd'hui plus de 40 pays. Ces enquêtes qualitatives visent à appréhender la situation économique de ces entreprises. Les résultats sont disponibles quelques jours après la fin de la période de référence, bien avant les résultats des enquêtes quantitatives.

    Bien que qualitatives, les enquêtes de conjoncture sont rapidement devenues un outil essentiel du diagnostic conjoncturel et de la prévision économique à court terme. Ce produit montre comment ces enquêtes sont utilisées par la Commission européenne, en particulier par la Direction Générale des Affaires Economiques et Financières (DG ECFIN) et EUROSTAT, pour évaluer la situation économique de la zone Euro.

    La première partie de ce produit présente brièvement le système européen harmonisé d'enquêtes de conjoncture. Dans une seconde partie, on examine comment la DG ECFIN calcule un indicateur coïncident de l'activité économique à partir d'une analyse factorielle dynamique des questions de l'enquête dans l'industrie. Ce type d'indicateur permet par ailleurs d'étudier la convergence des cycles économiques des pays de l'Union européenne. Les indicateurs conjoncturels pour la zone Euro sont souvent critiqués pour le retard avec lequel ils sont publiés; dans une troisième partie, on étudie comment EUROSTAT envisage de publier des estimations rapides de l'indice des prix des produits industriels (IPPI) issues de modèles économétriques incorporant les séries des enquêtes de conjoncture. Enfin, en conclusion, on montre comment ces enquêtes peuvent être utilisées pour des prévisions du produit intérieur brut (PIB) et pour la définition de données substitutives pour certains indicateurs clés non disponibles (nouvelles commandes dans l'industrie, etc.).

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016734
    Description :

    Selon des documents publiés récemment, la méthode par calage est de plus en plus populaire en ce qui concerne l'échantillonnage, et nombre d'organismes d'enquête calculent régulièrement des estimateurs par calage. Cependant, pour toutes les méthodes existantes, le choix des variables de calage demeure ponctuel. Dans cet article, on montre que l'estimateur par calage basé sur un modèle de la moyenne d'une population finie, qui a été proposé par Wu et Sitter (2001) par raisonnement intuitif, est en effet optimal parmi une catégorie d'estimateurs par calage. En outre, on présente des estimateurs par calage optimaux pour la fonction de distribution d'une population finie, la variance de la population, la variance d'un estimateur linéaire et d'autres fonctions quadratiques de population finie dans un cadre de référence unifié. Une étude en simulation limitée révèle que l'amélioration de ces estimateurs optimaux par rapport aux estimateurs conventionnels peut être considérable. On aborde clairement la question de savoir quand et comment des données auxiliaires peuvent être utilisées tant pour l'estimation de la moyenne de la population à l'aide de l'estimateur par régression généralisée que pour l'estimation de sa variance par calage dans le contexte de la méthode générale proposée. On examine aussi la construction des estimateurs proposés en cas d'échantillonnage à deux degrés et certaines questions fondamentales relatives à l'utilisation d'information auxiliaire provenant de données d'enquête dans le contexte de l'estimation optimale.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016753
    Description :

    Discours principal.

    Date de diffusion : 2004-09-13

Données (2)

Données (2) (2 results)

  • Tableau : 53-500-X
    Description :

    Dans ce rapport, on présente les résultats d'une enquête pilote menée par Statistique Canada pour mesurer la consommation de carburant des véhicules sur route immatriculés au Canada. Cette étude a été réalisée au moyen de l'Enquête sur les véhicules au Canada (EVC), qui permet de recueillir des données sur les activités routières tels que les distances parcourues, le nombre de passagers et la raison de chaque déplacement.

    Date de diffusion : 2004-10-21

  • Tableau : 95F0495X2001012
    Description :

    Ce tableau renferme des données tirées du Recensement de 2001 pour la Classification des secteurs statistiques (CSS). Une CSS regroupe les subdivisions de recensement selon qu'elles font partie d'une région métropolitaine de recensement, d'une agglomération de recensement, d'une zone d'influence des régions métropolitaines de recensement et des agglomérations de recensement (ZIM forte, ZIM modérée, ZIM faible ou ZIM sans influence) ou des territoires (Territoires du Nord-Ouest, Territoire du Yukon et Nunavut). La CSS est utilisée aux fins de la diffusion des données.

    Les caractéristiques des données présentées pour la CSS comprennent l'âge, l'état matrimonial, les groupes de minorité visible, l'immigration, la langue maternelle, le niveai de scolarité, le revenu, l'emploi, les familles et les logements. Ces données sont présentées pour le Canada, les provinces et les territoires. Les caractéristiques des données présentées dans ce tableau peuvent être différentes de celles d'autres produits de la série « Profils ».

    Date de diffusion : 2004-02-27

Analyses (26)

Analyses (26) (25 of 26 results)

  • Articles et rapports : 11F0019M2004219
    Description :

    Dans cette étude, on examine les tendances de l'inégalité du revenu familial durant les années 1980 et 1990, en accordant une attention particulière à la période de reprise économique des années 1990.

    Date de diffusion : 2004-12-16

  • Articles et rapports : 13-604-M2004045
    Description :

    Quelle est la « qualité » des Indicateurs nationaux du tourisme (INT)? Comment peut-elle être mesurée? Cette étude vise à répondre à ces questions grâce à une analyse des révisions des estimations des INT de 1997 à 2001.

    Date de diffusion : 2004-10-25

  • Articles et rapports : 12-001-X20040016992
    Description :

    Lors du Recensement de la population et du logement des États Unis, un échantillon d'environ un sixième des ménages reçoit une version longue du questionnaire de recensement appelée questionnaire détaillé. Les autres ménages reçoivent une version courte appelée questionnaire abrégé. Nous recourons à l'ajustement itératif proportionnel, au moyen de certains totaux de contrôle provenant du questionnaire abrégé, pour créer deux ensembles de poids pour l'estimation d'après les données provenant du questionnaire détaillé, l'un pour les personnes et l'autre pour les ménages. Nous décrivons une méthode de calcul des poids fondée sur la programmation quadratique qui produit une pondération des ménages telle que la somme pondérée des caractéristiques individuelles et celle des caractéristiques des ménages concordent étroitement avec les totaux de contrôle fondés sur le questionnaire abrégé. La méthode s'applique de façon générale aux situations où la pondération doit être établie de façon à satisfaire aux bornes de taille, ainsi qu'aux contraintes de concordance des sommes avec les totaux de contrôle. Nous décrivons l'application à la situation où les totaux de contrôle sont des estimations avec une matrice des covariances estimée.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 12-001-X20040016996
    Description :

    Dans cet article, nous étudions l'utilisation de la distribution échantillonnale pour prévoir les totaux de population finie à l'aide d'un échantillonnage à un seul degré. Les prédicteurs proposés emploient les valeurs échantillonnées de la variable d'enquête cible, les poids d'échantillonnage des unités d'échantillonnage et les valeurs (peut-être connues) des variables auxiliaires dans la population. Nous résolvons le problème prévisionnel en estimant l'espérance des valeurs de l'étude pour les unités à l'extérieur de l'échantillon, en fonction de l'espérance correspondante selon la distribution échantillonnale et les poids d'échantillonnage. L'erreur quadratique moyenne de la prévision est estimée par la combinaison d'une procédure d'échantillonnage inverse et d'une méthode de rééchantillonnage. Un résultat intéressant de la présente analyse est que plusieurs estimateurs familiers, d'usage courant, sont en fait des cas spéciaux de l'approche proposée, et celle ci leur en donne donc une nouvelle interprétation. L'efficacité des nouveaux prédicteurs et de quelques prédicteurs couramment utilisés est évaluée et comparée par simulation de Monte Carlo avec un ensemble de données réelles.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 12-001-X20040016995
    Description :

    L'un des objectifs principaux d'une enquête par sondage est d'estimer les moyennes et les totaux de domaines d'intérêt. Ces domaines sont déterminés avant que l'enquête soit réalisée (domaines primaires) ou après (domaines secondaires). La fiabilité des estimations connexes dépend de la variabilité de la taille de l'échantillon ainsi que des variables y d'intérêt. Il est impossible de tenir compte de cette variabilité en l'absence d'information auxiliaire sur des sous-groupes de la population. Toutefois, si l'on dispose de données auxiliaires, on peut contrôler dans une certaine mesure la fiabilité estimée des estimations résultantes. Dans le présent article, nous étudions les améliorations possibles de la fiabilité des estimations de domaine calculées en utilisant des données auxiliaires. Nous utilisons une approche conditionnelle pour comparer les propriétés (biais, couverture, efficacité) de divers estimateurs utilisant des données auxiliaires.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 12-001-X20040016993
    Description :

    L'estimateur à cellules de pondération corrige la non réponse totale par subdivision de l'échantillon en groupes homogènes (cellules) et application d'une correction par quotient aux répondants compris dans chaque cellule. Les études antérieures des propriétés statistiques des estimateurs à cellules de pondération se fondaient sur l'hypothèse que ces cellules correspondent à des cellules de population connues dont les caractéristiques sont homogènes. Dans le présent article, nous étudions les propriétés de l'estimateur à cellules de pondération sous un modèle de probabilité de réponse qui ne nécessite pas la spécification correcte de cellules de population homogènes. Nous supposons plutôt que la probabilité de réponse est une fonction lisse, mais par ailleurs non spécifiée, d'une variable auxiliaire connue. Sous ce modèle plus général, nous étudions la robustesse de l'estimateur à cellules de pondération à la spécification incorrecte du modèle. Nous montrons que, même si les cellules de population sont inconnues, l'estimateur est convergent par rapport au plan d'échantillonnage et au modèle de réponse. Nous décrivons l'effet du nombre de cellules de pondération sur les propriétés asymptotiques de l'estimateur. Au moyen d'expériences de simulation, nous explorons les propriétés de population finie de l'estimateur. Pour conclure, nous donnons certaines lignes directrices concernant le choix de la taille des cellules et de leur nombre pour l'application pratique de l'estimation fondée sur des cellules de pondération lorsqu'on ne peut spécifier ces cellules a priori.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 12-001-X20040016991
    Description :

    En échantillonnage, on utilise souvent la linéarisation de Taylor pour obtenir des estimateurs de variance pour des estimateurs par calage de totaux et de paramètres non linéaires de population finie (ou recensement), comme des ratios, ou des coefficients de régression et de corrélation, qui peuvent être exprimés sous forme de fonctions lisses de totaux. La linéarisation de Taylor est généralement applicable à tout plan d'échantillonnage, mais elle peut produire de multiples estimateurs de variance qui sont asymptotiquement sans biais par rapport au plan de sondage sous échantillonnage répété. Pour choisir lequel de ces estimateurs utiliser, il faut tenir compte d'autres critères, comme i) l'absence approximative de biais pour la variance par rapport au modèle de l'estimateur sous un modèle hypothétique, et ii) la validité sous l'échantillonnage répété conditionnel. Dans le présent article, nous proposons une nouvelle approche pour calculer les estimateurs de variance par linéarisation de Taylor. Elle mène directement à un estimateur de variance qui satisfait aux critères susmentionnés, du moins dans un nombre important de cas. Nous appliquons la méthode à divers problèmes, qui englobent les estimateurs d'un total, ainsi que d'autres estimateurs définis explicitement ou implicitement comme solutions d'équations d'estimation. En particulier, nous étudions les estimateurs des paramètres de régression logistique avec poids calés. Cette étude nous mène à un nouvel estimateur de la variance pour une classe générale d'estimateurs par calage qui inclut l'estimateur par la méthode itérative du quotient (raking ratio) généralisée et les estimateurs par régression généralisée. Nous étendons la méthode proposée à l'échantillonnage à deux phases pour obtenir un estimateur de variance qui utilise plus complètement les données de l'échantillon de première phase que les estimateurs de variance par linéarisation classiques.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 12-001-X20040016994
    Description :

    Dans une imputation où on attribue des valeurs à des réponses manquantes d'enquête par sondage, de simples méthodes d'estimation de variance des estimations d'enquête où on traite les valeurs d'imputation comme s'il s'agissait de valeurs observées donnent des estimations entachées d'un biais. Nous traiterons de ce problème dans le cas d'un estimateur linéaire où les valeurs manquantes sont attribuées par simple imputation par donneur (c'est une forme d'imputation qui est répandue dans la pratique). Nous proposerons des estimateurs de variance pour un estimateur linéaire à imputation par donneur (imputation « hot-deck ») en procédant à une décomposition de la variance totale proposée par Särndal (1992). Nous concevrons un traitement conditionnel d'estimation de variance qui est applicable à une imputation par donneur avec et sans pondération. Nous examinerons enfin l'estimation de variance pour un estimateur par domaine.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 12-001-X20040016999
    Description :

    Des données recueillies lors de l'Enquête sur la fécondité et la famille réalisée en Belgique sont combinées à des données sur les répondants et les non répondants aux niveaux individuel et municipal provenant du Recensement de la population de la Belgique de 1991 pour estimer des modèles de régression logistique multiniveaux de la possibilité de prise de contact et de la propension à la coopération. Une sélection de caractéristiques indirectes, dont aucune ne peut être contrôlée directement par les chercheurs, sont introduites comme covariables. Contrairement aux études antérieures, nous constatons que le statut socioéconomique est positivement associé à la coopération. Un autre résultat inattendu est l'absence de tout effet important des corrélats environnementaux, tels que l'urbanité.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 12-001-X20040016997
    Description :

    Les modèles multiniveaux sont souvent ajustés en fonction des données d'enquête recueillies dans le cadre d'un plan d'échantillonnage complexe à plusieurs degrés. Toutefois, lorsqu'un tel plan est informatif - en ce sens que les probabilités d'inclusion, même si on les subordonne aux covariables, dépendent de la variable réponse -, les estimateurs standard du maximum de vraisemblance seront biaisés. Dans la présente étude, nous inspirant de l'approche du pseudo maximum de vraisemblance (PMV) de Skinner (1989), nous proposons une procédure d'estimation à pondération probabiliste dans le cadre de modèles multiniveaux ordinaux et binaires, de façon à supprimer le biais découlant du caractère informatif du plan d'échantillonnage. On utilise la valeur inverse des probabilités d'inclusion à chaque degré d'échantillonnage pour pondérer la fonction logarithmique de vraisemblance; les estimateurs pondérés que l'on obtient ainsi sont testés au moyen d'une étude de simulation dans le cas simple d'un modèle binaire à l'ordonnée à l'origine aléatoire, avec et sans covariables. Les estimateurs de la variance sont obtenus au moyen d'une procédure bootstrap. Pour maximiser le logarithme du rapport de vraisemblance pondéré du modèle, nous avons recours à la procédure NLMIXED du SAS, qui repose elle-même sur une version adaptative de la quadrature gaussienne. Également, l'estimation bootstrap des variances est effectuée dans l'environnement du SAS.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 12-001-X20040019186
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 12-001-X20040016990
    Description :

    Les statisticiens d'enquête savent depuis longtemps que le processus de question et réponse est une source d'effets de réponse qui contribuent à une erreur de mesure non aléatoire. Au cours des deux dernières décennies, l'application des concepts de la psychologie sociale et cognitive à l'étude du processus de question et réponse a permis de faire de grands pas vers la compréhension de ces sources d'erreur. Le présent essai a pour but de passer en revue le développement de ces approches, de discuter de l'état actuel de nos connaissances et de proposer certaines priorités de recherche pour l'avenir.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 12-001-X20040016998
    Description :

    Au Canada, l'Enquête sur la population active (EPA) n'a pas au départ de caractère longitudinal, mais comme les ménages répondants demeurent normalement dans l'échantillon six mois de suite, il est possible de reconstituer des fragments longitudinaux sur six mois à partir des enregistrements mensuels des membres des ménages. De telles microdonnées longitudinales, qui consistent dans l'ensemble en millions de mois-personnes de données individuelles et familiales, servent à analyser par mois la dynamique du marché du travail, et ce, sur des périodes relativement longues de 25 ans et plus.

    Nous employons ces données pour estimer des fonctions de probabilité décrivant les passages entre les situations d'emploi, à savoir le travail indépendant, le travail rémunéré et l'absence d'emploi. Avec les données sur l'occupation des emplois et le dernier jour travaillé des gens qui n'ont pas d'emploi, jointes aux données sur la date de réponse à l'enquête, on peut élaborer des modèles comportant des termes de saisonnalité et de cycle macroéconomique, ainsi que de durée de dépendance pour chaque type de passage. Ajoutons que les données de l'EPA permettent d'inclure des variables de l'activité du conjoint et de la composition de la famille dans les modèles de probabilité comme covariables à variation temporelle. Les équations estimées de probabilité ont été intégrées au modèle de microsimulation LifePaths. Dans ce cadre, nous avons pu par ces équations, simuler l'activité à vie de cohortes de naissances passées, présentes et futures. Nous avons validé les résultats de cette simulation par rapprochement avec les profils d'âge de la période 1976 2001 pour les rapports emploi/population de l'EPA.

    Date de diffusion : 2004-07-14

  • Articles et rapports : 89-552-M2004011
    Description :

    Dans ce document, on mesure l'investissement dans l'éducation d'après le niveau de littératie des entrants sur le marché du travail, et ce, en utilisant les données de l'Enquête internationale sur l'alphabétisation des adultes de 1994.

    Date de diffusion : 2004-06-22

  • Articles et rapports : 91F0015M2004006
    Description :

    Dans ce document, on évalue et on compare la nouvelle et l'ancienne méthode pour produire des estimations officielles de la migration interne et interprovinciale selon les provinces ou les territoires pour la période de 1996-1997 à 2000-2001.

    Date de diffusion : 2004-06-17

  • Articles et rapports : 82-003-X20030036847
    Description :

    Dans cet article, on examine si l'acceptation de la déclaration par procuration en lieu et place de l'autodéclaration peut entraîner la sous-estimation de certains états de santé. On analyse également les données tirées de l'Enquête nationale sur la santé de la population et celles de l'Enquête sur la santé dans les collectivités canadiennes.

    Date de diffusion : 2004-05-18

  • Articles et rapports : 12-001-X20030029054
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030026779
    Description :

    L'échantillonnage par dépistage de liens consiste à suivre les liens sociaux d'un répondant à l'autre pour obtenir l'échantillon. Dans le cas de populations humaines cachées et d'accès difficile, le recours à ce genre de plan d'échantillonnage est souvent le seul moyen pratique d'obtenir un échantillon suffisamment grand pour que l'étude donne de bons résultats. Dans le présent article, nous proposons une approche bayésienne du problème d'estimation. Lors des études fondées sur un plan d'échantillonnage par dépistage de liens, on dispose parfois de renseignements apriori sur les caractéristiques que l'on souhaite étudier. L'utilisation efficace de ces renseignements par une méthode bayésienne devrait produire de meilleurs estimateurs. Si l'information disponible est vague, on peut utiliser des lois apriori non informatives et procéder à une analyse de sensibilité. Dans notre exemple, nous constatons que les estimateurs ne sont pas sensibles aux lois apriori spécifiées. Il est important de souligner que, dans le cadre de travail bayésien, l'estimation d'intervalles pour évaluer l'exactitude des estimateurs peut se faire sans difficulté. Par contre, ces estimations sont difficiles à calculer par la méthode classique. En général, une analyse bayésienne donne, pour les paramètres inconnus, une loi (la loi aposteriori) à partir de laquelle il est possible de répondre à un grand nombre de questions simultanément.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030026778
    Description :

    Au moyen d'arguments fondés purement sur le plan de sondage d'une part et sur un modèle d'autre part, nous montrons que, dans des conditions de grande entropie, la variance de l'estimateur de Horvitz Thompson (HT) dépend presque entièrement des probabilités d'inclusion de premier ordre. Nous établissons des expressions approximatives et des estimateurs de cette variance sous « grande entropie » de l'estimateur HT. Nous réalisons des études en simulation de Monte Carlo pour examiner les propriétés statistiques des estimateurs proposés de la variance.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030026782
    Description :

    Le présent article porte à la fois sur la question générale de la conception d'une enquête postcensitaire et sur la façon dont cette question générale a été traitée par le U.S. Census Bureau lors de la mesure de la couverture planifiée dans le cadre du Recensement de 2000. Il vise à établir le lien entre les concepts fondamentaux de l'estimateur à système dual et les questions de la définition et du dénombrement des enregistrements de recensement corrects, du dénombrement des omissions au recensement, de l'indépendance opérationnelle, de la déclaration du lieu de résidence, ainsi que du rôle de la réinterview après appariement. Y sont discutés des problèmes d'estimation, comme le traitement des personnes ayant déménagé, les données manquantes et l'estimation synthétique du chiffre de population local corrigé. Sont aussi exposés les défauts de conception de l'évaluation de la couverture du Recensement de 2000.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030026781
    Description :

    La comparaison des résultats des recensements et des enquêtes postcensitaires (EP) montre que les chiffres de recensement sont inexacts. En Italie, les administrations municipales jouent un rôle essentiel dans les opérations sur le terrain du recensement et de l'EPR. Dans le présent article, nous analysons l'effet des municipalités sur le taux de sous-dénombrement au recensement en Italie par modélisation des données provenant de l'EPR et d'autres sources à l'aide d'arbres de régression de Poisson et de modèles de Poisson hiérarchiques . Les arbres de régression de Poisson permettent de former des groupes homogènes de municipalités. Les modèles de Poisson hiérarchiques peuvent être considérés comme des outils pour l'estimation pour des petits domaines.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030026784
    Description :

    Skinner et Elliot (2002) ont proposé une mesure simple du risque de divulgation pour les microdonnées d'enquête et montré comment estimer cette mesure sous échantillonnage avec probabilités égales. Dans le présent article, nous montrons comment on peut étendre leurs résultats pour l'estimation ponctuelle et l'estimation de la variance à l'échantillonnage avec probabilités inégales. Nous élaborons notre méthode en supposant un plan d'échantillonnage de Poisson et faisons certains commentaires sur les résultats éventuels lorsqu'on s'écarte de cette hypothèse.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030026785
    Description :

    L'une des méthodes permettant d'éviter les divulgations consiste à diffuser des ensembles de microdonnées à grande diffusion partiellement synthétiques. Ces ensembles comprennent les unités enquêtés au départ, mais certaines valeurs recueillies, comme celles de nature délicate présentant un haut risque de divulgation ou celles d'identificateurs clés, sont remplacées par des imputations multiples. Bien qu'on recoure à l'heure actuelle à des approches partiellement synthétiques pour protéger les données à grande diffusion, on ne les a pas encore assorties de méthodes d'inférence valides. Le présent article décrit de telles méthodes. Elles sont fondées sur les concepts de l'imputation multiple en vue de remplacer des données manquantes, mais s'appuient sur des règles différentes pour combiner les estimations ponctuelles et les estimations de la variance. Ces règles de combinaison diffèrent aussi de celles élaborées par Raghunathan, Reiter et Rubin (2003) pour les ensembles de données entièrement synthétiques. La validité de ces nouvelles règles est illustrée au moyen d'études par simulation.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030026780
    Description :

    Les erreurs et d'autres problèmes de couverture associés aux recensements de population sont examinés à la lumière des travaux publiés récemment. Plus précisément, quand on apparie les dénombrements réels du recensement aux chiffres correspondants tirés de l'enquête postcensitaire, on obtient des résultats agrégés fondés sur un système d'enregistrement double qui fournissent certaines statistiques sur l'erreur de couverture.

    Dans le présent article, les questions liées à l'erreur de couverture et diverses solutions sont examinées dans le contexte des résultats du dernier Recensement de la population de la Turquie. La comparaison, au niveau régional, de la couverture du recensement fondée sur les données de ce dernier et celles de l'enquête postcensitaire témoigne d'une variabilité interrégionales. Certaines recommandations méthodologiques sont faites en vue d'une amélioration éventuelle des procédures courantes de dénombrement.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030026777
    Description :

    L'enquête d'évaluation de l'exactitude et de la couverture a été réalisée pour estimer la couverture du Recensement des États-Unis de 2000. Après l'achèvement des opérations sur le terrain, il a fallu prendre des mesures pour traiter plusieurs types de données manquantes en vue d'appliquer l'estimateur à système dual. Certaines unités de logement n'avaient pas été interviewées. Le cas échéant, on a conçu deux méthodes de correction pour la non-interview d'après un même ensemble d'interviews, une pour chaque point dans le temps. En outre, il a fallu déterminer la situation de résidence, d'appariement ou de recensement de certains répondants. Les méthodes appliquées par le passé ont été remplacées pour pouvoir respecter les délais plus courts pour calculer et vérifier les estimations. Le présent article décrit la portée des données manquantes dans l'enquête et les méthodes de traitement appliquées, compare ces dernières à d'autres méthodes passées et courantes, et donne un résumé analytique des procédures, y compris la comparaison des estimations démographiques selon le système dual sous d'autres méthodes de traitement des données manquantes. Comme les niveaux de données manquantes étaient faibles, il semble que l'utilisation des autres méthodes n'aurait pas affecté considérablement les résultats. Cependant, on constate certains changements dans les estimations.

    Date de diffusion : 2004-01-27

Références (62)

Références (62) (25 of 62 results)

  • Index et guides : 92-395-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour le recensement de 2001. Il fournit un historique de l'application de ces méthodes aux recensements du Canada ainsi que les fondements opérationnels et théoriques de ces méthodes, et présente les resultats des études d'évaluation.

    Date de diffusion : 2004-12-15

  • Index et guides : 92-394-X
    Description :

    Ce rapport décrit les erreurs de couverture qui se sont produites lorsque des personnes, des ménages, des logements ou des familles ont été oubliés ou dénombrés par erreur lors du recensement. Plusieurs études ont été réalisées après le recensement de 2001 en vue de produire des estimations du sous-dénombrement et du surdénombrement brut, de même que du sous-dénombrement net. Ce rapport présente les résultats de l'Étude sur la classification des logements, de l'Étude de la contre-vérification des dossiers, de l'Étude par appariement automatisé et de l'Étude sur les logements collectifs. On y décrit l'univers du recensement, l'erreur de couverture et les procédures de collecte et de traitement du recensement pouvant entraîner une erreur de couverture, puis on donne des estimations du sous-dénombrement net selon certaines caractéristiques démographiques. Le rapport technique présente ensuite les méthodes et les résultats de chacune des études de couverture, de même que les estimations d'erreur de couverture après qu'on ait décrit la manière dont les diverses études ont été combinées. Enfin, un aperçu chronologique met une touche finale au rapport.

    Date de diffusion : 2004-11-25

  • Enquêtes et programmes statistiques — Documentation : 31-533-X
    Description :

    Commençant avec le mois de référence août 2004, l'Enquête mensuelle sur les industries manufacturières (EMIM) utilise des données administratives (fichiers de la taxe sur les produits et services) pour l'estimation des livraisons manufacturières pour une portion de petits établissements de l'échantillon. Ce document a été publié pour servir de complément à la diffusion des données de l'EMIM pour ce mois.

    Date de diffusion : 2004-10-15

  • Produits techniques : 12-002-X20040027035
    Description :

    Lors du traitement des données du cycle 4 de l'Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ), des révisions historiques ont été apportées au trois premiers cycles de l'enquête afin de corriger des erreurs et faire une mise à jour des données. Au cours du traitement, une attention particulière a été portée à la variable PERSRUK (l'identificateur au niveau de la personne) et à la variable FIELDRUK (l'identificateur au niveau du ménage). Le même niveau d'attention n'a pas été accordé aux autres identificateurs incluent dans la base de données, soit, la variable CHILDID (un identificateur au niveau de l'enfant) et la variable _IDHD01 (un identificateur au niveau du ménage). Ces identificateurs ont été créés pour les fichiers publics et ils se retrouvent par défaut dans les fichiers maîtres. Lorsque les fichiers maîtres sont utilisés, la variable PERSRUK devrait être utilisée pour lier les différents fichiers de données de l'enquête entre eux et la variable FIELDRUK pour déterminer le ménage.

    Date de diffusion : 2004-10-05

  • Produits techniques : 12-002-X20040027034
    Description :

    L'utilisation des fichiers de commandes dans Stat/Transfer permet d'accélérer le transfert de plusieurs ensembles de données, de manière efficace et reproductible. Dans cette note, on décrit une méthode simple, étape par étape, pour créer des fichiers de commandes et on présente également un exemple de code.

    Date de diffusion : 2004-10-05

  • Produits techniques : 12-002-X20040027032
    Description :

    Dans cet article, on examine pourquoi un grand nombre d'enquêtes de Statistique Canada fournissent des poids bootstrap avec leurs microdonnées pour faciliter l'estimation de la variance fondée sur le plan de sondage. Les poids bootstrap ne fonctionnent pas sous les logiciels commerciaux comme SUDAAN et Wes Var. Cependant, il existe des façons d'utiliser ces applications pour produire des estimations de la variation bootstrap.

    On conclut cet article en donnant un bref aperçu des autres méthodes d'estimation de la variance ainsi que les logiciels, les programmes et les procédures dans lesquels ces méthodes sont employées.

    Date de diffusion : 2004-10-05

  • Produits techniques : 21-601-M2004072
    Description :

    L'Indice des prix des produits agricoles (IPPA) est une série mensuelle qui mesure la variation des prix que reçoivent les agriculteurs pour les produits agricoles qu'ils produisent et qu'ils vendent.

    L'IPPA a cessé de paraître en mars 1995; il a été relancé en avril 2001 en raison de la demande constante d'un indice des prix que reçoivent les agriculteurs.

    Date de diffusion : 2004-09-28

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2004001
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2002. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2004-09-15

  • Produits techniques : 11-522-X2002001
    Description :

    Depuis 1984, un série de conférences annuelles a été parrainé par Statistique Canada. Le recueil de la conférence est disponible depuis 1987.

    Le Symposium 2002 a été le dix-neuvième d'une série de colloques internationaux organisés par Statistique Canada sur des questions de méthodologie. Chaque année le symposium traite d'un thème particulier. Celui de 2002 était : « Modélisation des données d'enquête pour la recherche économique et sociale ».

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016726
    Description :

    Bien que les pays en voie de développement soient de plus en plus disposés à avoir recours à des subventions pour répondre aux besoins en matière d'éducation, l'effet de ces programmes reste à déterminer. Les évaluations à long terme dans ce domaine d'activité sont rares. Dans cet article, on examine l'effet à long terme du programme PACES de la Colombie, lequel a fourni à plus de 125 000 élèves de quartiers pauvres des chèques dont le montant couvrait la moitié du coût des études secondaires en établissement privé.

    Le programme PACES offre une occasion inhabituelle d'évaluer l'effet du financement de la demande de services d'éducation dans un pays d'Amérique latine où les écoles privées forment une part importante des élèves. Ce programme présente un intérêt particulier, car plusieurs chèques ont été attribués par tirage au sort, de sorte que l'on peut évaluer de façon fiable les effets du programme.

    Dans cet article, on se sert de dossiers administratifs pour évaluer l'effet à long terme des chèques du programme PACES sur l'obtention d'un diplôme d'études secondaires et le rendement scolaire. Le principal avantage des dossiers administratifs tient au fait qu'il n'y a aucune perte due à l'érosion et que les données administratives reviennent nettement moins cher qu'un effort d'enquête coûteux et dangereux. En revanche, les numéros d'identification individuels pourraient être inexacts, compliquant ainsi le couplage des enregistrements, et le biais de sélection contamine l'échantillon d'élèves qui passent l'examen. On discute d'autres approches pour résoudre ces problèmes. Les résultats provisoires indiquent que le programme a fait augmenter les taux d'achèvement des études secondaires et que les notes d'examens d'entrée au collège sont plus élevées pour les élèves qui ont gagné au tirage au sort que pour ceux qui ont perdu.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016719
    Description :

    Dans cette étude, on examine les méthodes de modélisation utilisées pour les données sur la santé publique. Les spécialistes de la santé publique manifestent un regain d'intérêt pour l'étude des effets de l'environnement sur la santé. Idéalement, les études écologiques ou contextuelles explorent ces liens au moyen de données sur la santé publique étoffées de données sur les caractéristiques environnementales à l'aide de modèles multiniveaux ou hiérarchiques. Dans ces modèles, le premier niveau correspond aux données des personnes sur la santé et le deuxième, aux données des collectivités. La plupart des données sur la santé publique proviennent d'enquêtes à plan d'échantillonnage complexe qui obligent, lors de l'analyse, à tenir compte de la mise en grappes, de la non-réponse et de la post-stratification pour obtenir des estimations représentatives de la prévalence des comportements posant un risque pour la santé.

    Cette étude est basée sur le Behavioral Risk Factor Surveillance System (BRFSS). Il s'agit d'un système américain de surveillance des facteurs de risque pour la santé selon l'État exploité par les Centers for Disease Control and Prevention en vue d'évaluer chaque année les facteurs de risque pour la santé chez plus de 200 000 adultes. Les données du BRFSS sont maintenant produites à l'échelle de la région métropolitaine statistique (MSA pour metropolitan statistical area) et fournissent des données de qualité sur la santé pour les études des effets de l'environnement. Les exigences conjuguées du plan d'échantillonnage et des analyses à plusieurs niveaux compliquent encore davantage les analyses à l'échelle de la MSA combinant les données sur la santé et sur l'environnement.

    On compare trois méthodes de modélisation dans le cadre d'une étude sur l'activité physique et certains facteurs environnementaux à l'aide de données du BRFSS de 2000. Chaque méthode décrite ici est un moyen valide d'analyser des données d'enquête à plan d'échantillonnage complexe complétées de données environnementales, quoique chacune tienne compte de façon différente du plan d'échantillonnage et de la structure multiniveau des données. Ces méthodes conviennent donc à l'étude de questions légèrement différentes.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016731
    Description :

    En recherche behavioriste, diverses techniques sont utilisées pour prédire les scores des répondants pour des facteurs ou des concepts que l'on ne peut observer directement. La satisfaction concernant l'emploi, le stress au travail, l'aptitude à poursuivre des études de deuxième ou de troisième cycle et les aptitudes mathématiques des enfants en sont des exemples. Les méthodes utilisées couramment pour modéliser ce genre de concepts incluent l'analyse factorielle, la modélisation d'équation structurelle, les échelles psychométriques classiques et la théorie de la réponse à l'item, et, pour chaque méthode, il existe souvent plusieurs stratégies distinctes permettant de produire des scores individuels. Cependant, les chercheurs se satisfont rarement de simples mesures de ces concepts. Souvent, ils utilisent des scores dérivés en tant que variables dépendantes ou indépendantes dans la régression multiple, l'analyse de la variance et de nombreuses autres procédures multivariées. Bien que ces applications de scores dérivés puissent produire des estimations biaisées des paramètres des modèles structuraux, ces difficultés sont mal comprises et souvent ignorées. Nous passerons en revue les publications qui traitent de la question, en mettant l'accent sur les méthodes de la TRI, en vue de déterminer quels sont les domaines problématiques et de formuler des questions à étudier dans l'avenir.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016740
    Description :

    En tenant compte de l'effet des différences entre les populations d'élèves, on examine, dans cette étude, la contribution des écoles aux différences interprovinciales de rendement des élèves de 15 ans en lecture, en mathématiques et en sciences. Grâce à l'utilisation d'une méthode semi-paramétrique de décomposition élaborée par DiNardo, Fortin et Lemieux (1996) pour les différences de distribution, on constate que les différences entre les écoles contribuent aux différences interprovinciales à divers endroits de la distribution du rendement et que l'effet varie selon la province et le type de compétences, et ce, même à l'intérieur d'une province. Par exemple, les différences entre les écoles représentent environ 32 % de la différence entre les rendements moyens en lecture observés pour le Nouveau-Brunswick et pour l'Alberta, mais elles réduisent l'écart entre les proportions d'élèves dont le rendement correspond au niveau le plus faible de compétences en lecture. En revanche, les différences entre les écoles représentent 94 % de l'écart entre le Nouveau- Brunswick et l'Alberta pour le 10e centile de la distribution des rendements en sciences. Les résultats révèlent que les études sur l'efficacité des écoles axées sur le premier moment de la distribution des rendements ne décèlent pas certains effets éventuellement importants pour des élèves particuliers.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016752
    Description :

    Discours d'ouverture

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016741
    Description :

    La linéarisation et le jackknife sont des méthodes fort répandues d'estimations des erreurs types des coefficients des modèles de régression linéaire ajustés à des échantillons à plusieurs degrés. Si le nombre d'unités primaires d'échantillonnage (UPE) est faible ou que quelques UPE ont un effet de levier important, les estimateurs par linéarisation peuvent présenter un biais négatif important et le jackknife de façon correspondante, un biais positif important. On décrit également les facteurs du plan de sondage qui produisent des biais importants dans ces estimateurs de l'erreur type. Dans cette étude, on propose un estimateur de rechange, appelé estimateur par linéarisation à biais réduit (LBR), inspiré des erreurs résiduelles corrigées pour mieux adoucir la covariance des erreurs vraies.

    Si les erreurs sont indépendantes et identiquement distribuées (iid), l'estimateur LDR est non biaisé. La méthode LDR s'applique à des échantillons stratifiés dont les poids de sélection ne sont pas constants et à des modèles linéaires généralisés tels que la régression logistique. On examine aussi les estimateurs LBR de l'erreur type pour les modèles à équation d'estimation généralisée qui modèlent explicitement l'interdépendance des observations faites sur la même UPE dans les données provenant de plans d'échantillonnage complexes. Les résultats d'une étude en simulation montrent que les erreurs types calculées par LBR combinées à l'approximation de Satterthwaite pour déterminer la distribution de référence produisent des tests avec des taux d'erreur de première espèce (type I) proches des valeurs nominales. On compare cette méthode à d'autres proposées par Kott (1994 et 1996) et par Mancl et DeRouen (2001).

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016712
    Description :

    Dans cet article, on considère l'effet de la censure par intervalle du moment du renoncement sur l'estimation des paramètres d'intensité en ce qui concerne le renoncement au tabac et la grossesse. Les données recueillies lors des trois cycles de l'Enquête nationale sur la santé de la population permettent d'appliquer les méthodes d'analyse de la chronologie des événements à l'étude du commencement de l'usage du tabac, du renoncement au tabac et de la rechute. L'une des questions étudiées est la relation entre le renoncement au tabac et la grossesse. Si une répondante longitudinale qui fumait lors du premier cycle a cessé de fumer lors du deuxième, on connaît le moment du renoncement au tabac à plus ou moins un an près, puisqu'on demande à la répondante l'âge auquel elle a cessé de fumer et qu'on connaît sa date de naissance. On sait également si elle était enceinte au moment du deuxième cycle et si elle a donné naissance depuis l'interview du premier cycle. Pour de nombreux sujets, on connaît la date de conception à un intervalle de temps près assez faible. Si l'on connaissait exactement le moment du renoncement au tabac et la période de la grossesse pour chaque membre du panel longitudinal qui a vécu l'un ou l'autre de ces événements entre deux cycles, on pourrait modéliser leur lien temporel d'après leurs intensités.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016737
    Description :

    Même si l'ensemble de données disponibles pour l'apprentissage automatique résulte d'un échantillonnage en grappes (par exemple les patients d'un échantillon de salles d'hôpital), l'estimation habituelle du taux d'erreur par validation croisée peut donner des résultats biaisés et trompeurs. Dans cet article technique, on décrit une validation croisée adaptée à ce cas. Par simulation, on compare la distribution d'échantillonnage de l'estimation du taux d'erreur en généralisation, sous l'hypothèse d'échantillonnage en grappes ou d'échantillonnage aléatoire simple, à la valeur réelle. Les résultats soulignent l'influence du plan d'échantillonnage sur l'inférence : l'effet de la mise en grappes est manifestement significatif; la répartition entre l'ensemble d'apprentissage et l'ensemble de test devrait résulter d'une partition aléatoire des grappes et non d'une partition aléatoire des exemples. Dans le cas de l'échantillonnage en grappes, la validation croisée type sous-estime le taux d'erreur en généralisation et ne donne pas de bons résultats pour la sélection du modèle. Ces résultats sont illustrés au moyen d'une application réelle de reconnaissance automatique de la parole.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016722
    Description :

    Le cancer du côlon et du rectum (CCR) est la deuxième cause de décès par cancer au Canada. Des essais randomisés avec témoins ont montré l'efficacité du dépistage par recherche du sang occulte dans les selles. Toutefois, il est nécessaire de procéder à une évaluation complète des coûts et des conséquences du dépistage du CCR pour la population canadienne avant de mettre en oeuvre un tel programme. Dans le cadre de cet article, on évalue la rentabilité du dépistage du CCR. Les résultats de ces simulations seront transmis au Comité national sur le dépistage du cancer colorectal du Canada en vue de faciliter la formulation de recommandations quant à la politique nationale à adopter.

    Le modèle de microsimulation de la santé de la population de Statistique Canada a été mis à jour afin d'y intégrer un module complet de dépistage du CCR fondé sur des données canadiennes et les résultats d'évaluation de l'efficacité du dépistage des essais randomisés avec témoins. Le module englobe des données sur la sensibilité et sur la spécificité de la recherche du sang occulte dans les selles et de la coloscopie, les taux de participation, l'incidence, la classification par stade, les options diagnostiques et thérapeutiques, l'évolution de la maladie, la mortalité et les coûts directs en services de santé pour divers scénarios de dépistage. Fait à noter, la reproduction de la réduction de la mortalité observée au moment de l'essai de dépistage de Funen a permis de valider ce modèle.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016745
    Description :

    L'attrait du plan expérimental de discontinuité de la régression tient à sa grande similarité avec un plan expérimental normal. Cependant, son applicabilité est limitée, puisqu'il n'est pas très fréquent que les unités soient affectées au groupe subissant le traitement d'après une mesure observable (par l'analyste) avant le programme. En outre, il permet uniquement de déterminer l'effet moyen sur une sous population très spécifique. Dans cet article, on montre que le plan expérimental de discontinuité de la régression peut être généralisé facilement aux cas où l'admissibilité des unités est établie d'après une mesure observable avant le programme et où est permise l'autosélection libre des unités admissibles dans le programme. Ces conditions s'avèrent aussi fort pratiques pour la construction d'un test de spécification sur des estimateurs non expérimentaux conventionnels de l'effet moyen du programme. On décrit explicitement les exigences concernant les données.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016746
    Description :

    En 1961, la Commission européenne a lancé un programme harmonisé d'enquêtes de conjoncture auprès des consommateurs et des chefs d'entreprise (industrie, services, construction, commerce de détail, investissements), qui couvre aujourd'hui plus de 40 pays. Ces enquêtes qualitatives visent à appréhender la situation économique de ces entreprises. Les résultats sont disponibles quelques jours après la fin de la période de référence, bien avant les résultats des enquêtes quantitatives.

    Bien que qualitatives, les enquêtes de conjoncture sont rapidement devenues un outil essentiel du diagnostic conjoncturel et de la prévision économique à court terme. Ce produit montre comment ces enquêtes sont utilisées par la Commission européenne, en particulier par la Direction Générale des Affaires Economiques et Financières (DG ECFIN) et EUROSTAT, pour évaluer la situation économique de la zone Euro.

    La première partie de ce produit présente brièvement le système européen harmonisé d'enquêtes de conjoncture. Dans une seconde partie, on examine comment la DG ECFIN calcule un indicateur coïncident de l'activité économique à partir d'une analyse factorielle dynamique des questions de l'enquête dans l'industrie. Ce type d'indicateur permet par ailleurs d'étudier la convergence des cycles économiques des pays de l'Union européenne. Les indicateurs conjoncturels pour la zone Euro sont souvent critiqués pour le retard avec lequel ils sont publiés; dans une troisième partie, on étudie comment EUROSTAT envisage de publier des estimations rapides de l'indice des prix des produits industriels (IPPI) issues de modèles économétriques incorporant les séries des enquêtes de conjoncture. Enfin, en conclusion, on montre comment ces enquêtes peuvent être utilisées pour des prévisions du produit intérieur brut (PIB) et pour la définition de données substitutives pour certains indicateurs clés non disponibles (nouvelles commandes dans l'industrie, etc.).

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016734
    Description :

    Selon des documents publiés récemment, la méthode par calage est de plus en plus populaire en ce qui concerne l'échantillonnage, et nombre d'organismes d'enquête calculent régulièrement des estimateurs par calage. Cependant, pour toutes les méthodes existantes, le choix des variables de calage demeure ponctuel. Dans cet article, on montre que l'estimateur par calage basé sur un modèle de la moyenne d'une population finie, qui a été proposé par Wu et Sitter (2001) par raisonnement intuitif, est en effet optimal parmi une catégorie d'estimateurs par calage. En outre, on présente des estimateurs par calage optimaux pour la fonction de distribution d'une population finie, la variance de la population, la variance d'un estimateur linéaire et d'autres fonctions quadratiques de population finie dans un cadre de référence unifié. Une étude en simulation limitée révèle que l'amélioration de ces estimateurs optimaux par rapport aux estimateurs conventionnels peut être considérable. On aborde clairement la question de savoir quand et comment des données auxiliaires peuvent être utilisées tant pour l'estimation de la moyenne de la population à l'aide de l'estimateur par régression généralisée que pour l'estimation de sa variance par calage dans le contexte de la méthode générale proposée. On examine aussi la construction des estimateurs proposés en cas d'échantillonnage à deux degrés et certaines questions fondamentales relatives à l'utilisation d'information auxiliaire provenant de données d'enquête dans le contexte de l'estimation optimale.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016753
    Description :

    Discours principal.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016723
    Description :

    Des résultats catégoriques, comme des réponses binaires, ordinales ou nominales, sont fréquents dans le domaine de la recherche par sondage. La régression logistique permet d'étudier la relation entre ce genre de variables catégoriques et un ensemble de variables explicatives. On peut utiliser la procédure LOGISTIC pour réaliser une analyse logistique des données provenant d'un échantillon aléatoire. Toutefois, cette méthode n'est pas valide si les données ont été recueillies selon d'autres plans d'échantillonnage, comme les plans de sondage complexes avec stratification, mise en grappes et/ou pondération inégale. Dans ces cas, il faut appliquer des techniques spécialisées pour produire les estimations et les erreurs types appropriées.

    La procédure SURVEYLOGISTIC expérimentale dans la version 9, introduit la régression logistique des données d'enquête dans le système SAS et offre la plupart des fonctions de la procédure LOGISTIC. L'exposé décrit la démarche méthodologique ainsi que les applications de ce nouveau logiciel.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016749
    Description :

    L'échantillonnage est une branche de la statistique qui a pris du temps avant de tirer profit des méthodes de régression souples. Dans ce document technique, on examine deux approches pour tenter l'application de ces méthodes de régression : adapter les techniques aux plans d'enquêtes complexes qui sont utilisés ou échantillonner les données d'enquêtes de sorte que les techniques normalisées leur soient applicables.

    En adoptant la première approche, on présente des techniques qui tiennent compte de la structure complexe des données pour le lissage de nuage de points ainsi que des modèles additifs. L'utilisation de la méthode des moindres carrés pénalisés dans le contexte de l'échantillonnage est étudiée à titre d'outil d'analyse d'une tendance générale de la population finie. On se concentre sur la régression lisse avec modèle d'erreur normale. L'abondance des liens entre covariables dans le cas des enquêtes à grande échelle donne lieu à l'application de lisseurs de nuage de points pour procéder au lissage de la moyenne. On constate que l'estimation des courbes lissées (par exemple, les splines de lissage) ne dépend du plan d'échantillonnage que par les poids d'échantillonnage, ce qui signifie qu'un logiciel type peut être utilisé pour l'estimation. Pour ces courbes, l'inférence présente plus de difficultés à cause des corrélations induites par le plan d'échantillonnage. On propose et on illustre des tests qui tiennent compte du plan d'échantillonnage. Les exemples donnés, inspirés de l'Enquête sur la santé en Ontario, comprennent le lissage de nuage de points, les modèles additifs et les tests diagnostiques du modèle. Pour résoudre le problème au moyen d'un échantillonnage approprié du fichier de données d'enquêtes, on traite de certains obstacles à surmonter.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016714
    Description :

    Dans cet article de nature très technique, on illustre l'application de la méthode de l'estimateur de la variance par le jackknife avec suppression d'un groupe à une étude longitudinale complexe à plusieurs cycles, montrant son utilité pour les modèles de régression linéaire et d'autres modèles analytiques. L'estimateur de la variance par le jackknife avec suppression d'un groupe représente un outil fort utile de mesure de la variance en cas de plan d'échantillonnage complexe. Cette méthode consiste à : diviser l'échantillon de premier degré en groupes mutuellement exclusifs et de variances presque égales; supprimer un groupe à la fois pour créer un ensemble de répétitions; procéder, sur chaque répétition, à des redressements par pondération analogues à ceux effectués sur l'échantillon dans son ensemble. L'estimation de la variance se fait selon la méthode usuelle (non stratifiée) du jackknife.

    On applique la méthode au Chicago Health and Aging Project (CHAP), une étude longitudinale communautaire visant à examiner les facteurs de risque de problèmes de santé chroniques chez les personnes âgées. L'un des objectifs importants de l'étude est d'examiner les facteurs de risque de la manifestation de la maladie d'Alzheimer. Le plan de sondage courant du CHAP comprend deux composantes : (1) Tous les trois ans, l'ensemble des membres survivants de la cohorte sont interviewés sur divers sujets liés à la santé. Ces interviews incluent des mesures des fonctions cognitives et physiques. (2) Durant chaque cycle de collecte des données, un échantillon de Poisson stratifié est sélectionné parmi les répondants à l'interview couvrant la population dans son ensemble afin de procéder à un examen clinique détaillé et à des tests neuropsychologiques. Pour étudier les facteurs de risque liés aux nouveaux cas de maladie, on définit une cohorte de personnes « exemptes de la maladie » au point précédent dans le temps et celle-ci forme une strate importante dans la base de sondage.

    On donne des preuves de l'applicabilité théorique du jackknife avec suppression d'un groupe à des estimateurs particuliers dans les conditions de cet échantillonnage de Poisson, en accordant l'attention nécessaire à la distinction entre l'inférence en population finie et en population infinie (modèle). En outre, on examine le problème de la détermination du « nombre correct » des groupes de variance.

    Date de diffusion : 2004-09-13

Date de modification :