Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (49)

Tout (49) (25 of 49 results)

  • Articles et rapports : 12-001-X20060029555
    Description :

    Les chercheurs et les responsables des politiques utilisent souvent des données provenant d'enquêtes par échantillonnage probabiliste représentatives de la population nationale. Le nombre de sujets couverts par ces enquêtes, et par conséquent la durée des entrevues, a généralement augmenté au fil des ans, ce qui a accru les coûts et le fardeau de réponse. Un remède éventuel à ce problème consiste à regrouper prudemment les questions d'une enquête en sous ensembles et à demander à chaque répondant de ne répondre qu'à l'un de ces sous ensembles. Les plans de sondage de ce type sont appelés plans à « questionnaire scindé » ou plans d'« échantillonnage matriciel ». Le fait de ne poser qu'un sous ensemble des questions d'une enquête à chaque répondant selon un plan d'échantillonnage matriciel crée ce que l'on peut considérer comme des données manquantes. Le recours à l'imputation multiple (Rubin 1987), une approche polyvalente mise au point pour traiter les données pour lesquelles des valeurs manquent, est tentant pour analyser les données provenant d'un échantillon matriciel, parce qu'après la création des imputations multiples, l'analyste peut appliquer les méthodes standard d'analyse de données complètes provenant d'une enquête par sondage. Le présent article décrit l'élaboration et l'évaluation d'une méthode permettant de créer des questionnaires d'échantillonnage matriciel contenant chacun un sous ensemble de questions devant être administrées à des répondants sélectionnés aléatoirement. La méthode peut être appliquée dans des conditions complexes, y compris les situations comportant des enchaînements de questions. Les questionnaires sont créés de telle façon que chacun comprenne des questions qui sont prédictives des questions exclues, afin qu'il soit possible, lors des analyses subséquentes fondées sur l'imputation multiple, de recouvrer une partie de l'information relative aux questions exclues qui aurait été recueillie si l'on n'avait pas recouru à l'échantillonnage matriciel. Ce dernier et les méthodes d'imputation multiple sont évalués au moyen de données provenant de la National Health and Nutrition Examination Survey, l'une des nombreuses enquêtes par échantillonnage probabiliste représentatives de la population nationale réalisées par le National Center for Health Statistics des Centers for Disease Control and Prevention. L'étude démontre que l'approche peut être appliquée à une grande enquête nationale sur la santé à structure complexe et permet de faire des recommandations pratiques quant aux questions qu'il serait approprié d'inclure dans des plans d'échantillonnage matriciel lors de futures enquêtes.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029547
    Description :

    La pondération par calage peut être utilisée pour corriger la non réponse totale et (ou) les erreurs de couverture sous des modèles appropriés de quasi randomisation. Divers ajustements par calage qui sont asymptotiquement identiques dans un contexte d'échantillonnage pur peuvent diverger lorsqu'ils sont utilisés de cette manière. L'introduction de variables instrumentales dans la pondération par calage permet que la non réponse (disons) soit une fonction d'un ensemble de caractéristiques différentes de celles comprises dans le vecteur de calage. Si l'ajustement par calage a une forme non linéaire, une variante du jackknife permet d'éliminer le besoin d'itération dans l'estimation de la variance.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029553
    Description :

    Félix-Medina et Thompson (2004) ont proposé une variante de l'échantillonnage par dépistage de liens dans laquelle on suppose qu'une part de la population (qui n'est pas nécessairement la plus grande) est couverte par une liste d'emplacements disjoints où les membres de la population peuvent être trouvés avec une probabilité élevée. Après la sélection d'un échantillon d'emplacements, on demande aux personnes se trouvant à chacun de ces emplacements de nommer d'autres membres de la population. Les deux auteurs ont proposé des estimateurs du maximum de vraisemblance des tailles de population qui donnent des résultats acceptables à condition que, pour chaque emplacement, la probabilité qu'un membre de la population soit nommé par une personne se trouvant à cet emplacement, appelée probabilité de nomination, ne soit pas faible. Dans la présente étude, nous partons de la variante de Félix-Medina et Thompson, et nous proposons trois ensembles d'estimateurs des tailles de population dérivés sous une approche bayésienne. Deux des ensembles d'estimateurs sont obtenus en utilisant des lois a priori incorrectes des tailles de population, et l'autre en utilisant des lois a priori de Poisson. Cependant, nous n'utilisons la méthode bayésienne que pour faciliter la construction des estimateurs et adoptons l'approche fréquentiste pour faire les inférences au sujet des tailles de population. Nous proposons deux types d'estimateurs de variance et d'intervalles de confiance partiellement fondés sur le plan de sondage. L'un d'eux est obtenu en utilisant un bootstrap et l'autre, en suivant la méthode delta sous l'hypothèse de normalité asymptotique. Les résultats d'une étude par simulation indiquent que i) quand les probabilités de nomination ne sont pas faibles, chacun des ensembles d'estimateurs proposés donne de bon résultats et se comporte de façon fort semblable aux estimateurs du maximum de vraisemblance, ii) quand les probabilités de nomination sont faibles, l'ensemble d'estimateurs dérivés en utilisant des lois a priori de Poisson donne encore des résultats acceptables et ne présente pas les problèmes de biais qui caractérisent les estimateurs du maximum de vraisemblance et iii) les résultats précédents ne dépendent pas de la taille de la fraction de la population couverte par la base de sondage.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029554
    Description :

    L'échantillonnage en vue d'estimer un indice des prix à la consommation (IPC) est assez compliqué et requiert généralement la combinaison de données provenant d'au moins deux enquêtes, l'une donnant les prix et l'autre, la pondération par les dépenses. Deux approches fondamentalement différentes du processus d'échantillonnage - l'échantillonnage probabiliste et l'échantillonnage par choix raisonné - ont été vivement recommandées et sont utilisées par divers pays en vue de recueillir les données sur les prix. En construisant un petit « univers » d'achats et de prix à partir de données scannées sur les céréales, puis en simulant diverses méthodes d'échantillonnage et d'estimation, nous comparons les résultats de deux approches du plan de sondage et de l'estimation, à savoir l'approche probabiliste adoptée aux États Unis et l'approche par choix raisonné adoptée au Royaume Uni. Pour la même quantité d'information recueillie, mais avec l'utilisation d'estimateurs différents, les méthodes du Royaume Uni semblent offrir une meilleure exactitude globale du ciblage d'un indice superlatif des prix à la consommation basé sur la population.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029552
    Description :

    On doit procéder à une enquête portant sur la fréquentation touristique d'origine intra ou extra-régionale en Bretagne. Pour des raisons matérielles concrètes, les « enquêtes aux frontières » ne peuvent plus s'organiser. Le problème majeur est l'absence de base de sondage permettant d'atteindre directement les touristes. Pour contourner ce problème, on applique la méthode d'échantillonnage indirect dont la pondération est obtenue par la méthode généralisée de partage des poids développée récemment par Lavallée (1995), Lavallée (2002), Deville (1999) et présentée également dans Lavallée et Caron (2001). Cet article montre comment adapter cette méthode à l'enquête. Certaines extensions s'avèrent nécessaires. On développera l'une d'elle destinée à estimer le total d'une population dont on a tiré un échantillon bernoullien.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029550
    Description :

    L'article donne une comparaison des approches de la stratification par une méthode géométrique, par optimisation et par la méthode de Lavallée et Hidiroglou (LH). L'approche géométrique de stratification est une approximation, tandis que les deux autres, qui s'appuient sur des méthodes numériques, peuvent être considérées comme des méthodes de stratification optimales. L'algorithme de la stratification géométrique est très simple comparativement à ceux des deux autres approches, mais il ne prend pas en compte la construction d'une strate à tirage complet, qui est habituellement produite lorsque l'on stratifie une population positivement asymétrique. Dans le cas de la stratification par optimisation, on peut prendre en considération toute forme de la fonction d'optimisation et de ses contraintes. Une étude numérique comparative portant sur cinq populations artificielles positivement asymétriques a indiqué que, dans chaque cas étudié, l'approche par optimisation était plus efficace que la stratification géométrique. En outre, nous avons comparé les approches géométrique et par optimisation à l'algorithme LH. Cette comparaison a révélé que la méthode géométrique de stratification était moins efficace que l'algorithme LH, tandis que l'approche par optimisation était aussi efficace que cet algorithme. Néanmoins, les limites de strate déterminées par la stratification géométrique peuvent être considérées comme de bons points de départ pour l'approche par optimisation.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029561
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029551
    Description :

    Lorsqu'on veut sélectionner un échantillon, il arrive qu'au lieu de disposer d'une base de sondage contenant les unités de collecte souhaitées, on ait accès à une base de sondage contenant des unités liées d'une certaine façon à la liste d'unités de collecte. On peut alors envisager de sélectionner un échantillon dans la base de sondage disponible afin de produire une estimation pour la population cible souhaitée en s'appuyant sur les liens qui existent entre les deux. On donne à cette approche le nom de sondage indirect.

    L'estimation des caractéristiques de la population cible étudiée par sondage indirect peut poser un défi de taille, en particulier si les liens entre les unités des deux populations ne sont pas bijectifs. Le problème vient surtout de la difficulté à associer une probabilité de sélection, ou un poids d'estimation, aux unités étudiées de la population cible. La méthode généralisée du partage des poids (MGPP) a été mise au point par Lavallée (1995) et Lavallée (2002) afin de résoudre ce genre de problème d'estimation. La MGPP fournit un poids d'estimation pour chaque unité enquêtée de la population cible.

    Le présent article débute par une description du sondage indirect, qui constitue le fondement de la MGPP. En deuxième lieu, nous donnons un aperçu de la MGPP dans lequel nous la formulons dans un cadre théorique en utilisant la notation matricielle. En troisième lieu, nous présentons certaines propriétés de la MGPP, comme l'absence de biais et la transitivité. En quatrième lieu, nous considérons le cas particulier où les liens entre les deux populations sont exprimés par des variables indicatrices. En cinquième lieu, nous étudions certains liens typiques spéciaux afin d'évaluer leur effet sur la MGPP. Enfin, nous examinons le problème de l'optimalité. Nous obtenons des poids optimaux dans un sens faible (pour des valeurs particulières de la variable d'intérêt), ainsi que les conditions dans lesquelles ces poids sont également optimaux au sens fort et indépendants de la variable d'intérêt.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029546
    Description :

    Nous discutons de méthodes d'analyse des études cas témoins pour lesquelles les témoins sont sélectionnés selon un plan de sondage complexe. La méthode la plus simple est l'approche du sondage standard basée sur des versions pondérées des équations d'estimation pour la population. Nous examinons aussi des méthodes plus efficaces et comparons leur degré de robustesse aux erreurs de spécification du modèle dans des cas simples. Nous discutons également brièvement des études familiales cas témoins, pour lesquelles la structure intragrappe présente un intérêt en soi.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029548
    Description :

    La théorie de l'imputation multiple pour traiter les données manquantes exige que l'imputation soit faite conditionnellement du plan d'échantillonnage. Cependant, comme la plupart des progiciels standard utilisés pour l'imputation multiple fondée sur un modèle reposent sur l'hypothèse d'un échantillonnage aléatoire simple, de nombreux praticiens sont portés à ne pas tenir compte des caractéristiques des plans d'échantillonnage complexes, comme la stratification et la mise en grappes, dans leurs imputations. Or, la théorie prédit que l'analyse d'ensembles de données soumis de telle façon à une imputation multiple peut produire des estimations biaisées du point de vue du plan de sondage. Dans le présent article, nous montrons au moyen de simulations que i) le biais peut être important si les caractéristiques du plan sont reliées aux variables d'intérêt et que ii) le biais peu être réduit en tenant compte de l'effet des caractéristiques du plan dans les modèles d'imputation. Les simulations montrent aussi que l'introduction de caractéristiques non pertinentes du plan comme contraintes dans les modèles d'imputation peut donner lieu à des inférences conservatrices, à condition que les modèles contiennent aussi des variables explicatives pertinentes. Ces résultats portent à formuler la prescription qui suit à l'intention des imputeurs : le moyen le plus sûr de procéder consiste à inclure les variables du plan de sondage dans la spécification des modèles d'imputation. À l'aide de données réelles, nous donnons une démonstration d'une approche simple d'intégration des caractéristiques d'un plan de sondage complexe qui peut être suivie en utilisant certains progiciels standard pour créer des imputations multiples.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029549
    Description :

    Nous proposons dans cet article une méthode de bootstrap de type Bernoulli facilement applicable à des plans stratifiés à plusieurs degrés où les fractions de sondage sont grandes, à condition qu'un échantillonnage aléatoire simple sans remise soit utilisé à chaque degré. La méthode fournit un ensemble de poids de rééchantillonnage qui donnent des estimations convergentes de la variance pour les estimateurs lisses ainsi que non lisses. La force de la méthode tient à sa simplicité. Elle peut être étendue facilement à n'importe quel nombre de degrés d'échantillonnage sans trop de complications. L'idée principale est de garder ou de remplacer une unité d'échantillonnage à chaque degré d'échantillonnage en utilisant des probabilités prédéterminées pour construire l'échantillon bootstrap. Nous présentons une étude par simulation limitée afin d'évaluer les propriétés de la méthode et, à titre d'illustration, nous appliquons cette dernière à l'Enquête nationale sur les prix menée en 1997 au Japon.

    Date de diffusion : 2006-12-21

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2006001
    Description :

    Dans ce guide, on présente de l'information susceptible d'intéresser les utilisateurs de données provenant de l'Enquête sur les dépenses des ménages. Dans le cadre de cette enquête, on recueille des données sur les habitudes de dépenses, les caractéristiques des logements et de l'équipement ménager des ménages canadiens. L'enquête vise les ménages privés des 10 provinces. (Depuis 1999, les territoires sont étudiés à tous les deux ans.)

    Ce guide comprend les définitions des termes et des variables de l'enquête, ainsi que des descriptions sur les méthodes de l'enquête et la qualité des données. Il contient aussi une section décrivant les statistiques pouvant être produites au moyen des données sur les dépenses (dont la part consacrée au budget, la part de marché, les agrégats et les médianes).

    Date de diffusion : 2006-12-12

  • Produits techniques : 68-514-X
    Description :

    L'approche utilisée par Statistique Canada pour la collecte et la diffusion de données économiques a évolué depuis plusieurs décennies vers un système de collecte et d'estimation fortement intégré qui alimente le cadre du Système de comptabilité nationale du Canada.

    L'élément clé de cette approche a été la création de l'Enquête unifiée auprès des entreprises, qui avait pour objet d'améliorer l'uniformité, la cohérence, l'ampleur et la profondeur des données des enquêtes-entreprises.

    L'EUE a atteint cet objectif en regroupant dans un cadre commun un grand nombre d'enquêtes-entreprises annuelles du Canada. Ce cadre comprenait une seule base de sondage, un schéma pour le plan d'échantillonnage, l'harmonisation conceptuelle du contenu des enquêtes, divers moyens d'utiliser les données administratives pertinentes, une collecte intégrée des données, des outils de traitement et d'analyse, et un entrepôt central de données.

    Date de diffusion : 2006-11-20

  • Produits techniques : 75F0002M2006007
    Description :

    Le présent document résume les données sur les caractéristiques du logement et les dépenses liées au logement qui sont disponibles dans l'EDTR, une attention particulière étant portée aux méthodes d'imputation utilisées pour ces données. De 1994 à 2001, l'enquête ne portait que sur quelques caractéristiques, surtout le mode d'occupation et le type de logement. En 2002, avec le début de la commandite de la Société canadienne d'hypothèques et de logement (SCHL), plusieurs autres caractéristiques ainsi que des dépenses détaillées liées au logement ont été ajoutées à l'enquête. Diverses méthodes d'imputation ont aussi été adoptées à ce moment là, pour remplacer les valeurs manquantes attribuables à la non réponse à l'enquête, et pour fournir les coûts des services publics qui contribuent au coût total du logement. Ces méthodes tirent parti du plan de sondage longitudinal de l'EDTR, et elles utilisent également des données d'autres sources comme l'Enquête sur la population active et le Recensement. En juin 2006, d'autres améliorations aux méthodes d'imputation ont été adoptées pour 2004 et appliquées à des années antérieures dans le cadre d'une révision historique. Le présent rapport documente également cette révision.

    Date de diffusion : 2006-07-26

  • Articles et rapports : 12-001-X20060019264
    Description :

    L'échantillonnage pour le suivi des cas de non réponse (échantillonnage SCNR) est une innovation qui a été envisagée lors de l'élaboration de la méthodologie du recensement décennal des États Unis de 2000. L'échantillonnage SCNR consiste à envoyer des recenseurs auprès d'un échantillon seulement des ménages qui n'ont pas répondu au questionnaire initial envoyé par la poste; ce qui réduit les coûts, mais crée un problème important d'estimation pour petits domaines. Nous proposons un modèle permettant d'imputer les caractéristiques des ménages qui n'ont pas répondu au questionnaire envoyé par la poste, afin de profiter des économies importantes que permet de réaliser l'échantillonnage SCNR, tout en obtenant un niveau de précision acceptable pour les petits domaines. Notre stratégie consiste à modéliser les caractéristiques des ménages en utilisant un petit nombre de covariables aux niveaux élevés de détail géographique et des covariables plus détaillées (plus nombreuses) aux niveaux plus agrégés de détail géographique. Pour cela, nous commençons par classer les ménages en un petit nombre de types. Puis, au moyen d'un modèle loglinéaire hiérarchique, nous estimons dans chaque îlot la distribution des types de ménage parmi les ménages non-répondants non échantillonnés. Cette distribution dépend des caractéristiques des ménages répondants qui ont retourné le questionnaire par la poste appartenant au même îlot et des ménages non-répondants échantillonnés dans les îlots voisins. Nous pouvons alors imputer les ménages non-répondants non échantillonnés d'après cette distribution estimée des types de ménage. Nous évaluons les propriétés de notre modèle loglinéaire par simulation. Les résultats montrent que, comparativement aux estimations produites par des modèles de rechange, notre modèle loglinéaire produit des estimations dont l'EQM est nettement plus faible dans de nombreux cas et à peu près la même dans la plupart des autres cas. Bien que l'échantillonnage SCNR n'ait pas été utilisé lors du recensement de 2000, notre stratégie d'estimation et d'imputation peut être appliquée lors de tout recensement ou enquête recourant cet échantillonnage où les unités forment des grappes telles que les caractéristiques des non répondants sont reliées aux caractéristiques des répondants vivant dans le même secteur, ainsi qu'aux caractéristiques des non répondants échantillonnés dans les secteurs voisins.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019263
    Description :

    Dans le contexte de l'estimation pour petits domaines, des modèles régionaux, comme le modèle de Fay Herriot (Fay et Herriot, 1979), sont très souvent utilisés en vue d'obtenir de bons estimateurs fondés sur un modèle pour les petits domaines ou petites régions. Il est généralement supposé que les variances d'erreur d'échantillonnage incluses dans le modèle sont connues. Dans le présent article, nous considérons la situation où les variances d'erreur d'échantillonnage sont estimées individuellement au moyen d'estimateurs directs. Nous construisons un modèle hiérarchique bayésien (HB) complet pour les estimateurs par sondage directs et pour les estimateurs de variance de l'erreur d'échantillonnage. Nous employons la méthode d'échantillonnage de Gibbs pour obtenir les estimateurs HB pour les petites régions. L'approche HB proposée tient compte automatiquement de l'incertitude supplémentaire associée à l'estimation des variances d'erreur d'échantillonnage, particulièrement quand la taille des échantillons régionaux est très faible. Nous comparons le modèle HB proposé au modèle de Fay Herriot grâce à l'analyse de deux ensembles de données d'enquête. Nos résultats montrent que les estimateurs HB proposés donnent d'assez bons résultats comparativement aux estimations directes. Nous discutons également du problème des lois a priori sur les composantes de la variance.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019257
    Description :

    En présence de non réponse partielle, deux approches sont généralement utilisées à des fins d'inférence des paramètres d'intérêt. La première repose sur l'hypothèse que la réponse est uniforme dans les classes d'imputation, tandis que la seconde s'appuie sur l'hypothèse que la réponse est ignorable, mais utilise un modèle pour la variable d'intérêt comme fondement de l'inférence. Dans le présent article, nous proposons une troisième approche qui se fonde sur l'hypothèse d'un mécanisme de réponse précisé ignorable sans que doive être spécifié un modèle de la variable d'intérêt. Dans ce cas, nous montrons comment obtenir des valeurs imputées qui mènent à des estimateurs d'un total approximativement sans biais sous l'approche proposée, ainsi que sous la deuxième des approches susmentionnées. Nous obtenons aussi des estimateurs de la variance des estimateurs imputés qui sont approximativement sans biais en suivant une approche proposée par Fay (1991) dans laquelle sont inversés l'ordre de l'échantillonnage et de la réponse. Enfin, nous effectuons des études par simulation afin d'étudier les propriétés des méthodes dans le cas d'échantillons finis, en termes de biais et d'erreur quadratique moyenne.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019258
    Description :

    L'objectif principal de l'article est de proposer une stratégie rentable d'estimation du taux de chômage intercensitaire au niveau provincial en Iran. Cette stratégie, qui tire parti des méthodes d'estimation pour petits domaines, s'appuie sur un échantillonnage unique au niveau national. Trois méthodes, basées respectivement sur un estimateur synthétique, un estimateur composite et un estimateur empirique bayésien, sont utilisées pour calculer les estimations d'intérêt indirectes pour 1996. Les résultats confirment non seulement que la stratégie proposée est appropriée, mais montrent aussi que l'estimateur composite et l'estimateur empirique bayésien produisent de bonnes estimations et ont des propriétés semblables.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019261
    Description :

    La répartition d'un échantillon peut être optimisée en fonction de divers objectifs. Lorsqu'il y a plus d'un objectif, on doit choisir une répartition qui équilibre ces objectifs. Traditionnellement, la Contre-vérification des dossiers a établi cet équilibre en consacrant une fraction de l'échantillon à chacun des objectifs (par exemple, les deux tiers de l'échantillon sont répartis de manière à obtenir de bonnes estimations provinciales, tandis qu'un tiers est réparti de manière à obtenir une bonne estimation nationale). Cet article suggère une méthode qui consiste à choisir le maximum de deux ou plusieurs répartitions. En étudiant l'impact de la précision des estimations démographiques sur les paiements de péréquation du gouvernement fédéral canadien aux provinces, on peut donner quatre objectifs à la répartition provinciale de l'échantillon de la Contre-vérification des dossiers. La répartition infraprovinciale de l'échantillon de la Contre-vérification des dossiers exige un lissage de paramètres définis au niveau des strates. Cet article montre comment le calage peut servir à ce lissage. Le problème de calage et sa solution n'exigent pas l'existence d'une solution aux contraintes de calage. Ceci évite des problèmes de convergence rencontrés par des méthodes connexes telles l'ajustement proportionnel itératif (raking).

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019255
    Description :

    Le présent article traite de l'application du paradigme de calage à l'estimation des quantiles. La méthodologie proposée suit une approche semblable à celle qui donne lieu aux estimateurs par calage originaux de Deville et Särndal (1992). Une propriété intéressante de cette nouvelle méthodologie est qu'elle ne nécessite pas la connaissance des valeurs des variables auxiliaires pour toutes les unités de la population. Il suffit de connaître les quantiles correspondants de ces variables auxiliaires. L'adoption d'une métrique quadratique permet d'obtenir une représentation analytique des poids de calage, qui sont alors similaires à ceux menant à l'estimateur par la régression généralisée (GREG). Nous discutons de l'estimation de la variance et de la construction des intervalles de confiance. Au moyen d'une petite étude par simulation, nous comparons l'estimateur par calage à d'autres estimateurs fréquemment utilisés des quantiles qui s'appuient également sur des données auxiliaires.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019259
    Description :

    Nous décrivons une approche générale de détermination du plan d'échantillonnage des enquêtes planifiées en vue de faire des inférences pour de petits domaines (sous domaines). Cette approche nécessite la spécification des priorités d'inférence pour les petits domaines. Nous établissons d'abord des scénarios de répartition de la taille de l'échantillon pour l'estimateur direct, puis pour les estimateurs composite et bayésien empirique. Nous illustrons les méthodes à l'aide d'un exemple de planification d'un sondage de la population suisse et d'estimation de la moyenne ou de la proportion d'une variable pour chacun des 26 cantons.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019262
    Description :

    Les populations humaines cachées, Internet et d'autres structures en réseau conceptualisées mathématiquement sous forme de graphes sont intrinsèquement difficiles à échantillonner par les moyens conventionnels et les plans d'étude les plus efficaces comportent habituellement des procédures de sélection de l'échantillon par suivi adaptatif des liens reliant un n'ode à un autre. Les données d'échantillon obtenues dans le cadre de telles études ne sont généralement pas représentatives au pied de la lettre de la population d'intérêt dans son ensemble. Cependant, un certain nombre de méthodes fondées sur le plan de sondage ou sur un modèle sont maintenant disponibles pour faire des inférences efficaces à partir d'échantillons de ce type. Les méthodes fondées sur le plan de sondage ont l'avantage de ne pas s'appuyer sur un modèle de population hypothétique, mais dépendent, en ce qui concerne leur validité, de la mise en oeuvre du plan de sondage dans des conditions contrôlées et connues, ce qui est parfois difficile, voire impossible, en pratique. Les méthodes fondées sur un modèle offrent plus de souplesse quant au plan de sondage, mais requièrent que la population soit modélisée au moyen de modèles de graphes stochastiques et que le plan de sondage soit ignorable ou de forme connue, afin qu'il puisse être inclus dans les équations de vraisemblance ou d'inférence bayésienne. Aussi bien pour les méthodes basées sur le plan de sondage que celles fondées sur un modèle, le point faible est souvent le manque de contrôle concernant l'obtention de l'échantillon initial, à partir duquel débute le dépistage des liens. Les plans de sondage décrits dans le présent article offrent une troisième méthode, dans laquelle les probabilités de sélection de l'échantillon deviennent pas à pas moins dépendantes de la sélection de l'échantillon initial. Un modèle de « marche aléatoire » markovienne idéalise au moyen d'un graphe, les tendances d'un plan d'échantillonnage naturel d'une séquence de sélections par dépistage de liens à suivre. Le présent article présente des plans de sondage à marche uniforme ou ciblée dans lesquels la marche aléatoire est ajustée à chaque pas afin de produire un plan de sondage ayant les probabilités stationnaires souhaitées. On obtient ainsi un échantillon qui, à d'importants égards, est représentatif au pied de la lettre de la population d'intérêt dans son ensemble, ou qui ne nécessite que de simples facteurs de pondération pour qu'il en soit ainsi.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019260
    Description :

    Nous examinons le recours à l'imputation et à la pondération pour corriger l'erreur de mesure dans l'estimation d'une fonction de distribution. Le problème qui a motivé l'étude est celui de l'estimation de la distribution de la rémunération horaire au Royaume Uni au moyen de données provenant de l'Enquête sur la population active. Les erreurs de mesure causent un biais et le but est d'utiliser des données auxiliaires, mesurées avec précision pour un sous échantillon, en vue de le corriger. Nous envisageons divers estimateurs ponctuels, fondés sur différentes approches d'imputation et de pondération, dont l'imputation fractionnaire, l'imputation par la méthode du plus proche voisin, l'appariement d'après la moyenne prévisionnelle et la pondération par le score de propension à répondre. Nous comparons ensuite ces estimateurs ponctuels d'un point de vue théorique et par simulation. Nous recommandons d'adopter une approche d'imputation fractionnaire par appariement d'après la moyenne prévisionnelle. Elle donne les mêmes résultats que la pondération par le score de propension, mais a l'avantage d'être légèrement plus robuste et efficace.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019266
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019256
    Description :

    Dans certaines situations, le plan de sondage d'une enquête est assez complexe et comporte des plans fondamentalement différents pour divers domaines. L'effet de plan des estimations fondées sur l'échantillon total est une somme pondérée des effets de plan selon le domaine. Nous calculons les pondérations sous un modèle approprié et illustrons leur utilisation au moyen de données provenant de l'Enquête sociale européenne (European Social Survey ou ESS).

    Date de diffusion : 2006-07-20

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (36)

Analyses (36) (25 of 36 results)

  • Articles et rapports : 12-001-X20060029555
    Description :

    Les chercheurs et les responsables des politiques utilisent souvent des données provenant d'enquêtes par échantillonnage probabiliste représentatives de la population nationale. Le nombre de sujets couverts par ces enquêtes, et par conséquent la durée des entrevues, a généralement augmenté au fil des ans, ce qui a accru les coûts et le fardeau de réponse. Un remède éventuel à ce problème consiste à regrouper prudemment les questions d'une enquête en sous ensembles et à demander à chaque répondant de ne répondre qu'à l'un de ces sous ensembles. Les plans de sondage de ce type sont appelés plans à « questionnaire scindé » ou plans d'« échantillonnage matriciel ». Le fait de ne poser qu'un sous ensemble des questions d'une enquête à chaque répondant selon un plan d'échantillonnage matriciel crée ce que l'on peut considérer comme des données manquantes. Le recours à l'imputation multiple (Rubin 1987), une approche polyvalente mise au point pour traiter les données pour lesquelles des valeurs manquent, est tentant pour analyser les données provenant d'un échantillon matriciel, parce qu'après la création des imputations multiples, l'analyste peut appliquer les méthodes standard d'analyse de données complètes provenant d'une enquête par sondage. Le présent article décrit l'élaboration et l'évaluation d'une méthode permettant de créer des questionnaires d'échantillonnage matriciel contenant chacun un sous ensemble de questions devant être administrées à des répondants sélectionnés aléatoirement. La méthode peut être appliquée dans des conditions complexes, y compris les situations comportant des enchaînements de questions. Les questionnaires sont créés de telle façon que chacun comprenne des questions qui sont prédictives des questions exclues, afin qu'il soit possible, lors des analyses subséquentes fondées sur l'imputation multiple, de recouvrer une partie de l'information relative aux questions exclues qui aurait été recueillie si l'on n'avait pas recouru à l'échantillonnage matriciel. Ce dernier et les méthodes d'imputation multiple sont évalués au moyen de données provenant de la National Health and Nutrition Examination Survey, l'une des nombreuses enquêtes par échantillonnage probabiliste représentatives de la population nationale réalisées par le National Center for Health Statistics des Centers for Disease Control and Prevention. L'étude démontre que l'approche peut être appliquée à une grande enquête nationale sur la santé à structure complexe et permet de faire des recommandations pratiques quant aux questions qu'il serait approprié d'inclure dans des plans d'échantillonnage matriciel lors de futures enquêtes.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029547
    Description :

    La pondération par calage peut être utilisée pour corriger la non réponse totale et (ou) les erreurs de couverture sous des modèles appropriés de quasi randomisation. Divers ajustements par calage qui sont asymptotiquement identiques dans un contexte d'échantillonnage pur peuvent diverger lorsqu'ils sont utilisés de cette manière. L'introduction de variables instrumentales dans la pondération par calage permet que la non réponse (disons) soit une fonction d'un ensemble de caractéristiques différentes de celles comprises dans le vecteur de calage. Si l'ajustement par calage a une forme non linéaire, une variante du jackknife permet d'éliminer le besoin d'itération dans l'estimation de la variance.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029553
    Description :

    Félix-Medina et Thompson (2004) ont proposé une variante de l'échantillonnage par dépistage de liens dans laquelle on suppose qu'une part de la population (qui n'est pas nécessairement la plus grande) est couverte par une liste d'emplacements disjoints où les membres de la population peuvent être trouvés avec une probabilité élevée. Après la sélection d'un échantillon d'emplacements, on demande aux personnes se trouvant à chacun de ces emplacements de nommer d'autres membres de la population. Les deux auteurs ont proposé des estimateurs du maximum de vraisemblance des tailles de population qui donnent des résultats acceptables à condition que, pour chaque emplacement, la probabilité qu'un membre de la population soit nommé par une personne se trouvant à cet emplacement, appelée probabilité de nomination, ne soit pas faible. Dans la présente étude, nous partons de la variante de Félix-Medina et Thompson, et nous proposons trois ensembles d'estimateurs des tailles de population dérivés sous une approche bayésienne. Deux des ensembles d'estimateurs sont obtenus en utilisant des lois a priori incorrectes des tailles de population, et l'autre en utilisant des lois a priori de Poisson. Cependant, nous n'utilisons la méthode bayésienne que pour faciliter la construction des estimateurs et adoptons l'approche fréquentiste pour faire les inférences au sujet des tailles de population. Nous proposons deux types d'estimateurs de variance et d'intervalles de confiance partiellement fondés sur le plan de sondage. L'un d'eux est obtenu en utilisant un bootstrap et l'autre, en suivant la méthode delta sous l'hypothèse de normalité asymptotique. Les résultats d'une étude par simulation indiquent que i) quand les probabilités de nomination ne sont pas faibles, chacun des ensembles d'estimateurs proposés donne de bon résultats et se comporte de façon fort semblable aux estimateurs du maximum de vraisemblance, ii) quand les probabilités de nomination sont faibles, l'ensemble d'estimateurs dérivés en utilisant des lois a priori de Poisson donne encore des résultats acceptables et ne présente pas les problèmes de biais qui caractérisent les estimateurs du maximum de vraisemblance et iii) les résultats précédents ne dépendent pas de la taille de la fraction de la population couverte par la base de sondage.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029554
    Description :

    L'échantillonnage en vue d'estimer un indice des prix à la consommation (IPC) est assez compliqué et requiert généralement la combinaison de données provenant d'au moins deux enquêtes, l'une donnant les prix et l'autre, la pondération par les dépenses. Deux approches fondamentalement différentes du processus d'échantillonnage - l'échantillonnage probabiliste et l'échantillonnage par choix raisonné - ont été vivement recommandées et sont utilisées par divers pays en vue de recueillir les données sur les prix. En construisant un petit « univers » d'achats et de prix à partir de données scannées sur les céréales, puis en simulant diverses méthodes d'échantillonnage et d'estimation, nous comparons les résultats de deux approches du plan de sondage et de l'estimation, à savoir l'approche probabiliste adoptée aux États Unis et l'approche par choix raisonné adoptée au Royaume Uni. Pour la même quantité d'information recueillie, mais avec l'utilisation d'estimateurs différents, les méthodes du Royaume Uni semblent offrir une meilleure exactitude globale du ciblage d'un indice superlatif des prix à la consommation basé sur la population.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029552
    Description :

    On doit procéder à une enquête portant sur la fréquentation touristique d'origine intra ou extra-régionale en Bretagne. Pour des raisons matérielles concrètes, les « enquêtes aux frontières » ne peuvent plus s'organiser. Le problème majeur est l'absence de base de sondage permettant d'atteindre directement les touristes. Pour contourner ce problème, on applique la méthode d'échantillonnage indirect dont la pondération est obtenue par la méthode généralisée de partage des poids développée récemment par Lavallée (1995), Lavallée (2002), Deville (1999) et présentée également dans Lavallée et Caron (2001). Cet article montre comment adapter cette méthode à l'enquête. Certaines extensions s'avèrent nécessaires. On développera l'une d'elle destinée à estimer le total d'une population dont on a tiré un échantillon bernoullien.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029550
    Description :

    L'article donne une comparaison des approches de la stratification par une méthode géométrique, par optimisation et par la méthode de Lavallée et Hidiroglou (LH). L'approche géométrique de stratification est une approximation, tandis que les deux autres, qui s'appuient sur des méthodes numériques, peuvent être considérées comme des méthodes de stratification optimales. L'algorithme de la stratification géométrique est très simple comparativement à ceux des deux autres approches, mais il ne prend pas en compte la construction d'une strate à tirage complet, qui est habituellement produite lorsque l'on stratifie une population positivement asymétrique. Dans le cas de la stratification par optimisation, on peut prendre en considération toute forme de la fonction d'optimisation et de ses contraintes. Une étude numérique comparative portant sur cinq populations artificielles positivement asymétriques a indiqué que, dans chaque cas étudié, l'approche par optimisation était plus efficace que la stratification géométrique. En outre, nous avons comparé les approches géométrique et par optimisation à l'algorithme LH. Cette comparaison a révélé que la méthode géométrique de stratification était moins efficace que l'algorithme LH, tandis que l'approche par optimisation était aussi efficace que cet algorithme. Néanmoins, les limites de strate déterminées par la stratification géométrique peuvent être considérées comme de bons points de départ pour l'approche par optimisation.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029561
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029551
    Description :

    Lorsqu'on veut sélectionner un échantillon, il arrive qu'au lieu de disposer d'une base de sondage contenant les unités de collecte souhaitées, on ait accès à une base de sondage contenant des unités liées d'une certaine façon à la liste d'unités de collecte. On peut alors envisager de sélectionner un échantillon dans la base de sondage disponible afin de produire une estimation pour la population cible souhaitée en s'appuyant sur les liens qui existent entre les deux. On donne à cette approche le nom de sondage indirect.

    L'estimation des caractéristiques de la population cible étudiée par sondage indirect peut poser un défi de taille, en particulier si les liens entre les unités des deux populations ne sont pas bijectifs. Le problème vient surtout de la difficulté à associer une probabilité de sélection, ou un poids d'estimation, aux unités étudiées de la population cible. La méthode généralisée du partage des poids (MGPP) a été mise au point par Lavallée (1995) et Lavallée (2002) afin de résoudre ce genre de problème d'estimation. La MGPP fournit un poids d'estimation pour chaque unité enquêtée de la population cible.

    Le présent article débute par une description du sondage indirect, qui constitue le fondement de la MGPP. En deuxième lieu, nous donnons un aperçu de la MGPP dans lequel nous la formulons dans un cadre théorique en utilisant la notation matricielle. En troisième lieu, nous présentons certaines propriétés de la MGPP, comme l'absence de biais et la transitivité. En quatrième lieu, nous considérons le cas particulier où les liens entre les deux populations sont exprimés par des variables indicatrices. En cinquième lieu, nous étudions certains liens typiques spéciaux afin d'évaluer leur effet sur la MGPP. Enfin, nous examinons le problème de l'optimalité. Nous obtenons des poids optimaux dans un sens faible (pour des valeurs particulières de la variable d'intérêt), ainsi que les conditions dans lesquelles ces poids sont également optimaux au sens fort et indépendants de la variable d'intérêt.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029546
    Description :

    Nous discutons de méthodes d'analyse des études cas témoins pour lesquelles les témoins sont sélectionnés selon un plan de sondage complexe. La méthode la plus simple est l'approche du sondage standard basée sur des versions pondérées des équations d'estimation pour la population. Nous examinons aussi des méthodes plus efficaces et comparons leur degré de robustesse aux erreurs de spécification du modèle dans des cas simples. Nous discutons également brièvement des études familiales cas témoins, pour lesquelles la structure intragrappe présente un intérêt en soi.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029548
    Description :

    La théorie de l'imputation multiple pour traiter les données manquantes exige que l'imputation soit faite conditionnellement du plan d'échantillonnage. Cependant, comme la plupart des progiciels standard utilisés pour l'imputation multiple fondée sur un modèle reposent sur l'hypothèse d'un échantillonnage aléatoire simple, de nombreux praticiens sont portés à ne pas tenir compte des caractéristiques des plans d'échantillonnage complexes, comme la stratification et la mise en grappes, dans leurs imputations. Or, la théorie prédit que l'analyse d'ensembles de données soumis de telle façon à une imputation multiple peut produire des estimations biaisées du point de vue du plan de sondage. Dans le présent article, nous montrons au moyen de simulations que i) le biais peut être important si les caractéristiques du plan sont reliées aux variables d'intérêt et que ii) le biais peu être réduit en tenant compte de l'effet des caractéristiques du plan dans les modèles d'imputation. Les simulations montrent aussi que l'introduction de caractéristiques non pertinentes du plan comme contraintes dans les modèles d'imputation peut donner lieu à des inférences conservatrices, à condition que les modèles contiennent aussi des variables explicatives pertinentes. Ces résultats portent à formuler la prescription qui suit à l'intention des imputeurs : le moyen le plus sûr de procéder consiste à inclure les variables du plan de sondage dans la spécification des modèles d'imputation. À l'aide de données réelles, nous donnons une démonstration d'une approche simple d'intégration des caractéristiques d'un plan de sondage complexe qui peut être suivie en utilisant certains progiciels standard pour créer des imputations multiples.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060029549
    Description :

    Nous proposons dans cet article une méthode de bootstrap de type Bernoulli facilement applicable à des plans stratifiés à plusieurs degrés où les fractions de sondage sont grandes, à condition qu'un échantillonnage aléatoire simple sans remise soit utilisé à chaque degré. La méthode fournit un ensemble de poids de rééchantillonnage qui donnent des estimations convergentes de la variance pour les estimateurs lisses ainsi que non lisses. La force de la méthode tient à sa simplicité. Elle peut être étendue facilement à n'importe quel nombre de degrés d'échantillonnage sans trop de complications. L'idée principale est de garder ou de remplacer une unité d'échantillonnage à chaque degré d'échantillonnage en utilisant des probabilités prédéterminées pour construire l'échantillon bootstrap. Nous présentons une étude par simulation limitée afin d'évaluer les propriétés de la méthode et, à titre d'illustration, nous appliquons cette dernière à l'Enquête nationale sur les prix menée en 1997 au Japon.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20060019264
    Description :

    L'échantillonnage pour le suivi des cas de non réponse (échantillonnage SCNR) est une innovation qui a été envisagée lors de l'élaboration de la méthodologie du recensement décennal des États Unis de 2000. L'échantillonnage SCNR consiste à envoyer des recenseurs auprès d'un échantillon seulement des ménages qui n'ont pas répondu au questionnaire initial envoyé par la poste; ce qui réduit les coûts, mais crée un problème important d'estimation pour petits domaines. Nous proposons un modèle permettant d'imputer les caractéristiques des ménages qui n'ont pas répondu au questionnaire envoyé par la poste, afin de profiter des économies importantes que permet de réaliser l'échantillonnage SCNR, tout en obtenant un niveau de précision acceptable pour les petits domaines. Notre stratégie consiste à modéliser les caractéristiques des ménages en utilisant un petit nombre de covariables aux niveaux élevés de détail géographique et des covariables plus détaillées (plus nombreuses) aux niveaux plus agrégés de détail géographique. Pour cela, nous commençons par classer les ménages en un petit nombre de types. Puis, au moyen d'un modèle loglinéaire hiérarchique, nous estimons dans chaque îlot la distribution des types de ménage parmi les ménages non-répondants non échantillonnés. Cette distribution dépend des caractéristiques des ménages répondants qui ont retourné le questionnaire par la poste appartenant au même îlot et des ménages non-répondants échantillonnés dans les îlots voisins. Nous pouvons alors imputer les ménages non-répondants non échantillonnés d'après cette distribution estimée des types de ménage. Nous évaluons les propriétés de notre modèle loglinéaire par simulation. Les résultats montrent que, comparativement aux estimations produites par des modèles de rechange, notre modèle loglinéaire produit des estimations dont l'EQM est nettement plus faible dans de nombreux cas et à peu près la même dans la plupart des autres cas. Bien que l'échantillonnage SCNR n'ait pas été utilisé lors du recensement de 2000, notre stratégie d'estimation et d'imputation peut être appliquée lors de tout recensement ou enquête recourant cet échantillonnage où les unités forment des grappes telles que les caractéristiques des non répondants sont reliées aux caractéristiques des répondants vivant dans le même secteur, ainsi qu'aux caractéristiques des non répondants échantillonnés dans les secteurs voisins.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019263
    Description :

    Dans le contexte de l'estimation pour petits domaines, des modèles régionaux, comme le modèle de Fay Herriot (Fay et Herriot, 1979), sont très souvent utilisés en vue d'obtenir de bons estimateurs fondés sur un modèle pour les petits domaines ou petites régions. Il est généralement supposé que les variances d'erreur d'échantillonnage incluses dans le modèle sont connues. Dans le présent article, nous considérons la situation où les variances d'erreur d'échantillonnage sont estimées individuellement au moyen d'estimateurs directs. Nous construisons un modèle hiérarchique bayésien (HB) complet pour les estimateurs par sondage directs et pour les estimateurs de variance de l'erreur d'échantillonnage. Nous employons la méthode d'échantillonnage de Gibbs pour obtenir les estimateurs HB pour les petites régions. L'approche HB proposée tient compte automatiquement de l'incertitude supplémentaire associée à l'estimation des variances d'erreur d'échantillonnage, particulièrement quand la taille des échantillons régionaux est très faible. Nous comparons le modèle HB proposé au modèle de Fay Herriot grâce à l'analyse de deux ensembles de données d'enquête. Nos résultats montrent que les estimateurs HB proposés donnent d'assez bons résultats comparativement aux estimations directes. Nous discutons également du problème des lois a priori sur les composantes de la variance.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019257
    Description :

    En présence de non réponse partielle, deux approches sont généralement utilisées à des fins d'inférence des paramètres d'intérêt. La première repose sur l'hypothèse que la réponse est uniforme dans les classes d'imputation, tandis que la seconde s'appuie sur l'hypothèse que la réponse est ignorable, mais utilise un modèle pour la variable d'intérêt comme fondement de l'inférence. Dans le présent article, nous proposons une troisième approche qui se fonde sur l'hypothèse d'un mécanisme de réponse précisé ignorable sans que doive être spécifié un modèle de la variable d'intérêt. Dans ce cas, nous montrons comment obtenir des valeurs imputées qui mènent à des estimateurs d'un total approximativement sans biais sous l'approche proposée, ainsi que sous la deuxième des approches susmentionnées. Nous obtenons aussi des estimateurs de la variance des estimateurs imputés qui sont approximativement sans biais en suivant une approche proposée par Fay (1991) dans laquelle sont inversés l'ordre de l'échantillonnage et de la réponse. Enfin, nous effectuons des études par simulation afin d'étudier les propriétés des méthodes dans le cas d'échantillons finis, en termes de biais et d'erreur quadratique moyenne.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019258
    Description :

    L'objectif principal de l'article est de proposer une stratégie rentable d'estimation du taux de chômage intercensitaire au niveau provincial en Iran. Cette stratégie, qui tire parti des méthodes d'estimation pour petits domaines, s'appuie sur un échantillonnage unique au niveau national. Trois méthodes, basées respectivement sur un estimateur synthétique, un estimateur composite et un estimateur empirique bayésien, sont utilisées pour calculer les estimations d'intérêt indirectes pour 1996. Les résultats confirment non seulement que la stratégie proposée est appropriée, mais montrent aussi que l'estimateur composite et l'estimateur empirique bayésien produisent de bonnes estimations et ont des propriétés semblables.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019261
    Description :

    La répartition d'un échantillon peut être optimisée en fonction de divers objectifs. Lorsqu'il y a plus d'un objectif, on doit choisir une répartition qui équilibre ces objectifs. Traditionnellement, la Contre-vérification des dossiers a établi cet équilibre en consacrant une fraction de l'échantillon à chacun des objectifs (par exemple, les deux tiers de l'échantillon sont répartis de manière à obtenir de bonnes estimations provinciales, tandis qu'un tiers est réparti de manière à obtenir une bonne estimation nationale). Cet article suggère une méthode qui consiste à choisir le maximum de deux ou plusieurs répartitions. En étudiant l'impact de la précision des estimations démographiques sur les paiements de péréquation du gouvernement fédéral canadien aux provinces, on peut donner quatre objectifs à la répartition provinciale de l'échantillon de la Contre-vérification des dossiers. La répartition infraprovinciale de l'échantillon de la Contre-vérification des dossiers exige un lissage de paramètres définis au niveau des strates. Cet article montre comment le calage peut servir à ce lissage. Le problème de calage et sa solution n'exigent pas l'existence d'une solution aux contraintes de calage. Ceci évite des problèmes de convergence rencontrés par des méthodes connexes telles l'ajustement proportionnel itératif (raking).

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019255
    Description :

    Le présent article traite de l'application du paradigme de calage à l'estimation des quantiles. La méthodologie proposée suit une approche semblable à celle qui donne lieu aux estimateurs par calage originaux de Deville et Särndal (1992). Une propriété intéressante de cette nouvelle méthodologie est qu'elle ne nécessite pas la connaissance des valeurs des variables auxiliaires pour toutes les unités de la population. Il suffit de connaître les quantiles correspondants de ces variables auxiliaires. L'adoption d'une métrique quadratique permet d'obtenir une représentation analytique des poids de calage, qui sont alors similaires à ceux menant à l'estimateur par la régression généralisée (GREG). Nous discutons de l'estimation de la variance et de la construction des intervalles de confiance. Au moyen d'une petite étude par simulation, nous comparons l'estimateur par calage à d'autres estimateurs fréquemment utilisés des quantiles qui s'appuient également sur des données auxiliaires.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019259
    Description :

    Nous décrivons une approche générale de détermination du plan d'échantillonnage des enquêtes planifiées en vue de faire des inférences pour de petits domaines (sous domaines). Cette approche nécessite la spécification des priorités d'inférence pour les petits domaines. Nous établissons d'abord des scénarios de répartition de la taille de l'échantillon pour l'estimateur direct, puis pour les estimateurs composite et bayésien empirique. Nous illustrons les méthodes à l'aide d'un exemple de planification d'un sondage de la population suisse et d'estimation de la moyenne ou de la proportion d'une variable pour chacun des 26 cantons.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019262
    Description :

    Les populations humaines cachées, Internet et d'autres structures en réseau conceptualisées mathématiquement sous forme de graphes sont intrinsèquement difficiles à échantillonner par les moyens conventionnels et les plans d'étude les plus efficaces comportent habituellement des procédures de sélection de l'échantillon par suivi adaptatif des liens reliant un n'ode à un autre. Les données d'échantillon obtenues dans le cadre de telles études ne sont généralement pas représentatives au pied de la lettre de la population d'intérêt dans son ensemble. Cependant, un certain nombre de méthodes fondées sur le plan de sondage ou sur un modèle sont maintenant disponibles pour faire des inférences efficaces à partir d'échantillons de ce type. Les méthodes fondées sur le plan de sondage ont l'avantage de ne pas s'appuyer sur un modèle de population hypothétique, mais dépendent, en ce qui concerne leur validité, de la mise en oeuvre du plan de sondage dans des conditions contrôlées et connues, ce qui est parfois difficile, voire impossible, en pratique. Les méthodes fondées sur un modèle offrent plus de souplesse quant au plan de sondage, mais requièrent que la population soit modélisée au moyen de modèles de graphes stochastiques et que le plan de sondage soit ignorable ou de forme connue, afin qu'il puisse être inclus dans les équations de vraisemblance ou d'inférence bayésienne. Aussi bien pour les méthodes basées sur le plan de sondage que celles fondées sur un modèle, le point faible est souvent le manque de contrôle concernant l'obtention de l'échantillon initial, à partir duquel débute le dépistage des liens. Les plans de sondage décrits dans le présent article offrent une troisième méthode, dans laquelle les probabilités de sélection de l'échantillon deviennent pas à pas moins dépendantes de la sélection de l'échantillon initial. Un modèle de « marche aléatoire » markovienne idéalise au moyen d'un graphe, les tendances d'un plan d'échantillonnage naturel d'une séquence de sélections par dépistage de liens à suivre. Le présent article présente des plans de sondage à marche uniforme ou ciblée dans lesquels la marche aléatoire est ajustée à chaque pas afin de produire un plan de sondage ayant les probabilités stationnaires souhaitées. On obtient ainsi un échantillon qui, à d'importants égards, est représentatif au pied de la lettre de la population d'intérêt dans son ensemble, ou qui ne nécessite que de simples facteurs de pondération pour qu'il en soit ainsi.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019260
    Description :

    Nous examinons le recours à l'imputation et à la pondération pour corriger l'erreur de mesure dans l'estimation d'une fonction de distribution. Le problème qui a motivé l'étude est celui de l'estimation de la distribution de la rémunération horaire au Royaume Uni au moyen de données provenant de l'Enquête sur la population active. Les erreurs de mesure causent un biais et le but est d'utiliser des données auxiliaires, mesurées avec précision pour un sous échantillon, en vue de le corriger. Nous envisageons divers estimateurs ponctuels, fondés sur différentes approches d'imputation et de pondération, dont l'imputation fractionnaire, l'imputation par la méthode du plus proche voisin, l'appariement d'après la moyenne prévisionnelle et la pondération par le score de propension à répondre. Nous comparons ensuite ces estimateurs ponctuels d'un point de vue théorique et par simulation. Nous recommandons d'adopter une approche d'imputation fractionnaire par appariement d'après la moyenne prévisionnelle. Elle donne les mêmes résultats que la pondération par le score de propension, mais a l'avantage d'être légèrement plus robuste et efficace.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019266
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2006-07-20

  • Articles et rapports : 12-001-X20060019256
    Description :

    Dans certaines situations, le plan de sondage d'une enquête est assez complexe et comporte des plans fondamentalement différents pour divers domaines. L'effet de plan des estimations fondées sur l'échantillon total est une somme pondérée des effets de plan selon le domaine. Nous calculons les pondérations sous un modèle approprié et illustrons leur utilisation au moyen de données provenant de l'Enquête sociale européenne (European Social Survey ou ESS).

    Date de diffusion : 2006-07-20

  • Articles et rapports : 89-552-M2006014
    Description :

    Dans le présent document, nous examinons le rôle que joue l'accumulation du capital humain dans la détermination des niveaux relatifs du revenu par habitant dans les provinces canadiennes. Nous faisons surtout appel à deux indicateurs différents du capital humain, fondés respectivement sur la réussite universitaire et sur les résultats en littératie. Nous construisons une série chronologique synthétique du niveau de littératie moyen des entrants sur le marché du travail pour chaque période comprise entre 1951 et 2001 d'après le profil démographique des résultats en littératie tirés de l'Enquête sur la littératie et les compétences des adultes de 2003. Les chiffres du recensement fournissent, depuis 1951, le pourcentage de la population d'âge actif possédant un grade universitaire. Nos principaux résultats sont les suivants : premièrement, les deux indicateurs du capital humain constituent de solides variables prédictives des niveaux relatifs du revenu par habitant (moins les paiements de transfert) dans les provinces, ainsi que des taux relatifs d'urbanisation et de certains chocs propres à l'Alberta et au Québec. Deuxièmement, les compétences acquises grâce à une année de scolarité supplémentaire se traduisent par une hausse d'environ 7,3 % du revenu par habitant. Troisièmement, nous constatons que notre indicateur de la littératie ne s'avère pas supérieur à celui de la réussite universitaire. Cette constatation tranche nettement avec notre résultat obtenu récemment à l'échelle transnationale (Coulombe, Tremblay et Marchand [2004]) et semble dénoter une substantielle erreur de mesure dans les données transnationales sur la scolarité. Quatrièmement, en portant expressément sur des économies régionales dont les niveaux d'infrastructure sociale et de développement social sont semblables, notre analyse fournit peut-être des estimations plus fiables de l'apport de l'accumulation du capital humain aux niveaux de vie relatifs.

    Date de diffusion : 2006-04-05

  • Articles et rapports : 12-001-X20050029050
    Description :

    Nous explicitons dans cet article certaines propriétés distributionnelles des unités d'échantillonnage qui ne sont habituellement pas décrites dans la documentation, notamment leur structure de corrélation et le fait que celle ci ne dépend pas d'indices de population attribués arbitrairement. Ces propriétés importent pour plusieurs méthodes d'estimation, dont l'efficacité serait améliorée si on les mentionnait explicitement.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20050029046
    Description :

    La pondération pour la non réponse est une méthode courante de traitement de la non-réponse totale dans les sondages. Elle vise à réduire le biais dû à la non-réponse, mais produit souvent un accroissement de la variance. Par conséquent, son efficacité est souvent considérée comme un compromis entre le biais et la variance. Cette vision est cependant simpliste, car la pondération pour la non réponse peut, en fait, réduire le biais ainsi que la variance. Pour réduire le biais de non réponse, une covariable de repondération doit avoir deux caractéristiques : elle doit être corrélée à la probabilité de réponse, d'une part, et à la variable d'intérêt, d'autre part. Si cette deuxième caractéristique existe, la repondération peut réduire plutôt qu'augmenter la variance d'échantillonnage. Nous présentons une analyse détaillée du biais et de la variance dans le cas d'une pondération pour l'estimation d'une moyenne de sondage au moyen de cellules d'ajustement. L'analyse donne à penser que la caractéristique la plus importante des variables à inclure dans la repondération est qu'elles soient prédictives des variables d'intérêt; la prédiction de la propension à répondre est un objectif secondaire, quoiqu'utile. Nous proposons des estimations empiriques de la racine carrée de l'erreur quadratique moyenne pour déterminer dans quelles circonstances la repondération est efficace et nous les évaluons au moyen d'une étude en simulation. Un estimateur composite simple fondé sur la racine de l'erreur quadratique moyenne empirique donne de meilleurs résultats que l'estimateur pondéré dans les simulations.

    Date de diffusion : 2006-02-17

Références (13)

Références (13) (13 of 13 results)

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2006001
    Description :

    Dans ce guide, on présente de l'information susceptible d'intéresser les utilisateurs de données provenant de l'Enquête sur les dépenses des ménages. Dans le cadre de cette enquête, on recueille des données sur les habitudes de dépenses, les caractéristiques des logements et de l'équipement ménager des ménages canadiens. L'enquête vise les ménages privés des 10 provinces. (Depuis 1999, les territoires sont étudiés à tous les deux ans.)

    Ce guide comprend les définitions des termes et des variables de l'enquête, ainsi que des descriptions sur les méthodes de l'enquête et la qualité des données. Il contient aussi une section décrivant les statistiques pouvant être produites au moyen des données sur les dépenses (dont la part consacrée au budget, la part de marché, les agrégats et les médianes).

    Date de diffusion : 2006-12-12

  • Produits techniques : 68-514-X
    Description :

    L'approche utilisée par Statistique Canada pour la collecte et la diffusion de données économiques a évolué depuis plusieurs décennies vers un système de collecte et d'estimation fortement intégré qui alimente le cadre du Système de comptabilité nationale du Canada.

    L'élément clé de cette approche a été la création de l'Enquête unifiée auprès des entreprises, qui avait pour objet d'améliorer l'uniformité, la cohérence, l'ampleur et la profondeur des données des enquêtes-entreprises.

    L'EUE a atteint cet objectif en regroupant dans un cadre commun un grand nombre d'enquêtes-entreprises annuelles du Canada. Ce cadre comprenait une seule base de sondage, un schéma pour le plan d'échantillonnage, l'harmonisation conceptuelle du contenu des enquêtes, divers moyens d'utiliser les données administratives pertinentes, une collecte intégrée des données, des outils de traitement et d'analyse, et un entrepôt central de données.

    Date de diffusion : 2006-11-20

  • Produits techniques : 75F0002M2006007
    Description :

    Le présent document résume les données sur les caractéristiques du logement et les dépenses liées au logement qui sont disponibles dans l'EDTR, une attention particulière étant portée aux méthodes d'imputation utilisées pour ces données. De 1994 à 2001, l'enquête ne portait que sur quelques caractéristiques, surtout le mode d'occupation et le type de logement. En 2002, avec le début de la commandite de la Société canadienne d'hypothèques et de logement (SCHL), plusieurs autres caractéristiques ainsi que des dépenses détaillées liées au logement ont été ajoutées à l'enquête. Diverses méthodes d'imputation ont aussi été adoptées à ce moment là, pour remplacer les valeurs manquantes attribuables à la non réponse à l'enquête, et pour fournir les coûts des services publics qui contribuent au coût total du logement. Ces méthodes tirent parti du plan de sondage longitudinal de l'EDTR, et elles utilisent également des données d'autres sources comme l'Enquête sur la population active et le Recensement. En juin 2006, d'autres améliorations aux méthodes d'imputation ont été adoptées pour 2004 et appliquées à des années antérieures dans le cadre d'une révision historique. Le présent rapport documente également cette révision.

    Date de diffusion : 2006-07-26

  • Produits techniques : 12-002-X20060019253
    Description :

    Avant que des résultats analytiques ne soient diffusés par les Centres de données de recherche (CDR), les analystes de ces centres doivent procéder à une analyse (ou à une vérification) des risques de divulgation. Lorsqu'ils examinent tout produit analytique, ils appliquent les lignes directrices de Statistique Canada sur le contrôle de divulgation comme moyen de sauvegarde de la confidentialité pour les répondants des enquêtes. Dans le cas d'ensembles de données comme ceux de l'Enquête auprès des peuples autochtones (EAPA), de l'Enquête sur la diversité ethnique (EDE), de l'Enquête sur la participation et les limitations d'activités (EPLA) et de l'Enquête longitudinale auprès des immigrants du Canada (ELIC), Statistique Canada a élaboré des lignes directrices complémentaires portant sur l'arrondissement des résultats analytiques pour encore améliorer cette sauvegarde. Dans le présent article, nous exposerons la raison d'être de ce surcroît de procédures applicables à ces ensembles et préciserons ce que sont les lignes directrices en matière d'arrondis. Plus important encore, nous proposerons plusieurs façons d'aider les chercheurs à se conformer aux protocoles en question avec plus d'efficacité et d'efficience.

    Date de diffusion : 2006-07-18

  • Produits techniques : 12-002-X20060019254
    Description :

    Dans cet article, nous expliquons comment joindre les données sommaires du recensement par région à des données d'enquête ou à des données administratives. Nous citons des exemples d'ensembles de données présents dans les Centres de données de recherche de Statistique Canada, mais les méthodes valent aussi pour des ensembles extérieurs. Par quatre exemples, nous illustrons des situations où se trouvent fréquemment les chercheurs : (1) cas où les données d'enquête (ou les données administratives) et les données du recensement contiennent des identificateurs géographiques qui se situent au même niveau et sont codés pour la même année de référence du découpage géographique aux fins du recensement; (2) cas où les deux fichiers contiennent des identificateurs géographiques pour la même année de référence, mais pour des niveaux différents de découpage géographique du recensement; (3) cas où les deux fichiers contiennent des données codées pour des années de référence différentes; (4) cas où les données d'enquête n'ont pas d'identificateurs géographiques, ceux ci devant d'abord être produits à partir des codes postaux du fichier d'enquête. Ces exemples sont présentés en syntaxe SAS, mais les principes s'appliquent à d'autres langages de programmation ou progiciels statistiques.

    Date de diffusion : 2006-07-18

  • Classification : 82-225-X20060099205
    Description :

    L'aperçu de la confirmation des décès décrit le module de confirmation des décès du Registre canadien du cancer, sa structure, sa fonction et son rôle dans le fonctionnement du registre national du cancer. Les entrées et les sorties sont énumérées et décrites brièvement, de même que les différentes étapes constituant le processus de confirmation des décès.

    Date de diffusion : 2006-07-07

  • Produits techniques : 21-601-M2006079
    Description :

    Les résultats de ce document de travail font ressortir l'importance de l'appui du public, examinent les besoins en capitaux des entreprises de ce secteur et mettent en évidence la charge considérable que doivent supporter les entreprises de plus petite taille.

    Date de diffusion : 2006-06-15

  • Produits techniques : 75F0002M2006001
    Description :

    Une entrevue préliminaire visant à recueillir des renseignements généraux est menée auprès de tous les répondants âgés de 16 ans et plus qui sont ajoutés à l'échantillon de l'Enquête sur la dynamique du travail et du revenu (EDTR). Dans le cas de la majorité des répondants longitudinaux, cela se produit au moment de l'ajout d'un nouveau panel et de la collecte des renseignements préliminaires pendant la première entrevue sur le travail. Toutefois, toutes les personnes vivant avec un répondant longitudinal sont aussi entrevueées aux fins de l'EDTR. Les entrevues préliminaires sont donc menées auprès des nouveaux membres d'un ménage pendant leur première entrevue sur le travail après leur arrivée dans le ménage. Les personnes longitudinales ayant atteint l'âge de 16 ans pendant la participation de leur ménage à l'échantillon de l'EDTR peuvent alors participer aux entrevues de l'EDTR; on leur pose donc les questions de l'entrevue préliminaire au cours de leur première entrevue sur le travail.

    Ce document de recherche présente le contenu de l'entrevue préliminaire de 2005 (pour l'année de référence 2004) y compris le libellé et le cheminement des questions ainsi que les choix de réponses possibles.

    Date de diffusion : 2006-04-06

  • Produits techniques : 75F0002M2006003
    Description :

    L'entrevue pour l'Enquête sur la dynamique du travail et du revenu (EDTR) est réalisée au moyen d'interview assistée par ordinateur (IAO); il n'y a pas de questionnaires imprimés pour la collecte. Le présent document est le rapprochement écrit de l'IAO, ou du questionnaire.

    Par les années passées, dans le cadre de l'EDTR, on effectuait une entrevue sur le travail en janvier, et une entrevue distincte sur le revenu en mai. En 2005 (pour l'année de référence 2004), les deux entrevues ont été combinées en une, qui se tient au mois de janvier.

    Une entrevue sur le travail et le revenu est recueillie pour tous les répondants âgés de 16 ans et plus. Les répondants ont le chois entre répondre à des questions sur leur revenu au cours d'une entrevue ou donner à Statistique Canada la permission d'utiliser leurs dossiers de l'impôt sur le revenu.

    En janvier 2005, les données pour l'année de référence 2004 ont été recueillies auprès des panels 3 et 4. Le panel 3, qui en est à sa sixième et dernière année, regroupe environ 17 000 ménages, et le panel 4, qui en est à sa troisième année, compte lui aussi quelque 17 000 ménages.

    Le présent document brosse un tableau de la structure de l'entrevue sur le travail et le revenu de janvier 2005 (pour l'année de référence 2004) en présentant la formulation des questions, les réponses possibles, et le cheminement des questions.

    Date de diffusion : 2006-04-06

  • Produits techniques : 75F0002M2006005
    Description :

    L'Enquête sur la dynamique du travail et du revenu (EDTR) est une enquête longitudinale qui date de 1993. Elle se veut un moyen de mesurer les variations du bien-être économique des Canadiens ainsi que les facteurs touchant ces changements.

    Les enquêtes par sondage peuvent comporter des erreurs. Comme dans toutes ses enquêtes, Statistique Canada met un temps et un effort considérable à contrôler ces erreurs à chaque stade de l'Enquête sur la dynamique du travail et du revenu. Mais il y a quand même des erreurs. Statistique Canada a pour politique de fournir des mesures de la qualité des données pour aider ses utilisateurs à bien interpréter les données. Le présent rapport résume les mesures de qualité qui ont pour objet de décrire la qualité des données de l'EDTR. Parmis les mesures incluses dans le rapport nous retrouvons la composition de l'échantillon, le taux d'érosion, les erreurs d'échantillonnage, les erreurs de couverture, le taux de réponse, le taux de permission d'accès au dossier fiscal, le taux de couplage avec le dossier fiscal et le taux d'imputation.

    Date de diffusion : 2006-04-06

  • Produits techniques : 75F0002M2006002
    Description :

    Dans les années précédentes, l'EDTR comprenait une entrevue sur le travail en janvier et une entrevue distincte sur le revenu en mai. En 2005 (année de référence 2004), les deux entrevues ont été combinées en une seule entrevue menée en janvier.

    Les données sont recueillies au moyen d'une méthode d'entrevue assistée par ordinateur; il n'y a donc pas de questionnaires papier pour la collecte. Les questions, les réponses et le déroulement de l'entrevue sur le travail et le revenu sont décrits dans d'autres documents de recherche de l'EDTR. Ce document présente les renseignements de la partie Entrée et sortie de l'entrevue 2005 sur le travail et le revenu (pour l'année de référence 2004).

    La composante d'Entrée et Sortie est répartie en cinq modules différents. Le module Entrée correspond à la première série de données recueillies. Il sert à mettre à jour les données sur le lieu de résidence, les conditions et les dépenses de logement ainsi que sur la composition du ménage. Pour chaque personne signalée au module Entrée, le module Démographique permet de réunir (ou de mettre à jour) le nom de la personne, la date de naissance, le sexe, et l'état matrimonial. Ensuite, le module Liens de parenté permet de réunir (ou de mettre à jour) le lien entre chaque répondant et tous les autres membres du ménage. Le module Sortie comprend des questions sur l'identité de la personne avec qui communiquer pour la prochaine entrevue et les noms, numéros de téléphone et adresses de deux personnes-ressources à utiliser seulement si un dépistage des répondants est requis ultérieurement. Un aperçu de la composante Dépistage est également inclus dans ce document.

    Date de diffusion : 2006-03-27

  • Index et guides : 92-134-X
    Description :

    Le présent document est un résumé des résultats des analyses de contenu du Test du recensement de 2004. La première partie explique brièvement dans quel contexte s'inscrivent les analyses de contenu en décrivant la nature de l'échantillon, les limites qui y sont rattachées ainsi que les stratégies déployées pour évaluer la qualité des données. La deuxième partie donne un aperçu global des résultats pour les questions n'ayant pas changé depuis le Recensement de 2001 en décrivant les similarités entre les distributions et les taux de non-réponse de 2001 et de 2004. La troisième partie s'attarde davantage sur les nouvelles questions et les questions qui ont changé substantiellement : les couples de même sexe, les origines ethniques, les niveaux de scolarité, le lieu d'obtention du plus haut niveau d'études, la fréquentation scolaire, la permission d'utiliser les renseignements contenus dans les dossiers administratifs de revenu et la permission d'accéder aux données personnelles 92 ans après le recensement. La dernière partie traite des résultats d'ensemble pour les questions dont le contenu a été codé lors du test de 2004, notamment les variables d'industrie, de profession et de lieu de travail.

    Date de diffusion : 2006-03-21

  • Enquêtes et programmes statistiques — Documentation : 71F0031X2006003
    Description :

    Cet article est une introduction ainsi qu'une discussion sur les modifications apportées aux estimations de l'Enquête sur la population active en janvier 2006. Parmi ces modifications on retrouve notamment l'ajustement des estimations des chiffres de la population, des améliorations aux estimations des secteurs public et privé, ainsi que des mises à jour historiques de plusieurs petites agglomérations de recensement (AR).

    Date de diffusion : 2006-01-25

Date de modification :