Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (28)

Tout (28) (25 of 28 results)

  • Articles et rapports : 81-595-M2003009
    Description :

    Dans ce rapport, on examine l'utilisation de l'Enquête sur l'éducation et sur la formation des adultes (EEFA) au Canada en tant qu'outil permettant d'analyser la participation des adultes aux activités d'éducation et de formation ainsi que l'incidence de ces activités sur ces personnes.

    Date de diffusion : 2003-10-15

  • Produits techniques : 75F0002M2003006
    Description :

    Dans ce document, on présente les questions, l'enchaînement des questions et les réponses possibles du questionnaire de l'interview préliminaire de l'Enquête sur la dynamique du travail et du revenu (EDTR) de 2002.

    Date de diffusion : 2003-09-09

  • Articles et rapports : 11F0019M2003207
    Description :

    L'estimation de la mobilité intergénérationnelle du revenu pose une foule de problèmes de mesure, puisque le chercheur n'observe pas le revenu permanent, durant toute la vie. Les auteurs de presque toutes les études font une correction afin de tenir compte de la variation moyenne du revenu découlant des différences d'âge entre les répondants. En outre, les travaux récents sont basés sur l'utilisation du revenu moyen ou de variables instrumentales pour tenir compte de l'effet des erreurs de mesure résultant des chocs transitoires de revenu et des erreurs de déclaration. Cependant, les études empiriques de la mobilité intergénérationnelle du revenu n'accordent aucune attention aux changements de la variance du revenu au cours du cycle de vie que semblent indiquer les modèles économiques de l'investissement dans le capital humain.

    À partir des renseignements provenant de la base canadienne de données sur la mobilité intergénérationnelle du revenu, de la National Longitudinal Survey et de la Panel Study of Income Dynamics des États-Unis, la présente étude montre qu'il existe une forte association entre l'âge au moment de l'observation et la persistance estimée du revenu. Cette variation en fonction de l'âge est attribuable en partie à une augmentation générale de la variance du revenu transitoire durant la collecte des données. Toutefois, on décèle aussi un effet indépendant de l'investissement au cours du cycle de vie. Ces observations sont appliquées à l'examen des écarts entre les résultats des diverses études de la persistance intergénérationnelle du revenu. Parmi les études dont la méthodologie est comparable, le tiers de la variance des estimations publiées de la persistance du revenu est attribuable aux différences d'âge des pères participant aux diverses études. Enfin, les résultats forcent à s'interroger sur les vérifications de l'importance des contraintes de crédit fondées sur des mesures du revenu à différents moments du cycle de vie.

    Date de diffusion : 2003-08-05

  • Articles et rapports : 12-001-X20030016611
    Description :

    On examine des plans d'échantillonnage bayésiens à coûts fixes optimaux et approximativement optimaux pour l'estimation simultanée dans des processus de Poisson homogènes indépendants. On élabore des formules générales de répartition pour un modèle de base Poisson-Gamma et on les compare à des méthodes plus classiques de répartition. On discute aussi des méthodes permettant de trouver des lois a priori gamma représentatives sous des modèles hiérarchiques plus généraux et on montre que, dans plusieurs situations pratiques, ces méthodes donnent des approximations raisonnables de la loi a priori hiérarchique et du risque bayésien. Les méthodes mises au point sont suffisamment générales pour être appliquées à un large éventail de modèles et ne sont pas limitées aux processus de Poisson.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016601
    Description :

    Dans les estimations régionales, on utilise des données provenant de domaines comparables pour évaluer la moyenne d'une petite région en particulier. Cet emprunt d'information est justifié par la spécification d'un modèle hypothétique reliant les moyennes des petites régions. On propose donc une méthode bayésienne non informative ou objective d'estimation pour les petites régions. Cette méthode permet d'évaluer d'autres paramètres de population que la moyenne et de produire des estimations raisonnables quant à leur précision. Classification AMS 1991 : primaire 62D05; secondaire 62C10.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016612
    Description :

    Dans cette étude, on présente de nouvelles équations de calage dans lesquelles on utilise des moments de deuxième ordre de la variable auxiliaire pour évaluer la moyenne de population sous échantillonnage aléatoire simple stratifié. On présente aussi différentes façons d'évaluer la variance de l'estimateur proposé. Le nouvel estimateur résultant peut être plus efficace que l'estimateur par la régression combiné sous échantillonnage stratifié. Ainsi, on étend l'idée à l'échantillonnage double d'une population stratifiée et on étudie certains résultats de simulation.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016613
    Description :

    Le département de la sécurité de l'emploi de l'Illinois utilise des méthodes d'estimation pour petits domaines pour évaluer l'emploi à l'échelle du comté ou de la division industrielle. Il utilise pour cela un estimateur synthétique standard basé sur la capacité d'apparier les données d'échantillon du Current Employment Statistics Program à celles des dossiers administratifs ES202 et sur un modèle hypothétique de la relation entre les deux sources de données. Ce document est une étude de cas dans laquelle on examine les étapes suivies pour évaluer l'adéquation du modèle et les difficultés qu'on rencontre en effectuant le couplage des deux sources de données.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016608
    Description :

    La présente étude porte sur les propriétés non conditionnelles et conditionnelles de certains estimateurs de petites régions bien connus, à savoir l'estimateur par extension, l'estimateur par le quotient stratifié a posteriori, l'estimateur synthétique, l'estimateur composite, l'estimateur dépendant de la taille de l'échantillon et le meilleur prédicteur linéaire sans biais empirique. On examine un plan d'échantillonnage à deux degrés, puisque ce genre de plan d'échantillonnage est utilisé couramment pour les enquêtes auprès des ménages réalisées par l'Institut national de statistique d'Italie. On procède à une évaluation par simulation fondée sur des données du recensement de l'Italie de 1991. Les petites régions considérées sont les zones du marché du travail, qui sont des domaines non planifiés qui recoupent les limites des strates du plan d'échantillonnage.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016602
    Description :

    L'Enquête sur la population active (EPA) du Canada permet de produire des estimations mensuelles directes du taux de chômage aux échelons national et provincial. Le programme de l'EPA diffuse aussi des estimations du chômage pour des régions infraprovinciales, comme les régions métropolitaines de recensement (RMR) et les agglomérations de recensement (AR). Cependant, pour certaines de ces régions infraprovinciales, les estimations directes ne sont pas très fiables, parce que la taille de l'échantillon est assez petite. On utilise donc un modèle transversal et chronologique permettant d'emprunter de l'information recueillie pour diverses régions et périodes de référence afin de produire des estimations du taux de chômage fondées sur un modèle au niveau de la RMR ou de l'AR. Ce modèle est une généralisation d'un modèle transversal d'usage très répandu pour l'estimation régionale qui inclut un modèle de marche aléatoire ou modèle AR (1) pour la composante temporelle aléatoire. On utilise les données mensuelles sur les bénéficiaires de l'assurance-emploi (a.-e.) au niveau de la RMR ou de l'AR comme covariables auxiliaires dans le modèle. On suit une méthode hiérarchique bayésienne (HB) et on utilise l'échantillonneur de Gibbs pour générer des échantillons à partir de la loi conjointe a posteriori. On obtient les estimateurs Rao-Blackwellisés pour les moyennes et les variances a posteriori des taux de chômage au niveau de la RMR/AR. La méthode HB lisse les estimations d'enquête et réduit considérablement les erreurs-types. On étudie aussi l'ajustement du modèle bayésien en nous fondant sur les lois prédictives a posteriori.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030018802
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016607
    Description :

    L'Enquête sur la population économiquement active (EPEA) de la Corée a été menée afin de produire des statistiques sur le chômage pour de grands territoires comme les régions métropolitaines et les provinces. Ces grandes régions sont considérées comme des domaines planifiés dans l'EPEA, et les régions locales autonomes (RLA), comme des domaines non planifiés. Dans cette étude, on propose des méthodes d'estimations régionales pour rajuster les statistiques sur le chômage dans les RLA comprises dans les grandes régions pour lesquelles les valeurs sont évaluées directement d'après les données courantes de l'EPEA. On suggère des estimateurs synthétiques et composites dans les conditions de l'EPEA de la Corée et, pour l'estimateur basé sur un modèle, on propose l'estimateur hiérarchique de Bayes (HB) tiré du modèle multiniveaux général. L'estimateur HB utilisé dans cette étude a été introduit par You et Rao en 2000. On calcule les erreurs quadratiques moyennes des estimations synthétiques et composites à partir des données de l'EPEA par la méthode du jackknife et on les utilise pour déterminer l'exactitude des estimations régionales. On emploie l'échantillonnage de Gibbs pour obtenir les estimations HB et leurs variances a posteriori, lesquelles sont utilisées pour mesurer la précision des estimations régionales. On a évalué le chômage total pour les 10 RLA comprises dans la province de ChoongBuk d'après les données de l'EPEA de décembre 2000 par les méthodes d'estimations régionales proposées dans cette étude. On évalue la fiabilité des estimations régionales au moyen des erreurs-types relatives ou de la racine relative de l'erreur quadratique moyenne de ces estimations. On avance que, sous le système actuel de l'EPEA de la Corée, les estimations composites sont plus fiables que les autres estimations régionales.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016610
    Description :

    En présence de non-réponse partielle, en pratique, on recourt souvent à des méthodes d'imputation non pondérée, mais celles-ci produisent généralement des estimateurs biaisés sous l'hypothèse d'une réponse uniforme à l'intérieur des classes d'imputation. En nous inspirant de Skinner et Rao (2002), nous proposons un estimateur corrigé pour le biais d'une moyenne de population sous imputation par le ratio non pondérée et sous imputation aléatoire hot-deck, et nous calculons des estimateurs de la variance par linéarisation. Nous réalisons une petite étude en simulation pour évaluer les propriétés de biais et d'erreur quadratique moyenne des estimateurs obtenus. Nous étudions aussi le biais relatif et la stabilité relative des estimateurs de la variance.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016605
    Description :

    Dans ce document, on examine l'effet du choix d'un modèle sur différents types d'estimateurs des totaux des domaines (y compris les petits domaines ou les petites régions), pour une population finie échantillonnée. On compare différents types d'estimateurs pour un même énoncé de modèle sous-jacent. À notre avis, le type d'estimateur (synthétique, de régression généralisée [GREG], composite, du meilleur prédicteur linéaire sans biais empirique, hiérarchique de Bayes, etc.) constitue un aspect important de l'estimation des domaines. Quant au choix d'un modèle, y compris ses paramètres et ses effets, il constitue un deuxième aspect, différent du premier sur le plan conceptuel. Les travaux antérieurs n'ont pas toujours établi cette distinction. Pour un type d'estimateur donné, on peut calculer différents estimateurs, selon le choix du modèle. Un certain nombre de types d'estimateurs ont été proposés dans les articles récents, mais les auteurs qui les comparent de façon impartiale sont relativement peu nombreux. Dans ce document, on aborde trois types d'estimateurs : synthétique, de régression généralisée (GREG) et, dans une moindre mesure, composite. On montre que l'amélioration du modèle (transition d'un modèle faible à un modèle fort) a des effets très différents sur les divers types d'estimateurs. On indique aussi que la différence d'exactitude entre les divers types d'estimateurs dépend du choix du modèle. Pour un modèle bien défini, la différence d'exactitude entre l'estimateur synthétique et l'estimateur de régression généralisée (GREG) est négligeable, mais elle peut être substantielle si le modèle est mal défini. L'estimateur synthétique a alors tendance à être très inexact. L'étude est fondée en partie sur des résultats théoriques (pour l'échantillonnage aléatoire simple seulement) et en partie sur des résultats empiriques. Les résultats empiriques sont ceux de simulations effectuées avec des échantillons répétés tirés de deux populations finies, l'une construite artificiellement et l'autre, construite à partir de données réelles tirées de l'Enquête sur la population active finlandaise.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016609
    Description :

    Pour automatiser le processus de vérification des données, il faut résoudre le problème de localisation des erreurs, c'est-à-dire la détermination des zones erronées dans un enregistrement incorrect. En 1976, Fellegi et Holt ont proposé un paradigme pour repérer automatiquement les erreurs. Au fil des ans, ce paradigme a été généralisé pour s'énoncer comme suit : on devrait, pour que les données d'un enregistrement satisfassent à toutes les règles de vérification, modifier les valeurs des variables dont la somme des poids de fiabilité est la plus faible possible. Par poids de fiabilité d'une variable, nous entendons un nombre non négatif précisant dans quelle mesure la valeur de cette variable est jugée fiable. Étant donné ce paradigme, il faut résoudre le problème mathématique résultant. Nous examinons ici comment les méthodes de génération de sommets peuvent être utilisées pour résoudre ce problème mathématique dans le cas de données mixtes, c'est-à-dire une combinaison de données catégoriques (discrètes) et numériques (continues). Le but principal de l'article n'est pas de présenter de nouveaux résultats, mais plutôt de combiner les idées de plusieurs auteurs afin de donner une description « complète », intégrée, de l'utilisation des méthodes de génération de sommets pour résoudre le problème de localisation des erreurs dans le cas de données mixtes. Nous décrirons surtout dans notre exposé la façon dont on peut adapter aux données mixtes les méthodes élaborées pour des données numériques.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016600
    Description :

    La comparabilité internationale des statistiques officielles est importante pour les utilisations intérieures d'un pays. Or, la comparabilité internationale compte aussi pour les utilisations internationales des statistiques, notamment lorsqu'il s'agit d'élaborer des politiques mondiales, d'en assurer le suivi et d'évaluer le développement économique et social dans le monde entier. De plus, les organismes internationaux et les programmes d'assistance technique bilatérale utilisent les statistiques pour suivre l'incidence de l'assistance technique.La première partie de la présente communication décrit comment les Nations Unies et d'autres organismes utilisent les indicateurs statistiques. Nous décrivons le cadre d'utilisation des indicateurs statistiques pour ces fins et nous cernons certains enjeux concernant le choix et la qualité de ces indicateurs.De nombreux travaux de recherche méthodologique ont déjà été consacrés aux statistiques officielles, notamment par les principaux bureaux statistiques nationaux et par certains universitaires. Ces travaux ont permis de définir les méthodologies de base pour l'établissement des statistiques officielles et ont favorisé avec le temps une évolution et une amélioration considérables de la qualité. On a accompli de grands progrès. Dans une certaine mesure, toutefois, on a plutôt mis l'accent sur les utilisations nationales des statistiques officielles. Ces travaux ont évidemment profité aux utilisations internationales, qui ont aussi évolué à certains égards. Il est toutefois nécessaire de promouvoir l'avancement de la méthodologie sur le plan des besoins internationaux. Dans la deuxième partie de la présente communication, un certain nombre d'exemples illustrent cette nécessité.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 81-595-M2003005
    Description :

    Dans ce document, on élabore des procédures techniques permettant aux ministères de l'Éducation d'établir un lien entre les tests provinciaux et les tests nationaux et internationaux afin de pouvoir comparer les normes et présenter les résultats selon une échelle commune.

    Date de diffusion : 2003-05-29

  • Articles et rapports : 11F0019M2003199
    Description :

    À l'aide d'un échantillon national représentatif d'établissements, nous avons cherché à déterminer si l'adoption de certaines pratiques de travail équivalentes (PTE) a tendance à réduire le taux de démissions. Dans l'ensemble, notre analyse fournit des preuves solides d'une association négative entre l'adoption de certaines PTE et le taux de démissions, pour les établissements comptant plus de dix employés du secteur des services hautement spécialisés. Nous dégageons aussi certaines preuves d'une association négative pour le secteur des services peu spécialisés. Cependant, la force de cette association négative diminue considérablement lorsque nous ajoutons un indicateur précisant si l'établissement a adopté ou non une politique officielle de partage de l'information. Dans le secteur de la fabrication, les preuves d'une association négative sont faibles. Bien que les établissements ayant des groupes de travail autonomes aient affiché un taux de démissions plus faible que les autres, aucun ensemble de pratiques de travail étudié n'a d'effet négatif et statistiquement significatif sur ce taux. Nous émettons l'hypothèse que les PTE clés peuvent réduire davantage le roulement de la main-d'oeuvre dans des environnements techniquement complexes que dans des environnements requérant peu de compétences.

    Date de diffusion : 2003-03-17

  • Articles et rapports : 12-001-X20020026427
    Description :

    On propose une méthode d'imputation des données catégoriques fondée sur un estimateur du maximum de vraissemblance, qui est établi selon un modèle de probabilité conditionnelle (Besag 1974). On définit également une mesure de l'erreur due à la non-réponse partielle utile pour évaluer le biais par rapport à celui produit par d'autres méthodes d'imputation. Pour calculer cette mesure, on procède à un ajustement proportionnel itératif bayésien (Gelman et Rubin 1991; Schafer 1997), et nous appliquons notre méthode d'imputation à la répétition générale (1998) du recensement de 2000 de Sacramento. De plus, on emploie la mesure de l'erreur afin de comparer l'imputation de la non-réponse partielle entre notre méthode et une version de la méthode hot-deck du plus proche voisin (Fay 1999; Chen et Shao 1997, 2000) à des niveaux agrégés. Les résultats semblent indiquer que cette méthode offre une protection supplémentaire comparativement à la méthode hot-deck utilisée contre le biais d'imputation dû à l'hétérogénéité des domaines d'étude.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020029058
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020029055
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026428
    Description :

    L'analyse des données d'enquête de différentes régions géographiques dont les données de chaque région sont polychotomiques se fait facilement au moyen de modèles bayesiens hiérarchiques, même s'il y a des cellules présentant des petits nombres pour certaines de ces régions. Cela pose toutefois un problème quand les données d'enquête sont incomplètes en raison de la non-réponse, en particulier quand les caractéristiques des répondants diffèrent de celles des non-répondants. En présence de non-réponse, on applique la méthode de sélection pour l'estimation parce qu'elle permet de procéder à des inférences à l'égard de tous les paramètres. En fait, on décrit un modèle bayesien hiérarchique pour l'analyse des données de la non-réponse multinomiale dont on ne peut faire abstraction dans diverses régions géographiques, puisque certaines données peuvent être de petite taille. Comme modèle, on utilise une densité à priori Dirichlet pour les probabilités multinomiales et une densité à priori bêta pour les probabilités de réponse. Ainsi, on peut faire un emprunt d'information auprès des grandes régions, dans le but d'améliorer la fiabilité des estimations des paramètres du modèle qui s'appliquent aux petites régions. Comme la densité conjointe à posteriori de tous les paramètres est complexe, l'inférence se fonde sur l'échantillonnage et on utilise la méthode de Monte Carlo à chaînes de Markov. On applique la méthode pour obtenir une analyse des données sur l'indice de masse corporelle (IMC) tirées de la troisième édition de la National Health and Nutrition Examination Survey (NHANES III). Pour faciliter la compréhension, l'IMC est classé selon 3 niveaux naturels pour chacun des 8 domaines regroupant âge-race-sexe et des 34 comtés. On évalue le rendement du modèle à partir des données de la NHANES III et d'exemples simulés qui montrent que le modèle fonctionne passablement bien.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026433
    Description :

    Sitter et Skinner (1994) présentent une méthode qui consiste à appliquer la programmation linéaire à la conception d'enquêtes de stratification multiple, principalement dans des situations où la taille souhaitée de l'échantillon est inférieure ou à peine supérieure au nombre total de cellules de stratification. Leur méthode repose sur une idée simple, facile à comprendre et à appliquer. Cependant, en pratique, elle a le désavantage de devenir rapidement coûteuse en raison de l'importance des calculs, à mesure qu'augmente le nombre de cellules de la stratification multiple, au point de ne pouvoir être utilisée dans la plupart des situations réelles. Dans cet article, on développe davantage cette approche de programmation linéaire et élabore des méthodes en vue de réduire le nombre de calculs, de sorte qu'il soit possible de résoudre des problèmes de grande taille.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026434
    Description :

    En théorie, il est coutumier de définir les estimateurs de régression généralisée au moyen de modèles de pondération de plein rang; autrement dit, la matrice de plan d'expérience qui correspond au modèle de pondération est de plein rang. Il est bien connu que, pour de tels modèles de pondération, les poids de régression généralisée reproduisent les totaux (connus) de population des variables auxiliaires incluses dans le modèle. Toutefois, en pratique, il arrive souvent que le modèle de pondération ne soit pas de plein rang, particulièrement s'il est établi pour une stratification a posteriori incomplète. Au moyen de la théorie des matrices inverses généralisées, on montre dans quelles circonstances cette propriété de cohérence demeure valide. À titre d'exemple non trivial, on discute de la pondération cohérente entre les personnes et les ménages proposée par Lemaître et Dufour (1987), puis on montre comment la théorie est appliquée dans le logiciel Bascula.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026423
    Description :

    La réputation d'un organisme statistique national (OSN) dépend très largement de la qualité du service qu'il donne. La qualité doit être une valeur fondamentale bien ancrée dans la culture de l'organisme : offrir un service de grande qualité doit constituer la norme.

    Ce document expose ce qu'on doit entendre par un service statistique de grande qualité. Il traite en outre des facteurs qui contribuent largement à garantir une culture de la qualité dans un OSN et porte particulièrement sur les activités et les expériences de l'Australian Bureau of Statistics en la matière.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026429
    Description :

    Dans le cas de la plupart des enquêtes téléphoniques sur l'emploi du temps, on appelle les répondants potentiels une journée donnée pour leur demander de déclarer les activités de la journée précédente. Comme la plupart ne sont pas disponibles la journée du premier appel, cette méthode d'enquête fait que la probabilité d'interviewer la personne au sujet d'une journée de référence particulière risque d'être corrélée avec les activités qui ont eu lieu durant cette journée de référence. De surcroît, le biais de non-contact a plus d'importance dans le cas des enquêtes sur l'emploi du temps que dans les autres, car les réponses par procuration ne peuvent être acceptées. Par conséquent, il est essentiel, pour ces enquêtes, d'adopter une stratégie prévoyant des tentatives subséquentes de prise de contact avec les répondants. Une stratégie de prise de contact précise le calendrier des prises de contact et la période de travail sur le terrain. Les auteurs de publications antérieures ont défini deux calendriers pour procéder à ces tentatives subséquentes : un calendrier basé sur les journées convenables pour le répondant et un calendrier basé sur des journées désignées. La plupart de ces auteurs recommandent d'adopter le calendrier de journées désignées, mais offrent peu de données pour étayer ce choix. Dans cet article, nous utilisons des simulations informatiques pour examiner le biais associé au calendrier des journées convenables et à trois versions du calendrier des journées désignées. Les résultats indiquent qu'il est préférable d'utiliser le calendrier des journées désignées et prouvent la justesse des recommandations faites dans les publications antérieures. Le calendrier des journées convenables introduit un biais systématique, en ce sens que le temps consacré à des activités hors du foyer a tendance à être surestimé. Mais avant tout, les estimations fondées sur le calendrier des journées convenables sont sensibles à la variance de la probabilité d'un contact. Par contre, un calendrier de journées désignées permettant le report de l'interview ne crée qu'un biais très faible et produit des résultats robustes pour un large éventail d'hypothèses quant au profil des activités durant les diverses journées de la semaine.

    Date de diffusion : 2003-01-29

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (27)

Analyses (27) (25 of 27 results)

  • Articles et rapports : 81-595-M2003009
    Description :

    Dans ce rapport, on examine l'utilisation de l'Enquête sur l'éducation et sur la formation des adultes (EEFA) au Canada en tant qu'outil permettant d'analyser la participation des adultes aux activités d'éducation et de formation ainsi que l'incidence de ces activités sur ces personnes.

    Date de diffusion : 2003-10-15

  • Articles et rapports : 11F0019M2003207
    Description :

    L'estimation de la mobilité intergénérationnelle du revenu pose une foule de problèmes de mesure, puisque le chercheur n'observe pas le revenu permanent, durant toute la vie. Les auteurs de presque toutes les études font une correction afin de tenir compte de la variation moyenne du revenu découlant des différences d'âge entre les répondants. En outre, les travaux récents sont basés sur l'utilisation du revenu moyen ou de variables instrumentales pour tenir compte de l'effet des erreurs de mesure résultant des chocs transitoires de revenu et des erreurs de déclaration. Cependant, les études empiriques de la mobilité intergénérationnelle du revenu n'accordent aucune attention aux changements de la variance du revenu au cours du cycle de vie que semblent indiquer les modèles économiques de l'investissement dans le capital humain.

    À partir des renseignements provenant de la base canadienne de données sur la mobilité intergénérationnelle du revenu, de la National Longitudinal Survey et de la Panel Study of Income Dynamics des États-Unis, la présente étude montre qu'il existe une forte association entre l'âge au moment de l'observation et la persistance estimée du revenu. Cette variation en fonction de l'âge est attribuable en partie à une augmentation générale de la variance du revenu transitoire durant la collecte des données. Toutefois, on décèle aussi un effet indépendant de l'investissement au cours du cycle de vie. Ces observations sont appliquées à l'examen des écarts entre les résultats des diverses études de la persistance intergénérationnelle du revenu. Parmi les études dont la méthodologie est comparable, le tiers de la variance des estimations publiées de la persistance du revenu est attribuable aux différences d'âge des pères participant aux diverses études. Enfin, les résultats forcent à s'interroger sur les vérifications de l'importance des contraintes de crédit fondées sur des mesures du revenu à différents moments du cycle de vie.

    Date de diffusion : 2003-08-05

  • Articles et rapports : 12-001-X20030016611
    Description :

    On examine des plans d'échantillonnage bayésiens à coûts fixes optimaux et approximativement optimaux pour l'estimation simultanée dans des processus de Poisson homogènes indépendants. On élabore des formules générales de répartition pour un modèle de base Poisson-Gamma et on les compare à des méthodes plus classiques de répartition. On discute aussi des méthodes permettant de trouver des lois a priori gamma représentatives sous des modèles hiérarchiques plus généraux et on montre que, dans plusieurs situations pratiques, ces méthodes donnent des approximations raisonnables de la loi a priori hiérarchique et du risque bayésien. Les méthodes mises au point sont suffisamment générales pour être appliquées à un large éventail de modèles et ne sont pas limitées aux processus de Poisson.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016601
    Description :

    Dans les estimations régionales, on utilise des données provenant de domaines comparables pour évaluer la moyenne d'une petite région en particulier. Cet emprunt d'information est justifié par la spécification d'un modèle hypothétique reliant les moyennes des petites régions. On propose donc une méthode bayésienne non informative ou objective d'estimation pour les petites régions. Cette méthode permet d'évaluer d'autres paramètres de population que la moyenne et de produire des estimations raisonnables quant à leur précision. Classification AMS 1991 : primaire 62D05; secondaire 62C10.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016612
    Description :

    Dans cette étude, on présente de nouvelles équations de calage dans lesquelles on utilise des moments de deuxième ordre de la variable auxiliaire pour évaluer la moyenne de population sous échantillonnage aléatoire simple stratifié. On présente aussi différentes façons d'évaluer la variance de l'estimateur proposé. Le nouvel estimateur résultant peut être plus efficace que l'estimateur par la régression combiné sous échantillonnage stratifié. Ainsi, on étend l'idée à l'échantillonnage double d'une population stratifiée et on étudie certains résultats de simulation.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016613
    Description :

    Le département de la sécurité de l'emploi de l'Illinois utilise des méthodes d'estimation pour petits domaines pour évaluer l'emploi à l'échelle du comté ou de la division industrielle. Il utilise pour cela un estimateur synthétique standard basé sur la capacité d'apparier les données d'échantillon du Current Employment Statistics Program à celles des dossiers administratifs ES202 et sur un modèle hypothétique de la relation entre les deux sources de données. Ce document est une étude de cas dans laquelle on examine les étapes suivies pour évaluer l'adéquation du modèle et les difficultés qu'on rencontre en effectuant le couplage des deux sources de données.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016608
    Description :

    La présente étude porte sur les propriétés non conditionnelles et conditionnelles de certains estimateurs de petites régions bien connus, à savoir l'estimateur par extension, l'estimateur par le quotient stratifié a posteriori, l'estimateur synthétique, l'estimateur composite, l'estimateur dépendant de la taille de l'échantillon et le meilleur prédicteur linéaire sans biais empirique. On examine un plan d'échantillonnage à deux degrés, puisque ce genre de plan d'échantillonnage est utilisé couramment pour les enquêtes auprès des ménages réalisées par l'Institut national de statistique d'Italie. On procède à une évaluation par simulation fondée sur des données du recensement de l'Italie de 1991. Les petites régions considérées sont les zones du marché du travail, qui sont des domaines non planifiés qui recoupent les limites des strates du plan d'échantillonnage.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016602
    Description :

    L'Enquête sur la population active (EPA) du Canada permet de produire des estimations mensuelles directes du taux de chômage aux échelons national et provincial. Le programme de l'EPA diffuse aussi des estimations du chômage pour des régions infraprovinciales, comme les régions métropolitaines de recensement (RMR) et les agglomérations de recensement (AR). Cependant, pour certaines de ces régions infraprovinciales, les estimations directes ne sont pas très fiables, parce que la taille de l'échantillon est assez petite. On utilise donc un modèle transversal et chronologique permettant d'emprunter de l'information recueillie pour diverses régions et périodes de référence afin de produire des estimations du taux de chômage fondées sur un modèle au niveau de la RMR ou de l'AR. Ce modèle est une généralisation d'un modèle transversal d'usage très répandu pour l'estimation régionale qui inclut un modèle de marche aléatoire ou modèle AR (1) pour la composante temporelle aléatoire. On utilise les données mensuelles sur les bénéficiaires de l'assurance-emploi (a.-e.) au niveau de la RMR ou de l'AR comme covariables auxiliaires dans le modèle. On suit une méthode hiérarchique bayésienne (HB) et on utilise l'échantillonneur de Gibbs pour générer des échantillons à partir de la loi conjointe a posteriori. On obtient les estimateurs Rao-Blackwellisés pour les moyennes et les variances a posteriori des taux de chômage au niveau de la RMR/AR. La méthode HB lisse les estimations d'enquête et réduit considérablement les erreurs-types. On étudie aussi l'ajustement du modèle bayésien en nous fondant sur les lois prédictives a posteriori.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030018802
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016607
    Description :

    L'Enquête sur la population économiquement active (EPEA) de la Corée a été menée afin de produire des statistiques sur le chômage pour de grands territoires comme les régions métropolitaines et les provinces. Ces grandes régions sont considérées comme des domaines planifiés dans l'EPEA, et les régions locales autonomes (RLA), comme des domaines non planifiés. Dans cette étude, on propose des méthodes d'estimations régionales pour rajuster les statistiques sur le chômage dans les RLA comprises dans les grandes régions pour lesquelles les valeurs sont évaluées directement d'après les données courantes de l'EPEA. On suggère des estimateurs synthétiques et composites dans les conditions de l'EPEA de la Corée et, pour l'estimateur basé sur un modèle, on propose l'estimateur hiérarchique de Bayes (HB) tiré du modèle multiniveaux général. L'estimateur HB utilisé dans cette étude a été introduit par You et Rao en 2000. On calcule les erreurs quadratiques moyennes des estimations synthétiques et composites à partir des données de l'EPEA par la méthode du jackknife et on les utilise pour déterminer l'exactitude des estimations régionales. On emploie l'échantillonnage de Gibbs pour obtenir les estimations HB et leurs variances a posteriori, lesquelles sont utilisées pour mesurer la précision des estimations régionales. On a évalué le chômage total pour les 10 RLA comprises dans la province de ChoongBuk d'après les données de l'EPEA de décembre 2000 par les méthodes d'estimations régionales proposées dans cette étude. On évalue la fiabilité des estimations régionales au moyen des erreurs-types relatives ou de la racine relative de l'erreur quadratique moyenne de ces estimations. On avance que, sous le système actuel de l'EPEA de la Corée, les estimations composites sont plus fiables que les autres estimations régionales.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016610
    Description :

    En présence de non-réponse partielle, en pratique, on recourt souvent à des méthodes d'imputation non pondérée, mais celles-ci produisent généralement des estimateurs biaisés sous l'hypothèse d'une réponse uniforme à l'intérieur des classes d'imputation. En nous inspirant de Skinner et Rao (2002), nous proposons un estimateur corrigé pour le biais d'une moyenne de population sous imputation par le ratio non pondérée et sous imputation aléatoire hot-deck, et nous calculons des estimateurs de la variance par linéarisation. Nous réalisons une petite étude en simulation pour évaluer les propriétés de biais et d'erreur quadratique moyenne des estimateurs obtenus. Nous étudions aussi le biais relatif et la stabilité relative des estimateurs de la variance.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016605
    Description :

    Dans ce document, on examine l'effet du choix d'un modèle sur différents types d'estimateurs des totaux des domaines (y compris les petits domaines ou les petites régions), pour une population finie échantillonnée. On compare différents types d'estimateurs pour un même énoncé de modèle sous-jacent. À notre avis, le type d'estimateur (synthétique, de régression généralisée [GREG], composite, du meilleur prédicteur linéaire sans biais empirique, hiérarchique de Bayes, etc.) constitue un aspect important de l'estimation des domaines. Quant au choix d'un modèle, y compris ses paramètres et ses effets, il constitue un deuxième aspect, différent du premier sur le plan conceptuel. Les travaux antérieurs n'ont pas toujours établi cette distinction. Pour un type d'estimateur donné, on peut calculer différents estimateurs, selon le choix du modèle. Un certain nombre de types d'estimateurs ont été proposés dans les articles récents, mais les auteurs qui les comparent de façon impartiale sont relativement peu nombreux. Dans ce document, on aborde trois types d'estimateurs : synthétique, de régression généralisée (GREG) et, dans une moindre mesure, composite. On montre que l'amélioration du modèle (transition d'un modèle faible à un modèle fort) a des effets très différents sur les divers types d'estimateurs. On indique aussi que la différence d'exactitude entre les divers types d'estimateurs dépend du choix du modèle. Pour un modèle bien défini, la différence d'exactitude entre l'estimateur synthétique et l'estimateur de régression généralisée (GREG) est négligeable, mais elle peut être substantielle si le modèle est mal défini. L'estimateur synthétique a alors tendance à être très inexact. L'étude est fondée en partie sur des résultats théoriques (pour l'échantillonnage aléatoire simple seulement) et en partie sur des résultats empiriques. Les résultats empiriques sont ceux de simulations effectuées avec des échantillons répétés tirés de deux populations finies, l'une construite artificiellement et l'autre, construite à partir de données réelles tirées de l'Enquête sur la population active finlandaise.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016609
    Description :

    Pour automatiser le processus de vérification des données, il faut résoudre le problème de localisation des erreurs, c'est-à-dire la détermination des zones erronées dans un enregistrement incorrect. En 1976, Fellegi et Holt ont proposé un paradigme pour repérer automatiquement les erreurs. Au fil des ans, ce paradigme a été généralisé pour s'énoncer comme suit : on devrait, pour que les données d'un enregistrement satisfassent à toutes les règles de vérification, modifier les valeurs des variables dont la somme des poids de fiabilité est la plus faible possible. Par poids de fiabilité d'une variable, nous entendons un nombre non négatif précisant dans quelle mesure la valeur de cette variable est jugée fiable. Étant donné ce paradigme, il faut résoudre le problème mathématique résultant. Nous examinons ici comment les méthodes de génération de sommets peuvent être utilisées pour résoudre ce problème mathématique dans le cas de données mixtes, c'est-à-dire une combinaison de données catégoriques (discrètes) et numériques (continues). Le but principal de l'article n'est pas de présenter de nouveaux résultats, mais plutôt de combiner les idées de plusieurs auteurs afin de donner une description « complète », intégrée, de l'utilisation des méthodes de génération de sommets pour résoudre le problème de localisation des erreurs dans le cas de données mixtes. Nous décrirons surtout dans notre exposé la façon dont on peut adapter aux données mixtes les méthodes élaborées pour des données numériques.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20030016600
    Description :

    La comparabilité internationale des statistiques officielles est importante pour les utilisations intérieures d'un pays. Or, la comparabilité internationale compte aussi pour les utilisations internationales des statistiques, notamment lorsqu'il s'agit d'élaborer des politiques mondiales, d'en assurer le suivi et d'évaluer le développement économique et social dans le monde entier. De plus, les organismes internationaux et les programmes d'assistance technique bilatérale utilisent les statistiques pour suivre l'incidence de l'assistance technique.La première partie de la présente communication décrit comment les Nations Unies et d'autres organismes utilisent les indicateurs statistiques. Nous décrivons le cadre d'utilisation des indicateurs statistiques pour ces fins et nous cernons certains enjeux concernant le choix et la qualité de ces indicateurs.De nombreux travaux de recherche méthodologique ont déjà été consacrés aux statistiques officielles, notamment par les principaux bureaux statistiques nationaux et par certains universitaires. Ces travaux ont permis de définir les méthodologies de base pour l'établissement des statistiques officielles et ont favorisé avec le temps une évolution et une amélioration considérables de la qualité. On a accompli de grands progrès. Dans une certaine mesure, toutefois, on a plutôt mis l'accent sur les utilisations nationales des statistiques officielles. Ces travaux ont évidemment profité aux utilisations internationales, qui ont aussi évolué à certains égards. Il est toutefois nécessaire de promouvoir l'avancement de la méthodologie sur le plan des besoins internationaux. Dans la deuxième partie de la présente communication, un certain nombre d'exemples illustrent cette nécessité.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 81-595-M2003005
    Description :

    Dans ce document, on élabore des procédures techniques permettant aux ministères de l'Éducation d'établir un lien entre les tests provinciaux et les tests nationaux et internationaux afin de pouvoir comparer les normes et présenter les résultats selon une échelle commune.

    Date de diffusion : 2003-05-29

  • Articles et rapports : 11F0019M2003199
    Description :

    À l'aide d'un échantillon national représentatif d'établissements, nous avons cherché à déterminer si l'adoption de certaines pratiques de travail équivalentes (PTE) a tendance à réduire le taux de démissions. Dans l'ensemble, notre analyse fournit des preuves solides d'une association négative entre l'adoption de certaines PTE et le taux de démissions, pour les établissements comptant plus de dix employés du secteur des services hautement spécialisés. Nous dégageons aussi certaines preuves d'une association négative pour le secteur des services peu spécialisés. Cependant, la force de cette association négative diminue considérablement lorsque nous ajoutons un indicateur précisant si l'établissement a adopté ou non une politique officielle de partage de l'information. Dans le secteur de la fabrication, les preuves d'une association négative sont faibles. Bien que les établissements ayant des groupes de travail autonomes aient affiché un taux de démissions plus faible que les autres, aucun ensemble de pratiques de travail étudié n'a d'effet négatif et statistiquement significatif sur ce taux. Nous émettons l'hypothèse que les PTE clés peuvent réduire davantage le roulement de la main-d'oeuvre dans des environnements techniquement complexes que dans des environnements requérant peu de compétences.

    Date de diffusion : 2003-03-17

  • Articles et rapports : 12-001-X20020026427
    Description :

    On propose une méthode d'imputation des données catégoriques fondée sur un estimateur du maximum de vraissemblance, qui est établi selon un modèle de probabilité conditionnelle (Besag 1974). On définit également une mesure de l'erreur due à la non-réponse partielle utile pour évaluer le biais par rapport à celui produit par d'autres méthodes d'imputation. Pour calculer cette mesure, on procède à un ajustement proportionnel itératif bayésien (Gelman et Rubin 1991; Schafer 1997), et nous appliquons notre méthode d'imputation à la répétition générale (1998) du recensement de 2000 de Sacramento. De plus, on emploie la mesure de l'erreur afin de comparer l'imputation de la non-réponse partielle entre notre méthode et une version de la méthode hot-deck du plus proche voisin (Fay 1999; Chen et Shao 1997, 2000) à des niveaux agrégés. Les résultats semblent indiquer que cette méthode offre une protection supplémentaire comparativement à la méthode hot-deck utilisée contre le biais d'imputation dû à l'hétérogénéité des domaines d'étude.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020029058
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020029055
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026428
    Description :

    L'analyse des données d'enquête de différentes régions géographiques dont les données de chaque région sont polychotomiques se fait facilement au moyen de modèles bayesiens hiérarchiques, même s'il y a des cellules présentant des petits nombres pour certaines de ces régions. Cela pose toutefois un problème quand les données d'enquête sont incomplètes en raison de la non-réponse, en particulier quand les caractéristiques des répondants diffèrent de celles des non-répondants. En présence de non-réponse, on applique la méthode de sélection pour l'estimation parce qu'elle permet de procéder à des inférences à l'égard de tous les paramètres. En fait, on décrit un modèle bayesien hiérarchique pour l'analyse des données de la non-réponse multinomiale dont on ne peut faire abstraction dans diverses régions géographiques, puisque certaines données peuvent être de petite taille. Comme modèle, on utilise une densité à priori Dirichlet pour les probabilités multinomiales et une densité à priori bêta pour les probabilités de réponse. Ainsi, on peut faire un emprunt d'information auprès des grandes régions, dans le but d'améliorer la fiabilité des estimations des paramètres du modèle qui s'appliquent aux petites régions. Comme la densité conjointe à posteriori de tous les paramètres est complexe, l'inférence se fonde sur l'échantillonnage et on utilise la méthode de Monte Carlo à chaînes de Markov. On applique la méthode pour obtenir une analyse des données sur l'indice de masse corporelle (IMC) tirées de la troisième édition de la National Health and Nutrition Examination Survey (NHANES III). Pour faciliter la compréhension, l'IMC est classé selon 3 niveaux naturels pour chacun des 8 domaines regroupant âge-race-sexe et des 34 comtés. On évalue le rendement du modèle à partir des données de la NHANES III et d'exemples simulés qui montrent que le modèle fonctionne passablement bien.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026433
    Description :

    Sitter et Skinner (1994) présentent une méthode qui consiste à appliquer la programmation linéaire à la conception d'enquêtes de stratification multiple, principalement dans des situations où la taille souhaitée de l'échantillon est inférieure ou à peine supérieure au nombre total de cellules de stratification. Leur méthode repose sur une idée simple, facile à comprendre et à appliquer. Cependant, en pratique, elle a le désavantage de devenir rapidement coûteuse en raison de l'importance des calculs, à mesure qu'augmente le nombre de cellules de la stratification multiple, au point de ne pouvoir être utilisée dans la plupart des situations réelles. Dans cet article, on développe davantage cette approche de programmation linéaire et élabore des méthodes en vue de réduire le nombre de calculs, de sorte qu'il soit possible de résoudre des problèmes de grande taille.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026434
    Description :

    En théorie, il est coutumier de définir les estimateurs de régression généralisée au moyen de modèles de pondération de plein rang; autrement dit, la matrice de plan d'expérience qui correspond au modèle de pondération est de plein rang. Il est bien connu que, pour de tels modèles de pondération, les poids de régression généralisée reproduisent les totaux (connus) de population des variables auxiliaires incluses dans le modèle. Toutefois, en pratique, il arrive souvent que le modèle de pondération ne soit pas de plein rang, particulièrement s'il est établi pour une stratification a posteriori incomplète. Au moyen de la théorie des matrices inverses généralisées, on montre dans quelles circonstances cette propriété de cohérence demeure valide. À titre d'exemple non trivial, on discute de la pondération cohérente entre les personnes et les ménages proposée par Lemaître et Dufour (1987), puis on montre comment la théorie est appliquée dans le logiciel Bascula.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026423
    Description :

    La réputation d'un organisme statistique national (OSN) dépend très largement de la qualité du service qu'il donne. La qualité doit être une valeur fondamentale bien ancrée dans la culture de l'organisme : offrir un service de grande qualité doit constituer la norme.

    Ce document expose ce qu'on doit entendre par un service statistique de grande qualité. Il traite en outre des facteurs qui contribuent largement à garantir une culture de la qualité dans un OSN et porte particulièrement sur les activités et les expériences de l'Australian Bureau of Statistics en la matière.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026429
    Description :

    Dans le cas de la plupart des enquêtes téléphoniques sur l'emploi du temps, on appelle les répondants potentiels une journée donnée pour leur demander de déclarer les activités de la journée précédente. Comme la plupart ne sont pas disponibles la journée du premier appel, cette méthode d'enquête fait que la probabilité d'interviewer la personne au sujet d'une journée de référence particulière risque d'être corrélée avec les activités qui ont eu lieu durant cette journée de référence. De surcroît, le biais de non-contact a plus d'importance dans le cas des enquêtes sur l'emploi du temps que dans les autres, car les réponses par procuration ne peuvent être acceptées. Par conséquent, il est essentiel, pour ces enquêtes, d'adopter une stratégie prévoyant des tentatives subséquentes de prise de contact avec les répondants. Une stratégie de prise de contact précise le calendrier des prises de contact et la période de travail sur le terrain. Les auteurs de publications antérieures ont défini deux calendriers pour procéder à ces tentatives subséquentes : un calendrier basé sur les journées convenables pour le répondant et un calendrier basé sur des journées désignées. La plupart de ces auteurs recommandent d'adopter le calendrier de journées désignées, mais offrent peu de données pour étayer ce choix. Dans cet article, nous utilisons des simulations informatiques pour examiner le biais associé au calendrier des journées convenables et à trois versions du calendrier des journées désignées. Les résultats indiquent qu'il est préférable d'utiliser le calendrier des journées désignées et prouvent la justesse des recommandations faites dans les publications antérieures. Le calendrier des journées convenables introduit un biais systématique, en ce sens que le temps consacré à des activités hors du foyer a tendance à être surestimé. Mais avant tout, les estimations fondées sur le calendrier des journées convenables sont sensibles à la variance de la probabilité d'un contact. Par contre, un calendrier de journées désignées permettant le report de l'interview ne crée qu'un biais très faible et produit des résultats robustes pour un large éventail d'hypothèses quant au profil des activités durant les diverses journées de la semaine.

    Date de diffusion : 2003-01-29

  • Articles et rapports : 12-001-X20020026431
    Description :

    Lorsqu'on dispose de bases de sondage indépendantes énumérant tous les établissements et leur taille, on utilise habituellement, pour les enquêtes auprès des établissements, l'estimateur PPT (probabilité proportionnelle à la taille) de Hansen-Hurwitz (HH) afin d'évaluer le volume des transactions faites par les établissements avec les populations. Cet article décrit la version par échantillonnage superposé (ES) de l'estimateur HH proposée pour remplacer la version PPT. L'estimateur ES est fonction d'une liste d'établissements établie à partir d'une enquête démographique répertoriant les ménages et leur probabilité de sélection dans une enquête démographique par sondage, et du nombre de transactions, s'il y lieu, de chaque ménage avec chacun des établissements. Un modèle statistique est élaboré dans cet article en vue de comparer l'efficacité des estimateurs HH et ES pour les enquêtes par échantillonnage à un degré ou à deux degrés auprès des établissements, en supposant que la base de sondage indépendante et celle établie d'après une enquête démographique ne comportent aucune erreur de couverture ni de taille.

    Date de diffusion : 2003-01-29

Références (1)

Références (1) (1 result)

Date de modification :