Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Contenu

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Contenu

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Contenu

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Contenu

1 facettes affichées. 1 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (30)

Tout (30) (25 of 30 results)

  • Articles et rapports : 12-001-X201700254897
    Description :

    Cette note de Chris Skinner présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254871
    Description :

    L’article aborde la question de savoir comment utiliser des sources de données de rechange, telles que les données administratives et les données des médias sociaux, pour produire les statistiques officielles. Puisque la plupart des enquêtes réalisées par les instituts nationaux de statistique sont répétées au cours du temps, nous proposons une approche de modélisation de séries chronologiques structurelle multivariée en vue de modéliser les séries observées au moyen d’une enquête répétée avec les séries correspondantes obtenues à partir de ces sources de données de rechange. En général, cette approche améliore la précision des estimations directes issues de l’enquête grâce à l’utilisation de données d’enquête observées aux périodes précédentes et de données provenant de séries auxiliaires connexes. Ce modèle permet aussi de profiter de la plus grande fréquence des données des médias sociaux pour produire des estimations plus précises en temps réel pour l’enquête par sondage, au moment où les statistiques pour les médias sociaux deviennent disponibles alors que les données d’enquête ne le sont pas encore. Le recours au concept de cointégration permet d’examiner dans quelle mesure la série de rechange représente les mêmes phénomènes que la série observée au moyen de l’enquête répétée. La méthodologie est appliquée à l’Enquête sur la confiance des consommateurs des Pays-Bas et à un indice de sentiments dérivé des médias sociaux.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 13-605-X201700114840
    Description :

    Statistique Canada prépare actuellement le système statistique afin de pouvoir déterminer les répercussions de la transition du cannabis récréatif du domaine illégal au domaine légal et d’éclairer les activités économiques et sociales liées à la consommation du cannabis après cette transition. Bien que le système de statistiques sociales permette de recueillir des renseignements sur l’utilisation du cannabis, des mises à jour seront requises pour mesurer plus exactement les effets sur la santé et l’incidence sur le système judiciaire. L’infrastructure statistique actuelle servant à mesurer de façon plus exhaustive l’utilisation et les répercussions des substances comme le tabac et l’alcool pourrait être adaptée pour en faire autant pour le cannabis. Toutefois, les statistiques économiques accessibles ne précisent pas le rôle que jouent les drogues illégales dans l’économie. Tant les statistiques sociales qu’économiques devront être mises à jour pour refléter la légalisation du cannabis, et le défi est particulièrement important pour les statistiques économiques. Le présent document résume les travaux menés actuellement à cette fin.

    Date de diffusion : 2017-09-28

  • Articles et rapports : 82-003-X201601214687
    Description :

    La présente étude donne un aperçu du couplage qui a été effectué entre l’Enquête sur la santé dans les collectivités canadiennes et la Base canadienne de données sur la mortalité. L’article explique le processus de couplage des enregistrements et présente les résultats concernant les associations entre les comportements en matière de santé et la mortalité dans un échantillon représentatif de Canadiens.

    Date de diffusion : 2016-12-21

  • Articles et rapports : 12-001-X201600214663
    Description :

    Nous présentons des preuves théoriques que les efforts déployés durant la collecte des données en vue d’équilibrer la réponse à l’enquête en ce qui concerne certaines variables auxiliaires augmentera les chances que le biais de non-réponse soit faible dans les estimations qui sont, en fin de compte, produites par pondération calée. Nous montrons que la variance du biais – mesurée ici comme étant l’écart de l’estimateur calé par rapport à l’estimateur sans biais sur échantillon complet (non réalisé) – diminue linéairement en fonction du déséquilibre de la réponse que nous supposons être mesuré et contrôlé continuellement tout au long de la période de collecte des données. Cela offre donc la perspective intéressante d’un plus faible risque de biais si l’on peut gérer la collecte des données de manière à réduire le déséquilibre. Les résultats théoriques sont validés au moyen d’une étude en simulation s’appuyant sur des données réelles provenant d’une enquête-ménages estonienne.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600114538
    Description :

    La vérification automatique consiste en l’utilisation d’un ordinateur pour déceler et corriger sans intervention humaine les valeurs erronées dans un ensemble de données. La plupart des méthodes de vérification automatique actuellement employées aux fins de la statistique officielle sont fondées sur les travaux fondamentaux de Fellegi et Holt (1976). La mise en application de cette méthode dans la pratique révèle des différences systématiques entre les données vérifiées manuellement et celles qui sont vérifiées de façon automatisée, car l’humain est en mesure d’effectuer des opérations de vérification complexes. L’auteur du présent article propose une généralisation du paradigme de Fellegi-Holt qui permet d’intégrer de façon naturelle une grande catégorie d’opérations de vérification. Il présente aussi un algorithme qui résout le problème généralisé de localisation des erreurs qui en découle. Il est à espérer que cette généralisation puisse améliorer la pertinence des vérifications automatiques dans la pratique et ainsi accroître l’efficience des processus de vérification des données. Certains des premiers résultats obtenus à l’aide de données synthétiques sont prometteurs à cet égard.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114545
    Description :

    L’estimation des quantiles est une question d’intérêt dans le contexte non seulement de la régression, mais aussi de la théorie de l’échantillonnage. Les expectiles constituent une solution de rechange naturelle ou un complément aux quantiles. En tant que généralisation de la moyenne, les expectiles ont gagné en popularité ces dernières années parce qu’en plus d’offrir un portrait plus détaillé des données que la moyenne ordinaire, ils peuvent servir à calculer les quantiles grâce aux liens étroits qui les associent à ceux-ci. Nous expliquons comment estimer les expectiles en vertu d’un échantillonnage à probabilités inégales et comment les utiliser pour estimer la fonction de répartition. L’estimateur ajusté de la fonction de répartition obtenu peut être inversé pour établir les estimations des quantiles. Nous réalisons une étude par simulations pour examiner et comparer l’efficacité de l’estimateur fondé sur des expectiles.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 82-003-X201600114306
    Description :

    Le présent article donne un aperçu de la création, du contenu et de la qualité de la Base de données sur la cohorte canadienne de naissance du Recensement de 2006.

    Date de diffusion : 2016-01-20

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214250
    Description :

    L’évaluation de l’impact des effets de mode sur les estimations d’enquête est devenue un objectif de recherche crucial en raison de l’utilisation croissante des plans de sondage à modes mixtes. Malgré les avantages inhérents aux plans de ce genre, comme la réduction des coûts et l’augmentation de la couverture, il y a une évidence manifeste à l’effet que le mode d’enquête peut avoir des effets importants relativement à la précision d’une enquête. Ces effets risquent d’aboutir à des statistiques qui ne sont pas comparables dans le temps ou entre des sous-groupes de population et d’accroître le biais. Les plans de collecte adaptatifs offrent un cadre mathématique souple qui permet d’optimiser l’équilibre entre la qualité et les coûts de l’enquête. Dans cet article, nous utilisons des plans adaptatifs afin de minimiser les effets de mode. Nous illustrons notre modèle d’optimisation au moyen de l’étude du cas de l’Enquête sur la population active des Pays-Bas. Nous mettons l’accent sur les effets de mode dépendant des items et nous évaluons l’impact sur la qualité des enquêtes par comparaison avec une norme de référence.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214229
    Description :

    L’estimation autopondérée au moyen de méthodes d’échantillonnage avec probabilités égales (epsem pour equal probability selection methods) est souhaitable pour des raisons d’efficacité relativement à la variance. Habituellement, pour obtenir la propriété epsem pour des plans de sondage à deux degrés (et à une phase) en vue d’estimer des paramètres au niveau de la population, on utilise le chiffre de population de chaque unité primaire d’échantillonnage (UPE) comme mesure de taille pour la sélection des UPE, ainsi que l’attribution d’une taille d’échantillon égale aux UPE sous échantillonnage aléatoire simple (EAS) des unités élémentaires. Cependant, si l’on souhaite des estimations autopondérées pour les paramètres correspondant à de multiples domaines sous une répartition préétablie de l’échantillon entre les domaines, Folsom, Potter et Williams (1987) ont montré que l’on peut utiliser une mesure composite de taille pour sélectionner les UPE afin d’obtenir des plans epsem quand on suppose qu’outre les chiffres de population des UPE au niveau des domaines (c’est à dire la répartition de la population entre les domaines dans les UPE), les identificateurs de domaines pour les unités élémentaires sont également disponibles dans la base de sondage. Le terme depsem-A sera utilisé pour désigner ce genre de plan de sondage à deux degrés (et à une phase) pour obtenir l’estimation epsem au niveau du domaine. Folsom et coll. ont également considéré des plans d’échantillonnage à deux phases et à deux degrés quand les chiffres de population des UPE au niveau des domaines sont inconnus, mais que les dénombrements d’UPE entières sont connus. Pour ces plans (que nous désignerons depsem-B) avec les UPE sélectionnées avec probabilité proportionnelle à la mesure de taille habituelle (c’est à dire la population totale de l’UPE) au premier degré, toutes les unités élémentaires dans chaque UPE sélectionnée font d’abord l’objet d’une présélection en vue de les classer par domaine à la première phase de collecte des données, avant la sélection par EAS au deuxième degré d’échantillonnage. Des échantillons stratifiés par domaine sont ensuite sélectionnés dans les UPE en appliquant des taux d’échantillonnage de domaine choisis de manière appropriée pour que les tailles d’échantillon de domaine obtenues soient celles souhaitées et que le plan d’échantillonnage résultant soit autopondéré. Dans le présent article, nous commençons par donner une justification simple des mesures composites de taille pour le plan depsem-A et des taux d’échantillonnage de domaine pour le plan depsem-B. Puis, pour les plans depsem-A et -B, nous proposons des généralisations, premièrement aux cas pour lesquels les identificateurs de domaine pour les unités élémentaires ne sont pas disponibles dans la base de sondage et les chiffres de population des UPE au niveau des domaines ne sont connus qu’approximativement à partir d’autres sources, et deuxièmement, aux cas pour lesquels les mesures de taille des UPE sont préétablies en se basant sur d’autres considérations pratiques et souhaitables de suréchantillonnage ou de sous-échantillonnage de certains domaines. Nous présentons aussi une généralisation supplémentaire en présence de sous-échantillonnage des unités élémentaires et de non-réponse dans certaines UPE à la première phase, avant la sélection des unités élémentaires de deuxième phase dans les domaines à l’intérieur de chaque UPE sélectionnée. Cette dernière généralisation du plan depsem-B est illustrée pour un échantillon aréolaire de logements.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 82-003-X201501214295
    Description :

    À l’aide du modèle de microsimulation du cancer du sein mis au point par le Cancer Intervention and Surveillance Monitoring Network de l’Université du Wisconsin adapté au contexte canadien, on a évalué 11 stratégies de dépistage par mammographie sur le plan des coûts et des années de vie ajustées en fonction de la qualité. Ces stratégies, qui s’adressent à la population générale, diffèrent selon l’âge au début et à la fin du dépistage ainsi que la fréquence des examens de dépistage. Des rapports coût/efficacité différentiels sont présentés, et des analyses de sensibilité servent à évaluer la robustesse des conclusions du modèle.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 82-003-X201501114243
    Description :

    Un outil de surveillance a été élaboré afin d’évaluer les données sur l’apport alimentaire recueillies dans le cadre d’enquêtes en fonction de Bien manger avec le Guide alimentaire canadien (GAC). L’outil permet de classer les aliments du Fichier canadien sur les éléments nutritifs (FCÉN) en fonction de leur degré de conformité avec les recommandations du GAC. Le présent article décrit l’exercice de validation effectué pour s’assurer que les aliments du FCÉN considérés « conformes aux recommandations du GAC » aient été classés de façon appropriée.

    Date de diffusion : 2015-11-18

  • Articles et rapports : 82-003-X201501014228
    Description :

    La présente étude fait état des résultats d’un couplage par appariement exact hiérarchique de données du Recensement de la population de 2006 et de données hospitalières pour toutes les provinces et les territoires (sauf le Québec) provenant de la Base de données sur les congés des patients pour la période 2006-2007 à 2008-2009. Elle a pour but de déterminer si le couplage recensement—BDCP donne des résultats similaires d’un secteur de compétence à l’autre, et si les taux de couplage et de couverture diminuent en fonction du temps écoulé depuis le recensement.

    Date de diffusion : 2015-10-21

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 82-003-X201500614196
    Description :

    La présente étude examine la faisabilité et la validité de l’utilisation des numéros d’assurance-maladie personnels pour coupler de façon déterministe le Registre canadien du cancer la Base de données sur les congés des patients, afin d’obtenir des données sur les hospitalisations des personnes atteintes d’un cancer primaire.

    Date de diffusion : 2015-06-17

  • Produits techniques : 12-002-X201500114147
    Description :

    En régression logistique, les observations influentes sont celles qui ont un effet notable sur certains aspects de l’adéquation du modèle. Une grande taille d’échantillon ne permet pas, à elle seule, d’écarter cette préoccupation; il demeure important d’examiner les observations qui pourraient être influentes, surtout dans les données d’enquêtes complexes. Le présent article décrit un algorithme simple pour rechercher les observations influentes potentielles dans les données d’enquête complexes en utilisant le logiciel SAS. Cet algorithme a été appliqué dans le cadre d’une étude fondée sur des données de l’Enquête sur la santé dans les collectivités canadiennes de 2005 en vue de déterminer les facteurs associés à l’utilisation des services des médecins de famille par les adolescents.

    Date de diffusion : 2015-03-25

  • Articles et rapports : 12-001-X201400214119
    Description :

    Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214110
    Description :

    Quand nous élaborons le plan de sondage d’une enquête, nous essayons de produire un bon plan compte tenu du budget disponible. L’information sur les coûts peut être utilisée pour établir des plans de sondage qui minimisent la variance d’échantillonnage d’un estimateur du total pour un coût fixe. Les progrès dans le domaine des systèmes de gestion d’enquête signifient qu’aujourd’hui, il est parfois possible d’estimer le coût d’inclusion de chaque unité dans l’échantillon. Le présent article décrit l’élaboration d’approches relativement simples pour déterminer si les avantages pouvant découler de l’utilisation de cette information sur les coûts au niveau de l’unité sont susceptibles d’avoir une utilité pratique. Nous montrons que le facteur important est le ratio du coefficient de variation du coût sur le coefficient de variation de l’erreur relative des coefficients de coût estimés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 82-003-X201401014098
    Description :

    La présente analyse compare une approche fondée sur un registre et une approche non fondée sur un registre pour apparier les données du Recensement de la population de 2006 et les données d’hôpital provenant de la Base de données sur les congés de patients pour le Manitoba et l’Ontario.

    Date de diffusion : 2014-10-15

  • Articles et rapports : 12-001-X201400114004
    Description :

    En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201300111824
    Description :

    Dans la plupart des enquêtes, le même traitement est réservé à toutes les unités échantillonnées et les mêmes caractéristiques de plan de collecte des données s'appliquent à toutes les personnes et à tous les ménages sélectionnés. Le présent article explique comment les plans de collecte des données peuvent être adaptés en vue d'optimiser la qualité, étant donné des contraintes de coûts. Ces types de plans sont appelés plans de collecte adaptatifs. Les éléments fondamentaux de ce genre de plans sont présentés, discutés et illustrés au moyen de divers exemples.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111823
    Description :

    Bien que l'utilisation de pondérations soit très répandue dans l'échantillonnage, leur justification ultime dans la perspective du plan de sondage pose souvent problème. Ici, nous argumentons en faveur d'une justification bayésienne séquentielle des pondérations qui ne dépend pas explicitement du plan de sondage. Cette approche s'appuie sur le type classique d'information présent dans les variables auxiliaires, mais ne suppose pas qu'un modèle relie les variables auxiliaires aux caractéristiques d'intérêt. La pondération résultante d'une unité de l'échantillon peut être interprétée de la manière habituelle comme étant le nombre d'unités de la population que cette unité représente.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111825
    Description :

    Une limite importante des méthodes actuelles de vérification automatique des données tient au fait que toutes les vérifications sont traitées comme des contraintes fermes. Autrement dit, un rejet à la vérification suppose systématiquement une erreur dans les données. Par contre, dans le cas de la vérification manuelle, les spécialistes du domaine recourent aussi à de très nombreuses vérifications avec avertissement, c'est-à-dire des contraintes destinées à repérer les valeurs et combinaisons de valeurs qui sont suspectes mais pas forcément incorrectes. L'incapacité des méthodes de vérification automatique à traiter les vérifications avec avertissement explique partiellement pourquoi, en pratique, de nombreuses différences sont constatées entre les données vérifiées manuellement et celles vérifiées automatiquement. L'objet du présent article est de présenter une nouvelle formulation du problème de localisation des erreurs qui permet de faire la distinction entre les vérifications avec rejet (hard edits) et les vérifications avec avertissement (soft edits). En outre, il montre comment ce problème peut être résolu grâce à une extension de l'algorithme de localisation des erreurs de De Waal et Quere (2003).

    Date de diffusion : 2013-06-28

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (27)

Analyses (27) (25 of 27 results)

  • Articles et rapports : 12-001-X201700254897
    Description :

    Cette note de Chris Skinner présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254871
    Description :

    L’article aborde la question de savoir comment utiliser des sources de données de rechange, telles que les données administratives et les données des médias sociaux, pour produire les statistiques officielles. Puisque la plupart des enquêtes réalisées par les instituts nationaux de statistique sont répétées au cours du temps, nous proposons une approche de modélisation de séries chronologiques structurelle multivariée en vue de modéliser les séries observées au moyen d’une enquête répétée avec les séries correspondantes obtenues à partir de ces sources de données de rechange. En général, cette approche améliore la précision des estimations directes issues de l’enquête grâce à l’utilisation de données d’enquête observées aux périodes précédentes et de données provenant de séries auxiliaires connexes. Ce modèle permet aussi de profiter de la plus grande fréquence des données des médias sociaux pour produire des estimations plus précises en temps réel pour l’enquête par sondage, au moment où les statistiques pour les médias sociaux deviennent disponibles alors que les données d’enquête ne le sont pas encore. Le recours au concept de cointégration permet d’examiner dans quelle mesure la série de rechange représente les mêmes phénomènes que la série observée au moyen de l’enquête répétée. La méthodologie est appliquée à l’Enquête sur la confiance des consommateurs des Pays-Bas et à un indice de sentiments dérivé des médias sociaux.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 13-605-X201700114840
    Description :

    Statistique Canada prépare actuellement le système statistique afin de pouvoir déterminer les répercussions de la transition du cannabis récréatif du domaine illégal au domaine légal et d’éclairer les activités économiques et sociales liées à la consommation du cannabis après cette transition. Bien que le système de statistiques sociales permette de recueillir des renseignements sur l’utilisation du cannabis, des mises à jour seront requises pour mesurer plus exactement les effets sur la santé et l’incidence sur le système judiciaire. L’infrastructure statistique actuelle servant à mesurer de façon plus exhaustive l’utilisation et les répercussions des substances comme le tabac et l’alcool pourrait être adaptée pour en faire autant pour le cannabis. Toutefois, les statistiques économiques accessibles ne précisent pas le rôle que jouent les drogues illégales dans l’économie. Tant les statistiques sociales qu’économiques devront être mises à jour pour refléter la légalisation du cannabis, et le défi est particulièrement important pour les statistiques économiques. Le présent document résume les travaux menés actuellement à cette fin.

    Date de diffusion : 2017-09-28

  • Articles et rapports : 82-003-X201601214687
    Description :

    La présente étude donne un aperçu du couplage qui a été effectué entre l’Enquête sur la santé dans les collectivités canadiennes et la Base canadienne de données sur la mortalité. L’article explique le processus de couplage des enregistrements et présente les résultats concernant les associations entre les comportements en matière de santé et la mortalité dans un échantillon représentatif de Canadiens.

    Date de diffusion : 2016-12-21

  • Articles et rapports : 12-001-X201600214663
    Description :

    Nous présentons des preuves théoriques que les efforts déployés durant la collecte des données en vue d’équilibrer la réponse à l’enquête en ce qui concerne certaines variables auxiliaires augmentera les chances que le biais de non-réponse soit faible dans les estimations qui sont, en fin de compte, produites par pondération calée. Nous montrons que la variance du biais – mesurée ici comme étant l’écart de l’estimateur calé par rapport à l’estimateur sans biais sur échantillon complet (non réalisé) – diminue linéairement en fonction du déséquilibre de la réponse que nous supposons être mesuré et contrôlé continuellement tout au long de la période de collecte des données. Cela offre donc la perspective intéressante d’un plus faible risque de biais si l’on peut gérer la collecte des données de manière à réduire le déséquilibre. Les résultats théoriques sont validés au moyen d’une étude en simulation s’appuyant sur des données réelles provenant d’une enquête-ménages estonienne.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600114538
    Description :

    La vérification automatique consiste en l’utilisation d’un ordinateur pour déceler et corriger sans intervention humaine les valeurs erronées dans un ensemble de données. La plupart des méthodes de vérification automatique actuellement employées aux fins de la statistique officielle sont fondées sur les travaux fondamentaux de Fellegi et Holt (1976). La mise en application de cette méthode dans la pratique révèle des différences systématiques entre les données vérifiées manuellement et celles qui sont vérifiées de façon automatisée, car l’humain est en mesure d’effectuer des opérations de vérification complexes. L’auteur du présent article propose une généralisation du paradigme de Fellegi-Holt qui permet d’intégrer de façon naturelle une grande catégorie d’opérations de vérification. Il présente aussi un algorithme qui résout le problème généralisé de localisation des erreurs qui en découle. Il est à espérer que cette généralisation puisse améliorer la pertinence des vérifications automatiques dans la pratique et ainsi accroître l’efficience des processus de vérification des données. Certains des premiers résultats obtenus à l’aide de données synthétiques sont prometteurs à cet égard.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114545
    Description :

    L’estimation des quantiles est une question d’intérêt dans le contexte non seulement de la régression, mais aussi de la théorie de l’échantillonnage. Les expectiles constituent une solution de rechange naturelle ou un complément aux quantiles. En tant que généralisation de la moyenne, les expectiles ont gagné en popularité ces dernières années parce qu’en plus d’offrir un portrait plus détaillé des données que la moyenne ordinaire, ils peuvent servir à calculer les quantiles grâce aux liens étroits qui les associent à ceux-ci. Nous expliquons comment estimer les expectiles en vertu d’un échantillonnage à probabilités inégales et comment les utiliser pour estimer la fonction de répartition. L’estimateur ajusté de la fonction de répartition obtenu peut être inversé pour établir les estimations des quantiles. Nous réalisons une étude par simulations pour examiner et comparer l’efficacité de l’estimateur fondé sur des expectiles.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 82-003-X201600114306
    Description :

    Le présent article donne un aperçu de la création, du contenu et de la qualité de la Base de données sur la cohorte canadienne de naissance du Recensement de 2006.

    Date de diffusion : 2016-01-20

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214250
    Description :

    L’évaluation de l’impact des effets de mode sur les estimations d’enquête est devenue un objectif de recherche crucial en raison de l’utilisation croissante des plans de sondage à modes mixtes. Malgré les avantages inhérents aux plans de ce genre, comme la réduction des coûts et l’augmentation de la couverture, il y a une évidence manifeste à l’effet que le mode d’enquête peut avoir des effets importants relativement à la précision d’une enquête. Ces effets risquent d’aboutir à des statistiques qui ne sont pas comparables dans le temps ou entre des sous-groupes de population et d’accroître le biais. Les plans de collecte adaptatifs offrent un cadre mathématique souple qui permet d’optimiser l’équilibre entre la qualité et les coûts de l’enquête. Dans cet article, nous utilisons des plans adaptatifs afin de minimiser les effets de mode. Nous illustrons notre modèle d’optimisation au moyen de l’étude du cas de l’Enquête sur la population active des Pays-Bas. Nous mettons l’accent sur les effets de mode dépendant des items et nous évaluons l’impact sur la qualité des enquêtes par comparaison avec une norme de référence.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214229
    Description :

    L’estimation autopondérée au moyen de méthodes d’échantillonnage avec probabilités égales (epsem pour equal probability selection methods) est souhaitable pour des raisons d’efficacité relativement à la variance. Habituellement, pour obtenir la propriété epsem pour des plans de sondage à deux degrés (et à une phase) en vue d’estimer des paramètres au niveau de la population, on utilise le chiffre de population de chaque unité primaire d’échantillonnage (UPE) comme mesure de taille pour la sélection des UPE, ainsi que l’attribution d’une taille d’échantillon égale aux UPE sous échantillonnage aléatoire simple (EAS) des unités élémentaires. Cependant, si l’on souhaite des estimations autopondérées pour les paramètres correspondant à de multiples domaines sous une répartition préétablie de l’échantillon entre les domaines, Folsom, Potter et Williams (1987) ont montré que l’on peut utiliser une mesure composite de taille pour sélectionner les UPE afin d’obtenir des plans epsem quand on suppose qu’outre les chiffres de population des UPE au niveau des domaines (c’est à dire la répartition de la population entre les domaines dans les UPE), les identificateurs de domaines pour les unités élémentaires sont également disponibles dans la base de sondage. Le terme depsem-A sera utilisé pour désigner ce genre de plan de sondage à deux degrés (et à une phase) pour obtenir l’estimation epsem au niveau du domaine. Folsom et coll. ont également considéré des plans d’échantillonnage à deux phases et à deux degrés quand les chiffres de population des UPE au niveau des domaines sont inconnus, mais que les dénombrements d’UPE entières sont connus. Pour ces plans (que nous désignerons depsem-B) avec les UPE sélectionnées avec probabilité proportionnelle à la mesure de taille habituelle (c’est à dire la population totale de l’UPE) au premier degré, toutes les unités élémentaires dans chaque UPE sélectionnée font d’abord l’objet d’une présélection en vue de les classer par domaine à la première phase de collecte des données, avant la sélection par EAS au deuxième degré d’échantillonnage. Des échantillons stratifiés par domaine sont ensuite sélectionnés dans les UPE en appliquant des taux d’échantillonnage de domaine choisis de manière appropriée pour que les tailles d’échantillon de domaine obtenues soient celles souhaitées et que le plan d’échantillonnage résultant soit autopondéré. Dans le présent article, nous commençons par donner une justification simple des mesures composites de taille pour le plan depsem-A et des taux d’échantillonnage de domaine pour le plan depsem-B. Puis, pour les plans depsem-A et -B, nous proposons des généralisations, premièrement aux cas pour lesquels les identificateurs de domaine pour les unités élémentaires ne sont pas disponibles dans la base de sondage et les chiffres de population des UPE au niveau des domaines ne sont connus qu’approximativement à partir d’autres sources, et deuxièmement, aux cas pour lesquels les mesures de taille des UPE sont préétablies en se basant sur d’autres considérations pratiques et souhaitables de suréchantillonnage ou de sous-échantillonnage de certains domaines. Nous présentons aussi une généralisation supplémentaire en présence de sous-échantillonnage des unités élémentaires et de non-réponse dans certaines UPE à la première phase, avant la sélection des unités élémentaires de deuxième phase dans les domaines à l’intérieur de chaque UPE sélectionnée. Cette dernière généralisation du plan depsem-B est illustrée pour un échantillon aréolaire de logements.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 82-003-X201501214295
    Description :

    À l’aide du modèle de microsimulation du cancer du sein mis au point par le Cancer Intervention and Surveillance Monitoring Network de l’Université du Wisconsin adapté au contexte canadien, on a évalué 11 stratégies de dépistage par mammographie sur le plan des coûts et des années de vie ajustées en fonction de la qualité. Ces stratégies, qui s’adressent à la population générale, diffèrent selon l’âge au début et à la fin du dépistage ainsi que la fréquence des examens de dépistage. Des rapports coût/efficacité différentiels sont présentés, et des analyses de sensibilité servent à évaluer la robustesse des conclusions du modèle.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 82-003-X201501114243
    Description :

    Un outil de surveillance a été élaboré afin d’évaluer les données sur l’apport alimentaire recueillies dans le cadre d’enquêtes en fonction de Bien manger avec le Guide alimentaire canadien (GAC). L’outil permet de classer les aliments du Fichier canadien sur les éléments nutritifs (FCÉN) en fonction de leur degré de conformité avec les recommandations du GAC. Le présent article décrit l’exercice de validation effectué pour s’assurer que les aliments du FCÉN considérés « conformes aux recommandations du GAC » aient été classés de façon appropriée.

    Date de diffusion : 2015-11-18

  • Articles et rapports : 82-003-X201501014228
    Description :

    La présente étude fait état des résultats d’un couplage par appariement exact hiérarchique de données du Recensement de la population de 2006 et de données hospitalières pour toutes les provinces et les territoires (sauf le Québec) provenant de la Base de données sur les congés des patients pour la période 2006-2007 à 2008-2009. Elle a pour but de déterminer si le couplage recensement—BDCP donne des résultats similaires d’un secteur de compétence à l’autre, et si les taux de couplage et de couverture diminuent en fonction du temps écoulé depuis le recensement.

    Date de diffusion : 2015-10-21

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 82-003-X201500614196
    Description :

    La présente étude examine la faisabilité et la validité de l’utilisation des numéros d’assurance-maladie personnels pour coupler de façon déterministe le Registre canadien du cancer la Base de données sur les congés des patients, afin d’obtenir des données sur les hospitalisations des personnes atteintes d’un cancer primaire.

    Date de diffusion : 2015-06-17

  • Articles et rapports : 12-001-X201400214119
    Description :

    Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214110
    Description :

    Quand nous élaborons le plan de sondage d’une enquête, nous essayons de produire un bon plan compte tenu du budget disponible. L’information sur les coûts peut être utilisée pour établir des plans de sondage qui minimisent la variance d’échantillonnage d’un estimateur du total pour un coût fixe. Les progrès dans le domaine des systèmes de gestion d’enquête signifient qu’aujourd’hui, il est parfois possible d’estimer le coût d’inclusion de chaque unité dans l’échantillon. Le présent article décrit l’élaboration d’approches relativement simples pour déterminer si les avantages pouvant découler de l’utilisation de cette information sur les coûts au niveau de l’unité sont susceptibles d’avoir une utilité pratique. Nous montrons que le facteur important est le ratio du coefficient de variation du coût sur le coefficient de variation de l’erreur relative des coefficients de coût estimés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 82-003-X201401014098
    Description :

    La présente analyse compare une approche fondée sur un registre et une approche non fondée sur un registre pour apparier les données du Recensement de la population de 2006 et les données d’hôpital provenant de la Base de données sur les congés de patients pour le Manitoba et l’Ontario.

    Date de diffusion : 2014-10-15

  • Articles et rapports : 12-001-X201400114004
    Description :

    En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201300111824
    Description :

    Dans la plupart des enquêtes, le même traitement est réservé à toutes les unités échantillonnées et les mêmes caractéristiques de plan de collecte des données s'appliquent à toutes les personnes et à tous les ménages sélectionnés. Le présent article explique comment les plans de collecte des données peuvent être adaptés en vue d'optimiser la qualité, étant donné des contraintes de coûts. Ces types de plans sont appelés plans de collecte adaptatifs. Les éléments fondamentaux de ce genre de plans sont présentés, discutés et illustrés au moyen de divers exemples.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111823
    Description :

    Bien que l'utilisation de pondérations soit très répandue dans l'échantillonnage, leur justification ultime dans la perspective du plan de sondage pose souvent problème. Ici, nous argumentons en faveur d'une justification bayésienne séquentielle des pondérations qui ne dépend pas explicitement du plan de sondage. Cette approche s'appuie sur le type classique d'information présent dans les variables auxiliaires, mais ne suppose pas qu'un modèle relie les variables auxiliaires aux caractéristiques d'intérêt. La pondération résultante d'une unité de l'échantillon peut être interprétée de la manière habituelle comme étant le nombre d'unités de la population que cette unité représente.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111825
    Description :

    Une limite importante des méthodes actuelles de vérification automatique des données tient au fait que toutes les vérifications sont traitées comme des contraintes fermes. Autrement dit, un rejet à la vérification suppose systématiquement une erreur dans les données. Par contre, dans le cas de la vérification manuelle, les spécialistes du domaine recourent aussi à de très nombreuses vérifications avec avertissement, c'est-à-dire des contraintes destinées à repérer les valeurs et combinaisons de valeurs qui sont suspectes mais pas forcément incorrectes. L'incapacité des méthodes de vérification automatique à traiter les vérifications avec avertissement explique partiellement pourquoi, en pratique, de nombreuses différences sont constatées entre les données vérifiées manuellement et celles vérifiées automatiquement. L'objet du présent article est de présenter une nouvelle formulation du problème de localisation des erreurs qui permet de faire la distinction entre les vérifications avec rejet (hard edits) et les vérifications avec avertissement (soft edits). En outre, il montre comment ce problème peut être résolu grâce à une extension de l'algorithme de localisation des erreurs de De Waal et Quere (2003).

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111831
    Description :

    Nous considérons une estimation prudente de la variance pour l'estimateur de Horvitz-Thompson d'un total de population sous des plans d'échantillonnage avec probabilités d'inclusion par paire nulles, appelés plans « non mesurables ». Nous décomposons l'estimateur de variance de Horvitz-Thompson classique sous ce genre de plan et caractérisons le biais de manière précise. Nous élaborons une correction du biais qui est garantie d'être faiblement prudente (non biaisée négativement) quelle que soit la nature de la non-mesurabilité. L'analyse jette de la lumière sur les conditions sous lesquelles l'estimateur de variance de Horvitz-Thompson classique donne de bons résultats malgré la non-mesurabilité et où la correction du biais prudente peut être meilleure que les approximations utilisées habituellement.

    Date de diffusion : 2013-06-28

Références (3)

Références (3) (3 results)

  • Produits techniques : 12-002-X201500114147
    Description :

    En régression logistique, les observations influentes sont celles qui ont un effet notable sur certains aspects de l’adéquation du modèle. Une grande taille d’échantillon ne permet pas, à elle seule, d’écarter cette préoccupation; il demeure important d’examiner les observations qui pourraient être influentes, surtout dans les données d’enquêtes complexes. Le présent article décrit un algorithme simple pour rechercher les observations influentes potentielles dans les données d’enquête complexes en utilisant le logiciel SAS. Cet algorithme a été appliqué dans le cadre d’une étude fondée sur des données de l’Enquête sur la santé dans les collectivités canadiennes de 2005 en vue de déterminer les facteurs associés à l’utilisation des services des médecins de famille par les adolescents.

    Date de diffusion : 2015-03-25

  • Produits techniques : 11-536-X200900110814
    Description :

    Le calage est le thème principal dans plusieurs articles récents sur l'estimation dans le contexte de l'échantillonnage. Des mots tels que "approche par calage" et "estimateurs par calage" sont souvent utilisés. Comme les auteurs d'articles aiment le souligner, le calage fournit une méthode systématique pour incorporer l'information auxiliaire dans la procédure.

    Le calage est devenu un instrument méthodologique important dans la production à grande échelle de statistiques. Plusieurs agences nationales de statistique ont développé des logiciels conçus pour calculer des poids, habituellement calés sur l'information auxiliaire disponible dans des registres administratifs et autres sources précises.

    Cet article présente une revue de l'approche par calage, en insistant sur les progrès accomplis dans la dernière décennie ou à peu près. La littérature sur le calage est en croissance rapide; l'article discute de quelques points sélectionnés.

    L'article commence avec une définition de l'approche par calage. On y passe en revue les caractéristiques importantes. On fait le contraste avec l'estimation par la régression (généralisée), qui est une méthode alternative mais différente pour prendre en compte l'information auxiliaire. On discute des aspects reliés au calcul, incluant des méthodes permettant d'éviter les poids extrêmes. Dans les premières sections de l'article, on examine des applications du calage : L'estimation d'un total de population avec échantillonnage direct à une phase. Ensuite on considère le cas de la généralisation à des paramètres plus complexes et à des plans de sondage plus complexes. Un point commun des plans plus complexes (échantillonnage à deux ou plusieurs degrés) est que l'information auxiliaire disponible peut avoir plusieurs composantes ou niveaux. On passe en revue l'utilisation du calage dans de tels cas d'information composite. Dans les dernières sections de l'article, on donne quelques exemples pour illustrer comment les résultats issus de l'idée de calage peuvent être différents des réponses fournies précédemment par des approches établies. Enfin, on discute d'applications du calage en présence d'erreurs non dues à l'échantillonnage, en particulier des méthodes d'ajustement du biais de non-réponse.

    Date de diffusion : 2009-08-11

  • Produits techniques : 11-536-X200900110805
    Description :

    On considère le cas de l'estimation d'une fonction de distribution pour une population finie en présence de non-réponse. On discute d'une approche d'imputation qui peut aussi être interprétée comme une forme d'estimation par pondération. On suppose qu'il y a une mesure complète sur au moins une variable auxiliaire qui est fortement reliée à la variable d'intérêt. L'article est motivé par une application à l'estimation de la distribution du salaire horaire en utilisant des données de l'enquête sur la population active du Royaume-Uni. Dans ce cas, la principale variable auxiliaire est une mesure approximative de la variable d'intérêt. Parmi les techniques présentées, on retrouve le plus proche voisin de la valeur prédite, l'imputation par plus proche voisin, l'imputation fractionnaire et le plus proche voisin de la probabilité prédite. Enfin, on discute de quelques propriétés théoriques et numériques de procédures alternatives.

    Date de diffusion : 2009-08-11

Date de modification :