Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (80)

Tout (80) (25 of 80 results)

  • Articles et rapports : 11-630-X2014003
    Description :

    L'histoire économique du Canada doit beaucoup à sa richesse en ressources naturelles. L'édition de décembre des Mégatendances canadiennes examine le rôle que ces atouts ont joué dans la croissance et le développement du pays.

    Date de diffusion : 2014-12-23

  • Articles et rapports : 12-001-X201400214091
    Description :

    L’imputation fractionnaire paramétrique (IFP) proposée par Kim (2011) est un outil d’estimation des paramètres à usage général en cas de données manquantes. Nous proposons une imputation fractionnaire hot deck (IFHD), qui est plus robuste que l’IFP ou l’imputation multiple. Selon la méthode proposée, les valeurs imputées sont choisies parmi l’ensemble des répondants, et des pondérations fractionnaires appropriées leur sont assignées. Les pondérations sont ensuite ajustées pour répondre à certaines conditions de calage, ce qui garantit l’efficacité de l’estimateur IFHD résultant. Deux études de simulation sont présentées afin de comparer la méthode proposée aux méthodes existantes.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214092
    Description :

    Les méthodologistes d’enquête étudient depuis longtemps les effets des intervieweurs sur la variance des estimations d’enquête. Les modèles statistiques tenant compte des effets aléatoires des intervieweurs sont souvent intégrés à ce genre d’études, et l’intérêt de la recherche repose sur l’ampleur de la composante de la variance de l’intervieweur. Une question peut se poser au cours d’une étude méthodologique : différents groupes d’intervieweurs (p. ex. ceux ayant de l’expérience relative à une enquête donnée par rapport aux nouvelles recrues, ou les intervieweurs IPAO par rapport aux intervieweurs ITAO) ont-ils des composantes de variance considérablement différentes dans ces modèles? Des écarts importants peuvent indiquer un besoin de formation supplémentaire pour certains sous-groupes, les propriétés moins optimales de différents modes ou styles d’interview pour certaines questions d’enquête (en ce qui concerne l’erreur quadratique moyenne globale des estimations d’enquête). Les chercheurs d’enquête désirant des réponses à ces types de questions disposent de différents outils statistiques. Le présent article cherche à fournir un aperçu des approches fréquentiste et bayésienne de rechange de la comparaison des composantes de la variance dans différents groupes d’intervieweurs d’enquête, au moyen d’un cadre de modélisation linéaire généralisée hiérarchique qui tient compte de différents types de variables d’enquête. Nous considérons d’abord les avantages et les limites de chaque approche, en comparant les méthodes utilisées pour l’estimation et l’inférence. Nous présentons ensuite une étude de simulation, en évaluant de façon empirique la capacité de chaque approche d’estimer efficacement les différences entre les composantes de la variance. Nous appliquons alors les deux approches à une analyse des données d’enquête réelles recueillies dans le cadre de la National Survey of Family Growth (NSFG) aux États-Unis. Nous concluons que les deux approches ont tendance à donner des inférences très semblables et nous présentons des suggestions à mettre en pratique, compte tenu des différences subtiles observées.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214096
    Description :

    Afin d’obtenir une meilleure couverture de la population d’intérêt et de réduire les coûts, un certain nombre d’enquêtes s’appuient sur un plan à base de sondage double, suivant lequel des échantillons indépendants sont tirés de deux bases de sondage chevauchantes. La présente étude porte sur les tests du khi-carré dans les enquêtes à base de sondage double en présence de données catégoriques. Nous étendons le test de Wald généralisé (Wald 1943), ainsi que les tests avec correction d’ordre un et correction d’ordre deux de Rao-Scott (Rao et Scott 1981) pour passer d’une enquête à base de sondage unique à une enquête à base de sondage double, et nous déterminons les distributions asymptotiques. Des simulations montrent que les deux tests avec correction de type Rao-Scott donnent de bons résultats, et il est donc recommandé de les utiliser dans les enquêtes à base de sondage double. Un exemple sert à illustrer l’utilisation des tests élaborés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214097
    Description :

    Lorsque les enquêtes mensuelles auprès des entreprises ne sont pas entièrement chevauchantes, il existe deux estimateurs différents du taux de croissance mensuelle du chiffre d’affaires, i) l’un fondé sur les totaux de population estimés mensuellement et ii) l’autre fondé purement sur les entreprises observées aux deux occasions dans la partie chevauchante des enquêtes correspondantes. Les estimations et les variances résultantes pourraient être assez différentes. Le présent article a pour but de proposer un estimateur composite optimal du taux de croissance, ainsi que des totaux de population.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214118
    Description :

    L’agrégation bootstrap est une puissante méthode de calcul utilisée pour améliorer la performance des estimateurs inefficaces. Le présent article est le premier à explorer l’utilisation de l’agrégation bootstrap dans l’estimation par sondage. Nous y examinons les effets de l’agrégation bootstrap sur les estimateurs d’enquête non différenciables, y compris les fonctions de répartition de l’échantillon et les quantiles. Les propriétés théoriques des estimateurs d’enquête agrégés par bootstrap sont examinées sous le régime fondé sur le plan de sondage et le régime fondé sur le modèle. En particulier, nous montrons la convergence par rapport au plan des estimateurs agrégés par bootstrap et obtenons la normalité asymptotique des estimateurs dans un contexte fondé sur le modèle. L’article explique comment la mise en oeuvre de l’agrégation bootstrap des estimateurs d’enquête peut tirer parti des répliques produites pour l’estimation par sondage de la variance, facilitant l’application de l’agrégation bootstrap dans les enquêtes existantes. Un autre défi important dans la mise en oeuvre de l’agrégation bootstrap en contexte d’enquête est l’estimation de la variance pour les estimateurs agrégés par bootstrap eux-mêmes, et nous examinons deux façons possibles d’estimer la variance. Les expériences par simulation révèlent une amélioration de l’estimateur par agrégation bootstrap proposé par rapport à l’estimateur original et comparent les deux approches d’estimation de la variance.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214119
    Description :

    Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214089
    Description :

    Le présent document décrit l’utilisation de l’imputation multiple pour combiner l’information de plusieurs enquêtes de la même population sous-jacente. Nous utilisons une nouvelle méthode pour générer des populations synthétiques de façon non paramétrique à partir d’un bootstrap bayésien fondé sur une population finie qui tient systématiquement compte des plans d’échantillonnage complexes. Nous analysons ensuite chaque population synthétique au moyen d’un logiciel standard de données complètes pour les échantillons aléatoires simples et obtenons une inférence valide en combinant les estimations ponctuelles et de variance au moyen des extensions de règles de combinaison existantes pour les données synthétiques. Nous illustrons l’approche en combinant les données de la National Health Interview Survey (NHIS) de 2006 et de la Medical Expenditure Panel Survey (MEPS) de 2006.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214110
    Description :

    Quand nous élaborons le plan de sondage d’une enquête, nous essayons de produire un bon plan compte tenu du budget disponible. L’information sur les coûts peut être utilisée pour établir des plans de sondage qui minimisent la variance d’échantillonnage d’un estimateur du total pour un coût fixe. Les progrès dans le domaine des systèmes de gestion d’enquête signifient qu’aujourd’hui, il est parfois possible d’estimer le coût d’inclusion de chaque unité dans l’échantillon. Le présent article décrit l’élaboration d’approches relativement simples pour déterminer si les avantages pouvant découler de l’utilisation de cette information sur les coûts au niveau de l’unité sont susceptibles d’avoir une utilité pratique. Nous montrons que le facteur important est le ratio du coefficient de variation du coût sur le coefficient de variation de l’erreur relative des coefficients de coût estimés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214090
    Description :

    Lorsqu'on s'intéresse à une population finie, il arrive qu'il soit nécessaire de tirer des échantillons dans plusieurs bases de sondage pour représenter l'ensemble des individus. Nous nous intéressons ici au cas de deux échantillons sélectionnés selon un plan à deux degrés, avec un premier degré de tirage commun. Nous appliquons les méthodes de Hartley (1962), Bankier (1986), et Kalton et Anderson (1986), et nous montrons que ces méthodes peuvent être appliquées conditionnellement au premier degré de tirage. Nous comparons également la performance de plusieurs estimateurs dans le cadre d'une étude par simulations. Nos résultats suggèrent que le choix d'un estimateur en présence de bases de sondage multiples se fasse de façon prudente, et qu'un estimateur simple est parfois préférable même s'il n'utilise qu'une partie de l'information collectée.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214128
    Description :

    Les utilisateurs et les fournisseurs de statistiques officielles, ainsi que ceux qui en assurent le financement, veulent des estimations « plus vastes, plus approfondies, plus rapides, de meilleure qualité et moins coûteuses » (selon Tim Holt, ancien chef de l’Office for National Statistics du Royaume-Uni), attributs auxquels j’ajouterais « plus pertinentes » et « moins fastidieuses ». Depuis la Deuxième Guerre mondiale, nous dépendons dans une large mesure des enquêtes sur échantillon probabiliste - celles-ci étant très bonnes dans les faits - pour atteindre ces objectifs pour les estimations dans de nombreux domaines, y compris le revenu des ménages et le chômage, l’état de santé autodéclaré, l’emploi du temps, les victimes d’actes criminels, l’activité des entreprises, les flux de produits, les dépenses des consommateurs et des entreprises, etc. Par suite des taux de plus en plus faibles de réponse totale et partielle et des preuves d’erreur de déclaration, nous avons réagi de nombreuses façons, y compris en utilisant des modes d’enquête multiples, des méthodes de pondération et d’imputation plus raffinées, l’échantillonnage adaptable, des essais cognitifs des questions d’enquête et d’autres méthodes pour maintenir la qualité des données. Dans le cas des statistiques sur le secteur des entreprises, afin de réduire le fardeau et les coûts, nous avons cessé depuis longtemps de recourir uniquement à des enquêtes pour produire les estimations nécessaires, mais jusqu’à présent, nous ne l’avons pas fait pour les enquêtes auprès des ménages, du moins pas aux États-Unis. Je soutiens que nous pouvons et que nous devons passer du paradigme de production des meilleures estimations possible à partir d’une enquête à la production des meilleures estimations possible pour répondre aux besoins des utilisateurs, à partir de sources de données multiples. Ces sources comprennent les dossiers administratifs et, de plus en plus, des données sur les transactions et des données en ligne. Je me sers de deux exemples - ceux du revenu des ménages et des installations de plomberie - pour illustrer ma thèse. Je propose des moyens d’inculquer une culture de la statistique officielle dont l’objectif est d’aboutir à des statistiques pertinentes, à jour, exactes et peu coûteuses, et qui traite les enquêtes, de même que les autres sources de données, comme des moyens d’atteindre cet objectif.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214113
    Description :

    Les enquêtes par panel à renouvellement servent à calculer des estimations des flux bruts entre deux périodes consécutives de mesure. Le présent article examine une procédure générale pour estimer les flux bruts lorsque l’enquête par panel à renouvellement a été générée à partir d’un plan de sondage complexe avec non-réponse aléatoire. Une approche à pseudo-maximum de vraisemblance est envisagée dans le contexte d’un modèle à deux degrés de chaînes de Markov pour le classement des personnes dans les catégories de l’enquête et pour la modélisation de la non-réponse.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 11-630-X2014002
    Description :

    Le Canada compte maintenant plus de 35 millions de personnes. Dans le présent numéro des Mégatendances canadiennes, nous examinons l’évolution des taux et des tendances de fécondité chez les Canadiennes.

    Date de diffusion : 2014-11-13

  • Le Quotidien
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2014-11-12

  • Produits techniques : 11-522-X2013000
    Description :

    Le Symposium 2014 était le 29e Symposium international sur les questions de méthodologie de Statistique Canada. Chaque année, le Symposium se penche sur un thème précis. En 2014, le thème était : «Au-delà des méthodes traditionnelles d’enquête : l’adaptation à un monde en évolution».

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014255
    Description :

    Le Centre d’information de réseau brésilien (NIC.br) a conçu et mené un projet pilote pour recueillir des données sur le Web, afin de produire des statistiques concernant les caractéristiques des pages Web. Les études des caractéristiques et des dimensions du Web exigent la collecte et l’analyse de données dans un environnement dynamique et complexe. L’idée de base est de recueillir des données sur un échantillon de pages Web, automatiquement, en utilisant le logiciel appelé moteur de recherche Web. Le présent article vise à diffuser les méthodes et les résultats de cette étude, ainsi qu’à démontrer les progrès actuels liés aux techniques d’échantillonnage dans un environnement dynamique.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014282
    Description :

    Le Panel des établissements de l’IAB est l’enquête auprès des établissements la plus complète qui soit menée en Allemagne, 16 000 entreprises y participant chaque année. Des interviews sur place en utilisant papier et crayon (IPC) sont réalisées depuis 1993. Un projet courant a pour objet d’examiner les effets possibles du passage de l’enquête à la méthode d’interview sur place assistée par ordinateur (IPAO) combinée à une version en ligne du questionnaire (IWAO). En guise de première étape, des questions sur l’accès à Internet, le désir de remplir le questionnaire en ligne et les raisons du refus ont été incluses dans la vague de 2012 de l’enquête. Les premiers résultats révèlent un refus généralisé de participer à une enquête en ligne. Un examen plus approfondi montre que les petits établissements, les participants de longue date à l’enquête et les répondants d’un certain âge sont réticents à l’idée d’utiliser Internet.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014291
    Description :

    En Allemagne, le codage des professions est effectué principalement en utilisant des dictionnaires suivies d'une révision manuelle des cas qui n'ont pas pu être codés. Puisque le codage manuel est coûteux, il est souhaitable de coder le plus de cas possible automatiquement. Parallèlement, le codage automatique doit atteindre au moins le même niveau de qualité que le codage manuel. À titre de solution possible, nous employons divers algorthmes d'apprentissage automatique pour effectuer la tâche en utilisant une quantité importante de professions codées manuellement dans le cadre d'études récentes comme données d'apprentissage. Nous déterminons la faisabilité de ces méthodes en évaluant la performance et la qualité des algorithmes.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014256
    Description :

    Dans le cadre de l’American Community Survey (ACS), on a ajouté un mode de collecte de données par Internet à l’intérieur d’un mode séquentiel en 2013. L’ACS utilise actuellement une seule application Web pour tous les répondants en ligne, peu importe s’ils répondent au moyen d’un ordinateur personnel ou d’un appareil mobile. Toutefois, au fur et à mesure de l’augmentation du nombre d’appareils mobiles sur le marché, de plus en plus de répondants utilisent des tablettes et des téléphones intelligents pour répondre à des enquêtes conçues pour des ordinateurs personnels. L’utilisation d’appareils mobiles pour répondre à ces enquêtes peut être plus difficile pour les répondants, et ces difficultés peuvent se traduire par une qualité de données réduite si les répondants deviennent frustrés ou ne peuvent surmonter ces obstacles. La présente étude se base sur plusieurs indicateurs pour comparer la qualité des données entre les ordinateurs, les tablettes et les téléphones intelligents et compare les caractéristiques démographiques des répondants qui utilisent chacun de ces appareils.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014288
    Description :

    Les enquêtes probabilistes, c’est-à-dire celles réalisées à partir d’échantillons sélectionnés selon un mécanisme aléatoire connu, sont considérées par plusieurs comme étant la norme par excellence comparativement aux enquêtes réalisées à partir d’échantillons non probabilistes. La théorie de l’échantillonnage probabiliste a vu le jour au début des années 1930 et sert encore aujourd’hui à prouver le bien-fondé d’estimer les valeurs d’une quelconque population à partir des données de ces enquêtes. Les études sur les échantillons non probabilistes, quant à elles, ont retenu davantage l’attention ces dernières années, mais elles ne sont pas nouvelles. Vantées comme étant moins coûteuses, plus rapides (voire meilleures) que les études avec plan probabiliste, ces enquêtes s’appuient, pour recruter les participants, sur diverses méthodes « de terrain » (p. ex., enquête en ligne à participation volontaire). Mais, quel type d’enquêtes est le meilleur? Le présent article est le premier d’une série portant sur la recherche d’un cadre de la qualité permettant de mesurer toutes les enquêtes, probabilistes ou non, en les plaçant davantage sur un pied d’égalité. D’abord, nous donnons un aperçu de quelques cadres utilisés à l’heure actuelle, en notant que le terme « meilleur » se rapporte presque toujours à la notion « d’adaptation de l’enquête à son but poursuivi » (fit for purpose). Ensuite, nous nous concentrons sur la question de la validité, surtout la validité externe, lorsque des estimations pour la population sont souhaitées. Nous passons en revue les techniques d’estimation appliquées jusqu’à présent aux enquêtes non probabilistes, ainsi que quelques études comparant ces estimations à celles obtenues avec un échantillon probabiliste. Enfin, nous décrivons les prochaines étapes de recherche et concluons par quelques remarques.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014285
    Description :

    L’Enquête nationale auprès des ménages (ENM) de 2011 est une enquête à participation volontaire qui a remplacé le questionnaire complet obligatoire traditionnel du recensement de la population du Canada. L’ENM a été réalisée auprès d’un échantillon d’environ 30 % des ménages canadiens et a donné un taux de réponse pondéré selon le plan de sondage de 77 %. Comparativement, le dernier questionnaire complet du recensement a été envoyé à 20 % des ménages et a produit un taux de réponse de 94 %. Au moyen des données du questionnaire complet, Statistique Canada produit habituellement deux fichiers de microdonnées à grande diffusion (FMGD) : le FMGD des particuliers et le FMGD hiérarchique. Ces fichiers donnent tous deux des renseignements sur les particuliers, mais le FMGD hiérarchique fournit aussi des renseignements sur les liens entre les particuliers d’un même ménage ou d’une même famille. Afin de produire, en se basant sur les données de l’ENM, deux FMGD qui couvrent uniformément l’ensemble du pays et qui ne se chevauchent pas, nous avons appliqué une stratégie spéciale de sous-échantillonnage. Les analyses de confidentialité sont devenues plus difficiles, en raison des nombreuses nouvelles variables, de l’information géographique plus détaillée et de la nature volontaire de l’ENM. Le présent article décrit la méthodologie des FMGD de 2011 et la façon dont elle établit un équilibre entre le besoin de disposer de plus d’information et la nécessité que le risque de divulgation soit faible.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014284
    Description :

    La diminution des taux de réponse observée par plusieurs instituts nationaux de statistique, leur volonté de limiter le fardeau de même que l’importance des contraintes budgétaires auxquelles ils font face favorisent une utilisation accrue des données administratives pour la production de renseignements statistiques. Les sources de données administratives qu’ils sont amenés à considérer doivent être évaluées afin d’en déterminer l’adéquation à l’utilisation, et ce en tenant compte de plusieurs aspects. Une démarche d’évaluation des sources de données administratives en vue de leur utilisation comme intrant à des processus de production de renseignements statistiques a récemment été élaborée à Statistique Canada. Celle-ci comprend essentiellement deux phases. La première phase ne nécessite que l’accès aux métadonnées associées aux données administratives considérées alors que la deuxième est effectuée à partir d’une version des données permettant l’évaluation. La démarche et l’outil d’évaluation sont présentés dans cet article.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014277
    Description :

    Le présent article donne un aperçu des éléments d’un plan de sondage adaptatif introduit de la quatrième vague à la septième vague de l’enquête par panel PASS. L’exposé porte principalement sur les interventions expérimentales aux dernières phases du travail sur le terrain. Ces interventions visent à équilibrer l’échantillon en donnant la priorité aux membres de l’échantillon ayant une faible propension à répondre. À la septième vague, les intervieweurs ont reçu une double prime pour les interviews de cas ayant une faible propension à répondre achevées à la phase finale du travail sur le terrain. Cette prime a été limitée à une moitié, sélectionnée aléatoirement, des cas qui avaient une faible propension à répondre et n’ayant pas reçu de code d’état final après quatre mois de travail sur le terrain. Cette prime a effectivement intensifié l’effort déployé par les intervieweurs, mais n’a abouti à aucune augmentation significative des taux de réponse.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014274
    Description :

    Qu’entend-on par mégadonnées? Peuvent-elles remplacer ou compléter les enquêtes officielles? Quels sont certains des défis liés à l’utilisation des mégadonnées pour les statistiques officielles? Quelles sont certaines des solutions possibles? L’automne dernier, Statistique Canada a investi dans un projet pilote sur les mégadonnées afin de répondre à certaines de ces questions. Il s’agissait du premier projet d’enquête auprès des entreprises de cette sorte. Le présent document abordera certaines des leçons apprises dans le cadre du projet pilote de mégadonnées pour les données des compteurs intelligents.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014275
    Description :

    Depuis juillet 2014, l’Office for National Statistics a pris l’engagement de tenir le Recensement de 2021 au Royaume-Uni essentiellement en ligne. L’imputation au niveau de la question jouera un rôle important dans l’ajustement de la base de données du Recensement de 2021. Les recherches montrent qu’Internet pourrait produire des données plus précises que la saisie sur papier et attirer des personnes affichant des caractéristiques particulières. Nous présentons ici les résultats préliminaires des recherches destinées à comprendre comment nous pourrions gérer ces caractéristiques dans une stratégie d’imputation pour le Recensement du Royaume-Uni de 2021. Selon nos constatations, l’utilisation d’une méthode d’imputation fondée sur des donneurs pourrait nécessiter d’envisager l’inclusion du mode de réponse comme variable d’appariement dans le modèle d’imputation sous-jacent.

    Date de diffusion : 2014-10-31

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (37)

Analyses (37) (25 of 37 results)

  • Articles et rapports : 11-630-X2014003
    Description :

    L'histoire économique du Canada doit beaucoup à sa richesse en ressources naturelles. L'édition de décembre des Mégatendances canadiennes examine le rôle que ces atouts ont joué dans la croissance et le développement du pays.

    Date de diffusion : 2014-12-23

  • Articles et rapports : 12-001-X201400214091
    Description :

    L’imputation fractionnaire paramétrique (IFP) proposée par Kim (2011) est un outil d’estimation des paramètres à usage général en cas de données manquantes. Nous proposons une imputation fractionnaire hot deck (IFHD), qui est plus robuste que l’IFP ou l’imputation multiple. Selon la méthode proposée, les valeurs imputées sont choisies parmi l’ensemble des répondants, et des pondérations fractionnaires appropriées leur sont assignées. Les pondérations sont ensuite ajustées pour répondre à certaines conditions de calage, ce qui garantit l’efficacité de l’estimateur IFHD résultant. Deux études de simulation sont présentées afin de comparer la méthode proposée aux méthodes existantes.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214092
    Description :

    Les méthodologistes d’enquête étudient depuis longtemps les effets des intervieweurs sur la variance des estimations d’enquête. Les modèles statistiques tenant compte des effets aléatoires des intervieweurs sont souvent intégrés à ce genre d’études, et l’intérêt de la recherche repose sur l’ampleur de la composante de la variance de l’intervieweur. Une question peut se poser au cours d’une étude méthodologique : différents groupes d’intervieweurs (p. ex. ceux ayant de l’expérience relative à une enquête donnée par rapport aux nouvelles recrues, ou les intervieweurs IPAO par rapport aux intervieweurs ITAO) ont-ils des composantes de variance considérablement différentes dans ces modèles? Des écarts importants peuvent indiquer un besoin de formation supplémentaire pour certains sous-groupes, les propriétés moins optimales de différents modes ou styles d’interview pour certaines questions d’enquête (en ce qui concerne l’erreur quadratique moyenne globale des estimations d’enquête). Les chercheurs d’enquête désirant des réponses à ces types de questions disposent de différents outils statistiques. Le présent article cherche à fournir un aperçu des approches fréquentiste et bayésienne de rechange de la comparaison des composantes de la variance dans différents groupes d’intervieweurs d’enquête, au moyen d’un cadre de modélisation linéaire généralisée hiérarchique qui tient compte de différents types de variables d’enquête. Nous considérons d’abord les avantages et les limites de chaque approche, en comparant les méthodes utilisées pour l’estimation et l’inférence. Nous présentons ensuite une étude de simulation, en évaluant de façon empirique la capacité de chaque approche d’estimer efficacement les différences entre les composantes de la variance. Nous appliquons alors les deux approches à une analyse des données d’enquête réelles recueillies dans le cadre de la National Survey of Family Growth (NSFG) aux États-Unis. Nous concluons que les deux approches ont tendance à donner des inférences très semblables et nous présentons des suggestions à mettre en pratique, compte tenu des différences subtiles observées.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214096
    Description :

    Afin d’obtenir une meilleure couverture de la population d’intérêt et de réduire les coûts, un certain nombre d’enquêtes s’appuient sur un plan à base de sondage double, suivant lequel des échantillons indépendants sont tirés de deux bases de sondage chevauchantes. La présente étude porte sur les tests du khi-carré dans les enquêtes à base de sondage double en présence de données catégoriques. Nous étendons le test de Wald généralisé (Wald 1943), ainsi que les tests avec correction d’ordre un et correction d’ordre deux de Rao-Scott (Rao et Scott 1981) pour passer d’une enquête à base de sondage unique à une enquête à base de sondage double, et nous déterminons les distributions asymptotiques. Des simulations montrent que les deux tests avec correction de type Rao-Scott donnent de bons résultats, et il est donc recommandé de les utiliser dans les enquêtes à base de sondage double. Un exemple sert à illustrer l’utilisation des tests élaborés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214097
    Description :

    Lorsque les enquêtes mensuelles auprès des entreprises ne sont pas entièrement chevauchantes, il existe deux estimateurs différents du taux de croissance mensuelle du chiffre d’affaires, i) l’un fondé sur les totaux de population estimés mensuellement et ii) l’autre fondé purement sur les entreprises observées aux deux occasions dans la partie chevauchante des enquêtes correspondantes. Les estimations et les variances résultantes pourraient être assez différentes. Le présent article a pour but de proposer un estimateur composite optimal du taux de croissance, ainsi que des totaux de population.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214118
    Description :

    L’agrégation bootstrap est une puissante méthode de calcul utilisée pour améliorer la performance des estimateurs inefficaces. Le présent article est le premier à explorer l’utilisation de l’agrégation bootstrap dans l’estimation par sondage. Nous y examinons les effets de l’agrégation bootstrap sur les estimateurs d’enquête non différenciables, y compris les fonctions de répartition de l’échantillon et les quantiles. Les propriétés théoriques des estimateurs d’enquête agrégés par bootstrap sont examinées sous le régime fondé sur le plan de sondage et le régime fondé sur le modèle. En particulier, nous montrons la convergence par rapport au plan des estimateurs agrégés par bootstrap et obtenons la normalité asymptotique des estimateurs dans un contexte fondé sur le modèle. L’article explique comment la mise en oeuvre de l’agrégation bootstrap des estimateurs d’enquête peut tirer parti des répliques produites pour l’estimation par sondage de la variance, facilitant l’application de l’agrégation bootstrap dans les enquêtes existantes. Un autre défi important dans la mise en oeuvre de l’agrégation bootstrap en contexte d’enquête est l’estimation de la variance pour les estimateurs agrégés par bootstrap eux-mêmes, et nous examinons deux façons possibles d’estimer la variance. Les expériences par simulation révèlent une amélioration de l’estimateur par agrégation bootstrap proposé par rapport à l’estimateur original et comparent les deux approches d’estimation de la variance.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214119
    Description :

    Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214089
    Description :

    Le présent document décrit l’utilisation de l’imputation multiple pour combiner l’information de plusieurs enquêtes de la même population sous-jacente. Nous utilisons une nouvelle méthode pour générer des populations synthétiques de façon non paramétrique à partir d’un bootstrap bayésien fondé sur une population finie qui tient systématiquement compte des plans d’échantillonnage complexes. Nous analysons ensuite chaque population synthétique au moyen d’un logiciel standard de données complètes pour les échantillons aléatoires simples et obtenons une inférence valide en combinant les estimations ponctuelles et de variance au moyen des extensions de règles de combinaison existantes pour les données synthétiques. Nous illustrons l’approche en combinant les données de la National Health Interview Survey (NHIS) de 2006 et de la Medical Expenditure Panel Survey (MEPS) de 2006.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214110
    Description :

    Quand nous élaborons le plan de sondage d’une enquête, nous essayons de produire un bon plan compte tenu du budget disponible. L’information sur les coûts peut être utilisée pour établir des plans de sondage qui minimisent la variance d’échantillonnage d’un estimateur du total pour un coût fixe. Les progrès dans le domaine des systèmes de gestion d’enquête signifient qu’aujourd’hui, il est parfois possible d’estimer le coût d’inclusion de chaque unité dans l’échantillon. Le présent article décrit l’élaboration d’approches relativement simples pour déterminer si les avantages pouvant découler de l’utilisation de cette information sur les coûts au niveau de l’unité sont susceptibles d’avoir une utilité pratique. Nous montrons que le facteur important est le ratio du coefficient de variation du coût sur le coefficient de variation de l’erreur relative des coefficients de coût estimés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214090
    Description :

    Lorsqu'on s'intéresse à une population finie, il arrive qu'il soit nécessaire de tirer des échantillons dans plusieurs bases de sondage pour représenter l'ensemble des individus. Nous nous intéressons ici au cas de deux échantillons sélectionnés selon un plan à deux degrés, avec un premier degré de tirage commun. Nous appliquons les méthodes de Hartley (1962), Bankier (1986), et Kalton et Anderson (1986), et nous montrons que ces méthodes peuvent être appliquées conditionnellement au premier degré de tirage. Nous comparons également la performance de plusieurs estimateurs dans le cadre d'une étude par simulations. Nos résultats suggèrent que le choix d'un estimateur en présence de bases de sondage multiples se fasse de façon prudente, et qu'un estimateur simple est parfois préférable même s'il n'utilise qu'une partie de l'information collectée.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214128
    Description :

    Les utilisateurs et les fournisseurs de statistiques officielles, ainsi que ceux qui en assurent le financement, veulent des estimations « plus vastes, plus approfondies, plus rapides, de meilleure qualité et moins coûteuses » (selon Tim Holt, ancien chef de l’Office for National Statistics du Royaume-Uni), attributs auxquels j’ajouterais « plus pertinentes » et « moins fastidieuses ». Depuis la Deuxième Guerre mondiale, nous dépendons dans une large mesure des enquêtes sur échantillon probabiliste - celles-ci étant très bonnes dans les faits - pour atteindre ces objectifs pour les estimations dans de nombreux domaines, y compris le revenu des ménages et le chômage, l’état de santé autodéclaré, l’emploi du temps, les victimes d’actes criminels, l’activité des entreprises, les flux de produits, les dépenses des consommateurs et des entreprises, etc. Par suite des taux de plus en plus faibles de réponse totale et partielle et des preuves d’erreur de déclaration, nous avons réagi de nombreuses façons, y compris en utilisant des modes d’enquête multiples, des méthodes de pondération et d’imputation plus raffinées, l’échantillonnage adaptable, des essais cognitifs des questions d’enquête et d’autres méthodes pour maintenir la qualité des données. Dans le cas des statistiques sur le secteur des entreprises, afin de réduire le fardeau et les coûts, nous avons cessé depuis longtemps de recourir uniquement à des enquêtes pour produire les estimations nécessaires, mais jusqu’à présent, nous ne l’avons pas fait pour les enquêtes auprès des ménages, du moins pas aux États-Unis. Je soutiens que nous pouvons et que nous devons passer du paradigme de production des meilleures estimations possible à partir d’une enquête à la production des meilleures estimations possible pour répondre aux besoins des utilisateurs, à partir de sources de données multiples. Ces sources comprennent les dossiers administratifs et, de plus en plus, des données sur les transactions et des données en ligne. Je me sers de deux exemples - ceux du revenu des ménages et des installations de plomberie - pour illustrer ma thèse. Je propose des moyens d’inculquer une culture de la statistique officielle dont l’objectif est d’aboutir à des statistiques pertinentes, à jour, exactes et peu coûteuses, et qui traite les enquêtes, de même que les autres sources de données, comme des moyens d’atteindre cet objectif.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214113
    Description :

    Les enquêtes par panel à renouvellement servent à calculer des estimations des flux bruts entre deux périodes consécutives de mesure. Le présent article examine une procédure générale pour estimer les flux bruts lorsque l’enquête par panel à renouvellement a été générée à partir d’un plan de sondage complexe avec non-réponse aléatoire. Une approche à pseudo-maximum de vraisemblance est envisagée dans le contexte d’un modèle à deux degrés de chaînes de Markov pour le classement des personnes dans les catégories de l’enquête et pour la modélisation de la non-réponse.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 11-630-X2014002
    Description :

    Le Canada compte maintenant plus de 35 millions de personnes. Dans le présent numéro des Mégatendances canadiennes, nous examinons l’évolution des taux et des tendances de fécondité chez les Canadiennes.

    Date de diffusion : 2014-11-13

  • Le Quotidien
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2014-11-12

  • Articles et rapports : 82-003-X201401014098
    Description :

    La présente analyse compare une approche fondée sur un registre et une approche non fondée sur un registre pour apparier les données du Recensement de la population de 2006 et les données d’hôpital provenant de la Base de données sur les congés de patients pour le Manitoba et l’Ontario.

    Date de diffusion : 2014-10-15

  • Articles et rapports : 11-630-X2014001
    Description :

    La contribution de l’accroissement naturel et de celui migratoire à la croissance démographique de 1851 à 2061 a un caractère changeant. L’accroissement joue un rôle grandissant dans la croissance démographique du Canada.

    Date de diffusion : 2014-10-09

  • Articles et rapports : 11F0027M2014094
    Description :

    Le présent rapport présente une comparaison de la valeur nette des ménages par habitant au Canada et aux États Unis de 1970 à 2012, basée sur des données provenant des comptes du bilan national du Canada et des mouvements de fonds (Flow of Funds Accounts) publiés par la Réserve fédérale américaine.

    Trois approches sont utilisées à cette fin. La première consiste en une comparaison des niveaux à partir de valeurs rajustées en fonction de la parité de pouvoir d’achat (PPA). La deuxième fait appel à des ratios de la valeur nette réelle par habitant et de la valeur nette au revenu disponible. Dans la troisième approche, on décompose la croissance du ratio de la valeur nette au revenu disponible. Ensemble, ces approches produisent des résultats qui se confortent mutuellement et qui sont plus robustes que ceux pouvant être obtenus au moyen d’une seule approche.

    Date de diffusion : 2014-08-20

  • Articles et rapports : 12-001-X201400114029
    Description :

    Fay et Train (1995) présentent une méthode qu’ils nomment successive difference replication, c.-à-d. répliques des différences successives, qui peut être utilisée pour estimer la variance d’un total estimé au moyen d’un échantillon aléatoire systématique tiré d’une liste ordonnée. L’estimateur prend la forme générale d’un estimateur de variance par rééchantillonnage, où les facteurs de rééchantillonnage sont construits de manière à imiter l’estimateur par différences successives. Cet estimateur est une modification de celui présenté dans Wolter (1985). Le présent article étend la méthodologie en expliquant l’effet de l’attribution des lignes de matrice sur l’estimateur de variance, en montrant comment un jeu réduit de répliques mène à un estimateur raisonnable et en établissant les conditions pour que la méthode des répliques des différences successives soit équivalente à l’estimateur par différences successives.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114000
    Description :

    Nous avons mis en œuvre la technique de linéarisation généralisée reposant sur le concept de fonction d’influence tout comme l’a fait Osier (2009) pour estimer la variance de statistiques complexes telles que les indices de Laeken. Des simulations réalisées avec le langage R montrent que, pour les cas où l’on a recours à une estimation par noyau gaussien de la fonction de densité des revenus considérés, on obtient un fort biais pour la valeur estimée de la variance. On propose deux autres méthodes pour estimer la densité qui diminuent fortement le biais constaté. L’une de ces méthodes a déjà été esquissée par Deville (2000). Les résultats publiés ici permettront une amélioration substantielle de la qualité des informations sur la précision de certains indices de Laeken diffusées et comparées internationalement.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114004
    Description :

    En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114030
    Description :

    L’article décrit les résultats d’une étude par simulation Monte Carlo réalisée en vue de comparer l’efficacité de quatre modèles hiérarchiques bayésiens d’estimation sur petits domaines pour estimer des proportions au niveau de l’État au moyen de données provenant d’échantillons aléatoires simples stratifiés tirés d’une population finie fixe. Deux des modèles reposent sur les hypothèses fréquentes selon lesquelles, pour chaque petit domaine échantillonné, la proportion pondérée par les poids de sondage estimée suit une loi normale et sa variance d’échantillonnage est connue. L’un de ces modèles comprend un modèle de lien linéaire et l’autre, un modèle de lien logistique. Les deux autres modèles utilisent tous deux un modèle de lien logistique et reposent sur l’hypothèse que la variance d’échantillonnage est inconnue. L’un de ces deux modèles suppose que le modèle d’échantillonnage obéit à une loi normale et l’autre, qu’il obéit à une loi bêta. L’étude montre que, pour chacun des quatre modèles, la couverture sous le plan de sondage de l’intervalle de crédibilité des proportions au niveau de l’État en population finie s’écarte considérablement du niveau nominal de 95 % utilisé pour construire les intervalles.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114002
    Description :

    Nous proposons une approche d’imputation multiple des réponses manquant aléatoirement dans les enquêtes à grande échelle qui ne portent que sur des variables catégoriques présentant des zéros structurels. Notre approche consiste à utiliser des mélanges de lois multinomiales comme outils d’imputation et à tenir compte des zéros structurels en concevant les données observées comme un échantillon tronqué issu d’une population hypothétique ne contenant pas de zéros structurels. Cette approche possède plusieurs caractéristiques intéressantes : les imputations sont générées à partir de modèles bayésiens conjoints cohérents qui tiennent compte automatiquement des dépendances complexes et s’adaptent facilement à de grands nombres de variables. Nous décrivons un algorithme d’échantillonnage de Gibbs pour mettre en œuvre l’approche et illustrons son potentiel au moyen d’une étude par échantillonnage répété en utilisant des microdonnées de recensement à grande diffusion provenant de l’État de New York, aux États Unis.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114001
    Description :

    Le présent article traite de l’effet de différentes méthodes d’échantillonnage sur la qualité de l’échantillon réalisé. On s’attendait à ce que cet effet dépende de la mesure dans laquelle les intervieweurs ont la liberté d’interviewer des personnes avec lesquelles il leur est facile de prendre contact ou dont il leur est facile d’obtenir la coopération (donc d’effectuer des substitutions). L’analyse a été menée dans un contexte transculturel en utilisant des données provenant des quatre premières vagues de l’Enquête sociale européenne (ESS, pour European Social Survey). Les substitutions sont mesurées par les écarts par rapport au ratio hommes-femmes de 50/50 dans des sous-échantillons constitués de couples hétérosexuels. Des écarts importants ont été observés dans de nombreux pays qui participent à l’ESS. Ces écarts se sont également avérés les plus faibles lorsque des registres officiels de résidents avaient servi de base de sondage pour le tirage des échantillons (échantillonnage à partir de registres de personnes) dans le cas où l’un des conjoints était plus difficile à joindre que l’autre. Cette portée des substitutions ne variait pas d’une vague à l’autre de l’ESS et était faiblement corrélée au mode de rémunération et aux procédures de contrôle des intervieweurs. Les résultats permettent de conclure que les échantillons tirés de registres de personnes sont de plus haute qualité.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400111886
    Description :

    L'estimateur bayésien linéaire en population finie est obtenu en partant d'un modèle de régression à deux degrés spécifié uniquement par les moyennes et les variances de certains paramètres du modèle associés à chaque degré de la hiérarchie. Nombre d'estimateurs fondés sur le plan de sondage usuels décrits dans la littérature peuvent être obtenus en tant que cas particuliers. Un nouvel estimateur par le ratio est également proposé pour la situation pratique où de l'information auxiliaire est disponible. L'application de la même approche bayésienne linéaire est proposée pour estimer des proportions pour des données catégoriques multiples associées aux unités de la population finie, ce qui constitue la principale contribution des présents travaux, et est illustrée au moyen d'un exemple numérique.

    Date de diffusion : 2014-06-27

Références (43)

Références (43) (25 of 43 results)

  • Produits techniques : 11-522-X2013000
    Description :

    Le Symposium 2014 était le 29e Symposium international sur les questions de méthodologie de Statistique Canada. Chaque année, le Symposium se penche sur un thème précis. En 2014, le thème était : «Au-delà des méthodes traditionnelles d’enquête : l’adaptation à un monde en évolution».

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014255
    Description :

    Le Centre d’information de réseau brésilien (NIC.br) a conçu et mené un projet pilote pour recueillir des données sur le Web, afin de produire des statistiques concernant les caractéristiques des pages Web. Les études des caractéristiques et des dimensions du Web exigent la collecte et l’analyse de données dans un environnement dynamique et complexe. L’idée de base est de recueillir des données sur un échantillon de pages Web, automatiquement, en utilisant le logiciel appelé moteur de recherche Web. Le présent article vise à diffuser les méthodes et les résultats de cette étude, ainsi qu’à démontrer les progrès actuels liés aux techniques d’échantillonnage dans un environnement dynamique.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014282
    Description :

    Le Panel des établissements de l’IAB est l’enquête auprès des établissements la plus complète qui soit menée en Allemagne, 16 000 entreprises y participant chaque année. Des interviews sur place en utilisant papier et crayon (IPC) sont réalisées depuis 1993. Un projet courant a pour objet d’examiner les effets possibles du passage de l’enquête à la méthode d’interview sur place assistée par ordinateur (IPAO) combinée à une version en ligne du questionnaire (IWAO). En guise de première étape, des questions sur l’accès à Internet, le désir de remplir le questionnaire en ligne et les raisons du refus ont été incluses dans la vague de 2012 de l’enquête. Les premiers résultats révèlent un refus généralisé de participer à une enquête en ligne. Un examen plus approfondi montre que les petits établissements, les participants de longue date à l’enquête et les répondants d’un certain âge sont réticents à l’idée d’utiliser Internet.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014291
    Description :

    En Allemagne, le codage des professions est effectué principalement en utilisant des dictionnaires suivies d'une révision manuelle des cas qui n'ont pas pu être codés. Puisque le codage manuel est coûteux, il est souhaitable de coder le plus de cas possible automatiquement. Parallèlement, le codage automatique doit atteindre au moins le même niveau de qualité que le codage manuel. À titre de solution possible, nous employons divers algorthmes d'apprentissage automatique pour effectuer la tâche en utilisant une quantité importante de professions codées manuellement dans le cadre d'études récentes comme données d'apprentissage. Nous déterminons la faisabilité de ces méthodes en évaluant la performance et la qualité des algorithmes.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014256
    Description :

    Dans le cadre de l’American Community Survey (ACS), on a ajouté un mode de collecte de données par Internet à l’intérieur d’un mode séquentiel en 2013. L’ACS utilise actuellement une seule application Web pour tous les répondants en ligne, peu importe s’ils répondent au moyen d’un ordinateur personnel ou d’un appareil mobile. Toutefois, au fur et à mesure de l’augmentation du nombre d’appareils mobiles sur le marché, de plus en plus de répondants utilisent des tablettes et des téléphones intelligents pour répondre à des enquêtes conçues pour des ordinateurs personnels. L’utilisation d’appareils mobiles pour répondre à ces enquêtes peut être plus difficile pour les répondants, et ces difficultés peuvent se traduire par une qualité de données réduite si les répondants deviennent frustrés ou ne peuvent surmonter ces obstacles. La présente étude se base sur plusieurs indicateurs pour comparer la qualité des données entre les ordinateurs, les tablettes et les téléphones intelligents et compare les caractéristiques démographiques des répondants qui utilisent chacun de ces appareils.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014288
    Description :

    Les enquêtes probabilistes, c’est-à-dire celles réalisées à partir d’échantillons sélectionnés selon un mécanisme aléatoire connu, sont considérées par plusieurs comme étant la norme par excellence comparativement aux enquêtes réalisées à partir d’échantillons non probabilistes. La théorie de l’échantillonnage probabiliste a vu le jour au début des années 1930 et sert encore aujourd’hui à prouver le bien-fondé d’estimer les valeurs d’une quelconque population à partir des données de ces enquêtes. Les études sur les échantillons non probabilistes, quant à elles, ont retenu davantage l’attention ces dernières années, mais elles ne sont pas nouvelles. Vantées comme étant moins coûteuses, plus rapides (voire meilleures) que les études avec plan probabiliste, ces enquêtes s’appuient, pour recruter les participants, sur diverses méthodes « de terrain » (p. ex., enquête en ligne à participation volontaire). Mais, quel type d’enquêtes est le meilleur? Le présent article est le premier d’une série portant sur la recherche d’un cadre de la qualité permettant de mesurer toutes les enquêtes, probabilistes ou non, en les plaçant davantage sur un pied d’égalité. D’abord, nous donnons un aperçu de quelques cadres utilisés à l’heure actuelle, en notant que le terme « meilleur » se rapporte presque toujours à la notion « d’adaptation de l’enquête à son but poursuivi » (fit for purpose). Ensuite, nous nous concentrons sur la question de la validité, surtout la validité externe, lorsque des estimations pour la population sont souhaitées. Nous passons en revue les techniques d’estimation appliquées jusqu’à présent aux enquêtes non probabilistes, ainsi que quelques études comparant ces estimations à celles obtenues avec un échantillon probabiliste. Enfin, nous décrivons les prochaines étapes de recherche et concluons par quelques remarques.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014285
    Description :

    L’Enquête nationale auprès des ménages (ENM) de 2011 est une enquête à participation volontaire qui a remplacé le questionnaire complet obligatoire traditionnel du recensement de la population du Canada. L’ENM a été réalisée auprès d’un échantillon d’environ 30 % des ménages canadiens et a donné un taux de réponse pondéré selon le plan de sondage de 77 %. Comparativement, le dernier questionnaire complet du recensement a été envoyé à 20 % des ménages et a produit un taux de réponse de 94 %. Au moyen des données du questionnaire complet, Statistique Canada produit habituellement deux fichiers de microdonnées à grande diffusion (FMGD) : le FMGD des particuliers et le FMGD hiérarchique. Ces fichiers donnent tous deux des renseignements sur les particuliers, mais le FMGD hiérarchique fournit aussi des renseignements sur les liens entre les particuliers d’un même ménage ou d’une même famille. Afin de produire, en se basant sur les données de l’ENM, deux FMGD qui couvrent uniformément l’ensemble du pays et qui ne se chevauchent pas, nous avons appliqué une stratégie spéciale de sous-échantillonnage. Les analyses de confidentialité sont devenues plus difficiles, en raison des nombreuses nouvelles variables, de l’information géographique plus détaillée et de la nature volontaire de l’ENM. Le présent article décrit la méthodologie des FMGD de 2011 et la façon dont elle établit un équilibre entre le besoin de disposer de plus d’information et la nécessité que le risque de divulgation soit faible.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014284
    Description :

    La diminution des taux de réponse observée par plusieurs instituts nationaux de statistique, leur volonté de limiter le fardeau de même que l’importance des contraintes budgétaires auxquelles ils font face favorisent une utilisation accrue des données administratives pour la production de renseignements statistiques. Les sources de données administratives qu’ils sont amenés à considérer doivent être évaluées afin d’en déterminer l’adéquation à l’utilisation, et ce en tenant compte de plusieurs aspects. Une démarche d’évaluation des sources de données administratives en vue de leur utilisation comme intrant à des processus de production de renseignements statistiques a récemment été élaborée à Statistique Canada. Celle-ci comprend essentiellement deux phases. La première phase ne nécessite que l’accès aux métadonnées associées aux données administratives considérées alors que la deuxième est effectuée à partir d’une version des données permettant l’évaluation. La démarche et l’outil d’évaluation sont présentés dans cet article.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014277
    Description :

    Le présent article donne un aperçu des éléments d’un plan de sondage adaptatif introduit de la quatrième vague à la septième vague de l’enquête par panel PASS. L’exposé porte principalement sur les interventions expérimentales aux dernières phases du travail sur le terrain. Ces interventions visent à équilibrer l’échantillon en donnant la priorité aux membres de l’échantillon ayant une faible propension à répondre. À la septième vague, les intervieweurs ont reçu une double prime pour les interviews de cas ayant une faible propension à répondre achevées à la phase finale du travail sur le terrain. Cette prime a été limitée à une moitié, sélectionnée aléatoirement, des cas qui avaient une faible propension à répondre et n’ayant pas reçu de code d’état final après quatre mois de travail sur le terrain. Cette prime a effectivement intensifié l’effort déployé par les intervieweurs, mais n’a abouti à aucune augmentation significative des taux de réponse.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014274
    Description :

    Qu’entend-on par mégadonnées? Peuvent-elles remplacer ou compléter les enquêtes officielles? Quels sont certains des défis liés à l’utilisation des mégadonnées pour les statistiques officielles? Quelles sont certaines des solutions possibles? L’automne dernier, Statistique Canada a investi dans un projet pilote sur les mégadonnées afin de répondre à certaines de ces questions. Il s’agissait du premier projet d’enquête auprès des entreprises de cette sorte. Le présent document abordera certaines des leçons apprises dans le cadre du projet pilote de mégadonnées pour les données des compteurs intelligents.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014275
    Description :

    Depuis juillet 2014, l’Office for National Statistics a pris l’engagement de tenir le Recensement de 2021 au Royaume-Uni essentiellement en ligne. L’imputation au niveau de la question jouera un rôle important dans l’ajustement de la base de données du Recensement de 2021. Les recherches montrent qu’Internet pourrait produire des données plus précises que la saisie sur papier et attirer des personnes affichant des caractéristiques particulières. Nous présentons ici les résultats préliminaires des recherches destinées à comprendre comment nous pourrions gérer ces caractéristiques dans une stratégie d’imputation pour le Recensement du Royaume-Uni de 2021. Selon nos constatations, l’utilisation d’une méthode d’imputation fondée sur des donneurs pourrait nécessiter d’envisager l’inclusion du mode de réponse comme variable d’appariement dans le modèle d’imputation sous-jacent.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014261
    Description :

    Les instituts nationaux de statistique sont confrontés à une double exigence difficile à concilier. D’un côté, ils doivent fournir des informations toujours plus précises sur des sujets spécifiques, des populations difficiles d’accès ou minoritaires, avec des protocoles innovants permettant d’objectiver la mesure ou d’assurer sa confidentialité, etc. D’un autre côté, ils doivent faire face à des restrictions budgétaires dans un contexte où les ménages sont de plus en plus difficiles à joindre. Cette double injonction n’est pas sans effet sur la qualité des enquêtes, qualité au sens large, c’est-à-dire non seulement en termes de précision mais encore en termes de pertinence, comparabilité, cohérence, clarté, fraîcheur. Compte tenu du faible coût de la collecte par internet et de la très large diffusion d’internet au sein de la population, ces instituts voient dans ce mode de collecte moderne une solution pour résoudre leurs problèmes. Ainsi, le développement du recours à la collecte par internet, et plus généralement à la collecte multimode, serait la solution pour maximiser la qualité d’enquête, en particulier en termes d’erreur d’enquête totale, en faisant face aux problèmes de couverture, d’échantillonnage, de non-réponse ou de mesure, tout en respectant ces contraintes budgétaires. Cependant, si la collecte par internet est un mode peu coûteux, elle pose des problèmes méthodologiques non négligeables : couverture, auto-sélection ou biais de sélection, non-réponse et les difficultés de sa correction, « satisficing », etc. Aussi, avant de développer ou généraliser l’utilisation du multimode, l’Insee s’est lancé dans une vaste opération d’expérimentations afin d’étudier ces différentes questions méthodologiques, dont les premiers résultats montrent que le multimode est à la fois source de solutions et de nouveaux problèmes méthodologiques.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014260
    Description :

    L’Enquête sur l’emploi, la rémunération et les heures de travail (EERH) permet de produire des estimations mensuelles du niveau et des tendances de l’emploi, de la rémunération et des heures de travail et ce, pour des niveaux détaillés de la classification industrielle pour le Canada, les provinces et les territoires. Afin d’améliorer l’efficacité des activités de collecte pour cette enquête, un questionnaire électronique (QE) a été introduit à l’automne 2012. Compte tenu de l’échéance pour cette transition, ainsi que du calendrier de production de l’enquête, une stratégie de conversion a été établie pour l’intégration de ce nouveau mode de collecte. L’objectif de la stratégie était d’assurer une bonne adaptation de l’environnement de collecte, ainsi que de permettre la mise en oeuvre d’un plan d’analyse permettant d’évaluer l’effet de ce changement sur les résultats de l’enquête. Le présent article donne un aperçu de la stratégie de conversion, des différents ajustements qui ont été effectués pendant la période de transition et des résultats des diverses évaluations qui ont été menées. Par exemple, on décrit l’effet de l’intégration du QE sur le processus de collecte, le taux de réponse et le taux de suivi. En outre, on discute de l’effet de ce nouveau mode de collecte sur les estimations de l’enquête. Plus précisément, on présente les résultats d’une expérience randomisée réalisée afin de déceler la présence éventuelle d’un effet de mode.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014254
    Description :

    Les enquêtes en ligne comportent des lacunes graves du point de vue de la représentativité, mais elles semblent comporter certaines bonnes propriétés de mesure. Cet exposé est axé sur les caractéristiques générales des enquêtes en ligne qui influent sur la qualité des données, et plus particulièrement le fait qu’elles sont principalement visuelles. En outre, il examine l’efficacité des enquêtes en ligne comme forme d’autoadministration de questionnaires. Un certain nombre d’expériences ont permis de comparer les enquêtes en ligne avec d’autres modes de collecte de données. Une méta-analyse de ces études montre que les enquêtes en ligne conservent les avantages des formes traditionnelles d’enquêtes autoadministrées; de façon plus particulière, elles réduisent le biais de désirabilité sociale par rapport aux questions administrées par un intervieweur. En conclusion, j’examine certains progrès futurs probables des enquêtes en ligne, à savoir l’intégration d’avatars comme « intervieweurs virtuels » et l’utilisation croissante de dispositifs mobiles (comme les tablettes électroniques et les téléphones intelligents) pour accéder aux enquêtes en ligne et y répondre.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014289
    Description :

    Cet article donne un aperçu des principales nouveautés qui seront intégrées au modèle de projections par microsimulation Demosim, dont une version partant des microdonnées de l'Enquête nationale auprès des ménages de 2011 est en cours de préparation. Dans un premier temps, les ajouts à la population de base sont présentés; il s’agit essentiellement de nouvelles variables, certaines étant ajoutées aux données de l'Enquête nationale auprès des ménages par le biais d’appariement de fichiers. Les méthodes envisagées pour la projection des variables linguistiques, la citoyenneté et la religion sont ensuite brièvement présentées à titre d’exemples de nouveautés relatives aux événements simulés par le modèle.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014257
    Description :

    L’Étude sur l’utilisation des véhicules au Canada est menée par Transports Canada, en partenariat avec Environnement Canada, Ressources naturelles Canada et les registraires provinciaux. L’étude se divise en deux composantes : les véhicules légers, comme les voitures, minifourgonnettes, VUS et camions dont le poids nominal brut du véhicule (PNBV) est inférieur à 4,5 tonnes métriques; et la composante des véhicules moyens et lourds, c’est-à-dire les camions dont le PNBV est de 4,5 tonnes métriques et plus. L’étude est la première qui recueille des données sur l’activité directement dans les véhicules, au moyen de méthodes de collecte électronique exclusivement. Cela permet d’obtenir plus de renseignements opportuns et fiables.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014266
    Description :

    L’utilisation de moniteurs et l’autodéclaration sont deux méthodes de mesure de l’énergie dépensée durant l’activité physique, la variance de l’erreur étant habituellement beaucoup plus faible dans le cas des moniteurs que dans celui de l’autodéclaration. La Physical Activity Measurement Survey a été conçue pour comparer les deux procédures en utilisant des observations répétées sur une même personne. Ces observations répétées permettent de calibrer la mesure par autodéclaration sur la mesure par moniteur, ce qui rend possible l’estimation des composantes des variances des erreurs de mesure. Les estimations des composantes de la variance de l’erreur de mesure de la dépense d’énergie selon le moniteur et selon l’autodéclaration sont présentées pour les femmes qui ont participé à la Physical Activity Measurement Survey.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014268
    Description :

    En surveillance des maladies chroniques, la cueillette d’information est essentielle dans le but de mesurer l’ampleur des maladies, évaluer l’utilisation des services, identifier les groupes à risque et suivre l’évolution des maladies et des facteurs de risque dans le temps en vue de planifier et d’appliquer des programmes de prévention en santé publique. C’est dans ce contexte qu’a été créé le Système intégré de surveillance des maladies chroniques du Québec (SISMACQ). Le SISMACQ est une base de données issue du jumelage de fichiers administratifs, couvrant les années 1996 à 2013, représentant une alternative intéressante aux données d’enquêtes puisqu’elle porte sur la totalité de la population, n’est pas affectée par le biais de rappel et permet de suivre la population dans le temps et dans l’espace. Cette présentation a pour objet de présenter la pertinence de l’utilisation des données administratives comme alternative aux données d’enquête ainsi que de les méthodes choisies pour la construction de la cohorte populationnelle à partir du jumelage des différentes sources de données brutes ainsi que de décrire les traitements apportées dans le but de minimiser les biais. Nous discuterons également des avantages et des limites liés à l’analyse des fichiers administratifs.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014269
    Description :

    L’Étude sur le surdénombrement du recensement (ESR) est une étude essentielle de mesure postcensitaire de la couverture. Son principal objectif est de produire des estimations du nombre de personnes dénombrées de façon erronée, selon la province et le territoire, et d’examiner les caractéristiques des personnes dénombrées plus d’une fois, afin de déterminer les raisons possibles de ces erreurs. L’ESR est fondée sur l’échantillonnage et l’examen manuel de groupes d’enregistrements reliés, qui sont le résultat d’un couplage de la base de données des réponses du recensement et d’une base administrative. Dans cette communication, nous décrivons la nouvelle méthodologie de l’ESR de 2011. De nombreuses améliorations ont été apportées à cette méthodologie, y compris une plus grande utilisation du couplage d’enregistrements probabiliste, l’estimation de paramètres de couplage au moyen d’un algorithme espérance-maximisation (EM), et l’utilisation efficace de données sur les ménages pour déceler davantage de cas de surdénombrement.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014267
    Description :

    Comme de nombreux autres instituts nationaux de statistique, le Bureau de la statistique de la Suède a une longue tradition de qualité. Plus récemment, l’organisme a décidé de commencer à utiliser un certain nombre de cadres pour résoudre les questions de qualité organisationnelle, de qualité des processus et de qualité des produits. Il est important de prendre en compte ces trois niveaux, car nous savons que la façon dont nous faisons les choses, par exemple, lorsque nous posons des questions, a des répercussions sur la qualité des produits et que, par conséquent, la qualité des processus représente un élément important du concept de qualité. Par ailleurs, la qualité organisationnelle, c’est-à-dire la gestion systématique des aspects comme la formation du personnel et le leadership, est essentielle pour assurer la qualité des processus. Le Bureau de la statistique de la Suède utilise l’EFQM (European Foundation for Quality Management) comme cadre pour la qualité organisationnelle et ISO 20252 comme norme pour la qualité des processus pour les études de marché, les sondages d’opinion et les études sociales. En avril 2014, le Bureau de la statistique de la Suède a été le premier institut national de la statistique à être certifié selon la norme ISO 20252. Parmi les défis auxquels le Bureau de la statistique de la Suède a dû faire face en 2011 figuraient la mesure systématique et le contrôle des changements dans la qualité des produits, ainsi que la présentation claire aux intervenants. De concert avec des experts-conseils externes, Paul Biemer et Dennis Trewin, du Bureau de la statistique de la Suède, ont développé à cette fin un outil appelé ASPIRE (A System for Product Improvement, Review and Evaluation). Afin d’assurer le maintien et l’amélioration de la qualité, le Bureau de la statistique de la Suède a aussi mis sur pied une équipe chargée de l’assurance de la qualité, comprenant un gestionnaire de la qualité, des responsables de la qualité et des vérificateurs internes et externes de la qualité. Dans le présent document, j’aborderai les composantes du système de gestion de la qualité du Bureau de la statistique de la Suède, ainsi que les défis que nous avons dû relever.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014270
    Description :

    Dans le domaine du couplage d’enregistrements, il existe un large éventail de comparateurs de chaînes de caractères. Les difficultés lors des comparaisons surviennent lorsque des facteurs influent sur la composition des chaînes (ex. : emploi de surnoms pour les prénoms de personnes, erreurs typographiques, etc.). Il faut alors faire appel à des comparateurs plus sophistiqués. De tels outils permettent de réduire le nombre de liens potentiellement manqués. Malheureusement, une partie des gains peuvent s’avérer de faux liens. Afin d’améliorer les appariements, trois comparateurs de chaînes sophistiqués ont été développés et sont présentés dans cet article. Ce sont le comparateur Lachance, ainsi que ses dérivés, les comparateurs multi-mots et multi-types. Cette gamme d’outils est présentement disponible dans un prototype de couplage d’enregistrements déterministe, MixMatch. Ce logiciel permet de faire appel à des connaissances a priori afin de réduire le volume de faux liens générés lors des appariements. Un indicateur de force de liens est également proposé.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014251
    Description :

    Dans la perspective d’un modélisateur, je décris la situation actuelle en matière d’inférence fondée sur les enquêtes pour la production de statistiques officielles. Ce faisant, je tente de dégager les forces et les faiblesses des approches inférentielles fondées sur le plan de sondage, d’une part, et sur un modèle, d’autre part, appliquées aujourd’hui à l’échantillonnage, du moins en ce qui concerne les statistiques officielles. Je termine par un exemple tiré d’un plan de collecte adaptatif qui illustre pourquoi l’adoption d’une perspective fondée sur un modèle (fréquentiste ou bayésien) représente le meilleur moyen pour les statistiques officielles d’éviter la « schizophrénie inférentielle » débilitante qui semble inévitable si l’on applique les méthodes actuelles pour répondre aux nouvelles demandes d’information du monde d’aujourd’hui (et peut-être même de demain).

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014258
    Description :

    L’Enquête sur la consommation de carburant (ECC) a été créée en 2013 et est une enquête nationale trimestrielle qui est conçue pour analyser la distance parcourue et la consommation d’essence des véhicules de passagers et d’autres véhicules pesant moins de 4 500 kilogrammes. La base de sondage est constituée de véhicules extraits des fichiers d’immatriculation de véhicules qui sont conservés par les ministères provinciaux. L’ECC utilise des puces de voiture comme mode de collecte pour une partie des unités échantillonnées, afin de recueillir des données sur les déplacements et l’essence consommée. L’utilisation de cette nouvelle technologie comporte de nombreux avantages, par exemple, la réduction du fardeau de réponse, des coûts de collecte et des effets sur la qualité des données. Pour les trimestres de 2013, 95 % des unités échantillonnées ont reçu des questionnaires papier, et 5 %, des puces de voiture, et au T1 de 2014, les données de 40 % des unités échantillonnées ont été recueillies au moyen de puces de voiture. Cette étude décrit la méthodologie du processus d’enquête, examine les avantages et les défis du traitement et de l’imputation pour les deux modes de collecte, présente certains résultats initiaux et conclut avec un sommaire des leçons apprises.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014283
    Description :

    Le projet Methodologies for an integrated use of administrative data (MIAD) du Réseau statistique a pour but d’élaborer des méthodologies en vue d’un usage intégré des données administratives (DA) dans le processus statistique. Le principal objectif du projet MIAD est de fournir des lignes directrices pour l’exploitation des DA à des fins statistiques. En particulier, les membres du projet ont élaboré un cadre de la qualité, ont fourni une représentation des utilisations possibles des DA et proposé un schéma des différents contextes informatifs. Le présent article est axé sur ce dernier aspect. En particulier, nous faisons la distinction entre les dimensions en rapport avec les caractéristiques de la source associées à l’accessibilité, d’une part, et les caractéristiques associées à la structure des DA et à leurs liens avec les concepts statistiques, d’autre part. Nous désignons la première catégorie de caractéristiques comme étant le cadre de l’accès et la deuxième catégorie de caractéristiques comme étant le cadre des données. Dans le présent article, nous nous concentrons principalement sur la deuxième catégorie de caractéristiques qui sont reliées spécifiquement au type d’information qui peut être obtenu à partir de la source secondaire. En particulier, ces caractéristiques ont trait à la population administrative cible et à la mesure de cette population ainsi que la façon dont elle est (ou pourrait être) liée à la population cible et aux concepts statistiques cibles.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014271
    Description :

    Ce document vise à présenter l'utilisation des dossiers administratifs dans le U.S. Census pour les logements collectifs. Le dénombrement des logements collectifs signifie la collecte de données dans des endroits difficiles d'accès, comme les établissements correctionnels, les établissements de soins infirmiers spécialisés et les casernes militaires. Nous examinons les avantages et les contraites de l'utilisation de diverses sources de dossier administratifs pour l'élaboration de la base de sondage des logements collectifs, en vue d'améliorer la couverture. Le présent document est un document d'accompagnement de la communication de Chun et Gan (2014) portant sur les utilisations possibles des dossiers administratifs dans le recensement des logements collectifs.

    Date de diffusion : 2014-10-31

Date de modification :