Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (80)

Tout (80) (25 of 80 results)

  • Articles et rapports : 11-630-X2014003
    Description :

    L'histoire économique du Canada doit beaucoup à sa richesse en ressources naturelles. L'édition de décembre des Mégatendances canadiennes examine le rôle que ces atouts ont joué dans la croissance et le développement du pays.

    Date de diffusion : 2014-12-23

  • Articles et rapports : 12-001-X201400214113
    Description :

    Les enquêtes par panel à renouvellement servent à calculer des estimations des flux bruts entre deux périodes consécutives de mesure. Le présent article examine une procédure générale pour estimer les flux bruts lorsque l’enquête par panel à renouvellement a été générée à partir d’un plan de sondage complexe avec non-réponse aléatoire. Une approche à pseudo-maximum de vraisemblance est envisagée dans le contexte d’un modèle à deux degrés de chaînes de Markov pour le classement des personnes dans les catégories de l’enquête et pour la modélisation de la non-réponse.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214089
    Description :

    Le présent document décrit l’utilisation de l’imputation multiple pour combiner l’information de plusieurs enquêtes de la même population sous-jacente. Nous utilisons une nouvelle méthode pour générer des populations synthétiques de façon non paramétrique à partir d’un bootstrap bayésien fondé sur une population finie qui tient systématiquement compte des plans d’échantillonnage complexes. Nous analysons ensuite chaque population synthétique au moyen d’un logiciel standard de données complètes pour les échantillons aléatoires simples et obtenons une inférence valide en combinant les estimations ponctuelles et de variance au moyen des extensions de règles de combinaison existantes pour les données synthétiques. Nous illustrons l’approche en combinant les données de la National Health Interview Survey (NHIS) de 2006 et de la Medical Expenditure Panel Survey (MEPS) de 2006.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214119
    Description :

    Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214110
    Description :

    Quand nous élaborons le plan de sondage d’une enquête, nous essayons de produire un bon plan compte tenu du budget disponible. L’information sur les coûts peut être utilisée pour établir des plans de sondage qui minimisent la variance d’échantillonnage d’un estimateur du total pour un coût fixe. Les progrès dans le domaine des systèmes de gestion d’enquête signifient qu’aujourd’hui, il est parfois possible d’estimer le coût d’inclusion de chaque unité dans l’échantillon. Le présent article décrit l’élaboration d’approches relativement simples pour déterminer si les avantages pouvant découler de l’utilisation de cette information sur les coûts au niveau de l’unité sont susceptibles d’avoir une utilité pratique. Nous montrons que le facteur important est le ratio du coefficient de variation du coût sur le coefficient de variation de l’erreur relative des coefficients de coût estimés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214092
    Description :

    Les méthodologistes d’enquête étudient depuis longtemps les effets des intervieweurs sur la variance des estimations d’enquête. Les modèles statistiques tenant compte des effets aléatoires des intervieweurs sont souvent intégrés à ce genre d’études, et l’intérêt de la recherche repose sur l’ampleur de la composante de la variance de l’intervieweur. Une question peut se poser au cours d’une étude méthodologique : différents groupes d’intervieweurs (p. ex. ceux ayant de l’expérience relative à une enquête donnée par rapport aux nouvelles recrues, ou les intervieweurs IPAO par rapport aux intervieweurs ITAO) ont-ils des composantes de variance considérablement différentes dans ces modèles? Des écarts importants peuvent indiquer un besoin de formation supplémentaire pour certains sous-groupes, les propriétés moins optimales de différents modes ou styles d’interview pour certaines questions d’enquête (en ce qui concerne l’erreur quadratique moyenne globale des estimations d’enquête). Les chercheurs d’enquête désirant des réponses à ces types de questions disposent de différents outils statistiques. Le présent article cherche à fournir un aperçu des approches fréquentiste et bayésienne de rechange de la comparaison des composantes de la variance dans différents groupes d’intervieweurs d’enquête, au moyen d’un cadre de modélisation linéaire généralisée hiérarchique qui tient compte de différents types de variables d’enquête. Nous considérons d’abord les avantages et les limites de chaque approche, en comparant les méthodes utilisées pour l’estimation et l’inférence. Nous présentons ensuite une étude de simulation, en évaluant de façon empirique la capacité de chaque approche d’estimer efficacement les différences entre les composantes de la variance. Nous appliquons alors les deux approches à une analyse des données d’enquête réelles recueillies dans le cadre de la National Survey of Family Growth (NSFG) aux États-Unis. Nous concluons que les deux approches ont tendance à donner des inférences très semblables et nous présentons des suggestions à mettre en pratique, compte tenu des différences subtiles observées.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214096
    Description :

    Afin d’obtenir une meilleure couverture de la population d’intérêt et de réduire les coûts, un certain nombre d’enquêtes s’appuient sur un plan à base de sondage double, suivant lequel des échantillons indépendants sont tirés de deux bases de sondage chevauchantes. La présente étude porte sur les tests du khi-carré dans les enquêtes à base de sondage double en présence de données catégoriques. Nous étendons le test de Wald généralisé (Wald 1943), ainsi que les tests avec correction d’ordre un et correction d’ordre deux de Rao-Scott (Rao et Scott 1981) pour passer d’une enquête à base de sondage unique à une enquête à base de sondage double, et nous déterminons les distributions asymptotiques. Des simulations montrent que les deux tests avec correction de type Rao-Scott donnent de bons résultats, et il est donc recommandé de les utiliser dans les enquêtes à base de sondage double. Un exemple sert à illustrer l’utilisation des tests élaborés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214091
    Description :

    L’imputation fractionnaire paramétrique (IFP) proposée par Kim (2011) est un outil d’estimation des paramètres à usage général en cas de données manquantes. Nous proposons une imputation fractionnaire hot deck (IFHD), qui est plus robuste que l’IFP ou l’imputation multiple. Selon la méthode proposée, les valeurs imputées sont choisies parmi l’ensemble des répondants, et des pondérations fractionnaires appropriées leur sont assignées. Les pondérations sont ensuite ajustées pour répondre à certaines conditions de calage, ce qui garantit l’efficacité de l’estimateur IFHD résultant. Deux études de simulation sont présentées afin de comparer la méthode proposée aux méthodes existantes.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214097
    Description :

    Lorsque les enquêtes mensuelles auprès des entreprises ne sont pas entièrement chevauchantes, il existe deux estimateurs différents du taux de croissance mensuelle du chiffre d’affaires, i) l’un fondé sur les totaux de population estimés mensuellement et ii) l’autre fondé purement sur les entreprises observées aux deux occasions dans la partie chevauchante des enquêtes correspondantes. Les estimations et les variances résultantes pourraient être assez différentes. Le présent article a pour but de proposer un estimateur composite optimal du taux de croissance, ainsi que des totaux de population.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214128
    Description :

    Les utilisateurs et les fournisseurs de statistiques officielles, ainsi que ceux qui en assurent le financement, veulent des estimations « plus vastes, plus approfondies, plus rapides, de meilleure qualité et moins coûteuses » (selon Tim Holt, ancien chef de l’Office for National Statistics du Royaume-Uni), attributs auxquels j’ajouterais « plus pertinentes » et « moins fastidieuses ». Depuis la Deuxième Guerre mondiale, nous dépendons dans une large mesure des enquêtes sur échantillon probabiliste - celles-ci étant très bonnes dans les faits - pour atteindre ces objectifs pour les estimations dans de nombreux domaines, y compris le revenu des ménages et le chômage, l’état de santé autodéclaré, l’emploi du temps, les victimes d’actes criminels, l’activité des entreprises, les flux de produits, les dépenses des consommateurs et des entreprises, etc. Par suite des taux de plus en plus faibles de réponse totale et partielle et des preuves d’erreur de déclaration, nous avons réagi de nombreuses façons, y compris en utilisant des modes d’enquête multiples, des méthodes de pondération et d’imputation plus raffinées, l’échantillonnage adaptable, des essais cognitifs des questions d’enquête et d’autres méthodes pour maintenir la qualité des données. Dans le cas des statistiques sur le secteur des entreprises, afin de réduire le fardeau et les coûts, nous avons cessé depuis longtemps de recourir uniquement à des enquêtes pour produire les estimations nécessaires, mais jusqu’à présent, nous ne l’avons pas fait pour les enquêtes auprès des ménages, du moins pas aux États-Unis. Je soutiens que nous pouvons et que nous devons passer du paradigme de production des meilleures estimations possible à partir d’une enquête à la production des meilleures estimations possible pour répondre aux besoins des utilisateurs, à partir de sources de données multiples. Ces sources comprennent les dossiers administratifs et, de plus en plus, des données sur les transactions et des données en ligne. Je me sers de deux exemples - ceux du revenu des ménages et des installations de plomberie - pour illustrer ma thèse. Je propose des moyens d’inculquer une culture de la statistique officielle dont l’objectif est d’aboutir à des statistiques pertinentes, à jour, exactes et peu coûteuses, et qui traite les enquêtes, de même que les autres sources de données, comme des moyens d’atteindre cet objectif.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214118
    Description :

    L’agrégation bootstrap est une puissante méthode de calcul utilisée pour améliorer la performance des estimateurs inefficaces. Le présent article est le premier à explorer l’utilisation de l’agrégation bootstrap dans l’estimation par sondage. Nous y examinons les effets de l’agrégation bootstrap sur les estimateurs d’enquête non différenciables, y compris les fonctions de répartition de l’échantillon et les quantiles. Les propriétés théoriques des estimateurs d’enquête agrégés par bootstrap sont examinées sous le régime fondé sur le plan de sondage et le régime fondé sur le modèle. En particulier, nous montrons la convergence par rapport au plan des estimateurs agrégés par bootstrap et obtenons la normalité asymptotique des estimateurs dans un contexte fondé sur le modèle. L’article explique comment la mise en oeuvre de l’agrégation bootstrap des estimateurs d’enquête peut tirer parti des répliques produites pour l’estimation par sondage de la variance, facilitant l’application de l’agrégation bootstrap dans les enquêtes existantes. Un autre défi important dans la mise en oeuvre de l’agrégation bootstrap en contexte d’enquête est l’estimation de la variance pour les estimateurs agrégés par bootstrap eux-mêmes, et nous examinons deux façons possibles d’estimer la variance. Les expériences par simulation révèlent une amélioration de l’estimateur par agrégation bootstrap proposé par rapport à l’estimateur original et comparent les deux approches d’estimation de la variance.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214090
    Description :

    Lorsqu'on s'intéresse à une population finie, il arrive qu'il soit nécessaire de tirer des échantillons dans plusieurs bases de sondage pour représenter l'ensemble des individus. Nous nous intéressons ici au cas de deux échantillons sélectionnés selon un plan à deux degrés, avec un premier degré de tirage commun. Nous appliquons les méthodes de Hartley (1962), Bankier (1986), et Kalton et Anderson (1986), et nous montrons que ces méthodes peuvent être appliquées conditionnellement au premier degré de tirage. Nous comparons également la performance de plusieurs estimateurs dans le cadre d'une étude par simulations. Nos résultats suggèrent que le choix d'un estimateur en présence de bases de sondage multiples se fasse de façon prudente, et qu'un estimateur simple est parfois préférable même s'il n'utilise qu'une partie de l'information collectée.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 11-630-X2014002
    Description :

    Le Canada compte maintenant plus de 35 millions de personnes. Dans le présent numéro des Mégatendances canadiennes, nous examinons l’évolution des taux et des tendances de fécondité chez les Canadiennes.

    Date de diffusion : 2014-11-13

  • Le Quotidien
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2014-11-12

  • Produits techniques : 11-522-X2013000
    Description :

    Le Symposium 2014 était le 29e Symposium international sur les questions de méthodologie de Statistique Canada. Chaque année, le Symposium se penche sur un thème précis. En 2014, le thème était : «Au-delà des méthodes traditionnelles d’enquête : l’adaptation à un monde en évolution».

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014265
    Description :

    Le couplage d’enregistrements exact est un outil essentiel à l’exploitation des fichiers administratifs, surtout quand on étudie les relations entre de nombreuses variables qui ne sont pas toutes contenues dans un fichier administratif unique. L’objectif est de trouver des paires d’enregistrements associées à une même personne ou entité. Le résultat est un fichier couplé qui peut être utilisé pour estimer les paramètres de population, y compris les totaux et les ratios. Malheureusement, le processus de couplage est complexe et sujet à erreurs parce qu’il s’appuie habituellement sur des variables d’appariement qui ne sont pas uniques et qui peuvent être consignées avec des erreurs. Par conséquent, le fichier couplé contient des erreurs d’appariement, y compris des appariements incorrects d’enregistrements non apparentés et des appariements manquants d’enregistrements apparentés. Ces erreurs peuvent donner lieu à des estimateurs biaisés s’il n’en est pas tenu compte dans le processus d’estimation. Dans le cadre de travaux antérieurs dans ce domaine, ces erreurs ont été prises en considération au moyen d’hypothèses au sujet de leur distribution. En général, la distribution supposée est en fait une approximation très grossière de la distribution réelle, en raison de la complexité intrinsèque du processus de couplage. Donc, les estimateurs résultants peuvent présenter un biais. Un nouveau cadre méthodologique, fondé sur la théorie classique des sondages, est proposé pour obtenir des estimateurs fondés sur le plan de sondage à partir de fichiers administratifs d’enregistrements couplés. Il comprend trois étapes. Pour commencer, on tire un échantillon probabiliste de paires d’enregistrements. Ensuite, on procède à un examen manuel de toutes les paires échantillonnées. Enfin, on calcule des estimateurs fondés sur le plan de sondage en fonction des résultats de l’examen. Cette méthodologie mène à des estimateurs dont l’erreur d’échantillonnage est fondée sur le plan de sondage, même si le processus repose uniquement sur deux fichiers administratifs. Elle s’écarte des travaux antérieurs s’appuyant sur un modèle et fournit des estimateurs plus robustes. Ce résultat est obtenu en plaçant les examens manuels au coeur du processus d’estimation. Le recours aux examens manuels est essentiel, parce qu’il s’agit de fait d’une norme de référence en ce qui a trait à la qualité des décisions au sujet des appariements. Le cadre proposé peut également être appliqué à l’estimation au moyen de données administratives et de données d’enquête couplées.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014284
    Description :

    La diminution des taux de réponse observée par plusieurs instituts nationaux de statistique, leur volonté de limiter le fardeau de même que l’importance des contraintes budgétaires auxquelles ils font face favorisent une utilisation accrue des données administratives pour la production de renseignements statistiques. Les sources de données administratives qu’ils sont amenés à considérer doivent être évaluées afin d’en déterminer l’adéquation à l’utilisation, et ce en tenant compte de plusieurs aspects. Une démarche d’évaluation des sources de données administratives en vue de leur utilisation comme intrant à des processus de production de renseignements statistiques a récemment été élaborée à Statistique Canada. Celle-ci comprend essentiellement deux phases. La première phase ne nécessite que l’accès aux métadonnées associées aux données administratives considérées alors que la deuxième est effectuée à partir d’une version des données permettant l’évaluation. La démarche et l’outil d’évaluation sont présentés dans cet article.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014285
    Description :

    L’Enquête nationale auprès des ménages (ENM) de 2011 est une enquête à participation volontaire qui a remplacé le questionnaire complet obligatoire traditionnel du recensement de la population du Canada. L’ENM a été réalisée auprès d’un échantillon d’environ 30 % des ménages canadiens et a donné un taux de réponse pondéré selon le plan de sondage de 77 %. Comparativement, le dernier questionnaire complet du recensement a été envoyé à 20 % des ménages et a produit un taux de réponse de 94 %. Au moyen des données du questionnaire complet, Statistique Canada produit habituellement deux fichiers de microdonnées à grande diffusion (FMGD) : le FMGD des particuliers et le FMGD hiérarchique. Ces fichiers donnent tous deux des renseignements sur les particuliers, mais le FMGD hiérarchique fournit aussi des renseignements sur les liens entre les particuliers d’un même ménage ou d’une même famille. Afin de produire, en se basant sur les données de l’ENM, deux FMGD qui couvrent uniformément l’ensemble du pays et qui ne se chevauchent pas, nous avons appliqué une stratégie spéciale de sous-échantillonnage. Les analyses de confidentialité sont devenues plus difficiles, en raison des nombreuses nouvelles variables, de l’information géographique plus détaillée et de la nature volontaire de l’ENM. Le présent article décrit la méthodologie des FMGD de 2011 et la façon dont elle établit un équilibre entre le besoin de disposer de plus d’information et la nécessité que le risque de divulgation soit faible.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014267
    Description :

    Comme de nombreux autres instituts nationaux de statistique, le Bureau de la statistique de la Suède a une longue tradition de qualité. Plus récemment, l’organisme a décidé de commencer à utiliser un certain nombre de cadres pour résoudre les questions de qualité organisationnelle, de qualité des processus et de qualité des produits. Il est important de prendre en compte ces trois niveaux, car nous savons que la façon dont nous faisons les choses, par exemple, lorsque nous posons des questions, a des répercussions sur la qualité des produits et que, par conséquent, la qualité des processus représente un élément important du concept de qualité. Par ailleurs, la qualité organisationnelle, c’est-à-dire la gestion systématique des aspects comme la formation du personnel et le leadership, est essentielle pour assurer la qualité des processus. Le Bureau de la statistique de la Suède utilise l’EFQM (European Foundation for Quality Management) comme cadre pour la qualité organisationnelle et ISO 20252 comme norme pour la qualité des processus pour les études de marché, les sondages d’opinion et les études sociales. En avril 2014, le Bureau de la statistique de la Suède a été le premier institut national de la statistique à être certifié selon la norme ISO 20252. Parmi les défis auxquels le Bureau de la statistique de la Suède a dû faire face en 2011 figuraient la mesure systématique et le contrôle des changements dans la qualité des produits, ainsi que la présentation claire aux intervenants. De concert avec des experts-conseils externes, Paul Biemer et Dennis Trewin, du Bureau de la statistique de la Suède, ont développé à cette fin un outil appelé ASPIRE (A System for Product Improvement, Review and Evaluation). Afin d’assurer le maintien et l’amélioration de la qualité, le Bureau de la statistique de la Suède a aussi mis sur pied une équipe chargée de l’assurance de la qualité, comprenant un gestionnaire de la qualité, des responsables de la qualité et des vérificateurs internes et externes de la qualité. Dans le présent document, j’aborderai les composantes du système de gestion de la qualité du Bureau de la statistique de la Suède, ainsi que les défis que nous avons dû relever.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014274
    Description :

    Qu’entend-on par mégadonnées? Peuvent-elles remplacer ou compléter les enquêtes officielles? Quels sont certains des défis liés à l’utilisation des mégadonnées pour les statistiques officielles? Quelles sont certaines des solutions possibles? L’automne dernier, Statistique Canada a investi dans un projet pilote sur les mégadonnées afin de répondre à certaines de ces questions. Il s’agissait du premier projet d’enquête auprès des entreprises de cette sorte. Le présent document abordera certaines des leçons apprises dans le cadre du projet pilote de mégadonnées pour les données des compteurs intelligents.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014280
    Description :

    Au cours de la dernière décennie, on a vu les enquêtes par panel en ligne s’établir comme un moyen rapide et économique d’effectuer des études de marché. Les progrès dans le domaine des technologies de l’information, en particulier la croissance rapide continue de l’usage d’Internet et des ordinateurs par les membres du public, sont à la base de ce phénomène. La croissance des taux de non-réponse et des prix à laquelle doit faire face l’industrie des sondages sous-tend aussi ce changement. Toutefois, certains risques importants sont associés aux enquêtes par panel en ligne, le biais de sélection dû à l’autosélection des répondants n’étant pas le moindre. Il existe aussi des risques d’erreurs de couverture et de mesure. L’absence d’un cadre d’inférence et d’indicateurs de la qualité des données constitue un obstacle à l’utilisation de panels en ligne pour la production de statistiques de haute qualité au sujet de la population générale. Néanmoins, les enquêtes par panel en ligne pour la production de statistiques ponctuelles et même de statistiques officielles semblent représenter une nouvelle forme de concurrence posant de plus en plus de défis à certains instituts nationaux de statistique. Le présent article explore la question de la conception et de l’utilisation des panels en ligne de façon scientifiquement valable. On donne d’abord un aperçu d’une norme de mesure de la performance établie par la Société suédoise des enquêtes et des sondages pour évaluer certains aspects qualitatifs des résultats des enquêtes par panel en ligne. Puis, on discute en détail de la décomposition du biais et de l’atténuation des risques de biais. Enfin, on présente certaines idées en vue de combiner des enquêtes par panel en ligne et des enquêtes classiques pour obtenir une inférence contrôlée de manière rentable.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014261
    Description :

    Les instituts nationaux de statistique sont confrontés à une double exigence difficile à concilier. D’un côté, ils doivent fournir des informations toujours plus précises sur des sujets spécifiques, des populations difficiles d’accès ou minoritaires, avec des protocoles innovants permettant d’objectiver la mesure ou d’assurer sa confidentialité, etc. D’un autre côté, ils doivent faire face à des restrictions budgétaires dans un contexte où les ménages sont de plus en plus difficiles à joindre. Cette double injonction n’est pas sans effet sur la qualité des enquêtes, qualité au sens large, c’est-à-dire non seulement en termes de précision mais encore en termes de pertinence, comparabilité, cohérence, clarté, fraîcheur. Compte tenu du faible coût de la collecte par internet et de la très large diffusion d’internet au sein de la population, ces instituts voient dans ce mode de collecte moderne une solution pour résoudre leurs problèmes. Ainsi, le développement du recours à la collecte par internet, et plus généralement à la collecte multimode, serait la solution pour maximiser la qualité d’enquête, en particulier en termes d’erreur d’enquête totale, en faisant face aux problèmes de couverture, d’échantillonnage, de non-réponse ou de mesure, tout en respectant ces contraintes budgétaires. Cependant, si la collecte par internet est un mode peu coûteux, elle pose des problèmes méthodologiques non négligeables : couverture, auto-sélection ou biais de sélection, non-réponse et les difficultés de sa correction, « satisficing », etc. Aussi, avant de développer ou généraliser l’utilisation du multimode, l’Insee s’est lancé dans une vaste opération d’expérimentations afin d’étudier ces différentes questions méthodologiques, dont les premiers résultats montrent que le multimode est à la fois source de solutions et de nouveaux problèmes méthodologiques.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014278
    Description :

    En janvier et février 2014, Statistique Canada a réalisé un essai en vue de mesurer l’efficacité des diverses stratégies de collecte au moyen d’une enquête en ligne fondée sur l’autodéclaration. On a communiqué avec les unités échantillonnées en leur envoyant des lettres de présentation par la poste et on leur a demandé de répondre à l’enquête en ligne, sans contact avec un intervieweur. L’essai visait à mesurer les taux de participation à une enquête en ligne, ainsi que les profils des répondants et des non-répondants. On a mis à l’essai différents échantillons et lettres, afin de déterminer l’efficacité relative des diverses méthodes. Les résultats du projet serviront à renseigner les responsables de diverses enquêtes sociales qui se préparent à ajouter à leurs enquêtes la possibilité d’y répondre par Internet. Le document présentera la méthode générale de l’essai, ainsi que les résultats observés pendant la collecte et l’analyse des profils.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014266
    Description :

    L’utilisation de moniteurs et l’autodéclaration sont deux méthodes de mesure de l’énergie dépensée durant l’activité physique, la variance de l’erreur étant habituellement beaucoup plus faible dans le cas des moniteurs que dans celui de l’autodéclaration. La Physical Activity Measurement Survey a été conçue pour comparer les deux procédures en utilisant des observations répétées sur une même personne. Ces observations répétées permettent de calibrer la mesure par autodéclaration sur la mesure par moniteur, ce qui rend possible l’estimation des composantes des variances des erreurs de mesure. Les estimations des composantes de la variance de l’erreur de mesure de la dépense d’énergie selon le moniteur et selon l’autodéclaration sont présentées pour les femmes qui ont participé à la Physical Activity Measurement Survey.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014259
    Description :

    Dans l’optique de réduire le fardeau de réponse des exploitants agricoles, Statistique Canada étudie d’autres approches que les enquêtes par téléphone pour produire des estimations des grandes cultures. Une option consiste à publier des estimations de la superficie récoltée et du rendement en septembre, comme cela se fait actuellement, mais de les calculer au moyen de modèles fondés sur des données par satellite et des données météorologiques, ainsi que les données de l’enquête téléphonique de juillet. Toutefois, avant d’adopter une telle approche, on doit trouver une méthode pour produire des estimations comportant un niveau d’exactitude suffisant. Des recherches sont en cours pour examiner différentes possibilités. Les résultats de la recherche initiale et les enjeux à prendre en compte sont abordés dans ce document.

    Date de diffusion : 2014-10-31

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (37)

Analyses (37) (25 of 37 results)

  • Articles et rapports : 11-630-X2014003
    Description :

    L'histoire économique du Canada doit beaucoup à sa richesse en ressources naturelles. L'édition de décembre des Mégatendances canadiennes examine le rôle que ces atouts ont joué dans la croissance et le développement du pays.

    Date de diffusion : 2014-12-23

  • Articles et rapports : 12-001-X201400214113
    Description :

    Les enquêtes par panel à renouvellement servent à calculer des estimations des flux bruts entre deux périodes consécutives de mesure. Le présent article examine une procédure générale pour estimer les flux bruts lorsque l’enquête par panel à renouvellement a été générée à partir d’un plan de sondage complexe avec non-réponse aléatoire. Une approche à pseudo-maximum de vraisemblance est envisagée dans le contexte d’un modèle à deux degrés de chaînes de Markov pour le classement des personnes dans les catégories de l’enquête et pour la modélisation de la non-réponse.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214089
    Description :

    Le présent document décrit l’utilisation de l’imputation multiple pour combiner l’information de plusieurs enquêtes de la même population sous-jacente. Nous utilisons une nouvelle méthode pour générer des populations synthétiques de façon non paramétrique à partir d’un bootstrap bayésien fondé sur une population finie qui tient systématiquement compte des plans d’échantillonnage complexes. Nous analysons ensuite chaque population synthétique au moyen d’un logiciel standard de données complètes pour les échantillons aléatoires simples et obtenons une inférence valide en combinant les estimations ponctuelles et de variance au moyen des extensions de règles de combinaison existantes pour les données synthétiques. Nous illustrons l’approche en combinant les données de la National Health Interview Survey (NHIS) de 2006 et de la Medical Expenditure Panel Survey (MEPS) de 2006.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214119
    Description :

    Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214110
    Description :

    Quand nous élaborons le plan de sondage d’une enquête, nous essayons de produire un bon plan compte tenu du budget disponible. L’information sur les coûts peut être utilisée pour établir des plans de sondage qui minimisent la variance d’échantillonnage d’un estimateur du total pour un coût fixe. Les progrès dans le domaine des systèmes de gestion d’enquête signifient qu’aujourd’hui, il est parfois possible d’estimer le coût d’inclusion de chaque unité dans l’échantillon. Le présent article décrit l’élaboration d’approches relativement simples pour déterminer si les avantages pouvant découler de l’utilisation de cette information sur les coûts au niveau de l’unité sont susceptibles d’avoir une utilité pratique. Nous montrons que le facteur important est le ratio du coefficient de variation du coût sur le coefficient de variation de l’erreur relative des coefficients de coût estimés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214092
    Description :

    Les méthodologistes d’enquête étudient depuis longtemps les effets des intervieweurs sur la variance des estimations d’enquête. Les modèles statistiques tenant compte des effets aléatoires des intervieweurs sont souvent intégrés à ce genre d’études, et l’intérêt de la recherche repose sur l’ampleur de la composante de la variance de l’intervieweur. Une question peut se poser au cours d’une étude méthodologique : différents groupes d’intervieweurs (p. ex. ceux ayant de l’expérience relative à une enquête donnée par rapport aux nouvelles recrues, ou les intervieweurs IPAO par rapport aux intervieweurs ITAO) ont-ils des composantes de variance considérablement différentes dans ces modèles? Des écarts importants peuvent indiquer un besoin de formation supplémentaire pour certains sous-groupes, les propriétés moins optimales de différents modes ou styles d’interview pour certaines questions d’enquête (en ce qui concerne l’erreur quadratique moyenne globale des estimations d’enquête). Les chercheurs d’enquête désirant des réponses à ces types de questions disposent de différents outils statistiques. Le présent article cherche à fournir un aperçu des approches fréquentiste et bayésienne de rechange de la comparaison des composantes de la variance dans différents groupes d’intervieweurs d’enquête, au moyen d’un cadre de modélisation linéaire généralisée hiérarchique qui tient compte de différents types de variables d’enquête. Nous considérons d’abord les avantages et les limites de chaque approche, en comparant les méthodes utilisées pour l’estimation et l’inférence. Nous présentons ensuite une étude de simulation, en évaluant de façon empirique la capacité de chaque approche d’estimer efficacement les différences entre les composantes de la variance. Nous appliquons alors les deux approches à une analyse des données d’enquête réelles recueillies dans le cadre de la National Survey of Family Growth (NSFG) aux États-Unis. Nous concluons que les deux approches ont tendance à donner des inférences très semblables et nous présentons des suggestions à mettre en pratique, compte tenu des différences subtiles observées.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214096
    Description :

    Afin d’obtenir une meilleure couverture de la population d’intérêt et de réduire les coûts, un certain nombre d’enquêtes s’appuient sur un plan à base de sondage double, suivant lequel des échantillons indépendants sont tirés de deux bases de sondage chevauchantes. La présente étude porte sur les tests du khi-carré dans les enquêtes à base de sondage double en présence de données catégoriques. Nous étendons le test de Wald généralisé (Wald 1943), ainsi que les tests avec correction d’ordre un et correction d’ordre deux de Rao-Scott (Rao et Scott 1981) pour passer d’une enquête à base de sondage unique à une enquête à base de sondage double, et nous déterminons les distributions asymptotiques. Des simulations montrent que les deux tests avec correction de type Rao-Scott donnent de bons résultats, et il est donc recommandé de les utiliser dans les enquêtes à base de sondage double. Un exemple sert à illustrer l’utilisation des tests élaborés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214091
    Description :

    L’imputation fractionnaire paramétrique (IFP) proposée par Kim (2011) est un outil d’estimation des paramètres à usage général en cas de données manquantes. Nous proposons une imputation fractionnaire hot deck (IFHD), qui est plus robuste que l’IFP ou l’imputation multiple. Selon la méthode proposée, les valeurs imputées sont choisies parmi l’ensemble des répondants, et des pondérations fractionnaires appropriées leur sont assignées. Les pondérations sont ensuite ajustées pour répondre à certaines conditions de calage, ce qui garantit l’efficacité de l’estimateur IFHD résultant. Deux études de simulation sont présentées afin de comparer la méthode proposée aux méthodes existantes.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214097
    Description :

    Lorsque les enquêtes mensuelles auprès des entreprises ne sont pas entièrement chevauchantes, il existe deux estimateurs différents du taux de croissance mensuelle du chiffre d’affaires, i) l’un fondé sur les totaux de population estimés mensuellement et ii) l’autre fondé purement sur les entreprises observées aux deux occasions dans la partie chevauchante des enquêtes correspondantes. Les estimations et les variances résultantes pourraient être assez différentes. Le présent article a pour but de proposer un estimateur composite optimal du taux de croissance, ainsi que des totaux de population.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214128
    Description :

    Les utilisateurs et les fournisseurs de statistiques officielles, ainsi que ceux qui en assurent le financement, veulent des estimations « plus vastes, plus approfondies, plus rapides, de meilleure qualité et moins coûteuses » (selon Tim Holt, ancien chef de l’Office for National Statistics du Royaume-Uni), attributs auxquels j’ajouterais « plus pertinentes » et « moins fastidieuses ». Depuis la Deuxième Guerre mondiale, nous dépendons dans une large mesure des enquêtes sur échantillon probabiliste - celles-ci étant très bonnes dans les faits - pour atteindre ces objectifs pour les estimations dans de nombreux domaines, y compris le revenu des ménages et le chômage, l’état de santé autodéclaré, l’emploi du temps, les victimes d’actes criminels, l’activité des entreprises, les flux de produits, les dépenses des consommateurs et des entreprises, etc. Par suite des taux de plus en plus faibles de réponse totale et partielle et des preuves d’erreur de déclaration, nous avons réagi de nombreuses façons, y compris en utilisant des modes d’enquête multiples, des méthodes de pondération et d’imputation plus raffinées, l’échantillonnage adaptable, des essais cognitifs des questions d’enquête et d’autres méthodes pour maintenir la qualité des données. Dans le cas des statistiques sur le secteur des entreprises, afin de réduire le fardeau et les coûts, nous avons cessé depuis longtemps de recourir uniquement à des enquêtes pour produire les estimations nécessaires, mais jusqu’à présent, nous ne l’avons pas fait pour les enquêtes auprès des ménages, du moins pas aux États-Unis. Je soutiens que nous pouvons et que nous devons passer du paradigme de production des meilleures estimations possible à partir d’une enquête à la production des meilleures estimations possible pour répondre aux besoins des utilisateurs, à partir de sources de données multiples. Ces sources comprennent les dossiers administratifs et, de plus en plus, des données sur les transactions et des données en ligne. Je me sers de deux exemples - ceux du revenu des ménages et des installations de plomberie - pour illustrer ma thèse. Je propose des moyens d’inculquer une culture de la statistique officielle dont l’objectif est d’aboutir à des statistiques pertinentes, à jour, exactes et peu coûteuses, et qui traite les enquêtes, de même que les autres sources de données, comme des moyens d’atteindre cet objectif.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214118
    Description :

    L’agrégation bootstrap est une puissante méthode de calcul utilisée pour améliorer la performance des estimateurs inefficaces. Le présent article est le premier à explorer l’utilisation de l’agrégation bootstrap dans l’estimation par sondage. Nous y examinons les effets de l’agrégation bootstrap sur les estimateurs d’enquête non différenciables, y compris les fonctions de répartition de l’échantillon et les quantiles. Les propriétés théoriques des estimateurs d’enquête agrégés par bootstrap sont examinées sous le régime fondé sur le plan de sondage et le régime fondé sur le modèle. En particulier, nous montrons la convergence par rapport au plan des estimateurs agrégés par bootstrap et obtenons la normalité asymptotique des estimateurs dans un contexte fondé sur le modèle. L’article explique comment la mise en oeuvre de l’agrégation bootstrap des estimateurs d’enquête peut tirer parti des répliques produites pour l’estimation par sondage de la variance, facilitant l’application de l’agrégation bootstrap dans les enquêtes existantes. Un autre défi important dans la mise en oeuvre de l’agrégation bootstrap en contexte d’enquête est l’estimation de la variance pour les estimateurs agrégés par bootstrap eux-mêmes, et nous examinons deux façons possibles d’estimer la variance. Les expériences par simulation révèlent une amélioration de l’estimateur par agrégation bootstrap proposé par rapport à l’estimateur original et comparent les deux approches d’estimation de la variance.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214090
    Description :

    Lorsqu'on s'intéresse à une population finie, il arrive qu'il soit nécessaire de tirer des échantillons dans plusieurs bases de sondage pour représenter l'ensemble des individus. Nous nous intéressons ici au cas de deux échantillons sélectionnés selon un plan à deux degrés, avec un premier degré de tirage commun. Nous appliquons les méthodes de Hartley (1962), Bankier (1986), et Kalton et Anderson (1986), et nous montrons que ces méthodes peuvent être appliquées conditionnellement au premier degré de tirage. Nous comparons également la performance de plusieurs estimateurs dans le cadre d'une étude par simulations. Nos résultats suggèrent que le choix d'un estimateur en présence de bases de sondage multiples se fasse de façon prudente, et qu'un estimateur simple est parfois préférable même s'il n'utilise qu'une partie de l'information collectée.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 11-630-X2014002
    Description :

    Le Canada compte maintenant plus de 35 millions de personnes. Dans le présent numéro des Mégatendances canadiennes, nous examinons l’évolution des taux et des tendances de fécondité chez les Canadiennes.

    Date de diffusion : 2014-11-13

  • Le Quotidien
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2014-11-12

  • Articles et rapports : 82-003-X201401014098
    Description :

    La présente analyse compare une approche fondée sur un registre et une approche non fondée sur un registre pour apparier les données du Recensement de la population de 2006 et les données d’hôpital provenant de la Base de données sur les congés de patients pour le Manitoba et l’Ontario.

    Date de diffusion : 2014-10-15

  • Articles et rapports : 11-630-X2014001
    Description :

    La contribution de l’accroissement naturel et de celui migratoire à la croissance démographique de 1851 à 2061 a un caractère changeant. L’accroissement joue un rôle grandissant dans la croissance démographique du Canada.

    Date de diffusion : 2014-10-09

  • Articles et rapports : 11F0027M2014094
    Description :

    Le présent rapport présente une comparaison de la valeur nette des ménages par habitant au Canada et aux États Unis de 1970 à 2012, basée sur des données provenant des comptes du bilan national du Canada et des mouvements de fonds (Flow of Funds Accounts) publiés par la Réserve fédérale américaine.

    Trois approches sont utilisées à cette fin. La première consiste en une comparaison des niveaux à partir de valeurs rajustées en fonction de la parité de pouvoir d’achat (PPA). La deuxième fait appel à des ratios de la valeur nette réelle par habitant et de la valeur nette au revenu disponible. Dans la troisième approche, on décompose la croissance du ratio de la valeur nette au revenu disponible. Ensemble, ces approches produisent des résultats qui se confortent mutuellement et qui sont plus robustes que ceux pouvant être obtenus au moyen d’une seule approche.

    Date de diffusion : 2014-08-20

  • Articles et rapports : 12-001-X201400114004
    Description :

    En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114000
    Description :

    Nous avons mis en œuvre la technique de linéarisation généralisée reposant sur le concept de fonction d’influence tout comme l’a fait Osier (2009) pour estimer la variance de statistiques complexes telles que les indices de Laeken. Des simulations réalisées avec le langage R montrent que, pour les cas où l’on a recours à une estimation par noyau gaussien de la fonction de densité des revenus considérés, on obtient un fort biais pour la valeur estimée de la variance. On propose deux autres méthodes pour estimer la densité qui diminuent fortement le biais constaté. L’une de ces méthodes a déjà été esquissée par Deville (2000). Les résultats publiés ici permettront une amélioration substantielle de la qualité des informations sur la précision de certains indices de Laeken diffusées et comparées internationalement.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400111886
    Description :

    L'estimateur bayésien linéaire en population finie est obtenu en partant d'un modèle de régression à deux degrés spécifié uniquement par les moyennes et les variances de certains paramètres du modèle associés à chaque degré de la hiérarchie. Nombre d'estimateurs fondés sur le plan de sondage usuels décrits dans la littérature peuvent être obtenus en tant que cas particuliers. Un nouvel estimateur par le ratio est également proposé pour la situation pratique où de l'information auxiliaire est disponible. L'application de la même approche bayésienne linéaire est proposée pour estimer des proportions pour des données catégoriques multiples associées aux unités de la population finie, ce qui constitue la principale contribution des présents travaux, et est illustrée au moyen d'un exemple numérique.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114001
    Description :

    Le présent article traite de l’effet de différentes méthodes d’échantillonnage sur la qualité de l’échantillon réalisé. On s’attendait à ce que cet effet dépende de la mesure dans laquelle les intervieweurs ont la liberté d’interviewer des personnes avec lesquelles il leur est facile de prendre contact ou dont il leur est facile d’obtenir la coopération (donc d’effectuer des substitutions). L’analyse a été menée dans un contexte transculturel en utilisant des données provenant des quatre premières vagues de l’Enquête sociale européenne (ESS, pour European Social Survey). Les substitutions sont mesurées par les écarts par rapport au ratio hommes-femmes de 50/50 dans des sous-échantillons constitués de couples hétérosexuels. Des écarts importants ont été observés dans de nombreux pays qui participent à l’ESS. Ces écarts se sont également avérés les plus faibles lorsque des registres officiels de résidents avaient servi de base de sondage pour le tirage des échantillons (échantillonnage à partir de registres de personnes) dans le cas où l’un des conjoints était plus difficile à joindre que l’autre. Cette portée des substitutions ne variait pas d’une vague à l’autre de l’ESS et était faiblement corrélée au mode de rémunération et aux procédures de contrôle des intervieweurs. Les résultats permettent de conclure que les échantillons tirés de registres de personnes sont de plus haute qualité.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114002
    Description :

    Nous proposons une approche d’imputation multiple des réponses manquant aléatoirement dans les enquêtes à grande échelle qui ne portent que sur des variables catégoriques présentant des zéros structurels. Notre approche consiste à utiliser des mélanges de lois multinomiales comme outils d’imputation et à tenir compte des zéros structurels en concevant les données observées comme un échantillon tronqué issu d’une population hypothétique ne contenant pas de zéros structurels. Cette approche possède plusieurs caractéristiques intéressantes : les imputations sont générées à partir de modèles bayésiens conjoints cohérents qui tiennent compte automatiquement des dépendances complexes et s’adaptent facilement à de grands nombres de variables. Nous décrivons un algorithme d’échantillonnage de Gibbs pour mettre en œuvre l’approche et illustrons son potentiel au moyen d’une étude par échantillonnage répété en utilisant des microdonnées de recensement à grande diffusion provenant de l’État de New York, aux États Unis.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114030
    Description :

    L’article décrit les résultats d’une étude par simulation Monte Carlo réalisée en vue de comparer l’efficacité de quatre modèles hiérarchiques bayésiens d’estimation sur petits domaines pour estimer des proportions au niveau de l’État au moyen de données provenant d’échantillons aléatoires simples stratifiés tirés d’une population finie fixe. Deux des modèles reposent sur les hypothèses fréquentes selon lesquelles, pour chaque petit domaine échantillonné, la proportion pondérée par les poids de sondage estimée suit une loi normale et sa variance d’échantillonnage est connue. L’un de ces modèles comprend un modèle de lien linéaire et l’autre, un modèle de lien logistique. Les deux autres modèles utilisent tous deux un modèle de lien logistique et reposent sur l’hypothèse que la variance d’échantillonnage est inconnue. L’un de ces deux modèles suppose que le modèle d’échantillonnage obéit à une loi normale et l’autre, qu’il obéit à une loi bêta. L’étude montre que, pour chacun des quatre modèles, la couverture sous le plan de sondage de l’intervalle de crédibilité des proportions au niveau de l’État en population finie s’écarte considérablement du niveau nominal de 95 % utilisé pour construire les intervalles.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114029
    Description :

    Fay et Train (1995) présentent une méthode qu’ils nomment successive difference replication, c.-à-d. répliques des différences successives, qui peut être utilisée pour estimer la variance d’un total estimé au moyen d’un échantillon aléatoire systématique tiré d’une liste ordonnée. L’estimateur prend la forme générale d’un estimateur de variance par rééchantillonnage, où les facteurs de rééchantillonnage sont construits de manière à imiter l’estimateur par différences successives. Cet estimateur est une modification de celui présenté dans Wolter (1985). Le présent article étend la méthodologie en expliquant l’effet de l’attribution des lignes de matrice sur l’estimateur de variance, en montrant comment un jeu réduit de répliques mène à un estimateur raisonnable et en établissant les conditions pour que la méthode des répliques des différences successives soit équivalente à l’estimateur par différences successives.

    Date de diffusion : 2014-06-27

Références (43)

Références (43) (25 of 43 results)

  • Produits techniques : 11-522-X2013000
    Description :

    Le Symposium 2014 était le 29e Symposium international sur les questions de méthodologie de Statistique Canada. Chaque année, le Symposium se penche sur un thème précis. En 2014, le thème était : «Au-delà des méthodes traditionnelles d’enquête : l’adaptation à un monde en évolution».

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014265
    Description :

    Le couplage d’enregistrements exact est un outil essentiel à l’exploitation des fichiers administratifs, surtout quand on étudie les relations entre de nombreuses variables qui ne sont pas toutes contenues dans un fichier administratif unique. L’objectif est de trouver des paires d’enregistrements associées à une même personne ou entité. Le résultat est un fichier couplé qui peut être utilisé pour estimer les paramètres de population, y compris les totaux et les ratios. Malheureusement, le processus de couplage est complexe et sujet à erreurs parce qu’il s’appuie habituellement sur des variables d’appariement qui ne sont pas uniques et qui peuvent être consignées avec des erreurs. Par conséquent, le fichier couplé contient des erreurs d’appariement, y compris des appariements incorrects d’enregistrements non apparentés et des appariements manquants d’enregistrements apparentés. Ces erreurs peuvent donner lieu à des estimateurs biaisés s’il n’en est pas tenu compte dans le processus d’estimation. Dans le cadre de travaux antérieurs dans ce domaine, ces erreurs ont été prises en considération au moyen d’hypothèses au sujet de leur distribution. En général, la distribution supposée est en fait une approximation très grossière de la distribution réelle, en raison de la complexité intrinsèque du processus de couplage. Donc, les estimateurs résultants peuvent présenter un biais. Un nouveau cadre méthodologique, fondé sur la théorie classique des sondages, est proposé pour obtenir des estimateurs fondés sur le plan de sondage à partir de fichiers administratifs d’enregistrements couplés. Il comprend trois étapes. Pour commencer, on tire un échantillon probabiliste de paires d’enregistrements. Ensuite, on procède à un examen manuel de toutes les paires échantillonnées. Enfin, on calcule des estimateurs fondés sur le plan de sondage en fonction des résultats de l’examen. Cette méthodologie mène à des estimateurs dont l’erreur d’échantillonnage est fondée sur le plan de sondage, même si le processus repose uniquement sur deux fichiers administratifs. Elle s’écarte des travaux antérieurs s’appuyant sur un modèle et fournit des estimateurs plus robustes. Ce résultat est obtenu en plaçant les examens manuels au coeur du processus d’estimation. Le recours aux examens manuels est essentiel, parce qu’il s’agit de fait d’une norme de référence en ce qui a trait à la qualité des décisions au sujet des appariements. Le cadre proposé peut également être appliqué à l’estimation au moyen de données administratives et de données d’enquête couplées.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014284
    Description :

    La diminution des taux de réponse observée par plusieurs instituts nationaux de statistique, leur volonté de limiter le fardeau de même que l’importance des contraintes budgétaires auxquelles ils font face favorisent une utilisation accrue des données administratives pour la production de renseignements statistiques. Les sources de données administratives qu’ils sont amenés à considérer doivent être évaluées afin d’en déterminer l’adéquation à l’utilisation, et ce en tenant compte de plusieurs aspects. Une démarche d’évaluation des sources de données administratives en vue de leur utilisation comme intrant à des processus de production de renseignements statistiques a récemment été élaborée à Statistique Canada. Celle-ci comprend essentiellement deux phases. La première phase ne nécessite que l’accès aux métadonnées associées aux données administratives considérées alors que la deuxième est effectuée à partir d’une version des données permettant l’évaluation. La démarche et l’outil d’évaluation sont présentés dans cet article.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014285
    Description :

    L’Enquête nationale auprès des ménages (ENM) de 2011 est une enquête à participation volontaire qui a remplacé le questionnaire complet obligatoire traditionnel du recensement de la population du Canada. L’ENM a été réalisée auprès d’un échantillon d’environ 30 % des ménages canadiens et a donné un taux de réponse pondéré selon le plan de sondage de 77 %. Comparativement, le dernier questionnaire complet du recensement a été envoyé à 20 % des ménages et a produit un taux de réponse de 94 %. Au moyen des données du questionnaire complet, Statistique Canada produit habituellement deux fichiers de microdonnées à grande diffusion (FMGD) : le FMGD des particuliers et le FMGD hiérarchique. Ces fichiers donnent tous deux des renseignements sur les particuliers, mais le FMGD hiérarchique fournit aussi des renseignements sur les liens entre les particuliers d’un même ménage ou d’une même famille. Afin de produire, en se basant sur les données de l’ENM, deux FMGD qui couvrent uniformément l’ensemble du pays et qui ne se chevauchent pas, nous avons appliqué une stratégie spéciale de sous-échantillonnage. Les analyses de confidentialité sont devenues plus difficiles, en raison des nombreuses nouvelles variables, de l’information géographique plus détaillée et de la nature volontaire de l’ENM. Le présent article décrit la méthodologie des FMGD de 2011 et la façon dont elle établit un équilibre entre le besoin de disposer de plus d’information et la nécessité que le risque de divulgation soit faible.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014267
    Description :

    Comme de nombreux autres instituts nationaux de statistique, le Bureau de la statistique de la Suède a une longue tradition de qualité. Plus récemment, l’organisme a décidé de commencer à utiliser un certain nombre de cadres pour résoudre les questions de qualité organisationnelle, de qualité des processus et de qualité des produits. Il est important de prendre en compte ces trois niveaux, car nous savons que la façon dont nous faisons les choses, par exemple, lorsque nous posons des questions, a des répercussions sur la qualité des produits et que, par conséquent, la qualité des processus représente un élément important du concept de qualité. Par ailleurs, la qualité organisationnelle, c’est-à-dire la gestion systématique des aspects comme la formation du personnel et le leadership, est essentielle pour assurer la qualité des processus. Le Bureau de la statistique de la Suède utilise l’EFQM (European Foundation for Quality Management) comme cadre pour la qualité organisationnelle et ISO 20252 comme norme pour la qualité des processus pour les études de marché, les sondages d’opinion et les études sociales. En avril 2014, le Bureau de la statistique de la Suède a été le premier institut national de la statistique à être certifié selon la norme ISO 20252. Parmi les défis auxquels le Bureau de la statistique de la Suède a dû faire face en 2011 figuraient la mesure systématique et le contrôle des changements dans la qualité des produits, ainsi que la présentation claire aux intervenants. De concert avec des experts-conseils externes, Paul Biemer et Dennis Trewin, du Bureau de la statistique de la Suède, ont développé à cette fin un outil appelé ASPIRE (A System for Product Improvement, Review and Evaluation). Afin d’assurer le maintien et l’amélioration de la qualité, le Bureau de la statistique de la Suède a aussi mis sur pied une équipe chargée de l’assurance de la qualité, comprenant un gestionnaire de la qualité, des responsables de la qualité et des vérificateurs internes et externes de la qualité. Dans le présent document, j’aborderai les composantes du système de gestion de la qualité du Bureau de la statistique de la Suède, ainsi que les défis que nous avons dû relever.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014274
    Description :

    Qu’entend-on par mégadonnées? Peuvent-elles remplacer ou compléter les enquêtes officielles? Quels sont certains des défis liés à l’utilisation des mégadonnées pour les statistiques officielles? Quelles sont certaines des solutions possibles? L’automne dernier, Statistique Canada a investi dans un projet pilote sur les mégadonnées afin de répondre à certaines de ces questions. Il s’agissait du premier projet d’enquête auprès des entreprises de cette sorte. Le présent document abordera certaines des leçons apprises dans le cadre du projet pilote de mégadonnées pour les données des compteurs intelligents.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014280
    Description :

    Au cours de la dernière décennie, on a vu les enquêtes par panel en ligne s’établir comme un moyen rapide et économique d’effectuer des études de marché. Les progrès dans le domaine des technologies de l’information, en particulier la croissance rapide continue de l’usage d’Internet et des ordinateurs par les membres du public, sont à la base de ce phénomène. La croissance des taux de non-réponse et des prix à laquelle doit faire face l’industrie des sondages sous-tend aussi ce changement. Toutefois, certains risques importants sont associés aux enquêtes par panel en ligne, le biais de sélection dû à l’autosélection des répondants n’étant pas le moindre. Il existe aussi des risques d’erreurs de couverture et de mesure. L’absence d’un cadre d’inférence et d’indicateurs de la qualité des données constitue un obstacle à l’utilisation de panels en ligne pour la production de statistiques de haute qualité au sujet de la population générale. Néanmoins, les enquêtes par panel en ligne pour la production de statistiques ponctuelles et même de statistiques officielles semblent représenter une nouvelle forme de concurrence posant de plus en plus de défis à certains instituts nationaux de statistique. Le présent article explore la question de la conception et de l’utilisation des panels en ligne de façon scientifiquement valable. On donne d’abord un aperçu d’une norme de mesure de la performance établie par la Société suédoise des enquêtes et des sondages pour évaluer certains aspects qualitatifs des résultats des enquêtes par panel en ligne. Puis, on discute en détail de la décomposition du biais et de l’atténuation des risques de biais. Enfin, on présente certaines idées en vue de combiner des enquêtes par panel en ligne et des enquêtes classiques pour obtenir une inférence contrôlée de manière rentable.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014261
    Description :

    Les instituts nationaux de statistique sont confrontés à une double exigence difficile à concilier. D’un côté, ils doivent fournir des informations toujours plus précises sur des sujets spécifiques, des populations difficiles d’accès ou minoritaires, avec des protocoles innovants permettant d’objectiver la mesure ou d’assurer sa confidentialité, etc. D’un autre côté, ils doivent faire face à des restrictions budgétaires dans un contexte où les ménages sont de plus en plus difficiles à joindre. Cette double injonction n’est pas sans effet sur la qualité des enquêtes, qualité au sens large, c’est-à-dire non seulement en termes de précision mais encore en termes de pertinence, comparabilité, cohérence, clarté, fraîcheur. Compte tenu du faible coût de la collecte par internet et de la très large diffusion d’internet au sein de la population, ces instituts voient dans ce mode de collecte moderne une solution pour résoudre leurs problèmes. Ainsi, le développement du recours à la collecte par internet, et plus généralement à la collecte multimode, serait la solution pour maximiser la qualité d’enquête, en particulier en termes d’erreur d’enquête totale, en faisant face aux problèmes de couverture, d’échantillonnage, de non-réponse ou de mesure, tout en respectant ces contraintes budgétaires. Cependant, si la collecte par internet est un mode peu coûteux, elle pose des problèmes méthodologiques non négligeables : couverture, auto-sélection ou biais de sélection, non-réponse et les difficultés de sa correction, « satisficing », etc. Aussi, avant de développer ou généraliser l’utilisation du multimode, l’Insee s’est lancé dans une vaste opération d’expérimentations afin d’étudier ces différentes questions méthodologiques, dont les premiers résultats montrent que le multimode est à la fois source de solutions et de nouveaux problèmes méthodologiques.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014278
    Description :

    En janvier et février 2014, Statistique Canada a réalisé un essai en vue de mesurer l’efficacité des diverses stratégies de collecte au moyen d’une enquête en ligne fondée sur l’autodéclaration. On a communiqué avec les unités échantillonnées en leur envoyant des lettres de présentation par la poste et on leur a demandé de répondre à l’enquête en ligne, sans contact avec un intervieweur. L’essai visait à mesurer les taux de participation à une enquête en ligne, ainsi que les profils des répondants et des non-répondants. On a mis à l’essai différents échantillons et lettres, afin de déterminer l’efficacité relative des diverses méthodes. Les résultats du projet serviront à renseigner les responsables de diverses enquêtes sociales qui se préparent à ajouter à leurs enquêtes la possibilité d’y répondre par Internet. Le document présentera la méthode générale de l’essai, ainsi que les résultats observés pendant la collecte et l’analyse des profils.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014266
    Description :

    L’utilisation de moniteurs et l’autodéclaration sont deux méthodes de mesure de l’énergie dépensée durant l’activité physique, la variance de l’erreur étant habituellement beaucoup plus faible dans le cas des moniteurs que dans celui de l’autodéclaration. La Physical Activity Measurement Survey a été conçue pour comparer les deux procédures en utilisant des observations répétées sur une même personne. Ces observations répétées permettent de calibrer la mesure par autodéclaration sur la mesure par moniteur, ce qui rend possible l’estimation des composantes des variances des erreurs de mesure. Les estimations des composantes de la variance de l’erreur de mesure de la dépense d’énergie selon le moniteur et selon l’autodéclaration sont présentées pour les femmes qui ont participé à la Physical Activity Measurement Survey.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014259
    Description :

    Dans l’optique de réduire le fardeau de réponse des exploitants agricoles, Statistique Canada étudie d’autres approches que les enquêtes par téléphone pour produire des estimations des grandes cultures. Une option consiste à publier des estimations de la superficie récoltée et du rendement en septembre, comme cela se fait actuellement, mais de les calculer au moyen de modèles fondés sur des données par satellite et des données météorologiques, ainsi que les données de l’enquête téléphonique de juillet. Toutefois, avant d’adopter une telle approche, on doit trouver une méthode pour produire des estimations comportant un niveau d’exactitude suffisant. Des recherches sont en cours pour examiner différentes possibilités. Les résultats de la recherche initiale et les enjeux à prendre en compte sont abordés dans ce document.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014270
    Description :

    Dans le domaine du couplage d’enregistrements, il existe un large éventail de comparateurs de chaînes de caractères. Les difficultés lors des comparaisons surviennent lorsque des facteurs influent sur la composition des chaînes (ex. : emploi de surnoms pour les prénoms de personnes, erreurs typographiques, etc.). Il faut alors faire appel à des comparateurs plus sophistiqués. De tels outils permettent de réduire le nombre de liens potentiellement manqués. Malheureusement, une partie des gains peuvent s’avérer de faux liens. Afin d’améliorer les appariements, trois comparateurs de chaînes sophistiqués ont été développés et sont présentés dans cet article. Ce sont le comparateur Lachance, ainsi que ses dérivés, les comparateurs multi-mots et multi-types. Cette gamme d’outils est présentement disponible dans un prototype de couplage d’enregistrements déterministe, MixMatch. Ce logiciel permet de faire appel à des connaissances a priori afin de réduire le volume de faux liens générés lors des appariements. Un indicateur de force de liens est également proposé.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014271
    Description :

    Ce document vise à présenter l'utilisation des dossiers administratifs dans le U.S. Census pour les logements collectifs. Le dénombrement des logements collectifs signifie la collecte de données dans des endroits difficiles d'accès, comme les établissements correctionnels, les établissements de soins infirmiers spécialisés et les casernes militaires. Nous examinons les avantages et les contraites de l'utilisation de diverses sources de dossier administratifs pour l'élaboration de la base de sondage des logements collectifs, en vue d'améliorer la couverture. Le présent document est un document d'accompagnement de la communication de Chun et Gan (2014) portant sur les utilisations possibles des dossiers administratifs dans le recensement des logements collectifs.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014268
    Description :

    En surveillance des maladies chroniques, la cueillette d’information est essentielle dans le but de mesurer l’ampleur des maladies, évaluer l’utilisation des services, identifier les groupes à risque et suivre l’évolution des maladies et des facteurs de risque dans le temps en vue de planifier et d’appliquer des programmes de prévention en santé publique. C’est dans ce contexte qu’a été créé le Système intégré de surveillance des maladies chroniques du Québec (SISMACQ). Le SISMACQ est une base de données issue du jumelage de fichiers administratifs, couvrant les années 1996 à 2013, représentant une alternative intéressante aux données d’enquêtes puisqu’elle porte sur la totalité de la population, n’est pas affectée par le biais de rappel et permet de suivre la population dans le temps et dans l’espace. Cette présentation a pour objet de présenter la pertinence de l’utilisation des données administratives comme alternative aux données d’enquête ainsi que de les méthodes choisies pour la construction de la cohorte populationnelle à partir du jumelage des différentes sources de données brutes ainsi que de décrire les traitements apportées dans le but de minimiser les biais. Nous discuterons également des avantages et des limites liés à l’analyse des fichiers administratifs.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014286
    Description :

    L’Etude Longitudinale Française depuis l’Enfance (Elfe), démarrée en 2011, compte plus de 18 300 nourrissons dont les parents ont consenti à leur inclusion en maternité. Cette cohorte, consacrée au suivi des enfants, de la naissance à l’âge adulte, aborde les multiples aspects de la vie de l’enfant sous l’angle des sciences sociales, de la santé et de la santé-environnement. Dans chacune des maternités tirées aléatoirement, tous les nourrissons de la population cible, nés durant l’un des 25 jours répartis parmi les quatre saisons, ont été sélectionnés. Cet échantillon est le résultat d’un plan de sondage non standard que nous appellons échantillonnage produit. Il se présente pour cette enquête sous la forme du croisement de deux échantillonnages indépendants: celui des maternités et celui des jours. Si l’on peut facilement imaginer un effet grappe dû à l’échantillonnage de maternités, on peut symétriquement imaginer un effet grappe dû à l’échantillonnage des jours. La dimension temporelle du plan ne pourra alors être négligée si les estimations recherchées sont susceptibles de variations journalières ou saisonnières. Si ce plan non standard peut être vu comme un plan à deux phases bien particulier, il s’avère nécessaire de le définir dans un cadre plus adapté. Après une comparaison entre le plan produit et un plan classique à deux degrés, seront proposés des estimateurs de variance adaptés à ce plan de sondage. Une étude par simulations illustrera nos propos.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014281
    Description :

    Les enquêtes en ligne excluent l’entièreté de la population sans accès à Internet et ont souvent de faibles taux de réponse. Par conséquent, l’inférence statistique fondée sur des échantillons d’enquêtes en ligne requiert que soit disponible de l’information supplémentaire sur la population non couverte, que les méthodes d’enquête soient choisies avec précaution afin de tenir compte des biais possibles, et que l’interprétation et la généralisation des résultats à une population cible se fassent prudemment. Dans le présent article, nous nous concentrons sur le biais de non-couverture, et explorons l’utilisation d’estimateurs pondérés et d’estimateurs par imputation hot-deck pour corriger le biais sous le scénario idéal où l’information sur les covariables a été obtenue pour un échantillon aléatoire simple de personnes faisant partie de la population non couverte. Nous illustrons empiriquement les propriétés des estimateurs proposés sous ce scénario. Nous discutons d’extensions possibles de ces approches à des scénarios plus réalistes.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014260
    Description :

    L’Enquête sur l’emploi, la rémunération et les heures de travail (EERH) permet de produire des estimations mensuelles du niveau et des tendances de l’emploi, de la rémunération et des heures de travail et ce, pour des niveaux détaillés de la classification industrielle pour le Canada, les provinces et les territoires. Afin d’améliorer l’efficacité des activités de collecte pour cette enquête, un questionnaire électronique (QE) a été introduit à l’automne 2012. Compte tenu de l’échéance pour cette transition, ainsi que du calendrier de production de l’enquête, une stratégie de conversion a été établie pour l’intégration de ce nouveau mode de collecte. L’objectif de la stratégie était d’assurer une bonne adaptation de l’environnement de collecte, ainsi que de permettre la mise en oeuvre d’un plan d’analyse permettant d’évaluer l’effet de ce changement sur les résultats de l’enquête. Le présent article donne un aperçu de la stratégie de conversion, des différents ajustements qui ont été effectués pendant la période de transition et des résultats des diverses évaluations qui ont été menées. Par exemple, on décrit l’effet de l’intégration du QE sur le processus de collecte, le taux de réponse et le taux de suivi. En outre, on discute de l’effet de ce nouveau mode de collecte sur les estimations de l’enquête. Plus précisément, on présente les résultats d’une expérience randomisée réalisée afin de déceler la présence éventuelle d’un effet de mode.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014272
    Description :

    Deux tendances convergentes soulèvent des questions concernant l’avenir des enquêtes probabilistes à grande échelle menées par ou pour des instituts nationaux de statistique (INS). Tout d’abord, l’augmentation des coûts et des taux de non-réponse menace potentiellement la rentabilité et la valeur inférentielle des enquêtes. En deuxième lieu, l’intérêt est de plus en plus grand à l’égard des mégadonnées en remplacement des enquêtes. Il existe de nombreux types différents de mégadonnées, mais je mettrai l’accent particulièrement sur les données produites par l’entremise des médias sociaux. Le présent document complète et met à jour un document antérieur sur le sujet (Couper, 2013). Je passerai en revue certaines des préoccupations concernant les mégadonnées, particulièrement dans la perspective des enquêtes. Je soutiens qu’il y a place pour des enquêtes de grande qualité et des analyses de mégadonnées dans les travaux des INS. Même s’il est peu probable que les mégadonnées remplacent les enquêtes de grande qualité, je crois que les deux méthodes peuvent remplir des fonctions complémentaires. Je tente de déterminer certains des critères qui doivent être satisfaits, ainsi que les questions auxquelles on doit répondre, avant que les mégadonnées puissent être utilisées pour des inférences fiables au niveau de la population.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014257
    Description :

    L’Étude sur l’utilisation des véhicules au Canada est menée par Transports Canada, en partenariat avec Environnement Canada, Ressources naturelles Canada et les registraires provinciaux. L’étude se divise en deux composantes : les véhicules légers, comme les voitures, minifourgonnettes, VUS et camions dont le poids nominal brut du véhicule (PNBV) est inférieur à 4,5 tonnes métriques; et la composante des véhicules moyens et lourds, c’est-à-dire les camions dont le PNBV est de 4,5 tonnes métriques et plus. L’étude est la première qui recueille des données sur l’activité directement dans les véhicules, au moyen de méthodes de collecte électronique exclusivement. Cela permet d’obtenir plus de renseignements opportuns et fiables.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014287
    Description :

    Le dispositif EpiNano vise à surveiller les travailleurs potentiellement exposés aux nanomatériaux intentionnellement produits en France. Ce dispositif est basé, d’une part, sur les données d’hygiène industrielle recueillies au sein des entreprises afin de caractériser l’exposition aux nanomatériaux des postes de travail et d’autre part celles issues d’auto-questionnaires complétés par les participants. Ces données seront ensuite appariées aux données de santé des bases médico-administratives nationales (suivi passif des évènements de santé). Des questionnaires de suivi seront soumis régulièrement aux participants. Les modalités mises en place afin d’optimiser la collecte et l’appariement des données sont décrites.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014282
    Description :

    Le Panel des établissements de l’IAB est l’enquête auprès des établissements la plus complète qui soit menée en Allemagne, 16 000 entreprises y participant chaque année. Des interviews sur place en utilisant papier et crayon (IPC) sont réalisées depuis 1993. Un projet courant a pour objet d’examiner les effets possibles du passage de l’enquête à la méthode d’interview sur place assistée par ordinateur (IPAO) combinée à une version en ligne du questionnaire (IWAO). En guise de première étape, des questions sur l’accès à Internet, le désir de remplir le questionnaire en ligne et les raisons du refus ont été incluses dans la vague de 2012 de l’enquête. Les premiers résultats révèlent un refus généralisé de participer à une enquête en ligne. Un examen plus approfondi montre que les petits établissements, les participants de longue date à l’enquête et les répondants d’un certain âge sont réticents à l’idée d’utiliser Internet.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014251
    Description :

    Dans la perspective d’un modélisateur, je décris la situation actuelle en matière d’inférence fondée sur les enquêtes pour la production de statistiques officielles. Ce faisant, je tente de dégager les forces et les faiblesses des approches inférentielles fondées sur le plan de sondage, d’une part, et sur un modèle, d’autre part, appliquées aujourd’hui à l’échantillonnage, du moins en ce qui concerne les statistiques officielles. Je termine par un exemple tiré d’un plan de collecte adaptatif qui illustre pourquoi l’adoption d’une perspective fondée sur un modèle (fréquentiste ou bayésien) représente le meilleur moyen pour les statistiques officielles d’éviter la « schizophrénie inférentielle » débilitante qui semble inévitable si l’on applique les méthodes actuelles pour répondre aux nouvelles demandes d’information du monde d’aujourd’hui (et peut-être même de demain).

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014277
    Description :

    Le présent article donne un aperçu des éléments d’un plan de sondage adaptatif introduit de la quatrième vague à la septième vague de l’enquête par panel PASS. L’exposé porte principalement sur les interventions expérimentales aux dernières phases du travail sur le terrain. Ces interventions visent à équilibrer l’échantillon en donnant la priorité aux membres de l’échantillon ayant une faible propension à répondre. À la septième vague, les intervieweurs ont reçu une double prime pour les interviews de cas ayant une faible propension à répondre achevées à la phase finale du travail sur le terrain. Cette prime a été limitée à une moitié, sélectionnée aléatoirement, des cas qui avaient une faible propension à répondre et n’ayant pas reçu de code d’état final après quatre mois de travail sur le terrain. Cette prime a effectivement intensifié l’effort déployé par les intervieweurs, mais n’a abouti à aucune augmentation significative des taux de réponse.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014262
    Description :

    Bien que l’erreur de mesure soit une source de biais en analyse statistique, ses conséquences possibles sont pour la plupart ignorées. Les modèles à effets fixes représentent une classe de modèles sur lesquels l’erreur de mesure peut avoir une incidence particulière. La validation des réponses recueillies lors de cinq vagues d’une enquête par panel sur les prestations d’aide sociale au moyen de données de registre a permis de déterminer la taille et la forme de l’erreur de mesure longitudinale. L’étude montre que l’erreur de mesure des prestations d’aide sociale est autocorrélée et non différentielle. Toutefois, si l’on estime les coefficients des modèles à effets fixes longitudinaux des prestations d’aide sociale en fonction de l’état de santé subjectif pour les hommes et pour les femmes, les coefficients ne sont biaisés que pour la sous-population masculine.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014275
    Description :

    Depuis juillet 2014, l’Office for National Statistics a pris l’engagement de tenir le Recensement de 2021 au Royaume-Uni essentiellement en ligne. L’imputation au niveau de la question jouera un rôle important dans l’ajustement de la base de données du Recensement de 2021. Les recherches montrent qu’Internet pourrait produire des données plus précises que la saisie sur papier et attirer des personnes affichant des caractéristiques particulières. Nous présentons ici les résultats préliminaires des recherches destinées à comprendre comment nous pourrions gérer ces caractéristiques dans une stratégie d’imputation pour le Recensement du Royaume-Uni de 2021. Selon nos constatations, l’utilisation d’une méthode d’imputation fondée sur des donneurs pourrait nécessiter d’envisager l’inclusion du mode de réponse comme variable d’appariement dans le modèle d’imputation sous-jacent.

    Date de diffusion : 2014-10-31

Date de modification :