Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

39 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

39 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

39 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (51)

Tout (51) (25 of 51 results)

  • Produits techniques : 11-522-X201700014720
    Description :

    La présente communication vise à fournir un bref aperçu de l’engagement de Statistique Canada à l’égard des données ouvertes. Nous aborderons tout d’abord la façon dont les principes des données ouvertes sont intégrés dans les pratiques courantes de diffusion de Statistique Canada. Puis, nous discuterons de la participation de l’organisme à l’initiative de données ouvertes de l’ensemble du gouvernement. Cette participation comporte deux volets : Statistique Canada est le principal fournisseur de données au portail de données ouvertes du gouvernement du Canada, mais il joue aussi un rôle important en arrière-plan, en tant que fournisseur de services responsable du développement et de la mise à jour du portail de données ouvertes (qui fait maintenant partie du portail plus large Gouvernement ouvert).

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014734
    Description :

    La protection des données et la protection de la vie privée sont des défis clés qui doivent être relevés de façon prioritaire, afin de permettre l’utilisation des mégadonnées dans la production de statistiques officielles. C’est ce qu’ont préconisé, en 2013, les directeurs des Instituts nationaux de statistique (INS) du Comité du Système statistique européen (CSSE) dans le mémorandum de Scheveningen. Le CSSE a demandé à Eurostat et aux INS d’élaborer un plan d’action comportant un carnet de route, en vue d’assurer le suivi de la mise en œuvre du mémorandum. À la réunion de Riga, le 26 septembre 2014, le CSSE a adopté le plan d’action et carnet de route 1.0 des mégadonnées (BDAR) présenté par le Groupe de travail d’Eurostat chargé des mégadonnées (TFBD), et il a convenu de l’intégrer dans le portefeuille de la Vision du SSE pour 2020. Eurostat collabore aussi dans ce domaine avec des partenaires externes comme la Commission économique des nations unies pour l’Europe (UNECE). Le projet de mégadonnées du Goupe de haut niveau de la UNECE est un projet international sur le rôle des mégadonnées dans la modernisation de la production de statistiques. Il comprenait quatre équipes de travail chargées de différents aspects des mégadonnées pertinentes pour les statistiques officielles : protection de la vie privée, partenariats, Sandbox et qualité. L’équipe de travail chargée de la protection de la vie privée a terminé ses travaux en 2014 et a donné un aperçu des outils existants pour la gestion des risques concernant la protection de la vie privée, a décrit comment le risque d’identification se rapporte aux caractéristiques des mégadonnées et a élaboré des recommandations à l’intention des Bureaux de statistique nationaux (BSN). Elle a conclu principalement que le prolongement des cadres existants, y compris l’utilisation de nouvelles technologies, était nécessaire pour traiter les risques liés à la protection de la vie privée dans le contexte de l’utilisation des mégadonnées. Le BDAR tire parti des travaux des équipes de la UNECE. De façon plus particulière, il reconnaît qu’un certain nombre de sources de mégadonnées comprennent des données de nature délicate, que leur utilisation pour les statistiques officielles peut entraîner des perceptions négatives dans le grand public et chez les autres intervenants, et que ce risque devrait être atténué à court et à moyen termes. Il propose le lancement de plusieurs mesures : par exemple, un examen approprié des principes éthiques régissant les rôles et les activités des INS et une stratégie de communication bien établie. La communication présente les différentes mesures entreprises à l’intérieur du SSE et en collaboration avec la UNECE, ainsi que les solutions techniques et légales possibles à mettre en place pour résoudre les risques liés à la protection des données et à la protection de la vie privée, dans le contexte de l’utilisation des mégadonnées pour les statistiques officielles.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 82-003-X201501114243
    Description :

    Un outil de surveillance a été élaboré afin d’évaluer les données sur l’apport alimentaire recueillies dans le cadre d’enquêtes en fonction de Bien manger avec le Guide alimentaire canadien (GAC). L’outil permet de classer les aliments du Fichier canadien sur les éléments nutritifs (FCÉN) en fonction de leur degré de conformité avec les recommandations du GAC. Le présent article décrit l’exercice de validation effectué pour s’assurer que les aliments du FCÉN considérés « conformes aux recommandations du GAC » aient été classés de façon appropriée.

    Date de diffusion : 2015-11-18

  • Articles et rapports : 12-001-X201500114200
    Description :

    Nous considérons la méthode de la meilleure prédiction observée (MPO; Jiang, Nguyen et Rao 2011) pour l’estimation sur petits domaines sous le modèle de régression à erreurs emboîtées, où les fonctions moyenne et variance peuvent toutes deux être spécifiées inexactement. Nous montrons au moyen d’une étude par simulation que la MPO peut donner de nettement meilleurs résultats que la méthode du meilleur prédicteur linéaire sans biais empirique (MPLSBE) non seulement en ce qui concerne l’erreur quadratique moyenne de prédiction (EQMP) globale, mais aussi l’EQMP au niveau du domaine pour chacun des petits domaines. Nous proposons, pour estimer l’EQMP au niveau du domaine basée sur le plan de sondage, une méthode du bootstrap simple qui produit toujours des estimations positives de l’EQMP. Nous évaluons les propriétés de l’estimateur de l’EQMP proposé au moyen d’une étude par simulation. Nous examinons une application à la Television School and Family Smoking Prevention and Cessation study.

    Date de diffusion : 2015-06-29

  • Produits techniques : 11-522-X201300014267
    Description :

    Comme de nombreux autres instituts nationaux de statistique, le Bureau de la statistique de la Suède a une longue tradition de qualité. Plus récemment, l’organisme a décidé de commencer à utiliser un certain nombre de cadres pour résoudre les questions de qualité organisationnelle, de qualité des processus et de qualité des produits. Il est important de prendre en compte ces trois niveaux, car nous savons que la façon dont nous faisons les choses, par exemple, lorsque nous posons des questions, a des répercussions sur la qualité des produits et que, par conséquent, la qualité des processus représente un élément important du concept de qualité. Par ailleurs, la qualité organisationnelle, c’est-à-dire la gestion systématique des aspects comme la formation du personnel et le leadership, est essentielle pour assurer la qualité des processus. Le Bureau de la statistique de la Suède utilise l’EFQM (European Foundation for Quality Management) comme cadre pour la qualité organisationnelle et ISO 20252 comme norme pour la qualité des processus pour les études de marché, les sondages d’opinion et les études sociales. En avril 2014, le Bureau de la statistique de la Suède a été le premier institut national de la statistique à être certifié selon la norme ISO 20252. Parmi les défis auxquels le Bureau de la statistique de la Suède a dû faire face en 2011 figuraient la mesure systématique et le contrôle des changements dans la qualité des produits, ainsi que la présentation claire aux intervenants. De concert avec des experts-conseils externes, Paul Biemer et Dennis Trewin, du Bureau de la statistique de la Suède, ont développé à cette fin un outil appelé ASPIRE (A System for Product Improvement, Review and Evaluation). Afin d’assurer le maintien et l’amélioration de la qualité, le Bureau de la statistique de la Suède a aussi mis sur pied une équipe chargée de l’assurance de la qualité, comprenant un gestionnaire de la qualité, des responsables de la qualité et des vérificateurs internes et externes de la qualité. Dans le présent document, j’aborderai les composantes du système de gestion de la qualité du Bureau de la statistique de la Suède, ainsi que les défis que nous avons dû relever.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014286
    Description :

    L’Etude Longitudinale Française depuis l’Enfance (Elfe), démarrée en 2011, compte plus de 18 300 nourrissons dont les parents ont consenti à leur inclusion en maternité. Cette cohorte, consacrée au suivi des enfants, de la naissance à l’âge adulte, aborde les multiples aspects de la vie de l’enfant sous l’angle des sciences sociales, de la santé et de la santé-environnement. Dans chacune des maternités tirées aléatoirement, tous les nourrissons de la population cible, nés durant l’un des 25 jours répartis parmi les quatre saisons, ont été sélectionnés. Cet échantillon est le résultat d’un plan de sondage non standard que nous appellons échantillonnage produit. Il se présente pour cette enquête sous la forme du croisement de deux échantillonnages indépendants: celui des maternités et celui des jours. Si l’on peut facilement imaginer un effet grappe dû à l’échantillonnage de maternités, on peut symétriquement imaginer un effet grappe dû à l’échantillonnage des jours. La dimension temporelle du plan ne pourra alors être négligée si les estimations recherchées sont susceptibles de variations journalières ou saisonnières. Si ce plan non standard peut être vu comme un plan à deux phases bien particulier, il s’avère nécessaire de le définir dans un cadre plus adapté. Après une comparaison entre le plan produit et un plan classique à deux degrés, seront proposés des estimateurs de variance adaptés à ce plan de sondage. Une étude par simulations illustrera nos propos.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014260
    Description :

    L’Enquête sur l’emploi, la rémunération et les heures de travail (EERH) permet de produire des estimations mensuelles du niveau et des tendances de l’emploi, de la rémunération et des heures de travail et ce, pour des niveaux détaillés de la classification industrielle pour le Canada, les provinces et les territoires. Afin d’améliorer l’efficacité des activités de collecte pour cette enquête, un questionnaire électronique (QE) a été introduit à l’automne 2012. Compte tenu de l’échéance pour cette transition, ainsi que du calendrier de production de l’enquête, une stratégie de conversion a été établie pour l’intégration de ce nouveau mode de collecte. L’objectif de la stratégie était d’assurer une bonne adaptation de l’environnement de collecte, ainsi que de permettre la mise en oeuvre d’un plan d’analyse permettant d’évaluer l’effet de ce changement sur les résultats de l’enquête. Le présent article donne un aperçu de la stratégie de conversion, des différents ajustements qui ont été effectués pendant la période de transition et des résultats des diverses évaluations qui ont été menées. Par exemple, on décrit l’effet de l’intégration du QE sur le processus de collecte, le taux de réponse et le taux de suivi. En outre, on discute de l’effet de ce nouveau mode de collecte sur les estimations de l’enquête. Plus précisément, on présente les résultats d’une expérience randomisée réalisée afin de déceler la présence éventuelle d’un effet de mode.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014287
    Description :

    Le dispositif EpiNano vise à surveiller les travailleurs potentiellement exposés aux nanomatériaux intentionnellement produits en France. Ce dispositif est basé, d’une part, sur les données d’hygiène industrielle recueillies au sein des entreprises afin de caractériser l’exposition aux nanomatériaux des postes de travail et d’autre part celles issues d’auto-questionnaires complétés par les participants. Ces données seront ensuite appariées aux données de santé des bases médico-administratives nationales (suivi passif des évènements de santé). Des questionnaires de suivi seront soumis régulièrement aux participants. Les modalités mises en place afin d’optimiser la collecte et l’appariement des données sont décrites.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014255
    Description :

    Le Centre d’information de réseau brésilien (NIC.br) a conçu et mené un projet pilote pour recueillir des données sur le Web, afin de produire des statistiques concernant les caractéristiques des pages Web. Les études des caractéristiques et des dimensions du Web exigent la collecte et l’analyse de données dans un environnement dynamique et complexe. L’idée de base est de recueillir des données sur un échantillon de pages Web, automatiquement, en utilisant le logiciel appelé moteur de recherche Web. Le présent article vise à diffuser les méthodes et les résultats de cette étude, ainsi qu’à démontrer les progrès actuels liés aux techniques d’échantillonnage dans un environnement dynamique.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 12-001-X201300211888
    Description :

    Lorsque les variables étudiées sont fonctionnelles et que les capacités de stockage sont limitées ou que les coûts de transmission sont élevés, les sondages, qui permettent de sélectionner une partie des observations de la population, sont des alternatives intéressantes aux techniques de compression du signal. Notre étude est motivée, dans ce contexte fonctionnel, par l'estimation de la courbe de charge électrique moyenne sur une période d'une semaine. Nous comparons différentes stratégies d'estimation permettant de prendre en compte une information auxiliaire telle que la consommation moyenne de la période précédente. Une première stratégie consiste à utiliser un plan de sondage aléatoire simple sans remise, puis de prendre en compte l'information auxiliaire dans l'estimateur en introduisant un modèle linéaire fonctionnel. La seconde approche consiste à incorporer l'information auxiliaire dans les plans de sondage en considérant des plans à probabilités inégales tels que les plans stratifiés et les plans pi. Nous considérons ensuite la question de la construction de bandes de confiance pour ces estimateurs de la moyenne. Lorsqu'on dispose d'estimateurs performants de leur fonction de covariance et si l'estimateur de la moyenne satisfait un théorème de la limite centrale fonctionnel, il est possible d'utiliser une technique rapide de construction de bandes de confiance qui repose sur la simulation de processus Gaussiens. Cette approche est comparée avec des techniques de bootstrap qui ont été adaptées afin de tenir compte du caractère fonctionnel des données.

    Date de diffusion : 2014-01-15

  • Articles et rapports : 82-003-X201100311533
    Description :

    L'étude compare le biais dans les valeurs autodéclarées de taille, de poids et d'indice de masse corporelle provenant des cycles de 2008 et de 2005 de l'Enquête sur la santé dans les collectivités canadiennes et de l'Enquête canadienne sur les mesures de la santé menée de 2007 à 2009. On évalue la faisabilité de l'emploi d'équations de correction pour ajuster les valeurs autodéclarées à l'Enquête sur la santé dans les collectivités canadiennes de 2008 afin qu'elles s'approchent davantage des valeurs mesurées.

    Date de diffusion : 2011-08-17

  • Articles et rapports : 82-003-X201100311534
    Description :

    Au moyen des données provenant de l'Enquête canadienne sur les mesures de la santé menée de 2007 à 2009, on examine dans la présente étude le biais qui existe lorsque la taille, le poids et l'indice de masse corporelle sont fondés sur les valeurs déclarées par les parents. Les facteurs associés à l'erreur de déclaration sont utilisés pour déterminer s'il est possible d'établir des équations de correction afin d'ajuster les estimations déclarées par les parents.

    Date de diffusion : 2011-08-17

  • Articles et rapports : 12-001-X201000211378
    Description :

    L'une des clés de la réduction ou de l'éradication de la pauvreté dans le tiers monde est l'obtention d'information fiable sur les pauvres et sur leur emplacement, afin que les interventions et l'aide soient dirigées vers les personnes les plus nécessiteuses. L'estimation sur petits domaines est une méthode statistique utilisée pour surveiller la pauvreté et décider de la répartition de l'aide de façon à réaliser les Objectifs du millénaire pour le développement. Elbers, Lanjouw et Lanjouw (ELL) (2003) ont proposé, pour produire des mesures de la pauvreté fondées sur le revenu ou sur les dépenses, une méthode d'estimation sur petits domaines qui est mise en oeuvre par la Banque mondiale dans ses projets de cartographie de la pauvreté grâce à la participation des organismes statistiques centraux de nombreux pays du tiers monde, dont le Cambodge, le Laos, les Philippines, la Thaïlande et le Vietnam, et qui est intégrée dans le logiciel PovMap de la Banque mondiale. Dans le présent article, nous présentons la méthode ELL, qui consiste à modéliser d'abord les données d'enquête, puis à appliquer le modèle obtenu à des données de recensement, en nous penchant surtout sur la première phase, c'est-à-dire l'ajustement des modèles de régression, ainsi que sur les erreurs-types estimées à la deuxième phase. Nous présentons d'autres méthodes d'ajustement de modèles de régression, telles que la régression généralisée sur données d'enquête (RGE) (décrite dans Lohr (1999), chapitre 11) et celles utilisées dans les méthodes existantes d'estimations sur petits domaines, à savoir la méthode du meilleur prédicteur linéaire sans biais pseudo-empirique (pseudo-MPLSB) (You et Rao 2002) et la méthode itérative à équations d'estimation pondérées (IEEP) (You, Rao et Kovacevic 2003), et nous les comparons à la stratégie de modélisation de ELL. La différence la plus importante entre la méthode ELL et les autres techniques tient au fondement théorique de la méthode d'ajustement du modèle proposée par ELL. Nous nous servons d'un exemple fondé sur la Family Income and Expenses Survey des Philippines pour illustrer les différences entre les estimations des paramètres et leurs erreurs-types correspondantes, ainsi qu'entre les composantes de la variance générées par les diverses méthodes et nous étendons la discussion à l'effet de ces différences sur l'exactitude estimée des estimations sur petits domaines finales. Nous mettons l'accent sur la nécessité de produire de bonnes estimations des composantes de la variance, ainsi que des coefficients de régression et de leurs erreurs-types aux fins de l'estimation sur petits domaines de la pauvreté.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000111244
    Description :

    Nous étudions le problème de la sélection de modèles non paramétriques pour l'estimation sur petits domaines, auquel beaucoup d'attention a été accordée récemment. Nous élaborons une méthode fondée sur le concept de la méthode de l'enclos (fence method) de Jiang, Rao, Gu et Nguyen (2008) pour sélectionner la fonction moyenne pour les petits domaines parmi une classe de splines d'approximation. Les études par simulations montrent que la nouvelle méthode donne des résultats impressionnants, même si le nombre de petits domaines est assez faible. Nous appliquons la méthode à un ensemble de données hospitalières sur les échecs de greffe pour choisir un modèle non paramétrique de type Fay­Herriot.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X200900211045
    Description :

    Dans l'analyse de données d'enquête, on se sert souvent du nombre de degrés de liberté pour évaluer la stabilité des estimateurs de variance fondé sur le plan de sondage. Par exemple, ce nombre de degrés de liberté est utilisé pour construire les intervalles de confiances fondés sur des approximations de la loi t, ainsi que des tests t connexes. En outre, un petit nombre de degrés de liberté donne une idée qualitative des limites possibles d'un estimateur de variance particulier dans une application. Parfois, le calcul du nombre de degrés de liberté s'appuie sur des formes de l'approximation de Satterthwaite. Ces calculs fondés sur l'approche de Satterthwaite dépendent principalement des grandeurs relatives des variances au niveau de la strate. Cependant, pour des plans de sondage comportant la sélection d'un petit nombre d'unités primaires par strate, les estimateurs de variance au niveau de la strate classiques ne fournissent que des renseignements limités sur les variances réelles de strate. Le cas échéant, les calculs habituels fondés sur l'approche de Satterthwaite peuvent poser des problèmes, surtout dans les analyses portant sur des sous-populations concentrées dans un nombre relativement faible de strates. Pour résoudre ce problème, nous utilisons dans le présent article les estimations des variances à l'intérieur des unités primaires d'échantillonnage (variances intra-UPE) pour fournir de l'information auxiliaire sur les grandeurs relatives des variances globales au niveau de la strate. Les résultats des analyses indiquent que l'estimateur du nombre de degrés de liberté résultant est meilleur que les estimateurs de type Satterthwaite modifiés, à condition que : a) les variances globales au niveau de la strate soient approximativement proportionnelles aux variances intra-strate correspondantes et b) les variances des estimateurs de variance intra-UPE soient relativement faibles. En outre, nous élaborons des méthodes à erreurs sur les variables qui permettent de vérifier empiriquement les conditions a) et b). Pour ces vérifications de modèle, nous établissons des distributions de référence fondées sur des simulations qui diffèrent considérablement des distributions de référence fondées sur les approximations normales en grand échantillon habituelles. Nous appliquons les méthodes proposées à quatre variables de la troisième National Health and Nutrition Examination Survey (NHANES III) réalisée aux États-Unis.

    Date de diffusion : 2009-12-23

  • Produits techniques : 11-522-X200800010954
    Description :

    Au cours de la dernière année, Statistique Canada a conçu et mis à l'essai un nouveau moyen d'évaluer le rendement des intervieweurs qui procèdent aux interviews sur place assistées par ordinateur (IPAO). Un processus officiel existe déjà pour la surveillance des interviews téléphoniques centralisées. Les surveillants écoutent les interviews téléphoniques pendant qu'elles ont lieu pour évaluer l'exécution des tâches par l'intervieweur en fonction de critères préétablis et faire des commentaires à ce dernier pour lui indiquer ce qu'il a bien fait et ce qu'il doit améliorer. Pour les programmes d'IPAO, nous avons élaboré et mettons à l'essai une méthode pilote par laquelle des interviews sont enregistrées de façon numérique puis le surveillant écoute ces enregistrements afin d'évaluer le rendement de l'intervieweur sur le terrain et de lui fournir de la rétroaction qui aidera la qualité des données. Dans le présent article, nous donnons un aperçu du projet de surveillance de l'IPAO à Statistique Canada en décrivant la méthodologie de surveillance de l'IPAO et les plans de mise en oeuvre.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010946
    Description :

    Au milieu des années 1990, l'Office for National Statistics (ONS) du Royaume-Uni a créé sa première unité de mise à l'essai des questions. L'objectif principal était d'élaborer et de tester les questions et le questionnaire du Recensement de 2001. Depuis, le domaine a été élargi et l'unité est devenue un centre d'expertise en Méthodologie de collecte des données (MCD) qui fait maintenant partie de la Direction générale de la méthodologie. Le centre comprend trois branches qui appuient les travaux relatifs à la MCD pour les enquêtes sociales, les enquêtes-entreprises, le recensement et les organismes externes.

    Au cours des dix dernières années, le centre MCD a eu à son actif diverses réalisations. Par exemple, il a fait participer les méthodologistes d'enquête à l'élaboration et à la mise à l'essai des questions ou questionnaires des enquêtes-entreprises, a adopté une approche basée sur une combinaison de méthodes pour l'élaboration des questions et des questionnaires, a élaboré et appliqué des normes, notamment pour le questionnaire et les cartes-guides du Recensement de 2011, et a préparé et donné des séances de formation en MCD.

    La présente communication donnera une vue d'ensemble de la méthodologie de collecte des données à l'ONS sous l'angle des réalisations et des défis. Elle portera sur des domaines tels que les méthodes, la dotation en personnel (p. ex. recrutement, perfectionnement professionnel et sécurité sur le terrain) et l'intégration dans le processus d'enquête.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010996
    Description :

    Au cours des dernières années, l'utilisation des paradonnées a pris de plus en plus d'importance dans le cadre de la gestion des activités de collecte à Statistique Canada. Une attention particulière a été accordée aux enquêtes sociales menées par téléphone, comme l'Enquête sur la dynamique du travail et du revenu (EDTR). Lors des dernières activités de collecte de l'EDTR, une limite de 40 tentatives d'appel a été instaurée. Des examens des fichiers de l'historique des transactions Blaise de l'EDTR ont été entrepris afin d'évaluer l'incidence de la limite des tentatives d'appel. Tandis que l'objectif de la première étude était de réunir les renseignements nécessaires à l'établissement de la limite des tentatives d'appel, la seconde étude portait sur la nature de la non-réponse dans le contexte de la limite de 40 tentatives.

    L'utilisation des paradonnées comme information auxiliaire pour étudier et expliquer la non-réponse a aussi été examinée. Des modèles d'ajustement pour la non-réponse utilisant différentes variables de paradonnées recueillies à l'étape de la collecte ont été comparés aux modèles actuels basés sur de l'information auxiliaire tirée de l'Enquête sur la population active.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010995
    Description :

    L'article intitulé « The Optimum Time at which to Conduct Survey Interviews » publié en 1992 cherchait à illustrer les avantages économiques que pouvaient tirer les organismes spécialisés en études de marché de la structuration des profils d'appels des intervieweurs dans les enquêtes-ménages. Les résultats étaient fondés sur l'enquête intercensitaire menée en 1986 au Pays de Galles (Welsh Inter Censal Survey). Le présent article fournit des renseignements supplémentaires sur les profils d'appels des intervieweurs provenant d'enquêtes semblables réalisées en 1997 et en 2006 en vue de déterminer si ces profils avaient changé. Ont également été examinées l'importance d'obtenir une réponse à l'enquête qui est représentative de la population et la façon dont l'adoption de stratégies d'appel efficaces permet d'atteindre cet objectif.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011006
    Description :

    L'Office for National Statistics (ONS) est tenu de mesurer le fardeau de réponse des entreprises participant aux enquêtes qu'il mène et de produire un rapport annuel à ce sujet. Il existe aussi des cibles pour la réduction des coûts des entreprises qui se conforment aux règlements gouvernementaux, dans le cadre de l'Administrative Burdens Reduction Project (ABRP) de 2005, coordonné par le Better Regulation Executive (BRE).

    Les coûts économiques des entreprises servent à mesurer le fardeau de réponse. La méthode de mesure utilisée a changé avec le temps, la plus récente étant l'élaboration et la mise à l'essai d'un modèle des coûts standard (MCS).

    Couramment utilisé en Europe, le MCS vise à mesurer les fardeaux administratifs objectifs associés à toutes les demandes gouvernementales de renseignements (déclarations de revenus, taxe sur la valeur ajoutée, etc.) et à la participation aux enquêtes. Cette méthode n'a donc pas été mise au point précisément pour mesurer le fardeau de réponse aux enquêtes statistiques. Le MCS est axé sur les activités, c'est-à-dire que le coût et le temps requis pour répondre aux exigences sont ventilés par activité.

    Dans le cadre de cette méthode, les données sont habituellement recueillies au moyen d'interviews sur place. La méthode exige donc beaucoup de main-d'oeuvre, tant du point de vue de la collecte que de l'analyse des données, mais elle permet de réunir des renseignements détaillés. La technique élaborée et mise à l'essai par l'ONS utilise des questionnaires papier à remplir soi-même.

    L'objectif de la communication est de fournir un aperçu du fardeau de réponse et des cibles visées, ainsi que de passer en revue les différentes méthodes qu'a utilisées l'ONS pour mesurer le fardeau de réponse du point de vue de l'échantillonnage ainsi que de la collecte, de l'analyse et de l'utilité des données.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010953
    Description :

    Alors que les spécialistes de la recherche sur les enquêtes s'efforcent de maintenir les taux de réponse à leur niveau habituellement élevé, les répondants réticents font croître les coûts de collecte des données. Cette réticence à répondre peut être liée au temps qu'il faut pour achever l'interview dans les enquêtes omnibus à grande échelle, telles que la National Survey of Recent College Graduates (NSRCG). Reconnaissant que le fardeau de réponse ou la longueur du questionnaire peut contribuer à la baisse des taux de réponse, en 2003, après plusieurs mois de collecte des données conformément au protocole de collecte standard, l'équipe de la NSRCG a offert des incitations monétaires à ses répondants environ deux mois avant la fin de la période de collecte des données. Parallèlement à l'offre d'incitation, elle a également donné aux non-répondants persistants l'occasion de répondre à un questionnaire considérablement abrégé ne comportant que quelques questions essentielles. Les répondants tardifs qui ont achevé l'interview en raison de l'incitation monétaire et du questionnaire ne contenant que les questions essentielles peuvent fournir certains éclaircissements en ce qui concerne le biais de non-réponse et la probabilité qu'ils soient demeurés des non-répondants à l'enquête si les efforts susmentionnés de conversion des refus n'avaient pas été faits.

    Dans le présent article, nous entendons par « répondants réticents » ceux qui n'ont répondu à l'enquête qu'après le déploiement d'efforts allant au-delà de ceux planifiés au départ dans le protocole standard de collecte des données. Plus précisément, les répondants réticents à la NSRCG de 2003 sont ceux qui ont répondu au questionnaire ordinaire ou abrégé après l'offre d'une incitation. Notre hypothèse était que le comportement des répondants réticents serait plus semblable à celui des non-répondants qu'à celui des répondants aux enquêtes. Le présent article décrit une étude des répondants réticents et de la mesure dans laquelle ils diffèrent des répondants ordinaires. Nous comparons différents groupes de réponse en ce qui concerne les estimations pour plusieurs variables clés de l'enquête. Cette comparaison nous permettra de mieux comprendre le biais dû à la non-réponse à la NSRCG et les caractéristiques des non-répondants proprement dits, ce qui servira de fondement à la modification du système de pondération ou aux procédures d'estimation de la NSRCG dans l'avenir.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 12-001-X200800110607
    Description :

    L'offre de primes en vue d'encourager la participation aux enquêtes est un moyen utilisé de plus en plus fréquemment pour combattre la chute des taux de réponse et les risques résultant de biais dû à la non réponse. Cette dernière pose tout spécialement un problème dans les enquêtes par panel, car même un faible taux de non réponse d'une vague à l'autre peut entraîner des pertes cumulées importantes et, si la non réponse est différentielle, cette situation peut aboutir à l'accroissement du biais d'une vague à l'autre. Les effets des primes d'encouragement ont été bien étudiés dans le contexte d'enquêtes transversales, mais l'on en sait fort peu quant à leurs effets cumulés sur l'ensemble des vagues d'un panel. Nous fournissons de nouvelles preuves des effets des paiements incitatifs continus sur l'attrition, ou érosion de l'échantillon, sur le biais et sur la non réponse partielle en nous appuyant sur les données d'une expérience d'offre de primes d'encouragement à grande échelle, multivagues, à mode d'interview mixte, intégrée dans une enquête par panel réalisée auprès des jeunes par le gouvernement britannique. Dans cette étude, les primes d'encouragement ont donné lieu à une réduction significative de l'attrition, qui compensait de loin les effets négatifs sur les taux de réponse partiels en ce qui concerne la quantité d'information recueillie dans le cadre de l'enquête par cas émis. Les primes d'encouragement ont eu des effets proportionnels sur les taux de rétention pour une gamme de caractéristiques des répondants et, par conséquent, n'ont pas réduit le biais d'attrition relatif à ces caractéristiques. Les effets des primes d'encouragement sur le taux de rétention étaient plus importants pour les primes inconditionnelles que pour les primes conditionnelles, et plus importants également pour le mode de collecte par la poste que pour celui par téléphone. D'une vague à l'autre, les effets sur l'attrition ont diminué quelque peu, mais les effets sur la non réponse partielle et l'absence d'effet sur le biais sont demeurés constants. Les effets des primes d'encouragement offertes lors de vagues plus tardives semblent avoir été indépendants des traitements relatifs aux primes et des modes de collecte des données appliqués lors de vagues antérieures.

    Date de diffusion : 2008-06-26

  • Produits techniques : 11-522-X200600110453
    Description :

    Les enquêtes nationales sur l'alimentation et la nutrition fournissent des renseignements essentiels pour comprendre la relation complexe qui existe entre la santé et l'alimentation au sein de la population. Bon nombre de ces enquêtes ont recours à la méthodologie du rappel alimentaire de 24 heures qui permet de connaître de façon détaillée tous les aliments et boissons consommés au cours d'une journée. Ce sont souvent les apports d'aliments et d'éléments nutritifs à long terme qui revêtent un intérêt, et il existe plusieurs techniques permettant d'estimer les apports habituels de la population. Ces techniques exigent qu'au moins un rappel alimentaire de 24 heures soit effectué auprès d'au moins un sous-ensemble de la population afin de pouvoir estimer la variabilité des apports chez une même personne. La détermination du nombre de personnes nécessaires pour constituer un rappel est une étape importante du plan d'enquête, dans la mesure où il faut reconnaître qu'un nombre trop faible de personnes participant au rappel peut compromettre la capacité à évaluer l'apport habituel, mais qu'un nombre élevé de rappels est coûteux et représente un fardeau supplémentaire pour les répondants. Ce document de recherche se penche sur les questions statistiques liées au nombre de personnes participant au rappel en évaluant l'incidence du nombre de ces personnes sur la stabilité et l'incertitude de l'estimation de la variabilité chez une même personne et en donnant une indication de ce que ce nombre devrait être.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110449
    Description :

    Les bases de données administratives sur les sorties d'hôpital sont traditionnellement utilisées à des fins administratives. Toutefois, les chercheurs oeuvrant dans les domaines des services de santé et de la santé de la population ont récemment utilisé ces bases de données pour réaliser de nombreuses études, notamment sur les soins de santé. Des outils comme les indices de comorbidité ont été élaborés pour faciliter ces analyses. Les indices doivent être mis à jour chaque fois que le système de codage des diagnostics et des procédures est révisé ou qu'un nouveau système est élaboré. Ces mises à jour sont importantes pour garantir la cohérence lorsque des tendances sont examinées au fil du temps.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110413
    Description :

    National Health and Nutrition Examination Survey (NHANES) est réalisée par le National Center for Health Statistics depuis plus de quarante ans. Cette enquête est conçue pour recueillir des renseignements sur la santé et l'état nutritionnel de la population des États Unis au moyen d'interviews sur place et d'examens physiques normalisés effectués dans des centres d'examen mobiles. Au cours de ces quarante années, nous avons tiré de nombreux enseignements tirés sur la façon de réaliser une enquête qui s'appuie sur des mesures physiques directes. Nous présentons des exemples de ces « enseignements » et offrons des indications à l'intention d'autres organismes et pays qui planifient des enquêtes similaires.

    Date de diffusion : 2008-03-17

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (19)

Analyses (19) (19 of 19 results)

  • Articles et rapports : 82-003-X201501114243
    Description :

    Un outil de surveillance a été élaboré afin d’évaluer les données sur l’apport alimentaire recueillies dans le cadre d’enquêtes en fonction de Bien manger avec le Guide alimentaire canadien (GAC). L’outil permet de classer les aliments du Fichier canadien sur les éléments nutritifs (FCÉN) en fonction de leur degré de conformité avec les recommandations du GAC. Le présent article décrit l’exercice de validation effectué pour s’assurer que les aliments du FCÉN considérés « conformes aux recommandations du GAC » aient été classés de façon appropriée.

    Date de diffusion : 2015-11-18

  • Articles et rapports : 12-001-X201500114200
    Description :

    Nous considérons la méthode de la meilleure prédiction observée (MPO; Jiang, Nguyen et Rao 2011) pour l’estimation sur petits domaines sous le modèle de régression à erreurs emboîtées, où les fonctions moyenne et variance peuvent toutes deux être spécifiées inexactement. Nous montrons au moyen d’une étude par simulation que la MPO peut donner de nettement meilleurs résultats que la méthode du meilleur prédicteur linéaire sans biais empirique (MPLSBE) non seulement en ce qui concerne l’erreur quadratique moyenne de prédiction (EQMP) globale, mais aussi l’EQMP au niveau du domaine pour chacun des petits domaines. Nous proposons, pour estimer l’EQMP au niveau du domaine basée sur le plan de sondage, une méthode du bootstrap simple qui produit toujours des estimations positives de l’EQMP. Nous évaluons les propriétés de l’estimateur de l’EQMP proposé au moyen d’une étude par simulation. Nous examinons une application à la Television School and Family Smoking Prevention and Cessation study.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201300211888
    Description :

    Lorsque les variables étudiées sont fonctionnelles et que les capacités de stockage sont limitées ou que les coûts de transmission sont élevés, les sondages, qui permettent de sélectionner une partie des observations de la population, sont des alternatives intéressantes aux techniques de compression du signal. Notre étude est motivée, dans ce contexte fonctionnel, par l'estimation de la courbe de charge électrique moyenne sur une période d'une semaine. Nous comparons différentes stratégies d'estimation permettant de prendre en compte une information auxiliaire telle que la consommation moyenne de la période précédente. Une première stratégie consiste à utiliser un plan de sondage aléatoire simple sans remise, puis de prendre en compte l'information auxiliaire dans l'estimateur en introduisant un modèle linéaire fonctionnel. La seconde approche consiste à incorporer l'information auxiliaire dans les plans de sondage en considérant des plans à probabilités inégales tels que les plans stratifiés et les plans pi. Nous considérons ensuite la question de la construction de bandes de confiance pour ces estimateurs de la moyenne. Lorsqu'on dispose d'estimateurs performants de leur fonction de covariance et si l'estimateur de la moyenne satisfait un théorème de la limite centrale fonctionnel, il est possible d'utiliser une technique rapide de construction de bandes de confiance qui repose sur la simulation de processus Gaussiens. Cette approche est comparée avec des techniques de bootstrap qui ont été adaptées afin de tenir compte du caractère fonctionnel des données.

    Date de diffusion : 2014-01-15

  • Articles et rapports : 82-003-X201100311533
    Description :

    L'étude compare le biais dans les valeurs autodéclarées de taille, de poids et d'indice de masse corporelle provenant des cycles de 2008 et de 2005 de l'Enquête sur la santé dans les collectivités canadiennes et de l'Enquête canadienne sur les mesures de la santé menée de 2007 à 2009. On évalue la faisabilité de l'emploi d'équations de correction pour ajuster les valeurs autodéclarées à l'Enquête sur la santé dans les collectivités canadiennes de 2008 afin qu'elles s'approchent davantage des valeurs mesurées.

    Date de diffusion : 2011-08-17

  • Articles et rapports : 82-003-X201100311534
    Description :

    Au moyen des données provenant de l'Enquête canadienne sur les mesures de la santé menée de 2007 à 2009, on examine dans la présente étude le biais qui existe lorsque la taille, le poids et l'indice de masse corporelle sont fondés sur les valeurs déclarées par les parents. Les facteurs associés à l'erreur de déclaration sont utilisés pour déterminer s'il est possible d'établir des équations de correction afin d'ajuster les estimations déclarées par les parents.

    Date de diffusion : 2011-08-17

  • Articles et rapports : 12-001-X201000211378
    Description :

    L'une des clés de la réduction ou de l'éradication de la pauvreté dans le tiers monde est l'obtention d'information fiable sur les pauvres et sur leur emplacement, afin que les interventions et l'aide soient dirigées vers les personnes les plus nécessiteuses. L'estimation sur petits domaines est une méthode statistique utilisée pour surveiller la pauvreté et décider de la répartition de l'aide de façon à réaliser les Objectifs du millénaire pour le développement. Elbers, Lanjouw et Lanjouw (ELL) (2003) ont proposé, pour produire des mesures de la pauvreté fondées sur le revenu ou sur les dépenses, une méthode d'estimation sur petits domaines qui est mise en oeuvre par la Banque mondiale dans ses projets de cartographie de la pauvreté grâce à la participation des organismes statistiques centraux de nombreux pays du tiers monde, dont le Cambodge, le Laos, les Philippines, la Thaïlande et le Vietnam, et qui est intégrée dans le logiciel PovMap de la Banque mondiale. Dans le présent article, nous présentons la méthode ELL, qui consiste à modéliser d'abord les données d'enquête, puis à appliquer le modèle obtenu à des données de recensement, en nous penchant surtout sur la première phase, c'est-à-dire l'ajustement des modèles de régression, ainsi que sur les erreurs-types estimées à la deuxième phase. Nous présentons d'autres méthodes d'ajustement de modèles de régression, telles que la régression généralisée sur données d'enquête (RGE) (décrite dans Lohr (1999), chapitre 11) et celles utilisées dans les méthodes existantes d'estimations sur petits domaines, à savoir la méthode du meilleur prédicteur linéaire sans biais pseudo-empirique (pseudo-MPLSB) (You et Rao 2002) et la méthode itérative à équations d'estimation pondérées (IEEP) (You, Rao et Kovacevic 2003), et nous les comparons à la stratégie de modélisation de ELL. La différence la plus importante entre la méthode ELL et les autres techniques tient au fondement théorique de la méthode d'ajustement du modèle proposée par ELL. Nous nous servons d'un exemple fondé sur la Family Income and Expenses Survey des Philippines pour illustrer les différences entre les estimations des paramètres et leurs erreurs-types correspondantes, ainsi qu'entre les composantes de la variance générées par les diverses méthodes et nous étendons la discussion à l'effet de ces différences sur l'exactitude estimée des estimations sur petits domaines finales. Nous mettons l'accent sur la nécessité de produire de bonnes estimations des composantes de la variance, ainsi que des coefficients de régression et de leurs erreurs-types aux fins de l'estimation sur petits domaines de la pauvreté.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000111244
    Description :

    Nous étudions le problème de la sélection de modèles non paramétriques pour l'estimation sur petits domaines, auquel beaucoup d'attention a été accordée récemment. Nous élaborons une méthode fondée sur le concept de la méthode de l'enclos (fence method) de Jiang, Rao, Gu et Nguyen (2008) pour sélectionner la fonction moyenne pour les petits domaines parmi une classe de splines d'approximation. Les études par simulations montrent que la nouvelle méthode donne des résultats impressionnants, même si le nombre de petits domaines est assez faible. Nous appliquons la méthode à un ensemble de données hospitalières sur les échecs de greffe pour choisir un modèle non paramétrique de type Fay­Herriot.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X200900211045
    Description :

    Dans l'analyse de données d'enquête, on se sert souvent du nombre de degrés de liberté pour évaluer la stabilité des estimateurs de variance fondé sur le plan de sondage. Par exemple, ce nombre de degrés de liberté est utilisé pour construire les intervalles de confiances fondés sur des approximations de la loi t, ainsi que des tests t connexes. En outre, un petit nombre de degrés de liberté donne une idée qualitative des limites possibles d'un estimateur de variance particulier dans une application. Parfois, le calcul du nombre de degrés de liberté s'appuie sur des formes de l'approximation de Satterthwaite. Ces calculs fondés sur l'approche de Satterthwaite dépendent principalement des grandeurs relatives des variances au niveau de la strate. Cependant, pour des plans de sondage comportant la sélection d'un petit nombre d'unités primaires par strate, les estimateurs de variance au niveau de la strate classiques ne fournissent que des renseignements limités sur les variances réelles de strate. Le cas échéant, les calculs habituels fondés sur l'approche de Satterthwaite peuvent poser des problèmes, surtout dans les analyses portant sur des sous-populations concentrées dans un nombre relativement faible de strates. Pour résoudre ce problème, nous utilisons dans le présent article les estimations des variances à l'intérieur des unités primaires d'échantillonnage (variances intra-UPE) pour fournir de l'information auxiliaire sur les grandeurs relatives des variances globales au niveau de la strate. Les résultats des analyses indiquent que l'estimateur du nombre de degrés de liberté résultant est meilleur que les estimateurs de type Satterthwaite modifiés, à condition que : a) les variances globales au niveau de la strate soient approximativement proportionnelles aux variances intra-strate correspondantes et b) les variances des estimateurs de variance intra-UPE soient relativement faibles. En outre, nous élaborons des méthodes à erreurs sur les variables qui permettent de vérifier empiriquement les conditions a) et b). Pour ces vérifications de modèle, nous établissons des distributions de référence fondées sur des simulations qui diffèrent considérablement des distributions de référence fondées sur les approximations normales en grand échantillon habituelles. Nous appliquons les méthodes proposées à quatre variables de la troisième National Health and Nutrition Examination Survey (NHANES III) réalisée aux États-Unis.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200800110607
    Description :

    L'offre de primes en vue d'encourager la participation aux enquêtes est un moyen utilisé de plus en plus fréquemment pour combattre la chute des taux de réponse et les risques résultant de biais dû à la non réponse. Cette dernière pose tout spécialement un problème dans les enquêtes par panel, car même un faible taux de non réponse d'une vague à l'autre peut entraîner des pertes cumulées importantes et, si la non réponse est différentielle, cette situation peut aboutir à l'accroissement du biais d'une vague à l'autre. Les effets des primes d'encouragement ont été bien étudiés dans le contexte d'enquêtes transversales, mais l'on en sait fort peu quant à leurs effets cumulés sur l'ensemble des vagues d'un panel. Nous fournissons de nouvelles preuves des effets des paiements incitatifs continus sur l'attrition, ou érosion de l'échantillon, sur le biais et sur la non réponse partielle en nous appuyant sur les données d'une expérience d'offre de primes d'encouragement à grande échelle, multivagues, à mode d'interview mixte, intégrée dans une enquête par panel réalisée auprès des jeunes par le gouvernement britannique. Dans cette étude, les primes d'encouragement ont donné lieu à une réduction significative de l'attrition, qui compensait de loin les effets négatifs sur les taux de réponse partiels en ce qui concerne la quantité d'information recueillie dans le cadre de l'enquête par cas émis. Les primes d'encouragement ont eu des effets proportionnels sur les taux de rétention pour une gamme de caractéristiques des répondants et, par conséquent, n'ont pas réduit le biais d'attrition relatif à ces caractéristiques. Les effets des primes d'encouragement sur le taux de rétention étaient plus importants pour les primes inconditionnelles que pour les primes conditionnelles, et plus importants également pour le mode de collecte par la poste que pour celui par téléphone. D'une vague à l'autre, les effets sur l'attrition ont diminué quelque peu, mais les effets sur la non réponse partielle et l'absence d'effet sur le biais sont demeurés constants. Les effets des primes d'encouragement offertes lors de vagues plus tardives semblent avoir été indépendants des traitements relatifs aux primes et des modes de collecte des données appliqués lors de vagues antérieures.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X20070019850
    Description :

    De l'information auxiliaire est souvent utilisée pour améliorer la précision des estimateurs des moyennes et des totaux de population finie grâce à des techniques d'estimation par le ratio ou par la régression linéaire. Les estimateurs résultants ont de bonnes propriétés théoriques et pratiques, dont l'invariance, le calage et la convergence par rapport au plan de sondage. Cependant, il n'est pas toujours certain que les modèles de ratio et les modèles linéaires sont de bonnes approximations de la relation réelle entre les variables auxiliaires et la variable d'intérêt, ce qui cause une perte d'efficacité si le modèle n'est pas approprié. Dans le présent article, nous expliquons comment on peut étendre l'estimation par la régression afin d'intégrer des modèles de régression semi­paramétriques dans le cas de plans de sondage simples ainsi que plus complexes. Tout en retenant les bonnes propriétés théoriques et pratiques des modèles linéaires, les modèles semi­paramétriques reflètent mieux les relations complexes entre les variables, ce qui se traduit souvent par des gains importants d'efficacité. Nous illustrerons l'applicabilité de l'approche à des plans de sondage complexes comportant de nombreux types de variables auxiliaires en estimant plusieurs caractéristiques liées à l'acidification dans le cas d'une enquête sur les lacs du Nord­Est des États­Unis.

    Date de diffusion : 2007-06-28

  • Articles et rapports : 12-001-X20060029555
    Description :

    Les chercheurs et les responsables des politiques utilisent souvent des données provenant d'enquêtes par échantillonnage probabiliste représentatives de la population nationale. Le nombre de sujets couverts par ces enquêtes, et par conséquent la durée des entrevues, a généralement augmenté au fil des ans, ce qui a accru les coûts et le fardeau de réponse. Un remède éventuel à ce problème consiste à regrouper prudemment les questions d'une enquête en sous ensembles et à demander à chaque répondant de ne répondre qu'à l'un de ces sous ensembles. Les plans de sondage de ce type sont appelés plans à « questionnaire scindé » ou plans d'« échantillonnage matriciel ». Le fait de ne poser qu'un sous ensemble des questions d'une enquête à chaque répondant selon un plan d'échantillonnage matriciel crée ce que l'on peut considérer comme des données manquantes. Le recours à l'imputation multiple (Rubin 1987), une approche polyvalente mise au point pour traiter les données pour lesquelles des valeurs manquent, est tentant pour analyser les données provenant d'un échantillon matriciel, parce qu'après la création des imputations multiples, l'analyste peut appliquer les méthodes standard d'analyse de données complètes provenant d'une enquête par sondage. Le présent article décrit l'élaboration et l'évaluation d'une méthode permettant de créer des questionnaires d'échantillonnage matriciel contenant chacun un sous ensemble de questions devant être administrées à des répondants sélectionnés aléatoirement. La méthode peut être appliquée dans des conditions complexes, y compris les situations comportant des enchaînements de questions. Les questionnaires sont créés de telle façon que chacun comprenne des questions qui sont prédictives des questions exclues, afin qu'il soit possible, lors des analyses subséquentes fondées sur l'imputation multiple, de recouvrer une partie de l'information relative aux questions exclues qui aurait été recueillie si l'on n'avait pas recouru à l'échantillonnage matriciel. Ce dernier et les méthodes d'imputation multiple sont évalués au moyen de données provenant de la National Health and Nutrition Examination Survey, l'une des nombreuses enquêtes par échantillonnage probabiliste représentatives de la population nationale réalisées par le National Center for Health Statistics des Centers for Disease Control and Prevention. L'étude démontre que l'approche peut être appliquée à une grande enquête nationale sur la santé à structure complexe et permet de faire des recommandations pratiques quant aux questions qu'il serait approprié d'inclure dans des plans d'échantillonnage matriciel lors de futures enquêtes.

    Date de diffusion : 2006-12-21

  • Articles et rapports : 12-001-X20050029044
    Description :

    Les méthodes d'estimation de la variance des estimations par sondage applicables à des données complètes sont biaisées lorsque certaines données sont imputées. Nous recourons à la simulation pour comparer l'efficacité de la méthode assistée par modèle, de la méthode du jackknife ajusté et de la méthode d'imputation multiple pour estimer la variance d'un total quand les réponses à certaines questions ont été imputées par la méthode hot deck. La simulation vise à étudier les propriétés des estimations de la variance des estimations imputées de totaux pour la population dans son ensemble et pour certains domaines provenant d'un plan d'échantillonnage stratifié non proportionnel à un degré quand les hypothèses sous jacentes, comme l'absence de biais dans l'estimation ponctuelle et l'hypothèse des réponses manquantes au hasard dans les cellules hot deck, ne sont pas vérifiées. Les estimateurs de la variance des estimations pour l'ensemble de la population produisent des intervalles de confiance dont le taux de couverture s'approche du taux nominal, même en cas d'écarts modestes par rapport aux hypothèses, mais il n'en est pas ainsi des estimations par domaine. La couverture est surtout sensible au biais dans les estimations ponctuelles. Comme le démontre la simulation, même si une méthode d'imputation donne des estimations presque sans biais pour la population dans son ensemble, les estimations par domaine peuvent être fort biaisées.

    Date de diffusion : 2006-02-17

  • Articles et rapports : 12-001-X20030016611
    Description :

    On examine des plans d'échantillonnage bayésiens à coûts fixes optimaux et approximativement optimaux pour l'estimation simultanée dans des processus de Poisson homogènes indépendants. On élabore des formules générales de répartition pour un modèle de base Poisson-Gamma et on les compare à des méthodes plus classiques de répartition. On discute aussi des méthodes permettant de trouver des lois a priori gamma représentatives sous des modèles hiérarchiques plus généraux et on montre que, dans plusieurs situations pratiques, ces méthodes donnent des approximations raisonnables de la loi a priori hiérarchique et du risque bayésien. Les méthodes mises au point sont suffisamment générales pour être appliquées à un large éventail de modèles et ne sont pas limitées aux processus de Poisson.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X19970013107
    Description :

    Aux États-Unis, les enquêtes démographiques polyvalentes comptent souvent parmi leurs principaux objectifs la production d'estimations de petites sous-populations définies, par example, selon la race, l'origine ethnique et le revenu. Le suréchantillonnage géographique est l'une des techniques fréquemment envisagées pour accroître la fiabilité des statistiques sur ces petites sous-populations (ou domaines), dans la mesure où l'information sur les îlots ou les groupes d'îlots du Bureau of the Census permet d'identifier les régions où se concentrent les sous-pupulations auxquelles on s'interesse. Les auteurs ménages en vue d'améliorer la précision des estimations sur les petits domaines. Ils présentent les résultats d'une évaluation empirique de la réduction de la variance obtenue par suréchantillonnage géographique et évaluent la robustesse de l'efficacité de l'échantillonnage dans le temps, à mesure que les données servant à la stratification perdent de leur actualité. L'article aborde aussi la question du suréchantillonnage simultané de plusieurs petites sous-populations.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19960022979
    Description :

    Dans cet article, les auteurs comparent empiriquement trois méthodes d'estimation - par régression, par régression restreinte au moyen de la méthode dite de la personne principale - utilisées dans une enquête-ménage sur les dépenses de consommation. Les trois méthodes sont appliquées à la stratification a posteriori, qui est importante dans de nombreuses enquêtes-ménages afin de corriger le sous-dénombrement de la population cible. Dans les recensements externes, on dispose habituellement de chiffres de population pour des strates a posteriori pour les personnes, mais non pour les ménages. Si on a besoin d'estimations par ménage, on doit assigner un facteur de pondération unique à chaque ménage, tout en utilisant le nombre de personnes pour la stratification a posteriori. On y parvient facilement en employant des estimateurs de régression pour les totaux ou les moyennes, et en utilisant le nombre de personnes dans les données auxiliaires de chaque ménage. L'estimation par régression restreinte permet de mieux calculer les facteurs de pondération, car on contrôle les valeurs extrêmes et l'on peut obtenir des estimateurs présentant une variance moindre que les estimateurs de Horvitz-Thompson, tout en respectant les totaux de contrôle de la population. Les méthodes de régression permettent également d'utiliser des contrôles pour les chiffres au niveau des personnes et des ménages et pour les données auxiliaires quantitatives. Avec la méthode dite de la personne principale, les personnes sont classées dans les strates a posteriori, et les facteurs de pondération pour les personnes font l'objet d'un rajustement par quotient afin d'obtenir des totaux de contrôle de la population. De la sorte, chaque personne dans un ménage peut se voir attribuer un facteur de pondération différent. Le facteur de pondération associé à la "personne principale" est alors choisi comme facteur de pondération pour le ménage. Nous comparerons les moyennes calculées à partir des trois méthodes, ainsi que leurs erreurs-types estimées, pour un certain nombre de dépenses tirées de l'enquête sur les dépenses de consommation parrainée par le Bureau of Labor Statistics.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022982
    Description :

    Les travaux sur les enquêtes par échantillonnage exigent souvent qu'on recoure aux estimateurs des composantes de la variance associés à l'échantillonnage, à l'intérieur des unités primaires d'échantillonnage et entre celles-ci. Dans ce genre de travail, il peut s'avérer important d'avoir une idée de la stabilité des estimateurs des composantes de la variance, bref de savoir si ces estimateurs présentent une variance relativement faible. Nous examinerons ici plusieurs façons de mesurer la stabilité des estimateurs des composantes de la variance reposant sur le plan d'échantillonnage et des quantités connexes, d'après les données. Dans le développement, on mettra en relief les méthodes applicables aux enquêtes caractérisées par un nombre moyen ou important de strates et un petit nombre d'unités primaires d'échantillonnage par strate. Nous attirons principalement l'attention sur la variance intrinséque d'un estimateur de la variance intra-UPÉ et sur deux termes connexes se rapportant aux degés de liberté. Une méthode de simulation permet d'établir si la stabilité observée est cohérente avec les hypothèses types sur la stabilité de l'estimateur de la variance. Nous présentons aussi deux séries de mesures de stabilité pour les estimateurs des composantes de la variance inter-UPÉ reposant sur le plan d'échantillonnage et le ratio de la variance globale avec la variance intra-UPÉ. Les méthodes proposées sont appliquées aux données venant des interviews et des examens de la U.S. Third National Health and Nutrition Examination Survey (NHANES III). Les résultats montrent que les propriétés de la stabilité véritable peuvent changer sensiblement d'une variable à l'autre. Par ailleurs, pour certaines variables, les estimateurs de la variance intra-UPÉ semblent considérablement moins stables qu'on aurait pu s'y attendre consécutivement à un simple dénombrement des unités secondaires de chaque strate.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X199500114416
    Description :

    Stanley Warner s’est acquis une renommée à titre de concepteur de la technique de randomisation des réponses pour les enquêtes comportant des questions délicates. Pendant près de vingt ans, il a aussi formulé et mis au point une méthode statistique s’appliquant à un autre problème, celui de l’obtention d’une information équilibrée sur des questions controversées de telle sorte que les deux points de vue soient représentés de manière adéquate et équitable. Nous passons en revue ces travaux, notamment deux situations d’enquête dans lesquelles Warner a mis sa méthode à l’épreuve, et nous examinons comment les concepts proposés s’inscrivent dans l’évolution actuelle de la méthodologie.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199000114553
    Description :

    L’Enquête nationale sur les fermes est une enquête par échantillonnage qui produit des estimations annuelles sur une variété de sujets reliés à l’agriculture canadienne. En 1988, l’enquête a été dotée d’un nouveau plan de sondage. Ce nouveau plan fait intervenir des bases de sondage multiples et des méthodes d’échantillonnage multidimensionnelles qui sont différentes de celles du plan précédent. Dans cet article, on décrit d’abord la stratégie et les méthodes utilisées pour le nouveau plan de sondage. Ensuite, on apporte des précisions sur quelques facteurs qui affectent la précision des estimations. Enfin, on évalue la performance du nouveau plan suite à son utilisation.

    Date de diffusion : 1990-06-15

  • Articles et rapports : 12-001-X198900114573
    Description :

    Aux fins de son programme de la statistique économique, le Census Bureau fait grande utilisation des dossiers administratifs. Le nombre de dossiers traités chaque année est considérable, mais il l’est encore plus durant les années de recensement. Pour assurer la qualité de toutes les données qu’il reçoit, le Census Bureau a mis au point des programmes de contrôle sur gros ordinateur. Toutefois, étant donné le très grand nombre de tableaux de vérification requis, et compte tenu du fait que les ressources nécessaires à la programmation sont limitées et coûteuses, il serait difficile d’adopter un système exhaustif de contrôle exploité entièrement sur gros ordinateur. En outre, vu le caractère confidentiel des données et les conséquences possibles des erreurs, le Census Bureau a conclu qu’il fallait mettre au point un système de contrôle plus « sophistiqué », qui s’appuie sur la technologie des micro-ordinateurs. La division des enquêtes économiques est en train de mettre au point un tel système qui sera utilisé pour traiter les fichiers de données administratives de 1987. Le système intègre la technologie des gros ordinateurs à celle des micro-ordinateurs. Les fichiers de données administratives qui arrivent chaque semaine au Bureau sont d’abord traitées sur gros ordinateur. Les données ainsi traitées sont transférées sur micro-ordinateur et sont formatées pour être exploitées par un tableur. La vérification systématique de la qualité des données (examen de données, détection des erreurs, production de rapports) est faite sur micro-ordinateur, par le tableur. L’utilisation combinée d’un gros ordinateur et de micro-ordinateurs permet d’alléger la charge des programmeurs, de faciliter le travail des analystes (plus de souplesse) et de réduire les coûts du traitement sur gros ordinateur. Enfin, la composante « contrôle-vérification » du système assure une vérification rigoureuse et exhaustive des données.

    Date de diffusion : 1989-06-15

Références (32)

Références (32) (25 of 32 results)

  • Produits techniques : 11-522-X201700014720
    Description :

    La présente communication vise à fournir un bref aperçu de l’engagement de Statistique Canada à l’égard des données ouvertes. Nous aborderons tout d’abord la façon dont les principes des données ouvertes sont intégrés dans les pratiques courantes de diffusion de Statistique Canada. Puis, nous discuterons de la participation de l’organisme à l’initiative de données ouvertes de l’ensemble du gouvernement. Cette participation comporte deux volets : Statistique Canada est le principal fournisseur de données au portail de données ouvertes du gouvernement du Canada, mais il joue aussi un rôle important en arrière-plan, en tant que fournisseur de services responsable du développement et de la mise à jour du portail de données ouvertes (qui fait maintenant partie du portail plus large Gouvernement ouvert).

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014734
    Description :

    La protection des données et la protection de la vie privée sont des défis clés qui doivent être relevés de façon prioritaire, afin de permettre l’utilisation des mégadonnées dans la production de statistiques officielles. C’est ce qu’ont préconisé, en 2013, les directeurs des Instituts nationaux de statistique (INS) du Comité du Système statistique européen (CSSE) dans le mémorandum de Scheveningen. Le CSSE a demandé à Eurostat et aux INS d’élaborer un plan d’action comportant un carnet de route, en vue d’assurer le suivi de la mise en œuvre du mémorandum. À la réunion de Riga, le 26 septembre 2014, le CSSE a adopté le plan d’action et carnet de route 1.0 des mégadonnées (BDAR) présenté par le Groupe de travail d’Eurostat chargé des mégadonnées (TFBD), et il a convenu de l’intégrer dans le portefeuille de la Vision du SSE pour 2020. Eurostat collabore aussi dans ce domaine avec des partenaires externes comme la Commission économique des nations unies pour l’Europe (UNECE). Le projet de mégadonnées du Goupe de haut niveau de la UNECE est un projet international sur le rôle des mégadonnées dans la modernisation de la production de statistiques. Il comprenait quatre équipes de travail chargées de différents aspects des mégadonnées pertinentes pour les statistiques officielles : protection de la vie privée, partenariats, Sandbox et qualité. L’équipe de travail chargée de la protection de la vie privée a terminé ses travaux en 2014 et a donné un aperçu des outils existants pour la gestion des risques concernant la protection de la vie privée, a décrit comment le risque d’identification se rapporte aux caractéristiques des mégadonnées et a élaboré des recommandations à l’intention des Bureaux de statistique nationaux (BSN). Elle a conclu principalement que le prolongement des cadres existants, y compris l’utilisation de nouvelles technologies, était nécessaire pour traiter les risques liés à la protection de la vie privée dans le contexte de l’utilisation des mégadonnées. Le BDAR tire parti des travaux des équipes de la UNECE. De façon plus particulière, il reconnaît qu’un certain nombre de sources de mégadonnées comprennent des données de nature délicate, que leur utilisation pour les statistiques officielles peut entraîner des perceptions négatives dans le grand public et chez les autres intervenants, et que ce risque devrait être atténué à court et à moyen termes. Il propose le lancement de plusieurs mesures : par exemple, un examen approprié des principes éthiques régissant les rôles et les activités des INS et une stratégie de communication bien établie. La communication présente les différentes mesures entreprises à l’intérieur du SSE et en collaboration avec la UNECE, ainsi que les solutions techniques et légales possibles à mettre en place pour résoudre les risques liés à la protection des données et à la protection de la vie privée, dans le contexte de l’utilisation des mégadonnées pour les statistiques officielles.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201300014267
    Description :

    Comme de nombreux autres instituts nationaux de statistique, le Bureau de la statistique de la Suède a une longue tradition de qualité. Plus récemment, l’organisme a décidé de commencer à utiliser un certain nombre de cadres pour résoudre les questions de qualité organisationnelle, de qualité des processus et de qualité des produits. Il est important de prendre en compte ces trois niveaux, car nous savons que la façon dont nous faisons les choses, par exemple, lorsque nous posons des questions, a des répercussions sur la qualité des produits et que, par conséquent, la qualité des processus représente un élément important du concept de qualité. Par ailleurs, la qualité organisationnelle, c’est-à-dire la gestion systématique des aspects comme la formation du personnel et le leadership, est essentielle pour assurer la qualité des processus. Le Bureau de la statistique de la Suède utilise l’EFQM (European Foundation for Quality Management) comme cadre pour la qualité organisationnelle et ISO 20252 comme norme pour la qualité des processus pour les études de marché, les sondages d’opinion et les études sociales. En avril 2014, le Bureau de la statistique de la Suède a été le premier institut national de la statistique à être certifié selon la norme ISO 20252. Parmi les défis auxquels le Bureau de la statistique de la Suède a dû faire face en 2011 figuraient la mesure systématique et le contrôle des changements dans la qualité des produits, ainsi que la présentation claire aux intervenants. De concert avec des experts-conseils externes, Paul Biemer et Dennis Trewin, du Bureau de la statistique de la Suède, ont développé à cette fin un outil appelé ASPIRE (A System for Product Improvement, Review and Evaluation). Afin d’assurer le maintien et l’amélioration de la qualité, le Bureau de la statistique de la Suède a aussi mis sur pied une équipe chargée de l’assurance de la qualité, comprenant un gestionnaire de la qualité, des responsables de la qualité et des vérificateurs internes et externes de la qualité. Dans le présent document, j’aborderai les composantes du système de gestion de la qualité du Bureau de la statistique de la Suède, ainsi que les défis que nous avons dû relever.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014286
    Description :

    L’Etude Longitudinale Française depuis l’Enfance (Elfe), démarrée en 2011, compte plus de 18 300 nourrissons dont les parents ont consenti à leur inclusion en maternité. Cette cohorte, consacrée au suivi des enfants, de la naissance à l’âge adulte, aborde les multiples aspects de la vie de l’enfant sous l’angle des sciences sociales, de la santé et de la santé-environnement. Dans chacune des maternités tirées aléatoirement, tous les nourrissons de la population cible, nés durant l’un des 25 jours répartis parmi les quatre saisons, ont été sélectionnés. Cet échantillon est le résultat d’un plan de sondage non standard que nous appellons échantillonnage produit. Il se présente pour cette enquête sous la forme du croisement de deux échantillonnages indépendants: celui des maternités et celui des jours. Si l’on peut facilement imaginer un effet grappe dû à l’échantillonnage de maternités, on peut symétriquement imaginer un effet grappe dû à l’échantillonnage des jours. La dimension temporelle du plan ne pourra alors être négligée si les estimations recherchées sont susceptibles de variations journalières ou saisonnières. Si ce plan non standard peut être vu comme un plan à deux phases bien particulier, il s’avère nécessaire de le définir dans un cadre plus adapté. Après une comparaison entre le plan produit et un plan classique à deux degrés, seront proposés des estimateurs de variance adaptés à ce plan de sondage. Une étude par simulations illustrera nos propos.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014260
    Description :

    L’Enquête sur l’emploi, la rémunération et les heures de travail (EERH) permet de produire des estimations mensuelles du niveau et des tendances de l’emploi, de la rémunération et des heures de travail et ce, pour des niveaux détaillés de la classification industrielle pour le Canada, les provinces et les territoires. Afin d’améliorer l’efficacité des activités de collecte pour cette enquête, un questionnaire électronique (QE) a été introduit à l’automne 2012. Compte tenu de l’échéance pour cette transition, ainsi que du calendrier de production de l’enquête, une stratégie de conversion a été établie pour l’intégration de ce nouveau mode de collecte. L’objectif de la stratégie était d’assurer une bonne adaptation de l’environnement de collecte, ainsi que de permettre la mise en oeuvre d’un plan d’analyse permettant d’évaluer l’effet de ce changement sur les résultats de l’enquête. Le présent article donne un aperçu de la stratégie de conversion, des différents ajustements qui ont été effectués pendant la période de transition et des résultats des diverses évaluations qui ont été menées. Par exemple, on décrit l’effet de l’intégration du QE sur le processus de collecte, le taux de réponse et le taux de suivi. En outre, on discute de l’effet de ce nouveau mode de collecte sur les estimations de l’enquête. Plus précisément, on présente les résultats d’une expérience randomisée réalisée afin de déceler la présence éventuelle d’un effet de mode.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014287
    Description :

    Le dispositif EpiNano vise à surveiller les travailleurs potentiellement exposés aux nanomatériaux intentionnellement produits en France. Ce dispositif est basé, d’une part, sur les données d’hygiène industrielle recueillies au sein des entreprises afin de caractériser l’exposition aux nanomatériaux des postes de travail et d’autre part celles issues d’auto-questionnaires complétés par les participants. Ces données seront ensuite appariées aux données de santé des bases médico-administratives nationales (suivi passif des évènements de santé). Des questionnaires de suivi seront soumis régulièrement aux participants. Les modalités mises en place afin d’optimiser la collecte et l’appariement des données sont décrites.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014255
    Description :

    Le Centre d’information de réseau brésilien (NIC.br) a conçu et mené un projet pilote pour recueillir des données sur le Web, afin de produire des statistiques concernant les caractéristiques des pages Web. Les études des caractéristiques et des dimensions du Web exigent la collecte et l’analyse de données dans un environnement dynamique et complexe. L’idée de base est de recueillir des données sur un échantillon de pages Web, automatiquement, en utilisant le logiciel appelé moteur de recherche Web. Le présent article vise à diffuser les méthodes et les résultats de cette étude, ainsi qu’à démontrer les progrès actuels liés aux techniques d’échantillonnage dans un environnement dynamique.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X200800010954
    Description :

    Au cours de la dernière année, Statistique Canada a conçu et mis à l'essai un nouveau moyen d'évaluer le rendement des intervieweurs qui procèdent aux interviews sur place assistées par ordinateur (IPAO). Un processus officiel existe déjà pour la surveillance des interviews téléphoniques centralisées. Les surveillants écoutent les interviews téléphoniques pendant qu'elles ont lieu pour évaluer l'exécution des tâches par l'intervieweur en fonction de critères préétablis et faire des commentaires à ce dernier pour lui indiquer ce qu'il a bien fait et ce qu'il doit améliorer. Pour les programmes d'IPAO, nous avons élaboré et mettons à l'essai une méthode pilote par laquelle des interviews sont enregistrées de façon numérique puis le surveillant écoute ces enregistrements afin d'évaluer le rendement de l'intervieweur sur le terrain et de lui fournir de la rétroaction qui aidera la qualité des données. Dans le présent article, nous donnons un aperçu du projet de surveillance de l'IPAO à Statistique Canada en décrivant la méthodologie de surveillance de l'IPAO et les plans de mise en oeuvre.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010946
    Description :

    Au milieu des années 1990, l'Office for National Statistics (ONS) du Royaume-Uni a créé sa première unité de mise à l'essai des questions. L'objectif principal était d'élaborer et de tester les questions et le questionnaire du Recensement de 2001. Depuis, le domaine a été élargi et l'unité est devenue un centre d'expertise en Méthodologie de collecte des données (MCD) qui fait maintenant partie de la Direction générale de la méthodologie. Le centre comprend trois branches qui appuient les travaux relatifs à la MCD pour les enquêtes sociales, les enquêtes-entreprises, le recensement et les organismes externes.

    Au cours des dix dernières années, le centre MCD a eu à son actif diverses réalisations. Par exemple, il a fait participer les méthodologistes d'enquête à l'élaboration et à la mise à l'essai des questions ou questionnaires des enquêtes-entreprises, a adopté une approche basée sur une combinaison de méthodes pour l'élaboration des questions et des questionnaires, a élaboré et appliqué des normes, notamment pour le questionnaire et les cartes-guides du Recensement de 2011, et a préparé et donné des séances de formation en MCD.

    La présente communication donnera une vue d'ensemble de la méthodologie de collecte des données à l'ONS sous l'angle des réalisations et des défis. Elle portera sur des domaines tels que les méthodes, la dotation en personnel (p. ex. recrutement, perfectionnement professionnel et sécurité sur le terrain) et l'intégration dans le processus d'enquête.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010996
    Description :

    Au cours des dernières années, l'utilisation des paradonnées a pris de plus en plus d'importance dans le cadre de la gestion des activités de collecte à Statistique Canada. Une attention particulière a été accordée aux enquêtes sociales menées par téléphone, comme l'Enquête sur la dynamique du travail et du revenu (EDTR). Lors des dernières activités de collecte de l'EDTR, une limite de 40 tentatives d'appel a été instaurée. Des examens des fichiers de l'historique des transactions Blaise de l'EDTR ont été entrepris afin d'évaluer l'incidence de la limite des tentatives d'appel. Tandis que l'objectif de la première étude était de réunir les renseignements nécessaires à l'établissement de la limite des tentatives d'appel, la seconde étude portait sur la nature de la non-réponse dans le contexte de la limite de 40 tentatives.

    L'utilisation des paradonnées comme information auxiliaire pour étudier et expliquer la non-réponse a aussi été examinée. Des modèles d'ajustement pour la non-réponse utilisant différentes variables de paradonnées recueillies à l'étape de la collecte ont été comparés aux modèles actuels basés sur de l'information auxiliaire tirée de l'Enquête sur la population active.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010995
    Description :

    L'article intitulé « The Optimum Time at which to Conduct Survey Interviews » publié en 1992 cherchait à illustrer les avantages économiques que pouvaient tirer les organismes spécialisés en études de marché de la structuration des profils d'appels des intervieweurs dans les enquêtes-ménages. Les résultats étaient fondés sur l'enquête intercensitaire menée en 1986 au Pays de Galles (Welsh Inter Censal Survey). Le présent article fournit des renseignements supplémentaires sur les profils d'appels des intervieweurs provenant d'enquêtes semblables réalisées en 1997 et en 2006 en vue de déterminer si ces profils avaient changé. Ont également été examinées l'importance d'obtenir une réponse à l'enquête qui est représentative de la population et la façon dont l'adoption de stratégies d'appel efficaces permet d'atteindre cet objectif.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011006
    Description :

    L'Office for National Statistics (ONS) est tenu de mesurer le fardeau de réponse des entreprises participant aux enquêtes qu'il mène et de produire un rapport annuel à ce sujet. Il existe aussi des cibles pour la réduction des coûts des entreprises qui se conforment aux règlements gouvernementaux, dans le cadre de l'Administrative Burdens Reduction Project (ABRP) de 2005, coordonné par le Better Regulation Executive (BRE).

    Les coûts économiques des entreprises servent à mesurer le fardeau de réponse. La méthode de mesure utilisée a changé avec le temps, la plus récente étant l'élaboration et la mise à l'essai d'un modèle des coûts standard (MCS).

    Couramment utilisé en Europe, le MCS vise à mesurer les fardeaux administratifs objectifs associés à toutes les demandes gouvernementales de renseignements (déclarations de revenus, taxe sur la valeur ajoutée, etc.) et à la participation aux enquêtes. Cette méthode n'a donc pas été mise au point précisément pour mesurer le fardeau de réponse aux enquêtes statistiques. Le MCS est axé sur les activités, c'est-à-dire que le coût et le temps requis pour répondre aux exigences sont ventilés par activité.

    Dans le cadre de cette méthode, les données sont habituellement recueillies au moyen d'interviews sur place. La méthode exige donc beaucoup de main-d'oeuvre, tant du point de vue de la collecte que de l'analyse des données, mais elle permet de réunir des renseignements détaillés. La technique élaborée et mise à l'essai par l'ONS utilise des questionnaires papier à remplir soi-même.

    L'objectif de la communication est de fournir un aperçu du fardeau de réponse et des cibles visées, ainsi que de passer en revue les différentes méthodes qu'a utilisées l'ONS pour mesurer le fardeau de réponse du point de vue de l'échantillonnage ainsi que de la collecte, de l'analyse et de l'utilité des données.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010953
    Description :

    Alors que les spécialistes de la recherche sur les enquêtes s'efforcent de maintenir les taux de réponse à leur niveau habituellement élevé, les répondants réticents font croître les coûts de collecte des données. Cette réticence à répondre peut être liée au temps qu'il faut pour achever l'interview dans les enquêtes omnibus à grande échelle, telles que la National Survey of Recent College Graduates (NSRCG). Reconnaissant que le fardeau de réponse ou la longueur du questionnaire peut contribuer à la baisse des taux de réponse, en 2003, après plusieurs mois de collecte des données conformément au protocole de collecte standard, l'équipe de la NSRCG a offert des incitations monétaires à ses répondants environ deux mois avant la fin de la période de collecte des données. Parallèlement à l'offre d'incitation, elle a également donné aux non-répondants persistants l'occasion de répondre à un questionnaire considérablement abrégé ne comportant que quelques questions essentielles. Les répondants tardifs qui ont achevé l'interview en raison de l'incitation monétaire et du questionnaire ne contenant que les questions essentielles peuvent fournir certains éclaircissements en ce qui concerne le biais de non-réponse et la probabilité qu'ils soient demeurés des non-répondants à l'enquête si les efforts susmentionnés de conversion des refus n'avaient pas été faits.

    Dans le présent article, nous entendons par « répondants réticents » ceux qui n'ont répondu à l'enquête qu'après le déploiement d'efforts allant au-delà de ceux planifiés au départ dans le protocole standard de collecte des données. Plus précisément, les répondants réticents à la NSRCG de 2003 sont ceux qui ont répondu au questionnaire ordinaire ou abrégé après l'offre d'une incitation. Notre hypothèse était que le comportement des répondants réticents serait plus semblable à celui des non-répondants qu'à celui des répondants aux enquêtes. Le présent article décrit une étude des répondants réticents et de la mesure dans laquelle ils diffèrent des répondants ordinaires. Nous comparons différents groupes de réponse en ce qui concerne les estimations pour plusieurs variables clés de l'enquête. Cette comparaison nous permettra de mieux comprendre le biais dû à la non-réponse à la NSRCG et les caractéristiques des non-répondants proprement dits, ce qui servira de fondement à la modification du système de pondération ou aux procédures d'estimation de la NSRCG dans l'avenir.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200600110453
    Description :

    Les enquêtes nationales sur l'alimentation et la nutrition fournissent des renseignements essentiels pour comprendre la relation complexe qui existe entre la santé et l'alimentation au sein de la population. Bon nombre de ces enquêtes ont recours à la méthodologie du rappel alimentaire de 24 heures qui permet de connaître de façon détaillée tous les aliments et boissons consommés au cours d'une journée. Ce sont souvent les apports d'aliments et d'éléments nutritifs à long terme qui revêtent un intérêt, et il existe plusieurs techniques permettant d'estimer les apports habituels de la population. Ces techniques exigent qu'au moins un rappel alimentaire de 24 heures soit effectué auprès d'au moins un sous-ensemble de la population afin de pouvoir estimer la variabilité des apports chez une même personne. La détermination du nombre de personnes nécessaires pour constituer un rappel est une étape importante du plan d'enquête, dans la mesure où il faut reconnaître qu'un nombre trop faible de personnes participant au rappel peut compromettre la capacité à évaluer l'apport habituel, mais qu'un nombre élevé de rappels est coûteux et représente un fardeau supplémentaire pour les répondants. Ce document de recherche se penche sur les questions statistiques liées au nombre de personnes participant au rappel en évaluant l'incidence du nombre de ces personnes sur la stabilité et l'incertitude de l'estimation de la variabilité chez une même personne et en donnant une indication de ce que ce nombre devrait être.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110449
    Description :

    Les bases de données administratives sur les sorties d'hôpital sont traditionnellement utilisées à des fins administratives. Toutefois, les chercheurs oeuvrant dans les domaines des services de santé et de la santé de la population ont récemment utilisé ces bases de données pour réaliser de nombreuses études, notamment sur les soins de santé. Des outils comme les indices de comorbidité ont été élaborés pour faciliter ces analyses. Les indices doivent être mis à jour chaque fois que le système de codage des diagnostics et des procédures est révisé ou qu'un nouveau système est élaboré. Ces mises à jour sont importantes pour garantir la cohérence lorsque des tendances sont examinées au fil du temps.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110413
    Description :

    National Health and Nutrition Examination Survey (NHANES) est réalisée par le National Center for Health Statistics depuis plus de quarante ans. Cette enquête est conçue pour recueillir des renseignements sur la santé et l'état nutritionnel de la population des États Unis au moyen d'interviews sur place et d'examens physiques normalisés effectués dans des centres d'examen mobiles. Au cours de ces quarante années, nous avons tiré de nombreux enseignements tirés sur la façon de réaliser une enquête qui s'appuie sur des mesures physiques directes. Nous présentons des exemples de ces « enseignements » et offrons des indications à l'intention d'autres organismes et pays qui planifient des enquêtes similaires.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X20050019437
    Description :

    Les renseignements explicatifs qui accompagnent les données statistiques sont appelés métadonnées, et leur présence est essentielle à la bonne compréhension et à la bonne interprétation des données. Le présent article décrit l'expérience de Statistique Canada en ce qui concerne la conceptualisation, la dénomination et l'organisation des variables au sujet desquelles sont produites des données.

    Date de diffusion : 2007-03-02

  • Produits techniques : 11-522-X20050019482
    Description :

    Les études sur la santé qui lient la base de données administratives sur les sorties d'hôpital aux personnes peuvent être utilisées pour décrire les taux et les tendances des maladies/des interventions en fonction des personnes, des lieux et du temps, examiner les résultats de la maladie, des interventions ou des facteurs de risque et faire la lumière sur l'utilisation des services hospitaliers. L'importance et les défis du travail seront illustrés à l'aide d'exemples de travaux réalisés à Statistique Canada.

    Date de diffusion : 2007-03-02

  • Produits techniques : 11-522-X20040018738
    Description :

    Ce document décrit les efforts consentis au Royaume-Uni lors du recensement de 2001 afin d'optimiser la réponse dans les secteurs démographiques difficiles à recenser. La recherche dédiée au recensement de 2011 y est aussi décrite.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20030017707
    Description :

    Ce document porte sur la structure et les mesures de la qualité qu'Eurostat utilise afin de fournir des séries économiques désaisonnalisées relatives à l'Union Européenne et à la Zone Euro.

    Date de diffusion : 2005-01-26

  • Produits techniques : 11-522-X20030017710
    Description :

    Dans ce document, on décrit un modèle probabiliste dans lequel on estime le nombre d'entreprises dans diverses strates et on applique la régression logistique pour évaluer la probabilité de l'état d'activité d'une entreprise d'après une enquête sur les entreprises existantes.

    Date de diffusion : 2005-01-26

  • Produits techniques : 11-522-X20020016750
    Description :

    Les analyses de données provenant d'enquêtes sociales et économiques s'appuient parfois sur des modèles à fonction généralisée de la variance pour adoucir la variance due au plan de sondage des estimateurs ponctuels des moyennes et des proportions de population. Les analystes peuvent utiliser les estimations résultantes de l'erreur type pour calculer les intervalles de confiance ou les variables à tester pour les moyennes et les proportions étudiées. Comparativement aux estimateurs de la variance basés sur le plan de sondage calculés directement à partir des microdonnées d'enquête, les modèles à fonction généralisée de la variance peuvent offrir plusieurs avantages. Comme le révèle cette étude, ces avantages sont la simplicité des opérations, une plus grande stabilité des erreurs types et, dans le cas où l'on utilise des ensembles de données à grande diffusion, la réduction des problèmes de limitation de la divulgation des renseignements personnels que pose la grande diffusion d'indicateurs de strates et de grappes.

    Cependant, plusieurs problèmes d'inférence peuvent annuler en partie ces avantages éventuels. Premièrement, les propriétés des statistiques inférentielles fondées sur des fonctions généralisées de la variance (par exemple, le taux de couverture et de largeur des intervalles de confiance) dépendent fortement de l'importance empirique relative des composantes de la variabilité associée, respectivement, à :

    a) la sélection aléatoire d'un sous-ensemble d'items utilisés pour estimer le modèle à fonction généralisée de la variance; b) la sélection d'unités d'échantillonnage conformément à un plan d'échantillonnage complexe; (c) le mauvais ajustement du modèle à fonction généralisée de la variance; d) la génération d'une population finie sous les conditions d'un modèle de superpopulation.

    Deuxièmement, sous certaines conditions, on peut lier chacune des composantes (a) à (d) à diverses mesures empiriques de l'adéquation prédictive d'un modèle à fonction généralisée de la variance. Par conséquent, ces mesures d'adéquation prédictive peuvent fournir certains éclaircissements sur la mesure à laquelle un modèle à fonction généralisée de la variance donné convient à l'inférence dans des applications particulières.

    Enfin, certains tests et diagnostics proposés sont appliqués aux données de la U.S. Survey of Doctoral Recipients et de la U.S. Current Employment Survey. La Survey of Doctoral Recipients s'occupe principalement des composantes (a), (c) et (d), alors que la Current Employment Survey accorde plutôt de l'importance aux composantes (b), (c) et (d). La disponibilité de microdonnées de population permet le développement de modèles particulièrement détaillés pour les composantes (b) et (c).

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016738
    Description :

    Au cours des 30 dernières années, la fréquence de la dissolution des unions parentales a augmenté au Canada et la nature, ainsi que l'intensité, du fait que les enfants restent avec leurs parents après l'éclatement de la famille est maintenant une question importante. Jusqu'à présent, la plupart des études sur le sujet étaient effectuées à l'aide de données transversales. Cependant, les dispositions que prennent les parents qui se séparent concernant le soutien matériel et financier de leurs enfants sont loin d'être statiques, évoluant en réponse à divers changements qui surviennent dans la vie des deux parents biologiques, y compris ceux qui résultent des nouvelles unions conjugales des mères et des pères.

    Dans cet article, on commence par déterminer de quelle façon les dispositions de garde évoluent au fil du temps, puis on examine les variations de la fréquence des contacts qu'ont les pères non résidents avec leurs enfants. Dans les deux analyses, on accorde une attention particulière aux répercussions d'une nouvelle union conjugale de la mère ou du père sur la fréquence des contacts que les enfants continuent d'avoir avec le parent qui n'a pas la garde. On examine aussi comment cette fréquence varie selon que le nouveau conjoint a ou non des enfants d'une première union et selon que la nouvelle union du père ou de la mère est fertile. Les données prospectives provenant des deux premiers cycles de l'Enquête longitudinale nationale sur les enfants et les jeunes (ELNEJ) nous permettront de comparer la fréquence des contacts avant et après la recomposition de la famille.

    Les analyses sont effectuées au moyen de modèles logit et probit multinomiaux, ainsi que de modèles logit et probit ordonnés, selon la nature des variables dépendantes. L'observation de certaines de nos variables dépendantes (p. ex. la fréquence des contacts entre les pères non résidents et leurs enfants) dépend d'un processus de sélection (p. ex. le fait qu'un père qui ne réside pas avec son enfant à la période 1 ne réside pas avec lui à la période 2). Dans de tels cas, les analyses sont réalisées au moyen de modèles probit ordonnés avec sélectivité. Dans toutes les analyses, les erreurs types sont corrigées pour tenir compte du plan d'échantillonnage.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016732
    Description :

    L'analyse de la relation dose-réponse joue depuis longtemps un rôle important en toxicologie. Plus récemment, on l'a employée pour évaluer les campagnes publiques d'éducation. Les données qui sont recueillies durant de telles évaluations proviennent le plus souvent d'enquêtes ménages à plan d'échantillonnage type présentant la complexité habituelle de l'échantillonnage à plusieurs degrés, de la stratification et de la variabilité des probabilités de sélection. Lors d'une évaluation récente, on a développé un système présentant les caractéristiques suivantes : une catégorisation des doses à trois ou quatre niveaux; une cotation de la propension à sélectionner la dose; et un nouveau test de Jonckheere-Terpstra fondé sur le jackknife pour une relation dose-réponse monotone. Ce système permet de produire rapidement, pour les relations dose-réponse monotones, des tests qui sont corrigés à la fois pour le plan d'échantillonnage et pour les variables confusionnelles. Dans cet article, on se concentre sur les résultats d'une simulation de Monte Carlo des propriétés du test de Jonckheere-Terpstra fondé sur le jackknife.

    En outre, il n'existe aucun contrôle expérimental sur les dosages et il faut envisager l'existence éventuelle de variables confusionnelles. Les régressions types figurant dans WESVAR et SUDAAN pourraient être utilisées pour déterminer s'il existe une relation dose-réponse linéaire en tenant compte de l'effet des variables confusionnelles. Par contre, cette démarche ne semble pas très indiquée pour déceler les relations dose-réponse non linéaires et non monotones, et son application est longue si le nombre possible de variables étudiées est grand.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016722
    Description :

    Le cancer du côlon et du rectum (CCR) est la deuxième cause de décès par cancer au Canada. Des essais randomisés avec témoins ont montré l'efficacité du dépistage par recherche du sang occulte dans les selles. Toutefois, il est nécessaire de procéder à une évaluation complète des coûts et des conséquences du dépistage du CCR pour la population canadienne avant de mettre en oeuvre un tel programme. Dans le cadre de cet article, on évalue la rentabilité du dépistage du CCR. Les résultats de ces simulations seront transmis au Comité national sur le dépistage du cancer colorectal du Canada en vue de faciliter la formulation de recommandations quant à la politique nationale à adopter.

    Le modèle de microsimulation de la santé de la population de Statistique Canada a été mis à jour afin d'y intégrer un module complet de dépistage du CCR fondé sur des données canadiennes et les résultats d'évaluation de l'efficacité du dépistage des essais randomisés avec témoins. Le module englobe des données sur la sensibilité et sur la spécificité de la recherche du sang occulte dans les selles et de la coloscopie, les taux de participation, l'incidence, la classification par stade, les options diagnostiques et thérapeutiques, l'évolution de la maladie, la mortalité et les coûts directs en services de santé pour divers scénarios de dépistage. Fait à noter, la reproduction de la réduction de la mortalité observée au moment de l'essai de dépistage de Funen a permis de valider ce modèle.

    Date de diffusion : 2004-09-13

Date de modification :