Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

143 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

143 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

143 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

143 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (185)

Tout (185) (25 of 185 results)

  • Articles et rapports : 82-003-X201601214687
    Description :

    La présente étude donne un aperçu du couplage qui a été effectué entre l’Enquête sur la santé dans les collectivités canadiennes et la Base canadienne de données sur la mortalité. L’article explique le processus de couplage des enregistrements et présente les résultats concernant les associations entre les comportements en matière de santé et la mortalité dans un échantillon représentatif de Canadiens.

    Date de diffusion : 2016-12-21

  • Articles et rapports : 12-001-X201600214677
    Description :

    Comment savoir si les ajustements de la pondération réduisent ou non le biais de non-réponse ? Si une variable est mesurée pour toutes les unités de l’échantillon sélectionné, on peut calculer une estimation approximativement sans biais de la moyenne ou du total de population pour cette variable en se servant des poids de sondage. Une seconde estimation de la moyenne ou du total de population peut être obtenue en se basant uniquement sur les répondants à l’enquête et en utilisant des poids ajustés pour tenir compte de la non-réponse. Si les deux estimations ne concordent pas, il y a des raisons de penser que les ajustements des poids n’ont peut-être pas éliminé le biais de non-réponse pour la variable en question. Dans le présent article, nous développons les propriétés théoriques des estimateurs de variance par linéarisation et par jackknife en vue d’évaluer le biais d’une estimation de la moyenne ou du total de population par comparaison des estimations obtenues pour des sous-ensembles chevauchants des mêmes données avec différents ensembles de poids, quand la poststratification ou la pondération par l’inverse de la propension à répondre servent à ajuster les poids pour tenir compte de la non-réponse. Nous donnons les conditions suffisantes sur la population, l’échantillon et le mécanisme de réponse pour que les estimateurs de variance soient convergents, et démontrons les propriétés de ces derniers pour un petit échantillon au moyen d’une étude par simulation.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600214676
    Description :

    Les procédures de winsorisation permettent de remplacer les valeurs extrêmes par des valeurs moins extrêmes, déplaçant en fait les valeurs extrêmes originales vers le centre de la distribution. La winsorisation sert donc à détecter ainsi qu’à traiter les valeurs influentes. Mulry, Oliver et Kaputa (2014) comparent la performance de la méthode de winsorisation unilatérale élaborée par Clark (1995) et décrite par Chambers, Kokic, Smith et Cruddas (2000) avec celle d' estimation M (Beaumont et Alavi 2004) dans le cas de données sur une population d’entreprises fortement asymétrique. Un aspect particulièrement intéressant des méthodes qui servent à détecter et à traiter des valeurs influentes est la plage de valeurs définies comme étant influentes, que l’on appelle « zone de détection ». L’algorithme de winsorisation de Clark est facile à mettre en œuvre et peut s’avérer très efficace. Cependant, la zone de détection qui en résulte dépend considérablement du nombre de valeurs influentes dans l’échantillon, surtout quand on s’attend à ce que les totaux d’enquête varient fortement selon la période de collecte. Dans la présente note, nous examinons l’effet du nombre de valeurs influentes et de leur taille sur les zones de détection produites par la winsorisation de Clark en utilisant des données simulées de manière à représenter raisonnablement les propriétés de la population visée par la Monthly Retail Trade Survey (MRTS) du U.S. Census Bureau. Les estimations provenant de la MRTS et d’autres enquêtes économiques sont utilisées dans le calcul d’indicateurs économiques, comme le produit intérieur brut (PIB).

    Date de diffusion : 2016-12-20

  • Produits techniques : 11-522-X201700014738
    Description :

    Sous l’approche classique de traitement des observations manquantes fondée sur le plan de sondage, la construction de classes de pondération et le calage sont utilisés pour ajuster les poids de sondage pour les répondants présents dans l’échantillon. Ici, nous utilisons ces poids ajustés pour définir une loi de Dirichlet qui peut servir à faire des inférences au sujet de la population. Des exemples montrent que les procédures résultantes possèdent de meilleures propriétés de performance que les méthodes classiques quand la population est asymétrique.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014745
    Description :

    Au moment de la conception des enquêtes, un certain nombre de paramètres, comme la propension à la prise de contact, la propension à la participation et les coûts par unité d’échantillonnage, jouent un rôle décisif. Dans le cas des enquêtes permanentes, ces paramètres de conception d’enquête sont habituellement estimés à partir de l’expérience antérieure et mis à jour graduellement, au fur et à mesure des nouvelles expériences. Dans les nouvelles enquêtes, ces paramètres sont estimés à partir de l’opinion des experts et de l’expérience acquise dans des enquêtes similaires. Même si les instituts de sondage ont une expertise et une expérience relativement bonnes, l’énoncé, l’estimation et la mise à jour des paramètres de conception d’enquête se font rarement de façon systématique. Dans la présentation, nous proposons un cadre bayésien qui permet de prendre en compte et de mettre à jour les connaissances acquises et les opinions des experts concernant les paramètres. Ce cadre est établi dans le contexte de plans de collecte adaptatifs, dans lesquels les différentes unités de population peuvent être traitées différemment compte tenu des objectifs de qualité et de coût. Pour ce type d’enquête, l’exactitude des paramètres de conception devient encore plus cruciale pour prendre des décisions efficaces. Le cadre permet une analyse bayésienne du rendement d’une enquête pendant la collecte des données et entre les vagues. Nous démontrons l’analyse bayésienne au moyen d’une étude de simulation réaliste.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014754
    Description :

    Contexte : Il existe un intérêt croissant à l’égard de la mesure et de l’étalonnage du rendement du système de santé. Nous avons comparé le système de santé du Canada, tant à l’échelle nationale que provinciale, avec celui d’autres pays de l’Organisation de coopération et de développement économiques (OCDE), pour 50 indicateurs du rendement. Cette analyse peut aider les provinces à déterminer les domaines possibles d’amélioration, compte tenu de la présence d’un comparateur optimal pour les comparaisons internationales. Méthodes : Les données sur la santé de l’OCDE pour 2013 ont servi à comparer les résultats du Canada avec ceux d’autres pays. Nous avons aussi calculé les résultats provinciaux pour les indicateurs du rendement du système de santé de l’OCDE, au moyen de la méthodologie de cet organisme. Nous avons normalisé les résultats des indicateurs, en vue de présenter plusieurs indicateurs sur la même échelle, et nous les avons comparés à la moyenne pour l’OCDE, ainsi qu’au 25e et au 75e centiles. Résultats : La présentation de valeurs normalisées permet la comparaison des résultats du Canada selon plusieurs indicateurs de l’OCDE, sur la même échelle. Aucun pays ni province n’affiche des résultats supérieurs aux autres de façon uniforme. Pour la plupart des indicateurs, les résultats canadiens sont similaires à ceux d’autres pays, mais il subsiste des domaines où le Canada réussit particulièrement bien (p. ex. taux de tabagisme) ou moins bien (p. ex. sécurité des patients). Ces données ont été présentées dans un outil électronique interactif. Conclusion : La comparaison des données des provinces canadiennes avec celles d’autres pays peut faire ressortir les domaines où une amélioration est nécessaire et peut aider à déterminer des stratégies possibles d’amélioration.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014732
    Description :

    L’Institute for Employment Research (IAB) est le service de recherche de l’Agence fédérale allemande de placement. Par l’entremise du Centre de données de recherche (FDZ) à l’IAB, des données administratives et des données d’enquête sur les personnes et les établissements sont fournies aux chercheurs. En collaboration avec l’Institute for the Study of Labor (IZA), le FDZ a mis en œuvre l’application de soumission des travaux (JoSuA), qui permet aux chercheurs de soumettre des travaux, en vue du traitement des données à distance grâce à une interface Web personnalisée. Par ailleurs, deux types de fichiers de sortie produits pour l’utilisateur peuvent être reconnus dans l’environnement JoSuA, ce qui permet de fournir des services d’examen de la divulgation plus rapides et plus efficaces.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014711
    Description :

    Après le Recensement de 2010, le U.S. Census Bureau a mené deux projets de recherche distincts, en vue d’apparier des données d’enquête et des bases de données. Dans le cadre d’une étude, on a procédé à un appariement avec la base de données du tiers Accurint, et dans un autre cas, avec les fichiers du National Change of Address (NCOA) du U.S. Postal Service. Dans ces deux projets, nous avons évalué l’erreur de réponse dans les dates de déménagement déclarées en comparant les dates de déménagement autodéclarées et les enregistrements de la base de données. Nous avons fait face aux mêmes défis dans le cadre des deux projets. Le présent document aborde notre expérience de l’utilisation des « mégadonnées », en tant que source de comparaison pour les données d’enquête, ainsi que les leçons que nous avons apprises pour des projets futurs similaires à ceux que nous avons menés.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014710
    Description :

    L’entrepôt de données a permis de moderniser la façon dont le Système canadien des comptes macroéconomiques (CME) est produit et analysé aujourd’hui. En raison de son évolution continue, la quantité et les types de travaux analytiques qui sont effectués à l’intérieur des CME augmentent. Il apporte l’élément nécessaire d’harmonisation et de confrontation pendant l’évolution des comptes macroéconomiques vers une intégration complète. Les améliorations de la qualité, de la transparence et de l’actualité ont permis le raffermissement des statistiques qui sont diffusées.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 82-003-X201600314338
    Description :

    Le présent document décrit les méthodes et les données utilisées pour l’élaboration et la mise en oeuvre du métamodèle POHEM – Maladies neurologiques.

    Date de diffusion : 2016-03-16

  • Articles et rapports : 12-001-X201500214238
    Description :

    Félix-Medina et Thompson (2004) ont proposé une variante de l’échantillonnage par dépistage de liens pour échantillonner des populations humaines cachées ou difficiles à joindre, comme les toxicomanes et les travailleurs de l’industrie du sexe. Dans cette variante, on commence par sélectionner un échantillon d’emplacements, puis on demande aux personnes trouvées dans les lieux échantillonnés de nommer d’autres membres de la population à inclure dans l’échantillon. Ces auteurs ont établi des estimateurs du maximum de vraisemblance de la taille de la population sous l’hypothèse que la probabilité qu’une personne soit nommée par une autre dans un lieu échantillonné (probabilité de lien) ne dépend pas de la personne nommée (hypothèse d’homogénéité). Dans le présent travail, nous étendons leur recherche au cas où les probabilités de lien sont hétérogènes et dérivons des estimateurs du maximum de vraisemblance inconditionnel et conditionnel de la taille de la population. Nous proposons aussi des intervalles de confiance par vraisemblance profilée et par bootstrap pour la taille de la population. Les résultats de nos études en simulation montrent qu’en présence de probabilités de lien hétérogènes, les estimateurs proposés donnent d’assez bons résultats à condition que les fractions d’échantillonnage soient relativement grandes, disons supérieures à 0,5, tandis que la performance des estimateurs calculés sous l’hypothèse d’homogénéité n’est pas bonne. Les résultats montrent aussi que les intervalles de confiance proposés ne sont pas très robustes aux écarts par rapport aux modèles supposés.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214230
    Description :

    Le présent article décrit l’élaboration de méthodes de répartition pour des enquêtes par sondage avec stratification quand l’utilisation d’estimateurs sur petits domaines composites est une priorité et que les domaines servent de strates. Longford (2006) a proposé pour cette situation un critère objectif fondé sur une combinaison pondérée des erreurs quadratiques moyennes des moyennes de petit domaine et d’une moyenne globale. Ici, nous redéfinissons cette approche dans un cadre assisté par modèle, ce qui permet l’utilisation de variables explicatives et une interprétation plus naturelle des résultats en utilisant un paramètre de corrélation intraclasse. Nous considérons aussi plusieurs utilisations de la répartition exponentielle et permettons l’application d’autres contraintes, telle une valeur maximale de la racine carrée relative de l’erreur quadratique moyenne, aux estimateurs de strate. Nous constatons qu’une répartition exponentielle simple peut donner des résultats très près d’être aussi bons que le plan optimal, même quand l’objectif est de minimiser le critère de Longford (2006).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 82-003-X201501214295
    Description :

    À l’aide du modèle de microsimulation du cancer du sein mis au point par le Cancer Intervention and Surveillance Monitoring Network de l’Université du Wisconsin adapté au contexte canadien, on a évalué 11 stratégies de dépistage par mammographie sur le plan des coûts et des années de vie ajustées en fonction de la qualité. Ces stratégies, qui s’adressent à la population générale, diffèrent selon l’âge au début et à la fin du dépistage ainsi que la fréquence des examens de dépistage. Des rapports coût/efficacité différentiels sont présentés, et des analyses de sensibilité servent à évaluer la robustesse des conclusions du modèle.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 82-003-X201501114243
    Description :

    Un outil de surveillance a été élaboré afin d’évaluer les données sur l’apport alimentaire recueillies dans le cadre d’enquêtes en fonction de Bien manger avec le Guide alimentaire canadien (GAC). L’outil permet de classer les aliments du Fichier canadien sur les éléments nutritifs (FCÉN) en fonction de leur degré de conformité avec les recommandations du GAC. Le présent article décrit l’exercice de validation effectué pour s’assurer que les aliments du FCÉN considérés « conformes aux recommandations du GAC » aient été classés de façon appropriée.

    Date de diffusion : 2015-11-18

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114174
    Description :

    L’échantillonnage matriciel, aussi appelé échantillonnage avec questionnaire fractionné ou scindé, est un plan d’échantillonnage qui consiste à diviser un questionnaire en sous-ensembles de questions, éventuellement chevauchants, puis à administrer chaque sous-ensemble à un ou à plusieurs sous-échantillons aléatoires d’un échantillon initial. Ce type de plan, de plus en plus attrayant, répond aux préoccupations concernant les coûts de la collecte, le fardeau de réponse et la qualité des données, mais réduit le nombre d’unités échantillonnées auxquelles les questions sont posées. Un concept élargi du plan d’échantillonnage matriciel comprend l’intégration d’échantillons provenant d’enquêtes distinctes afin de rationaliser les opérations d’enquête et d’accroître la cohérence des données de sortie. Dans le cas de l’échantillonnage matriciel avec sous-ensembles chevauchants de questions, nous proposons une méthode d’estimation efficace qui exploite les corrélations entre les items étudiés dans les divers sous-échantillons afin d’améliorer la précision des estimations de l’enquête. La méthode proposée, fondée sur le principe de la meilleure estimation linéaire sans biais, produit des estimateurs par régression optimale composites des totaux de population en utilisant un scénario approprié de calage des poids d’échantillonnage de l’échantillon complet. Une variante de ce scénario de calage, d’usage plus général, produit des estimateurs par régression généralisée composites qui sont également très efficaces sur le plan des calculs.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114173
    Description :

    La non-réponse est présente dans presque toutes les enquêtes et peut fortement biaiser les estimations. On distingue habituellement la non-réponse totale et la non-réponse partielle. En notant que pour une variable d’enquête en particulier, nous avons uniquement des valeurs observées et des valeurs inobservées, nous exploitons dans la présente étude le lien entre la non-réponse totale et la non-réponse partielle. En particulier, nous supposons que les facteurs qui sous-tendent la réponse totale sont les mêmes que ceux qui sous-tendent la réponse partielle pour les variables d’intérêt choisies. Nous estimons alors les probabilités de réponse en utilisant une covariable latente qui mesure la volonté de répondre à l’enquête et qui peut expliquer, en partie, le comportement inconnu d’une unité en ce qui concerne la participation à l’enquête. Nous estimons cette covariable latente en nous servant de modèles à traits latents. Cette approche convient particulièrement bien pour les questions sensibles et, par conséquent, permet de traiter la non-réponse non ignorable. L’information auxiliaire connue pour les répondants et les non-répondants peut être incluse dans le modèle à variables latentes ou dans le processus d’estimation de la probabilité de réponse. L’approche peut également être utilisée quand on ne dispose pas d’information auxiliaire, et nous nous concentrons ici sur ce cas. Nous proposons une estimation au moyen d’un système de repondération basé sur la covariable latente précédente quand aucune autre information auxiliaire observée n’est disponible. Les résultats d’études par simulation en vue d’évaluer sa performance en se servant de données réelles ainsi que simulées sont encourageants.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114199
    Description :

    Dans les enquêtes auprès des entreprises, il est courant de collecter des variables économiques dont la distribution est fortement asymétrique. Dans ce contexte, la winsorisation est fréquemment utilisée afin de traiter le problème des valeurs influentes. Cette technique requiert la détermination d’une constante qui correspond au seuil à partir duquel les grandes valeurs sont réduites. Dans cet article, nous considérons une méthode de détermination de la constante qui consiste à minimiser le plus grand biais conditionnel estimé de l’échantillon. Dans le contexte de l’estimation pour des domaines, nous proposons également une méthode permettant d’assurer la cohérence entre les estimations winsorisées calculées au niveau des domaines et l’estimation winsorisée calculée au niveau de la population. Les résultats de deux études par simulation suggèrent que les méthodes proposées conduisent à des estimateurs winsorisés ayant de bonnes propriétés en termes de biais et d’efficacité relative.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 82-003-X201500614196
    Description :

    La présente étude examine la faisabilité et la validité de l’utilisation des numéros d’assurance-maladie personnels pour coupler de façon déterministe le Registre canadien du cancer la Base de données sur les congés des patients, afin d’obtenir des données sur les hospitalisations des personnes atteintes d’un cancer primaire.

    Date de diffusion : 2015-06-17

  • Produits techniques : 11-522-X201300014274
    Description :

    Qu’entend-on par mégadonnées? Peuvent-elles remplacer ou compléter les enquêtes officielles? Quels sont certains des défis liés à l’utilisation des mégadonnées pour les statistiques officielles? Quelles sont certaines des solutions possibles? L’automne dernier, Statistique Canada a investi dans un projet pilote sur les mégadonnées afin de répondre à certaines de ces questions. Il s’agissait du premier projet d’enquête auprès des entreprises de cette sorte. Le présent document abordera certaines des leçons apprises dans le cadre du projet pilote de mégadonnées pour les données des compteurs intelligents.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014259
    Description :

    Dans l’optique de réduire le fardeau de réponse des exploitants agricoles, Statistique Canada étudie d’autres approches que les enquêtes par téléphone pour produire des estimations des grandes cultures. Une option consiste à publier des estimations de la superficie récoltée et du rendement en septembre, comme cela se fait actuellement, mais de les calculer au moyen de modèles fondés sur des données par satellite et des données météorologiques, ainsi que les données de l’enquête téléphonique de juillet. Toutefois, avant d’adopter une telle approche, on doit trouver une méthode pour produire des estimations comportant un niveau d’exactitude suffisant. Des recherches sont en cours pour examiner différentes possibilités. Les résultats de la recherche initiale et les enjeux à prendre en compte sont abordés dans ce document.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014277
    Description :

    Le présent article donne un aperçu des éléments d’un plan de sondage adaptatif introduit de la quatrième vague à la septième vague de l’enquête par panel PASS. L’exposé porte principalement sur les interventions expérimentales aux dernières phases du travail sur le terrain. Ces interventions visent à équilibrer l’échantillon en donnant la priorité aux membres de l’échantillon ayant une faible propension à répondre. À la septième vague, les intervieweurs ont reçu une double prime pour les interviews de cas ayant une faible propension à répondre achevées à la phase finale du travail sur le terrain. Cette prime a été limitée à une moitié, sélectionnée aléatoirement, des cas qui avaient une faible propension à répondre et n’ayant pas reçu de code d’état final après quatre mois de travail sur le terrain. Cette prime a effectivement intensifié l’effort déployé par les intervieweurs, mais n’a abouti à aucune augmentation significative des taux de réponse.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014279
    Description :

    Dans le cadre du projet européen SustainCity, un modèle de microsimulation des individus et des ménages a été créé en vue de simuler la population de différentes métropoles européennes. L’objectif du projet était d’unir plusieurs modèles de microsimulation de transports et d’occupation des sols (land use modelling), de leur adjoindre un module dynamique de population et d’appliquer ces approches de microsimulation à trois zones géographiques d’Europe (la région d’Île de France et les agglomérations de Bruxelles et Zurich).

    Date de diffusion : 2014-10-31

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (95)

Analyses (95) (25 of 95 results)

  • Articles et rapports : 82-003-X201601214687
    Description :

    La présente étude donne un aperçu du couplage qui a été effectué entre l’Enquête sur la santé dans les collectivités canadiennes et la Base canadienne de données sur la mortalité. L’article explique le processus de couplage des enregistrements et présente les résultats concernant les associations entre les comportements en matière de santé et la mortalité dans un échantillon représentatif de Canadiens.

    Date de diffusion : 2016-12-21

  • Articles et rapports : 12-001-X201600214677
    Description :

    Comment savoir si les ajustements de la pondération réduisent ou non le biais de non-réponse ? Si une variable est mesurée pour toutes les unités de l’échantillon sélectionné, on peut calculer une estimation approximativement sans biais de la moyenne ou du total de population pour cette variable en se servant des poids de sondage. Une seconde estimation de la moyenne ou du total de population peut être obtenue en se basant uniquement sur les répondants à l’enquête et en utilisant des poids ajustés pour tenir compte de la non-réponse. Si les deux estimations ne concordent pas, il y a des raisons de penser que les ajustements des poids n’ont peut-être pas éliminé le biais de non-réponse pour la variable en question. Dans le présent article, nous développons les propriétés théoriques des estimateurs de variance par linéarisation et par jackknife en vue d’évaluer le biais d’une estimation de la moyenne ou du total de population par comparaison des estimations obtenues pour des sous-ensembles chevauchants des mêmes données avec différents ensembles de poids, quand la poststratification ou la pondération par l’inverse de la propension à répondre servent à ajuster les poids pour tenir compte de la non-réponse. Nous donnons les conditions suffisantes sur la population, l’échantillon et le mécanisme de réponse pour que les estimateurs de variance soient convergents, et démontrons les propriétés de ces derniers pour un petit échantillon au moyen d’une étude par simulation.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600214676
    Description :

    Les procédures de winsorisation permettent de remplacer les valeurs extrêmes par des valeurs moins extrêmes, déplaçant en fait les valeurs extrêmes originales vers le centre de la distribution. La winsorisation sert donc à détecter ainsi qu’à traiter les valeurs influentes. Mulry, Oliver et Kaputa (2014) comparent la performance de la méthode de winsorisation unilatérale élaborée par Clark (1995) et décrite par Chambers, Kokic, Smith et Cruddas (2000) avec celle d' estimation M (Beaumont et Alavi 2004) dans le cas de données sur une population d’entreprises fortement asymétrique. Un aspect particulièrement intéressant des méthodes qui servent à détecter et à traiter des valeurs influentes est la plage de valeurs définies comme étant influentes, que l’on appelle « zone de détection ». L’algorithme de winsorisation de Clark est facile à mettre en œuvre et peut s’avérer très efficace. Cependant, la zone de détection qui en résulte dépend considérablement du nombre de valeurs influentes dans l’échantillon, surtout quand on s’attend à ce que les totaux d’enquête varient fortement selon la période de collecte. Dans la présente note, nous examinons l’effet du nombre de valeurs influentes et de leur taille sur les zones de détection produites par la winsorisation de Clark en utilisant des données simulées de manière à représenter raisonnablement les propriétés de la population visée par la Monthly Retail Trade Survey (MRTS) du U.S. Census Bureau. Les estimations provenant de la MRTS et d’autres enquêtes économiques sont utilisées dans le calcul d’indicateurs économiques, comme le produit intérieur brut (PIB).

    Date de diffusion : 2016-12-20

  • Articles et rapports : 82-003-X201600314338
    Description :

    Le présent document décrit les méthodes et les données utilisées pour l’élaboration et la mise en oeuvre du métamodèle POHEM – Maladies neurologiques.

    Date de diffusion : 2016-03-16

  • Articles et rapports : 12-001-X201500214238
    Description :

    Félix-Medina et Thompson (2004) ont proposé une variante de l’échantillonnage par dépistage de liens pour échantillonner des populations humaines cachées ou difficiles à joindre, comme les toxicomanes et les travailleurs de l’industrie du sexe. Dans cette variante, on commence par sélectionner un échantillon d’emplacements, puis on demande aux personnes trouvées dans les lieux échantillonnés de nommer d’autres membres de la population à inclure dans l’échantillon. Ces auteurs ont établi des estimateurs du maximum de vraisemblance de la taille de la population sous l’hypothèse que la probabilité qu’une personne soit nommée par une autre dans un lieu échantillonné (probabilité de lien) ne dépend pas de la personne nommée (hypothèse d’homogénéité). Dans le présent travail, nous étendons leur recherche au cas où les probabilités de lien sont hétérogènes et dérivons des estimateurs du maximum de vraisemblance inconditionnel et conditionnel de la taille de la population. Nous proposons aussi des intervalles de confiance par vraisemblance profilée et par bootstrap pour la taille de la population. Les résultats de nos études en simulation montrent qu’en présence de probabilités de lien hétérogènes, les estimateurs proposés donnent d’assez bons résultats à condition que les fractions d’échantillonnage soient relativement grandes, disons supérieures à 0,5, tandis que la performance des estimateurs calculés sous l’hypothèse d’homogénéité n’est pas bonne. Les résultats montrent aussi que les intervalles de confiance proposés ne sont pas très robustes aux écarts par rapport aux modèles supposés.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214230
    Description :

    Le présent article décrit l’élaboration de méthodes de répartition pour des enquêtes par sondage avec stratification quand l’utilisation d’estimateurs sur petits domaines composites est une priorité et que les domaines servent de strates. Longford (2006) a proposé pour cette situation un critère objectif fondé sur une combinaison pondérée des erreurs quadratiques moyennes des moyennes de petit domaine et d’une moyenne globale. Ici, nous redéfinissons cette approche dans un cadre assisté par modèle, ce qui permet l’utilisation de variables explicatives et une interprétation plus naturelle des résultats en utilisant un paramètre de corrélation intraclasse. Nous considérons aussi plusieurs utilisations de la répartition exponentielle et permettons l’application d’autres contraintes, telle une valeur maximale de la racine carrée relative de l’erreur quadratique moyenne, aux estimateurs de strate. Nous constatons qu’une répartition exponentielle simple peut donner des résultats très près d’être aussi bons que le plan optimal, même quand l’objectif est de minimiser le critère de Longford (2006).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 82-003-X201501214295
    Description :

    À l’aide du modèle de microsimulation du cancer du sein mis au point par le Cancer Intervention and Surveillance Monitoring Network de l’Université du Wisconsin adapté au contexte canadien, on a évalué 11 stratégies de dépistage par mammographie sur le plan des coûts et des années de vie ajustées en fonction de la qualité. Ces stratégies, qui s’adressent à la population générale, diffèrent selon l’âge au début et à la fin du dépistage ainsi que la fréquence des examens de dépistage. Des rapports coût/efficacité différentiels sont présentés, et des analyses de sensibilité servent à évaluer la robustesse des conclusions du modèle.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 82-003-X201501114243
    Description :

    Un outil de surveillance a été élaboré afin d’évaluer les données sur l’apport alimentaire recueillies dans le cadre d’enquêtes en fonction de Bien manger avec le Guide alimentaire canadien (GAC). L’outil permet de classer les aliments du Fichier canadien sur les éléments nutritifs (FCÉN) en fonction de leur degré de conformité avec les recommandations du GAC. Le présent article décrit l’exercice de validation effectué pour s’assurer que les aliments du FCÉN considérés « conformes aux recommandations du GAC » aient été classés de façon appropriée.

    Date de diffusion : 2015-11-18

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114174
    Description :

    L’échantillonnage matriciel, aussi appelé échantillonnage avec questionnaire fractionné ou scindé, est un plan d’échantillonnage qui consiste à diviser un questionnaire en sous-ensembles de questions, éventuellement chevauchants, puis à administrer chaque sous-ensemble à un ou à plusieurs sous-échantillons aléatoires d’un échantillon initial. Ce type de plan, de plus en plus attrayant, répond aux préoccupations concernant les coûts de la collecte, le fardeau de réponse et la qualité des données, mais réduit le nombre d’unités échantillonnées auxquelles les questions sont posées. Un concept élargi du plan d’échantillonnage matriciel comprend l’intégration d’échantillons provenant d’enquêtes distinctes afin de rationaliser les opérations d’enquête et d’accroître la cohérence des données de sortie. Dans le cas de l’échantillonnage matriciel avec sous-ensembles chevauchants de questions, nous proposons une méthode d’estimation efficace qui exploite les corrélations entre les items étudiés dans les divers sous-échantillons afin d’améliorer la précision des estimations de l’enquête. La méthode proposée, fondée sur le principe de la meilleure estimation linéaire sans biais, produit des estimateurs par régression optimale composites des totaux de population en utilisant un scénario approprié de calage des poids d’échantillonnage de l’échantillon complet. Une variante de ce scénario de calage, d’usage plus général, produit des estimateurs par régression généralisée composites qui sont également très efficaces sur le plan des calculs.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114173
    Description :

    La non-réponse est présente dans presque toutes les enquêtes et peut fortement biaiser les estimations. On distingue habituellement la non-réponse totale et la non-réponse partielle. En notant que pour une variable d’enquête en particulier, nous avons uniquement des valeurs observées et des valeurs inobservées, nous exploitons dans la présente étude le lien entre la non-réponse totale et la non-réponse partielle. En particulier, nous supposons que les facteurs qui sous-tendent la réponse totale sont les mêmes que ceux qui sous-tendent la réponse partielle pour les variables d’intérêt choisies. Nous estimons alors les probabilités de réponse en utilisant une covariable latente qui mesure la volonté de répondre à l’enquête et qui peut expliquer, en partie, le comportement inconnu d’une unité en ce qui concerne la participation à l’enquête. Nous estimons cette covariable latente en nous servant de modèles à traits latents. Cette approche convient particulièrement bien pour les questions sensibles et, par conséquent, permet de traiter la non-réponse non ignorable. L’information auxiliaire connue pour les répondants et les non-répondants peut être incluse dans le modèle à variables latentes ou dans le processus d’estimation de la probabilité de réponse. L’approche peut également être utilisée quand on ne dispose pas d’information auxiliaire, et nous nous concentrons ici sur ce cas. Nous proposons une estimation au moyen d’un système de repondération basé sur la covariable latente précédente quand aucune autre information auxiliaire observée n’est disponible. Les résultats d’études par simulation en vue d’évaluer sa performance en se servant de données réelles ainsi que simulées sont encourageants.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 12-001-X201500114199
    Description :

    Dans les enquêtes auprès des entreprises, il est courant de collecter des variables économiques dont la distribution est fortement asymétrique. Dans ce contexte, la winsorisation est fréquemment utilisée afin de traiter le problème des valeurs influentes. Cette technique requiert la détermination d’une constante qui correspond au seuil à partir duquel les grandes valeurs sont réduites. Dans cet article, nous considérons une méthode de détermination de la constante qui consiste à minimiser le plus grand biais conditionnel estimé de l’échantillon. Dans le contexte de l’estimation pour des domaines, nous proposons également une méthode permettant d’assurer la cohérence entre les estimations winsorisées calculées au niveau des domaines et l’estimation winsorisée calculée au niveau de la population. Les résultats de deux études par simulation suggèrent que les méthodes proposées conduisent à des estimateurs winsorisés ayant de bonnes propriétés en termes de biais et d’efficacité relative.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 82-003-X201500614196
    Description :

    La présente étude examine la faisabilité et la validité de l’utilisation des numéros d’assurance-maladie personnels pour coupler de façon déterministe le Registre canadien du cancer la Base de données sur les congés des patients, afin d’obtenir des données sur les hospitalisations des personnes atteintes d’un cancer primaire.

    Date de diffusion : 2015-06-17

  • Articles et rapports : 12-001-X201400111886
    Description :

    L'estimateur bayésien linéaire en population finie est obtenu en partant d'un modèle de régression à deux degrés spécifié uniquement par les moyennes et les variances de certains paramètres du modèle associés à chaque degré de la hiérarchie. Nombre d'estimateurs fondés sur le plan de sondage usuels décrits dans la littérature peuvent être obtenus en tant que cas particuliers. Un nouvel estimateur par le ratio est également proposé pour la situation pratique où de l'information auxiliaire est disponible. L'application de la même approche bayésienne linéaire est proposée pour estimer des proportions pour des données catégoriques multiples associées aux unités de la population finie, ce qui constitue la principale contribution des présents travaux, et est illustrée au moyen d'un exemple numérique.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114001
    Description :

    Le présent article traite de l’effet de différentes méthodes d’échantillonnage sur la qualité de l’échantillon réalisé. On s’attendait à ce que cet effet dépende de la mesure dans laquelle les intervieweurs ont la liberté d’interviewer des personnes avec lesquelles il leur est facile de prendre contact ou dont il leur est facile d’obtenir la coopération (donc d’effectuer des substitutions). L’analyse a été menée dans un contexte transculturel en utilisant des données provenant des quatre premières vagues de l’Enquête sociale européenne (ESS, pour European Social Survey). Les substitutions sont mesurées par les écarts par rapport au ratio hommes-femmes de 50/50 dans des sous-échantillons constitués de couples hétérosexuels. Des écarts importants ont été observés dans de nombreux pays qui participent à l’ESS. Ces écarts se sont également avérés les plus faibles lorsque des registres officiels de résidents avaient servi de base de sondage pour le tirage des échantillons (échantillonnage à partir de registres de personnes) dans le cas où l’un des conjoints était plus difficile à joindre que l’autre. Cette portée des substitutions ne variait pas d’une vague à l’autre de l’ESS et était faiblement corrélée au mode de rémunération et aux procédures de contrôle des intervieweurs. Les résultats permettent de conclure que les échantillons tirés de registres de personnes sont de plus haute qualité.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201400114002
    Description :

    Nous proposons une approche d’imputation multiple des réponses manquant aléatoirement dans les enquêtes à grande échelle qui ne portent que sur des variables catégoriques présentant des zéros structurels. Notre approche consiste à utiliser des mélanges de lois multinomiales comme outils d’imputation et à tenir compte des zéros structurels en concevant les données observées comme un échantillon tronqué issu d’une population hypothétique ne contenant pas de zéros structurels. Cette approche possède plusieurs caractéristiques intéressantes : les imputations sont générées à partir de modèles bayésiens conjoints cohérents qui tiennent compte automatiquement des dépendances complexes et s’adaptent facilement à de grands nombres de variables. Nous décrivons un algorithme d’échantillonnage de Gibbs pour mettre en œuvre l’approche et illustrons son potentiel au moyen d’une étude par échantillonnage répété en utilisant des microdonnées de recensement à grande diffusion provenant de l’État de New York, aux États Unis.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201300211871
    Description :

    Les modèles de régression sont utilisés couramment pour analyser les données d'enquête lorsque l'on souhaite déterminer quels sont les facteurs influents associés à certains indices comportementaux, sociaux ou économiques au sein d'une population cible. Lorsque des données sont recueillies au moyen d'enquêtes complexes, il convient de réexaminer les propriétés des approches classiques de sélection des variables élaborées dans des conditions i.i.d. ne faisant pas appel au sondage. Dans le présent article, nous dérivons un critère BIC fondé sur la pseudovraisemblance pour la sélection des variables dans l'analyse des données d'enquête et proposons une approche de vraisemblance pénalisée dans des conditions de sondage pour sa mise en oeuvre. Les poids de sondage sont attribués comme il convient pour corriger le biais de sélection causé par la distorsion entre l'échantillon et la population cible. Dans un cadre de randomisation conjointe, nous établissons la cohérence de la procédure de sélection proposée. Les propriétés en échantillon fini de l'approche sont évaluées par des analyses et des simulations informatiques en se servant de données provenant de la composante de l'hypertension de l'Enquête sur les personnes ayant une maladie chronique au Canada de 2009.

    Date de diffusion : 2014-01-15

  • Articles et rapports : 12-001-X201300211885
    Description :

    Les sondages en ligne sont généralement caractérisés par de faibles taux de réponse. Les suggestions habituelles que l'on trouve dans les manuels sur la recherche par sondage en ligne soulignent le rôle important que joue l'écran d'accueil en vue d'encourager les répondants à participer au sondage. Les travaux de recherche ont donné la preuve empirique de l'importance de cet écran, montrant que la plupart des répondants interrompent la communication à l'étape de l'écran d'accueil. Cependant, peu d'études ont eu pour sujet l'effet de la conception de cet écran sur le taux d'interruption. Dans le cadre d'une étude réalisée à l'Université de Constance, trois traitements expérimentaux ont été ajoutés à un sondage auprès de la population d'étudiants de première année (2 629 étudiants) afin d'évaluer l'effet de diverses caractéristiques de conception de l'écran sur les taux d'interruption. Les expériences méthodologiques comprenaient la variation de la couleur de fond de l'écran d'accueil, la variation de la durée promise de la tâche sur le premier écran et la variation de la longueur de l'information fournie sur l'écran d'accueil pour expliquer aux répondants leurs droits à la protection de la vie privée. Les analyses montrent que plus la durée indiquée de la tâche était longue et plus l'attention donnée à l'explication des droits à la protection de la vie privée sur l'écran d'accueil était importante, plus le nombre d'étudiants qui commençaient à répondre au sondage et achevaient de le faire était faible. Par contre, l'utilisation d'une couleur de fond différente n'a pas produit la différence significative attendue.

    Date de diffusion : 2014-01-15

  • Articles et rapports : 82-003-X201301011873
    Description :

    On a élaboré un modèle de simulation informatique de l'activité physique pour la population adulte canadienne à partir des données longitudinales de l'Enquête nationale sur la santé de la population et des données transversales de l'Enquête sur la santé dans les collectivités canadiennes. Ce modèle est basé sur la plateforme du Modèle de santé de la population (POHEM), élaboré par Statistique Canada. Le présent article donne un aperçu du POHEM et une description des ajouts qui y ont été faits pour créer le module de l'activité physique (POHEM-PA). Ces ajouts comprennent l'évolution du niveau dMactivité physique dans le temps et la relation entre les niveaux d'activité physique et l'espérance de vie ajustée sur la santé, l'espérance de vie et l'apparition de certains problèmes de santé chroniques. Des estimations tirées de projections obtenues par simulation sont comparées avec des données d'enquête représentatives à l'échelle nationale, fournissant ainsi une indication de la validité du POHEM-PA.

    Date de diffusion : 2013-10-16

  • Articles et rapports : 12-001-X201300111823
    Description :

    Bien que l'utilisation de pondérations soit très répandue dans l'échantillonnage, leur justification ultime dans la perspective du plan de sondage pose souvent problème. Ici, nous argumentons en faveur d'une justification bayésienne séquentielle des pondérations qui ne dépend pas explicitement du plan de sondage. Cette approche s'appuie sur le type classique d'information présent dans les variables auxiliaires, mais ne suppose pas qu'un modèle relie les variables auxiliaires aux caractéristiques d'intérêt. La pondération résultante d'une unité de l'échantillon peut être interprétée de la manière habituelle comme étant le nombre d'unités de la population que cette unité représente.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111827
    Description :

    L'enquête SILC (Statistics on Income and Living Conditions) est une enquête européenne annuelle visant à mesurer la répartition des revenus, la pauvreté et les conditions de vie de la population. Elle est réalisée en Suisse depuis 2007 selon un schéma rotatif de quatre panels qui permet de produire à la fois des estimations transversales et des estimations longitudinales. Dans cet article, nous abordons le problème de l'estimation de la variance des indicateurs transversaux sur la pauvreté et l'exclusion sociale retenus par Eurostat. Nos calculs tiennent compte de la non-linéarité des estimateurs, de la non-réponse totale à différentes phases d'enquête, du sondage indirect et du calage. Nous adaptons la méthode d'estimation de variance en cas de non-réponse après un partage des poids proposée par Lavallée (2002) et obtenons un estimateur de variance asymptotiquement sans biais et très simple à programmer.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201200211756
    Description :

    Nous proposons une nouvelle approche d'estimation sur petits domaines fondée sur la modélisation conjointe des moyennes et des variances. Le modèle et la méthodologie que nous proposons améliorent non seulement les estimateurs sur petits domaines, mais donnent aussi des estimateurs « lissés » des vraies variances d'échantillonnage. Le maximum de vraisemblance des paramètres du modèle est estimé au moyen de l'algorithme EM en raison de la forme non classique de la fonction de vraisemblance. Les intervalles de confiance des paramètres de petit domaine sont obtenus en adoptant une approche de la théorie de la décision plus générale que l'approche classique de minimisation de la perte quadratique. Les propriétés numériques de la méthode proposée sont étudiées au moyen d'études par simulation et comparées à celles de méthodes concurrentes proposées dans la littérature. Une justification théorique des propriétés effectives des estimateurs et intervalles de confiance résultants est également présentée.

    Date de diffusion : 2012-12-19

  • Articles et rapports : 82-003-X201200111625
    Description :

    La présente étude compare les estimations de la prévalence de l'usage de la cigarette fondées sur des données autodéclarées aux estimations fondées sur les concentrations de cotinine urinaire. Les données proviennent de l'Enquête canadienne sur les mesures de la santé réalisée de 2007 à 2009, dans le cadre de laquelle ont été recueillies des données sur la situation d'usage du tabac autodéclarée et effectuées des mesures de la concentration de cotinine urinaire pour la première fois représentatives de la population nationale.

    Date de diffusion : 2012-02-15

Références (90)

Références (90) (25 of 90 results)

  • Produits techniques : 11-522-X201700014738
    Description :

    Sous l’approche classique de traitement des observations manquantes fondée sur le plan de sondage, la construction de classes de pondération et le calage sont utilisés pour ajuster les poids de sondage pour les répondants présents dans l’échantillon. Ici, nous utilisons ces poids ajustés pour définir une loi de Dirichlet qui peut servir à faire des inférences au sujet de la population. Des exemples montrent que les procédures résultantes possèdent de meilleures propriétés de performance que les méthodes classiques quand la population est asymétrique.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014745
    Description :

    Au moment de la conception des enquêtes, un certain nombre de paramètres, comme la propension à la prise de contact, la propension à la participation et les coûts par unité d’échantillonnage, jouent un rôle décisif. Dans le cas des enquêtes permanentes, ces paramètres de conception d’enquête sont habituellement estimés à partir de l’expérience antérieure et mis à jour graduellement, au fur et à mesure des nouvelles expériences. Dans les nouvelles enquêtes, ces paramètres sont estimés à partir de l’opinion des experts et de l’expérience acquise dans des enquêtes similaires. Même si les instituts de sondage ont une expertise et une expérience relativement bonnes, l’énoncé, l’estimation et la mise à jour des paramètres de conception d’enquête se font rarement de façon systématique. Dans la présentation, nous proposons un cadre bayésien qui permet de prendre en compte et de mettre à jour les connaissances acquises et les opinions des experts concernant les paramètres. Ce cadre est établi dans le contexte de plans de collecte adaptatifs, dans lesquels les différentes unités de population peuvent être traitées différemment compte tenu des objectifs de qualité et de coût. Pour ce type d’enquête, l’exactitude des paramètres de conception devient encore plus cruciale pour prendre des décisions efficaces. Le cadre permet une analyse bayésienne du rendement d’une enquête pendant la collecte des données et entre les vagues. Nous démontrons l’analyse bayésienne au moyen d’une étude de simulation réaliste.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014754
    Description :

    Contexte : Il existe un intérêt croissant à l’égard de la mesure et de l’étalonnage du rendement du système de santé. Nous avons comparé le système de santé du Canada, tant à l’échelle nationale que provinciale, avec celui d’autres pays de l’Organisation de coopération et de développement économiques (OCDE), pour 50 indicateurs du rendement. Cette analyse peut aider les provinces à déterminer les domaines possibles d’amélioration, compte tenu de la présence d’un comparateur optimal pour les comparaisons internationales. Méthodes : Les données sur la santé de l’OCDE pour 2013 ont servi à comparer les résultats du Canada avec ceux d’autres pays. Nous avons aussi calculé les résultats provinciaux pour les indicateurs du rendement du système de santé de l’OCDE, au moyen de la méthodologie de cet organisme. Nous avons normalisé les résultats des indicateurs, en vue de présenter plusieurs indicateurs sur la même échelle, et nous les avons comparés à la moyenne pour l’OCDE, ainsi qu’au 25e et au 75e centiles. Résultats : La présentation de valeurs normalisées permet la comparaison des résultats du Canada selon plusieurs indicateurs de l’OCDE, sur la même échelle. Aucun pays ni province n’affiche des résultats supérieurs aux autres de façon uniforme. Pour la plupart des indicateurs, les résultats canadiens sont similaires à ceux d’autres pays, mais il subsiste des domaines où le Canada réussit particulièrement bien (p. ex. taux de tabagisme) ou moins bien (p. ex. sécurité des patients). Ces données ont été présentées dans un outil électronique interactif. Conclusion : La comparaison des données des provinces canadiennes avec celles d’autres pays peut faire ressortir les domaines où une amélioration est nécessaire et peut aider à déterminer des stratégies possibles d’amélioration.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014732
    Description :

    L’Institute for Employment Research (IAB) est le service de recherche de l’Agence fédérale allemande de placement. Par l’entremise du Centre de données de recherche (FDZ) à l’IAB, des données administratives et des données d’enquête sur les personnes et les établissements sont fournies aux chercheurs. En collaboration avec l’Institute for the Study of Labor (IZA), le FDZ a mis en œuvre l’application de soumission des travaux (JoSuA), qui permet aux chercheurs de soumettre des travaux, en vue du traitement des données à distance grâce à une interface Web personnalisée. Par ailleurs, deux types de fichiers de sortie produits pour l’utilisateur peuvent être reconnus dans l’environnement JoSuA, ce qui permet de fournir des services d’examen de la divulgation plus rapides et plus efficaces.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014711
    Description :

    Après le Recensement de 2010, le U.S. Census Bureau a mené deux projets de recherche distincts, en vue d’apparier des données d’enquête et des bases de données. Dans le cadre d’une étude, on a procédé à un appariement avec la base de données du tiers Accurint, et dans un autre cas, avec les fichiers du National Change of Address (NCOA) du U.S. Postal Service. Dans ces deux projets, nous avons évalué l’erreur de réponse dans les dates de déménagement déclarées en comparant les dates de déménagement autodéclarées et les enregistrements de la base de données. Nous avons fait face aux mêmes défis dans le cadre des deux projets. Le présent document aborde notre expérience de l’utilisation des « mégadonnées », en tant que source de comparaison pour les données d’enquête, ainsi que les leçons que nous avons apprises pour des projets futurs similaires à ceux que nous avons menés.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014710
    Description :

    L’entrepôt de données a permis de moderniser la façon dont le Système canadien des comptes macroéconomiques (CME) est produit et analysé aujourd’hui. En raison de son évolution continue, la quantité et les types de travaux analytiques qui sont effectués à l’intérieur des CME augmentent. Il apporte l’élément nécessaire d’harmonisation et de confrontation pendant l’évolution des comptes macroéconomiques vers une intégration complète. Les améliorations de la qualité, de la transparence et de l’actualité ont permis le raffermissement des statistiques qui sont diffusées.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201300014274
    Description :

    Qu’entend-on par mégadonnées? Peuvent-elles remplacer ou compléter les enquêtes officielles? Quels sont certains des défis liés à l’utilisation des mégadonnées pour les statistiques officielles? Quelles sont certaines des solutions possibles? L’automne dernier, Statistique Canada a investi dans un projet pilote sur les mégadonnées afin de répondre à certaines de ces questions. Il s’agissait du premier projet d’enquête auprès des entreprises de cette sorte. Le présent document abordera certaines des leçons apprises dans le cadre du projet pilote de mégadonnées pour les données des compteurs intelligents.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014259
    Description :

    Dans l’optique de réduire le fardeau de réponse des exploitants agricoles, Statistique Canada étudie d’autres approches que les enquêtes par téléphone pour produire des estimations des grandes cultures. Une option consiste à publier des estimations de la superficie récoltée et du rendement en septembre, comme cela se fait actuellement, mais de les calculer au moyen de modèles fondés sur des données par satellite et des données météorologiques, ainsi que les données de l’enquête téléphonique de juillet. Toutefois, avant d’adopter une telle approche, on doit trouver une méthode pour produire des estimations comportant un niveau d’exactitude suffisant. Des recherches sont en cours pour examiner différentes possibilités. Les résultats de la recherche initiale et les enjeux à prendre en compte sont abordés dans ce document.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014277
    Description :

    Le présent article donne un aperçu des éléments d’un plan de sondage adaptatif introduit de la quatrième vague à la septième vague de l’enquête par panel PASS. L’exposé porte principalement sur les interventions expérimentales aux dernières phases du travail sur le terrain. Ces interventions visent à équilibrer l’échantillon en donnant la priorité aux membres de l’échantillon ayant une faible propension à répondre. À la septième vague, les intervieweurs ont reçu une double prime pour les interviews de cas ayant une faible propension à répondre achevées à la phase finale du travail sur le terrain. Cette prime a été limitée à une moitié, sélectionnée aléatoirement, des cas qui avaient une faible propension à répondre et n’ayant pas reçu de code d’état final après quatre mois de travail sur le terrain. Cette prime a effectivement intensifié l’effort déployé par les intervieweurs, mais n’a abouti à aucune augmentation significative des taux de réponse.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014279
    Description :

    Dans le cadre du projet européen SustainCity, un modèle de microsimulation des individus et des ménages a été créé en vue de simuler la population de différentes métropoles européennes. L’objectif du projet était d’unir plusieurs modèles de microsimulation de transports et d’occupation des sols (land use modelling), de leur adjoindre un module dynamique de population et d’appliquer ces approches de microsimulation à trois zones géographiques d’Europe (la région d’Île de France et les agglomérations de Bruxelles et Zurich).

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014290
    Description :

    Cet article a pour objectif de présenter un nouveau module qui permettra de projeter les familles et les ménages selon le statut autochtone à l’aide du modèle de microsimulation Demosim. La méthode envisagée serait d’attribuer à chaque individu, à chaque année, un statut de chef de ménage/famille en utilisant la méthode des taux de chefs de manière à obtenir un nombre de familles et ménages annuels ventilés selon diverses caractéristiques et géographies liées aux populations autochtones.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X200800010946
    Description :

    Au milieu des années 1990, l'Office for National Statistics (ONS) du Royaume-Uni a créé sa première unité de mise à l'essai des questions. L'objectif principal était d'élaborer et de tester les questions et le questionnaire du Recensement de 2001. Depuis, le domaine a été élargi et l'unité est devenue un centre d'expertise en Méthodologie de collecte des données (MCD) qui fait maintenant partie de la Direction générale de la méthodologie. Le centre comprend trois branches qui appuient les travaux relatifs à la MCD pour les enquêtes sociales, les enquêtes-entreprises, le recensement et les organismes externes.

    Au cours des dix dernières années, le centre MCD a eu à son actif diverses réalisations. Par exemple, il a fait participer les méthodologistes d'enquête à l'élaboration et à la mise à l'essai des questions ou questionnaires des enquêtes-entreprises, a adopté une approche basée sur une combinaison de méthodes pour l'élaboration des questions et des questionnaires, a élaboré et appliqué des normes, notamment pour le questionnaire et les cartes-guides du Recensement de 2011, et a préparé et donné des séances de formation en MCD.

    La présente communication donnera une vue d'ensemble de la méthodologie de collecte des données à l'ONS sous l'angle des réalisations et des défis. Elle portera sur des domaines tels que les méthodes, la dotation en personnel (p. ex. recrutement, perfectionnement professionnel et sécurité sur le terrain) et l'intégration dans le processus d'enquête.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011009
    Description :

    Le Système national d'acheminement est une initiative intergouvernementale dont le but est d'améliorer la collecte et la validation de l'information sur les naissances et les décès provenant des registres provinciaux de l'état civil. Au lieu d'envoyer des fichiers d'enregistrements par lot à divers moments de l'année, les provinces envoient un enregistrement individuel chaque fois qu'un événement démographique est enregistré. L'actualité des données est encore améliorée grâce à l'adoption de normes de données et de normes techniques. Les utilisateurs des données ne doivent plus manipuler divers formats de données et supports de transfert lorsqu'ils compilent des données provenant de sources multiples. De même, les fournisseurs de données ne doivent transformer leurs données qu'une seule fois pour répondre aux exigences de clients multiples.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010974
    Description :

    L'article porte sur les lignes directrices pour la conception des questionnaires des enquêtes-établissements. Plus précisément, il traite du processus de transition d'un ensemble de lignes directrices rédigées pour un public général de méthodologistes d'enquête à des lignes directrices s'adressant à un public plus restreint de gestionnaires d'enquête et d'analystes travaillant pour un organisme particulier. Ce processus a été le fruit des efforts d'une équipe constituée de divers employés de la Direction des programmes économiques du Census Bureau qui ont travaillé en étroite collaboration. Partant de lignes directrices générales, l'équipe a déterminé ce qu'il convenait d'ajouter, de modifier ou de supprimer, ainsi que la part d'information théorique et expérimentale relevée dans la littérature qu'il convenait d'inclure. Outre le processus, l'article décrit le résultat final : un ensemble de lignes directrices pour la conception de questionnaires s'adressant spécialement à la Direction des programmes économiques.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010983
    Description :

    Le U.S. Census Bureau mène des enquêtes mensuelles, trimestrielles et annuelles sur l'économie américaine, ainsi qu'un recensement quinquennal. Ces programmes imposent un effort considérable aux entreprises. Les nouvelles technologies, les nouvelles formes d'organisation et l'amenuisement des ressources influent sur la capacité des entreprises de répondre aux enquêtes. Ces changements influencent également les attentes des entreprises à l'égard du Census Bureau, les systèmes internes de l'organisme et ses relations bilatérales avec les entreprises.

    Depuis plusieurs années, le Census Bureau prend des mesures spéciales pour aider les grandes entreprises à se préparer au recensement. Dans tous nos programmes, nous avons également instauré une communication centrée sur les entreprises. Nous avons ainsi établi un modèle de relation qui met l'accent sur l'infrastructure et les pratiques opérationnelles et qui permet au Census Bureau d'être plus réceptif.

    Le présent exposé porte sur les communications et les systèmes du Census Bureau, centrés sur les entreprises. Nous décrivons des initiatives et des difficultés importantes ainsi que leur incidence sur les pratiques du Census Bureau et sur le comportement des répondants.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011000
    Description :

    Le présent rapport décrit les résultats d'une expérience d'envoi par la poste qui a eu lieu dans le cadre d'un projet de démonstration à grande échelle. Une carte postale et des autocollants ont été envoyés à un groupe aléatoire de participants au projet durant la période entre un appel de prise de contact et une enquête. Les chercheurs ont émis l'hypothèse qu'à cause de l'envoi par la poste supplémentaire (le traitement), les taux de réponse à l'enquête à venir augmenteraient. Toutefois, aucune différence n'a été observée entre les taux de réponse du groupe de traitement ayant reçu l'envoi par la poste supplémentaire et ceux du groupe témoin. Dans les conditions particulières de l'expérience d'envoi par la poste, expédier une carte postale et des autocollants aux participants au projet pour leur rappeler l'enquête à venir et leur participation au projet pilote n'a pas été un moyen efficace d'accroître les taux de réponse.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010978
    Description :

    Les personnes chargées de l'élaboration des recensements et les chercheurs en sciences sociales en sont à une étape critique de la détermination des modes de collecte qui seront utilisés dans l'avenir. La collecte des données par Internet est techniquement possible, mais l'investissement initial en matériel et en logiciels est important. Étant donné le grand fossé qui existe entre les uns et les autres en matière de connaissances informatiques et d'accès aux ordinateurs, la collecte des données par Internet est viable pour certains, mais pas pour tous. Par conséquent, Internet ne peut pas remplacer entièrement les questionnaires imprimés existants, du moins dans un avenir proche.

    Le Canada, l'Australie et la Nouvelle-Zélande sont des pionniers en matière de collecte des données du recensement par Internet. Le présent article porte sur les quatre éléments qui dictent ce mode de collecte, à savoir 1) répondre aux attentes de la société et du public, 2) obtenir des avantages économiques à long terme, 3) améliorer la qualité des données et 4) améliorer la couverture.

    Les problèmes qu'il convient de résoudre à l'heure actuelle consistent à 1) estimer le taux d'utilisation de la réponse par Internet et maximiser les avantages sans prendre de risque exagéré, 2) concevoir un questionnaire adapté à plusieurs modes de collecte, 3) établir de multiples approches de communication avec le public et 4) obtenir une réaction favorable et la confiance du public à l'égard de l'utilisation d'Internet.

    Le présent article résume la pensée et les expériences collectives de divers pays quant aux avantages et aux limites de la collecte des données par Internet dans le contexte d'un recensement de la population et des logements. Il décrit aussi dans les grandes lignes vers où les pays s'en iront dans l'avenir en ce qui concerne la collecte des données par Internet.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011003
    Description :

    Le but de la présente étude est d'examiner la possibilité d'élaborer des facteurs de correction pour rajuster les mesures de l'indice de masse corporelle fondées sur des données autodéclarées afin d'obtenir des valeurs plus proches de celles calculées d'après des données mesurées. Les données proviennent de l'Enquête sur la santé dans les collectivités canadiennes de 2005 (ESCC) dans le cadre de laquelle on a demandé aux répondants d'indiquer leur taille et leur poids, lesquels ont ensuite été mesurés. Des analyses par régression ont été effectuées pour déterminer quelles caractéristiques sociodémographiques et relatives à la santé sont associées aux écarts entre les valeurs fondées sur des données autodéclarées et des données mesurées. L'échantillon a ensuite été divisé en deux groupes. Pour le premier, on a procédé à la régression de l'indice de masse corporelle (IMC) fondé sur des données autodéclarées et des prédicteurs des écarts sur l'IMC fondé sur des données mesurées. Des équations de correction ont été établies en utilisant toutes les variables explicatives ayant un effet significatif au seuil de signification de p<0,05. Puis, ces équations de correction ont été testées dans le deuxième groupe afin de calculer des estimations de la sensibilité, de la spécificité et de la prévalence de l'obésité. La relation entre l'IMC fondé sur des données mesurées, déclarées et corrigées, d'une part, et les problèmes de santé liés à l'obésité, d'autre part, a été examinée par régression logistique. Les estimations corrigées ont produit des mesures plus exactes de la prévalence de l'obésité, de l'IMC moyen et des niveaux de sensibilité. Les données autodéclarées exagéraient la relation entre l'IMC et les problèmes de santé, tandis que dans la plupart des cas, les estimations corrigées produisaient des rapports de cotes plus semblables à ceux obtenus pour l'IMC fondé sur des données mesurées.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010920
    Description :

    Au nom de Statistique Canada, j'aimerais vous souhaiter la bienvenue à tous, amis et collègues, au Symposium 2008. Il s'agit du 24e Symposium international organisé par Statistique Canada sur les questions de méthodologie.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010958
    Description :

    L'entrée de données par téléphone (EDT) est un système qui permet aux participants aux enquêtes d'envoyer leurs données à l'Office for National Statistics (ONS) en se servant du clavier de leur téléphone et qui, à l'heure actuelle, représente environ 12 % du total des réponses aux enquêtes auprès des entreprises de l'ONS. Ce dernier a entrepris d'accroître le nombre d'enquêtes dans lesquelles l'EDT est utilisée comme mode principal de réponse et le présent article donne un aperçu du projet de redéveloppement, du remaniement du questionnaire imprimé, des améliorations apportées au système d'EDT et des résultats de l'essai pilote de ces changements. L'amélioration de la qualité des données reçues et l'accroissement de la réponse par EDT à la suite de ces travaux de développement donnent à penser qu'il est possible d'améliorer la qualité des données et de réduire les coûts en promouvant l'utilisation de l'EDT comme mode principal de réponse aux enquêtes à court terme.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010970
    Description :

    RTI International mène une étude longitudinale sur l'éducation. L'un des volets de l'étude consistait à recueillir des relevés de notes et des catalogues de cours auprès des écoles secondaires fréquentées par les personnes comprises dans l'échantillon. Il fallait aussi saisir et coder les renseignements tirés de ces documents. Le défi était de taille puisque les relevés et les catalogues, dont le contenu et la présentation variaient grandement, ont été recueillis auprès de différents types d'écoles, dont des écoles publiques, privées et religieuses de tout le pays. La difficulté consistait à concevoir un système perfectionné pouvant être utilisé simultanément par de nombreux utilisateurs. RTI a mis au point un système de saisie et de codage des données tirées des relevés de notes et des catalogues de cours d'études secondaires. Doté de toutes les caractéristiques d'un système de saisie et de codage haut de gamme, évolué, multi-utilisateur, multitâche, convivial et d'entretien peu coûteux, le système est basé sur le Web et possède trois grandes fonctions : la saisie et le codage des données des relevés et des catalogues, le contrôle de la qualité des données à l'étape de la saisie (par les opérateurs) et le contrôle de la qualité des données à l'étape du codage (par les gestionnaires). Compte tenu de la nature complexe de la saisie et du codage des données des relevés et des catalogues, le système a été conçu pour être souple et pour permettre le transport des données saisies et codées dans tout le système afin de réduire le temps de saisie. Il peut aussi guider logiquement les utilisateurs dans toutes les pages liées à un type d'activité, afficher l'information nécessaire pour faciliter la saisie et suivre toutes les activités de saisie, de codage et de contrôle de la qualité. Les données de centaines de catalogues et de milliers de relevés de notes ont été saisies, codées et vérifiées à l'aide du système. La présente communication aborde les besoins et la conception du système, les problèmes de mise en oeuvre et les solutions adoptées, ainsi que les leçons tirées de cette expérience.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010990
    Description :

    L'Enquête sur la satisfaction des usagers à l'égard des services de santé et des services sociaux du Québec a pour objectif de fournir des estimations sur la satisfaction selon trois lieux de consultation (hôpital, clinique médicale et CLSC). Puisqu'un usager peut avoir consulté de un à trois lieux, et que le questionnaire ne peut porter que sur un seul de ces lieux, un mécanisme de sélection aléatoire du lieu de consultation a été mis en place. Nécessitant des probabilités de sélection variables, ce mécanisme de sélection a la particularité d'avoir été modifié en cours de collecte pour s'adapter de plus en plus aux disparités régionales, quant à l'utilisation des services de santé et des services sociaux.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010968
    Description :

    Statistique Canada a lancé un programme destiné à intensifier et à améliorer l'utilisation de la technologie d'imagerie pour le traitement des questionnaires d'enquête imprimés. Le but est d'en faire une méthode efficace, fiable et économique de saisie des données. L'objectif est de continuer de se servir de la reconnaissance optique de caractères (ROC) pour saisir les données des questionnaires, des documents et des télécopies reçus, tout en améliorant l'intégration du processus et l'assurance de la qualité/le contrôle de la qualité (CQ) du processus de saisie des données. Ces améliorations sont exposées dans le présent article.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010994
    Description :

    La difficulté grandissante à joindre les répondants affecte, de façon générale, la non-réponse des enquêtes téléphoniques, et particulièrement les enquêtes qui utilisent les techniques de composition aléatoire (CA) comme l'Enquête sociale générale (ESG). L'ESG est une enquête annuelle à sujets multiples effectuée auprès de 25 000 répondants. Ses objectifs sont de surveiller les caractéristiques et les modifications importantes de la structure sociale canadienne. Le cycle 21 (2007) de l'ESG porte sur la famille, le soutien social et la retraite et vise la population âgée de 45 ans et plus vivant dans les 10 provinces canadiennes. Pour cibler plus efficacement cette population, une partie de l'échantillon provient d'un suivi auprès des répondants du cycle 20 (2006) de l'ESG qui portait sur les transitions familiales. Il est complété par un nouvel échantillon obtenu par CA. Dans cet article, nous présentons d'abord le plan de sondage de l'enquête et la méthode de composition aléatoire utilisée. Nous décrivons ensuite les défis reliés au calcul du taux de non-réponse dans une enquête à composition aléatoire qui cible un sous-ensemble d'une population, pour lequel la population dans le champ de l'enquête doit être estimée ou modélisée. Ceci est fait notamment avec l'utilisation de paradonnées. La méthodologie utilisée au cycle 21 de l'ESG est présentée en détail.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010956
    Description :

    L'utilisation de l'interview enregistrée assistée par ordinateur (IEAO) comme outil pour déceler la falsification des interviews est de plus en plus fréquente dans les études par sondage (Biemer, 2000, 2003; Thissen, 2007). De même, les spécialistes de la recherche sur les enquêtes commencent à accroître l'utilité de l'IEAO en combinant les enregistrements sonores au codage pour résoudre les problèmes de qualité des données (Herget, 2001; Hansen, 2005; McGee, 2007). La communication porte sur les résultats d'une étude intégrée dans la National Home and Hospice Care Survey (NHHCS) réalisée auprès des établissements de santé par le National Center for Health Statistics, dans laquelle le codage du comportement fondé sur l'IEAO et des paradonnées particulières à l'IEAO ont été utilisés pour 1) repérer et corriger les problèmes de comportement des intervieweurs ou ceux relatifs aux questions au début de la période de collecte des données, avant qu'ils n'aient un effet négatif sur la qualité des données et 2) trouver des moyens de réduire l'erreur de mesure dans les futures exécutions de la NHHCS. Au cours des neuf premières semaines de la période de travail sur le terrain de 30 semaines, l'IEAO a été utilisée pour enregistrer chez tous les intervieweurs l'administration d'un sous-ensemble de questions de l'application de la NHHCS. Les enregistrements ont été reliés à l'application d'interview et aux données de sortie, puis codés selon l'un de deux modes, à savoir le codage par intervieweur ou le codage par question. La méthode de codage par intervieweur a permis d'examiner les problèmes particuliers à un intervieweur, ainsi que les problèmes plus généraux s'appliquant éventuellement à tous les intervieweurs. La méthode de codage par question a produit des données fournissant des éclaircissements sur l'intelligibilité des questions et d'autres problèmes de réponse. Sous ce mode, les codeurs ont codé plusieurs applications de la même question par plusieurs intervieweurs. Grâce à l'approche du codage par question, les chercheurs ont relevé des problèmes ayant trait à trois questions importantes de l'enquête durant les premières semaines de la collecte des données et ont donné aux intervieweurs des directives quant à la façon de traiter ces questions à mesure que la collecte des données s'est poursuivie. Les résultats du codage des enregistrements sonores (qui étaient reliés à l'application d'enquête et aux données de sortie) fourniront des renseignements qui permettront d'améliorer l'énoncé des questions et la formation des intervieweurs en prévision de la prochaine vague de la NHHCS et orienteront les travaux en vue de poursuivre l'amélioration de l'application d'IEAO et du système de codage.

    Date de diffusion : 2009-12-03

Date de modification :