Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

154 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

154 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

154 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

154 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (264)

Tout (264) (25 of 264 results)

  • Articles et rapports : 13-605-X201700114840
    Description :

    Statistique Canada prépare actuellement le système statistique afin de pouvoir déterminer les répercussions de la transition du cannabis récréatif du domaine illégal au domaine légal et d’éclairer les activités économiques et sociales liées à la consommation du cannabis après cette transition. Bien que le système de statistiques sociales permette de recueillir des renseignements sur l’utilisation du cannabis, des mises à jour seront requises pour mesurer plus exactement les effets sur la santé et l’incidence sur le système judiciaire. L’infrastructure statistique actuelle servant à mesurer de façon plus exhaustive l’utilisation et les répercussions des substances comme le tabac et l’alcool pourrait être adaptée pour en faire autant pour le cannabis. Toutefois, les statistiques économiques accessibles ne précisent pas le rôle que jouent les drogues illégales dans l’économie. Tant les statistiques sociales qu’économiques devront être mises à jour pour refléter la légalisation du cannabis, et le défi est particulièrement important pour les statistiques économiques. Le présent document résume les travaux menés actuellement à cette fin.

    Date de diffusion : 2017-09-28

  • Articles et rapports : 82-003-X201601214687
    Description :

    La présente étude donne un aperçu du couplage qui a été effectué entre l’Enquête sur la santé dans les collectivités canadiennes et la Base canadienne de données sur la mortalité. L’article explique le processus de couplage des enregistrements et présente les résultats concernant les associations entre les comportements en matière de santé et la mortalité dans un échantillon représentatif de Canadiens.

    Date de diffusion : 2016-12-21

  • Articles et rapports : 12-001-X201600214663
    Description :

    Nous présentons des preuves théoriques que les efforts déployés durant la collecte des données en vue d’équilibrer la réponse à l’enquête en ce qui concerne certaines variables auxiliaires augmentera les chances que le biais de non-réponse soit faible dans les estimations qui sont, en fin de compte, produites par pondération calée. Nous montrons que la variance du biais – mesurée ici comme étant l’écart de l’estimateur calé par rapport à l’estimateur sans biais sur échantillon complet (non réalisé) – diminue linéairement en fonction du déséquilibre de la réponse que nous supposons être mesuré et contrôlé continuellement tout au long de la période de collecte des données. Cela offre donc la perspective intéressante d’un plus faible risque de biais si l’on peut gérer la collecte des données de manière à réduire le déséquilibre. Les résultats théoriques sont validés au moyen d’une étude en simulation s’appuyant sur des données réelles provenant d’une enquête-ménages estonienne.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600114538
    Description :

    La vérification automatique consiste en l’utilisation d’un ordinateur pour déceler et corriger sans intervention humaine les valeurs erronées dans un ensemble de données. La plupart des méthodes de vérification automatique actuellement employées aux fins de la statistique officielle sont fondées sur les travaux fondamentaux de Fellegi et Holt (1976). La mise en application de cette méthode dans la pratique révèle des différences systématiques entre les données vérifiées manuellement et celles qui sont vérifiées de façon automatisée, car l’humain est en mesure d’effectuer des opérations de vérification complexes. L’auteur du présent article propose une généralisation du paradigme de Fellegi-Holt qui permet d’intégrer de façon naturelle une grande catégorie d’opérations de vérification. Il présente aussi un algorithme qui résout le problème généralisé de localisation des erreurs qui en découle. Il est à espérer que cette généralisation puisse améliorer la pertinence des vérifications automatiques dans la pratique et ainsi accroître l’efficience des processus de vérification des données. Certains des premiers résultats obtenus à l’aide de données synthétiques sont prometteurs à cet égard.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114545
    Description :

    L’estimation des quantiles est une question d’intérêt dans le contexte non seulement de la régression, mais aussi de la théorie de l’échantillonnage. Les expectiles constituent une solution de rechange naturelle ou un complément aux quantiles. En tant que généralisation de la moyenne, les expectiles ont gagné en popularité ces dernières années parce qu’en plus d’offrir un portrait plus détaillé des données que la moyenne ordinaire, ils peuvent servir à calculer les quantiles grâce aux liens étroits qui les associent à ceux-ci. Nous expliquons comment estimer les expectiles en vertu d’un échantillonnage à probabilités inégales et comment les utiliser pour estimer la fonction de répartition. L’estimateur ajusté de la fonction de répartition obtenu peut être inversé pour établir les estimations des quantiles. Nous réalisons une étude par simulations pour examiner et comparer l’efficacité de l’estimateur fondé sur des expectiles.

    Date de diffusion : 2016-06-22

  • Produits techniques : 11-522-X201700014745
    Description :

    Au moment de la conception des enquêtes, un certain nombre de paramètres, comme la propension à la prise de contact, la propension à la participation et les coûts par unité d’échantillonnage, jouent un rôle décisif. Dans le cas des enquêtes permanentes, ces paramètres de conception d’enquête sont habituellement estimés à partir de l’expérience antérieure et mis à jour graduellement, au fur et à mesure des nouvelles expériences. Dans les nouvelles enquêtes, ces paramètres sont estimés à partir de l’opinion des experts et de l’expérience acquise dans des enquêtes similaires. Même si les instituts de sondage ont une expertise et une expérience relativement bonnes, l’énoncé, l’estimation et la mise à jour des paramètres de conception d’enquête se font rarement de façon systématique. Dans la présentation, nous proposons un cadre bayésien qui permet de prendre en compte et de mettre à jour les connaissances acquises et les opinions des experts concernant les paramètres. Ce cadre est établi dans le contexte de plans de collecte adaptatifs, dans lesquels les différentes unités de population peuvent être traitées différemment compte tenu des objectifs de qualité et de coût. Pour ce type d’enquête, l’exactitude des paramètres de conception devient encore plus cruciale pour prendre des décisions efficaces. Le cadre permet une analyse bayésienne du rendement d’une enquête pendant la collecte des données et entre les vagues. Nous démontrons l’analyse bayésienne au moyen d’une étude de simulation réaliste.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014729
    Description :

    Les ensembles de données administratives servent de plus en plus couramment de sources de données en statistique officielle dans le cadre d’efforts visant à produire plus efficacement un plus grand nombre de produits. De nombreux produits résultent du couplage de deux ensembles de données ou plus, souvent réalisé en plusieurs phases en appliquant différentes méthodes et règles. Dans ces situations, nous aimerions pouvoir évaluer la qualité du couplage, ce qui comprend une certaine réévaluation des liens ainsi que des non-liens. Dans le présent article, nous discutons de méthodes d’échantillonnage en vue d’obtenir des estimations du nombre de faux négatifs et de faux positifs, en exerçant un contrôle raisonnable sur l’exactitude des estimations ainsi que sur les coûts. Des approches de stratification des liens (non-liens) pour l’échantillonnage sont évaluées en utilisant des données provenant du recensement de la population de l’Angleterre et du Pays de Galles de 2011.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014755
    Description :

    La National Children Study, dans sa phase pilote, est une étude de cohorte épidémiologique à grande échelle des enfants et de leurs parents. Des mesures ont été recueillies, de la période précédant la grossesse jusqu’à ce que l’enfant atteigne l’âge adulte. L’utilisation des données existantes visait à compléter la collecte directe de données auprès des répondants. Notre document énonce la stratégie pour le catalogage et l’évaluation des sources de données existantes, en vue de leur utilisation longitudinale à grande échelle. Dans le cadre de notre examen, nous avons sélectionné cinq facteurs d’évaluation pour guider les chercheurs à l’égard des sources de données disponibles : 1) pertinence, 2) actualité, 3) spatialité, 4) accessibilité et 5) exactitude.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014754
    Description :

    Contexte : Il existe un intérêt croissant à l’égard de la mesure et de l’étalonnage du rendement du système de santé. Nous avons comparé le système de santé du Canada, tant à l’échelle nationale que provinciale, avec celui d’autres pays de l’Organisation de coopération et de développement économiques (OCDE), pour 50 indicateurs du rendement. Cette analyse peut aider les provinces à déterminer les domaines possibles d’amélioration, compte tenu de la présence d’un comparateur optimal pour les comparaisons internationales. Méthodes : Les données sur la santé de l’OCDE pour 2013 ont servi à comparer les résultats du Canada avec ceux d’autres pays. Nous avons aussi calculé les résultats provinciaux pour les indicateurs du rendement du système de santé de l’OCDE, au moyen de la méthodologie de cet organisme. Nous avons normalisé les résultats des indicateurs, en vue de présenter plusieurs indicateurs sur la même échelle, et nous les avons comparés à la moyenne pour l’OCDE, ainsi qu’au 25e et au 75e centiles. Résultats : La présentation de valeurs normalisées permet la comparaison des résultats du Canada selon plusieurs indicateurs de l’OCDE, sur la même échelle. Aucun pays ni province n’affiche des résultats supérieurs aux autres de façon uniforme. Pour la plupart des indicateurs, les résultats canadiens sont similaires à ceux d’autres pays, mais il subsiste des domaines où le Canada réussit particulièrement bien (p. ex. taux de tabagisme) ou moins bien (p. ex. sécurité des patients). Ces données ont été présentées dans un outil électronique interactif. Conclusion : La comparaison des données des provinces canadiennes avec celles d’autres pays peut faire ressortir les domaines où une amélioration est nécessaire et peut aider à déterminer des stratégies possibles d’amélioration.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014708
    Description :

    Le programme de bases de sondage pour les enquêtes auprès des ménages (BSEM) de Statistique Canada fournit différents produits qui peuvent être utilisés seuls ou en combinaison afin d’améliorer la conception d’enquêtes au niveau de l’échantillonnage, de la collecte et du traitement et ce, selon le modèle traditionnel dans lequel on contacte un ménage. Alors que les enquêtes migrent toujours vers cet ensemble de produits de base, le programme de BSEM commence à planifier les changements qui seront requis à l’infrastructure, à l’organisation et aux liens avec d’autres sources de données de Statistique Canada afin de permettre l’évolution vers une utilisation accrue d’une multitude de sources de données administratives en tant qu’intrants au programme des statistiques sociales. La présentation fournira d’abord un aperçu du programme courant de BSEM. Elle identifiera ensuite les concepts de base qui devront être mis en œuvre dans le but d’augmenter le potentiel de couplage des enregistrements et se conclura en présentant la recherche stratégique qui sera menée d’ici au recensement de 2021.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014753
    Description :

    Le fait que le monde évolue constamment et que les nouvelles technologies sont de plus en plus accessibles crée de nouveaux débouchés et défis pour les instituts nationaux de statistiques (INS) dans le monde. Qu’arriverait-il si les INS pouvaient accéder à de grandes quantités de données complexes, gratuitement (ou à faible coût), auprès des entreprises? Cela pourrait-il augmenter la capacité des INS de diffuser des indicateurs plus précis pour les décideurs et les utilisateurs, réduire de façon significative le fardeau de réponse pour les entreprises, réduire les coûts pour les INS et, à long terme, améliorer le niveau de vie de la population d’un pays? Le temps est venu pour les INS de trouver la meilleure façon d’aligner les dispositions législatives, les règlements et les pratiques dans le domaine des données de lecteurs optiques et des mégadonnées. Sans un terrain d’entente, il est peu probable qu’on obtienne un consensus. Des discussions doivent être entreprises sur la façon de définir la qualité. Si les INS définissent et abordent la qualité différemment, cela entraînera une situation très peu souhaitable, les INS s’écartant de l’harmonisation. La Suède est l’un des principaux pays qui mettent ces questions à l’ordre du jour de la coopération en Europe. En 2012, la Suède a intégré des données de lecteurs optiques dans son Indice des prix à la consommation au niveau national, après qu’il eut été démontré, par suite d’études de recherche et d’analyses statistiques, que ces données étaient de loin supérieures aux données recueillies manuellement.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014748
    Description :

    Cette communication décrit la constitution d'une base de données élaborée en Suisse en vue de l’analyse de la migration et de l’intégration structurelle de la population d’origine étrangère. Cette base de données repose sur différents registres (registre des habitants, des assurances sociales, du chômage) et enquêtes et couvre 15 années (1998 à 2013). Des informations sur le statut migratoire et les caractéristiques socioéconomiques sont ainsi disponibles pour près de 4 millions d'étrangers ayant séjourné en Suisse entre 1998 et 2013. Cette base de données est le fruit d’une collaboration entre l’Office fédéral de la statistique et des chercheurs du NCCR On the Move.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014743
    Description :

    Le couplage probabiliste est susceptible de donner des erreurs d’appariement telles que les faux positifs et les faux négatifs . Dans de nombreux cas, ces erreurs peuvent être mesurées fiablement par des vérifications manuelles, c’est-à-dire l’inspection visuelle d’un échantillon de paires d’enregistrements pour déterminer si elles sont appariées. Nous décrivons un cadre pour la bonne exécution de ces vérifications qui se fonde sur un échantillon probabiliste de paires, des vérifications indépendantes répétées de mêmes paires et une analyse de classes latentes pour tenir compte des erreurs de vérification manuelle.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014715
    Description :

    En vue du Recensement de 2021 au Royaume-Uni, l'Office for National Statistics (ONS) s’est engagée à mener un programme de recherche exhaustif, afin d’explorer comment les données administratives couplées peuvent servir à appuyer les processus statistiques conventionnels. Le contrôle et l’imputation (C et I) au niveau de la question joueront un rôle important pour l’ajustement de la base de données du Recensement de 2021. Toutefois, l’incertitude associée à l’exactitude et à la qualité des données administratives disponibles jette des doutes sur l’efficacité d’une approche intégrée fondée sur des données du recensement et des données administratives en ce qui a trait au C et I. Les contraintes actuelles, qui dictent une approche anonymisée de la « clef » pour le couplage des enregistrements, afin d’assurer la confidentialité, accentuent cette incertitude. Nous fournissons les résultats préliminaires d’une étude de simulation comparant l’exactitude prédictive et l’exactitude de la distribution de la stratégie conventionnelle de C et I mise en œuvre au moyen du SCANCIR pour le Recensement de 2011 au Royaume-Uni, à celles d’une approche intégrée reposant sur des données administratives synthétiques, comme données auxiliaires, avec une erreur qui augmente de façon systématique. À cette étape initiale de la recherche, nous mettons l’accent sur l’imputation d’une année d’âge. L’objectif de l’étude est de déterminer si les données auxiliaires découlant des données administratives peuvent améliorer les estimations de l’imputation, et où se situent les différentes stratégies dans un continuum d’exactitude.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 82-003-X201600114306
    Description :

    Le présent article donne un aperçu de la création, du contenu et de la qualité de la Base de données sur la cohorte canadienne de naissance du Recensement de 2006.

    Date de diffusion : 2016-01-20

  • Articles et rapports : 12-001-X201500214250
    Description :

    L’évaluation de l’impact des effets de mode sur les estimations d’enquête est devenue un objectif de recherche crucial en raison de l’utilisation croissante des plans de sondage à modes mixtes. Malgré les avantages inhérents aux plans de ce genre, comme la réduction des coûts et l’augmentation de la couverture, il y a une évidence manifeste à l’effet que le mode d’enquête peut avoir des effets importants relativement à la précision d’une enquête. Ces effets risquent d’aboutir à des statistiques qui ne sont pas comparables dans le temps ou entre des sous-groupes de population et d’accroître le biais. Les plans de collecte adaptatifs offrent un cadre mathématique souple qui permet d’optimiser l’équilibre entre la qualité et les coûts de l’enquête. Dans cet article, nous utilisons des plans adaptatifs afin de minimiser les effets de mode. Nous illustrons notre modèle d’optimisation au moyen de l’étude du cas de l’Enquête sur la population active des Pays-Bas. Nous mettons l’accent sur les effets de mode dépendant des items et nous évaluons l’impact sur la qualité des enquêtes par comparaison avec une norme de référence.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214229
    Description :

    L’estimation autopondérée au moyen de méthodes d’échantillonnage avec probabilités égales (epsem pour equal probability selection methods) est souhaitable pour des raisons d’efficacité relativement à la variance. Habituellement, pour obtenir la propriété epsem pour des plans de sondage à deux degrés (et à une phase) en vue d’estimer des paramètres au niveau de la population, on utilise le chiffre de population de chaque unité primaire d’échantillonnage (UPE) comme mesure de taille pour la sélection des UPE, ainsi que l’attribution d’une taille d’échantillon égale aux UPE sous échantillonnage aléatoire simple (EAS) des unités élémentaires. Cependant, si l’on souhaite des estimations autopondérées pour les paramètres correspondant à de multiples domaines sous une répartition préétablie de l’échantillon entre les domaines, Folsom, Potter et Williams (1987) ont montré que l’on peut utiliser une mesure composite de taille pour sélectionner les UPE afin d’obtenir des plans epsem quand on suppose qu’outre les chiffres de population des UPE au niveau des domaines (c’est à dire la répartition de la population entre les domaines dans les UPE), les identificateurs de domaines pour les unités élémentaires sont également disponibles dans la base de sondage. Le terme depsem-A sera utilisé pour désigner ce genre de plan de sondage à deux degrés (et à une phase) pour obtenir l’estimation epsem au niveau du domaine. Folsom et coll. ont également considéré des plans d’échantillonnage à deux phases et à deux degrés quand les chiffres de population des UPE au niveau des domaines sont inconnus, mais que les dénombrements d’UPE entières sont connus. Pour ces plans (que nous désignerons depsem-B) avec les UPE sélectionnées avec probabilité proportionnelle à la mesure de taille habituelle (c’est à dire la population totale de l’UPE) au premier degré, toutes les unités élémentaires dans chaque UPE sélectionnée font d’abord l’objet d’une présélection en vue de les classer par domaine à la première phase de collecte des données, avant la sélection par EAS au deuxième degré d’échantillonnage. Des échantillons stratifiés par domaine sont ensuite sélectionnés dans les UPE en appliquant des taux d’échantillonnage de domaine choisis de manière appropriée pour que les tailles d’échantillon de domaine obtenues soient celles souhaitées et que le plan d’échantillonnage résultant soit autopondéré. Dans le présent article, nous commençons par donner une justification simple des mesures composites de taille pour le plan depsem-A et des taux d’échantillonnage de domaine pour le plan depsem-B. Puis, pour les plans depsem-A et -B, nous proposons des généralisations, premièrement aux cas pour lesquels les identificateurs de domaine pour les unités élémentaires ne sont pas disponibles dans la base de sondage et les chiffres de population des UPE au niveau des domaines ne sont connus qu’approximativement à partir d’autres sources, et deuxièmement, aux cas pour lesquels les mesures de taille des UPE sont préétablies en se basant sur d’autres considérations pratiques et souhaitables de suréchantillonnage ou de sous-échantillonnage de certains domaines. Nous présentons aussi une généralisation supplémentaire en présence de sous-échantillonnage des unités élémentaires et de non-réponse dans certaines UPE à la première phase, avant la sélection des unités élémentaires de deuxième phase dans les domaines à l’intérieur de chaque UPE sélectionnée. Cette dernière généralisation du plan depsem-B est illustrée pour un échantillon aréolaire de logements.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 82-003-X201501214295
    Description :

    À l’aide du modèle de microsimulation du cancer du sein mis au point par le Cancer Intervention and Surveillance Monitoring Network de l’Université du Wisconsin adapté au contexte canadien, on a évalué 11 stratégies de dépistage par mammographie sur le plan des coûts et des années de vie ajustées en fonction de la qualité. Ces stratégies, qui s’adressent à la population générale, diffèrent selon l’âge au début et à la fin du dépistage ainsi que la fréquence des examens de dépistage. Des rapports coût/efficacité différentiels sont présentés, et des analyses de sensibilité servent à évaluer la robustesse des conclusions du modèle.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 82-003-X201501114243
    Description :

    Un outil de surveillance a été élaboré afin d’évaluer les données sur l’apport alimentaire recueillies dans le cadre d’enquêtes en fonction de Bien manger avec le Guide alimentaire canadien (GAC). L’outil permet de classer les aliments du Fichier canadien sur les éléments nutritifs (FCÉN) en fonction de leur degré de conformité avec les recommandations du GAC. Le présent article décrit l’exercice de validation effectué pour s’assurer que les aliments du FCÉN considérés « conformes aux recommandations du GAC » aient été classés de façon appropriée.

    Date de diffusion : 2015-11-18

  • Articles et rapports : 82-003-X201501014228
    Description :

    La présente étude fait état des résultats d’un couplage par appariement exact hiérarchique de données du Recensement de la population de 2006 et de données hospitalières pour toutes les provinces et les territoires (sauf le Québec) provenant de la Base de données sur les congés des patients pour la période 2006-2007 à 2008-2009. Elle a pour but de déterminer si le couplage recensement—BDCP donne des résultats similaires d’un secteur de compétence à l’autre, et si les taux de couplage et de couverture diminuent en fonction du temps écoulé depuis le recensement.

    Date de diffusion : 2015-10-21

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 82-003-X201500614196
    Description :

    La présente étude examine la faisabilité et la validité de l’utilisation des numéros d’assurance-maladie personnels pour coupler de façon déterministe le Registre canadien du cancer la Base de données sur les congés des patients, afin d’obtenir des données sur les hospitalisations des personnes atteintes d’un cancer primaire.

    Date de diffusion : 2015-06-17

  • Produits techniques : 12-002-X201500114147
    Description :

    En régression logistique, les observations influentes sont celles qui ont un effet notable sur certains aspects de l’adéquation du modèle. Une grande taille d’échantillon ne permet pas, à elle seule, d’écarter cette préoccupation; il demeure important d’examiner les observations qui pourraient être influentes, surtout dans les données d’enquêtes complexes. Le présent article décrit un algorithme simple pour rechercher les observations influentes potentielles dans les données d’enquête complexes en utilisant le logiciel SAS. Cet algorithme a été appliqué dans le cadre d’une étude fondée sur des données de l’Enquête sur la santé dans les collectivités canadiennes de 2005 en vue de déterminer les facteurs associés à l’utilisation des services des médecins de famille par les adolescents.

    Date de diffusion : 2015-03-25

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (170)

Analyses (170) (25 of 170 results)

  • Articles et rapports : 13-605-X201700114840
    Description :

    Statistique Canada prépare actuellement le système statistique afin de pouvoir déterminer les répercussions de la transition du cannabis récréatif du domaine illégal au domaine légal et d’éclairer les activités économiques et sociales liées à la consommation du cannabis après cette transition. Bien que le système de statistiques sociales permette de recueillir des renseignements sur l’utilisation du cannabis, des mises à jour seront requises pour mesurer plus exactement les effets sur la santé et l’incidence sur le système judiciaire. L’infrastructure statistique actuelle servant à mesurer de façon plus exhaustive l’utilisation et les répercussions des substances comme le tabac et l’alcool pourrait être adaptée pour en faire autant pour le cannabis. Toutefois, les statistiques économiques accessibles ne précisent pas le rôle que jouent les drogues illégales dans l’économie. Tant les statistiques sociales qu’économiques devront être mises à jour pour refléter la légalisation du cannabis, et le défi est particulièrement important pour les statistiques économiques. Le présent document résume les travaux menés actuellement à cette fin.

    Date de diffusion : 2017-09-28

  • Articles et rapports : 82-003-X201601214687
    Description :

    La présente étude donne un aperçu du couplage qui a été effectué entre l’Enquête sur la santé dans les collectivités canadiennes et la Base canadienne de données sur la mortalité. L’article explique le processus de couplage des enregistrements et présente les résultats concernant les associations entre les comportements en matière de santé et la mortalité dans un échantillon représentatif de Canadiens.

    Date de diffusion : 2016-12-21

  • Articles et rapports : 12-001-X201600214663
    Description :

    Nous présentons des preuves théoriques que les efforts déployés durant la collecte des données en vue d’équilibrer la réponse à l’enquête en ce qui concerne certaines variables auxiliaires augmentera les chances que le biais de non-réponse soit faible dans les estimations qui sont, en fin de compte, produites par pondération calée. Nous montrons que la variance du biais – mesurée ici comme étant l’écart de l’estimateur calé par rapport à l’estimateur sans biais sur échantillon complet (non réalisé) – diminue linéairement en fonction du déséquilibre de la réponse que nous supposons être mesuré et contrôlé continuellement tout au long de la période de collecte des données. Cela offre donc la perspective intéressante d’un plus faible risque de biais si l’on peut gérer la collecte des données de manière à réduire le déséquilibre. Les résultats théoriques sont validés au moyen d’une étude en simulation s’appuyant sur des données réelles provenant d’une enquête-ménages estonienne.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600114538
    Description :

    La vérification automatique consiste en l’utilisation d’un ordinateur pour déceler et corriger sans intervention humaine les valeurs erronées dans un ensemble de données. La plupart des méthodes de vérification automatique actuellement employées aux fins de la statistique officielle sont fondées sur les travaux fondamentaux de Fellegi et Holt (1976). La mise en application de cette méthode dans la pratique révèle des différences systématiques entre les données vérifiées manuellement et celles qui sont vérifiées de façon automatisée, car l’humain est en mesure d’effectuer des opérations de vérification complexes. L’auteur du présent article propose une généralisation du paradigme de Fellegi-Holt qui permet d’intégrer de façon naturelle une grande catégorie d’opérations de vérification. Il présente aussi un algorithme qui résout le problème généralisé de localisation des erreurs qui en découle. Il est à espérer que cette généralisation puisse améliorer la pertinence des vérifications automatiques dans la pratique et ainsi accroître l’efficience des processus de vérification des données. Certains des premiers résultats obtenus à l’aide de données synthétiques sont prometteurs à cet égard.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201600114545
    Description :

    L’estimation des quantiles est une question d’intérêt dans le contexte non seulement de la régression, mais aussi de la théorie de l’échantillonnage. Les expectiles constituent une solution de rechange naturelle ou un complément aux quantiles. En tant que généralisation de la moyenne, les expectiles ont gagné en popularité ces dernières années parce qu’en plus d’offrir un portrait plus détaillé des données que la moyenne ordinaire, ils peuvent servir à calculer les quantiles grâce aux liens étroits qui les associent à ceux-ci. Nous expliquons comment estimer les expectiles en vertu d’un échantillonnage à probabilités inégales et comment les utiliser pour estimer la fonction de répartition. L’estimateur ajusté de la fonction de répartition obtenu peut être inversé pour établir les estimations des quantiles. Nous réalisons une étude par simulations pour examiner et comparer l’efficacité de l’estimateur fondé sur des expectiles.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 82-003-X201600114306
    Description :

    Le présent article donne un aperçu de la création, du contenu et de la qualité de la Base de données sur la cohorte canadienne de naissance du Recensement de 2006.

    Date de diffusion : 2016-01-20

  • Articles et rapports : 12-001-X201500214250
    Description :

    L’évaluation de l’impact des effets de mode sur les estimations d’enquête est devenue un objectif de recherche crucial en raison de l’utilisation croissante des plans de sondage à modes mixtes. Malgré les avantages inhérents aux plans de ce genre, comme la réduction des coûts et l’augmentation de la couverture, il y a une évidence manifeste à l’effet que le mode d’enquête peut avoir des effets importants relativement à la précision d’une enquête. Ces effets risquent d’aboutir à des statistiques qui ne sont pas comparables dans le temps ou entre des sous-groupes de population et d’accroître le biais. Les plans de collecte adaptatifs offrent un cadre mathématique souple qui permet d’optimiser l’équilibre entre la qualité et les coûts de l’enquête. Dans cet article, nous utilisons des plans adaptatifs afin de minimiser les effets de mode. Nous illustrons notre modèle d’optimisation au moyen de l’étude du cas de l’Enquête sur la population active des Pays-Bas. Nous mettons l’accent sur les effets de mode dépendant des items et nous évaluons l’impact sur la qualité des enquêtes par comparaison avec une norme de référence.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214229
    Description :

    L’estimation autopondérée au moyen de méthodes d’échantillonnage avec probabilités égales (epsem pour equal probability selection methods) est souhaitable pour des raisons d’efficacité relativement à la variance. Habituellement, pour obtenir la propriété epsem pour des plans de sondage à deux degrés (et à une phase) en vue d’estimer des paramètres au niveau de la population, on utilise le chiffre de population de chaque unité primaire d’échantillonnage (UPE) comme mesure de taille pour la sélection des UPE, ainsi que l’attribution d’une taille d’échantillon égale aux UPE sous échantillonnage aléatoire simple (EAS) des unités élémentaires. Cependant, si l’on souhaite des estimations autopondérées pour les paramètres correspondant à de multiples domaines sous une répartition préétablie de l’échantillon entre les domaines, Folsom, Potter et Williams (1987) ont montré que l’on peut utiliser une mesure composite de taille pour sélectionner les UPE afin d’obtenir des plans epsem quand on suppose qu’outre les chiffres de population des UPE au niveau des domaines (c’est à dire la répartition de la population entre les domaines dans les UPE), les identificateurs de domaines pour les unités élémentaires sont également disponibles dans la base de sondage. Le terme depsem-A sera utilisé pour désigner ce genre de plan de sondage à deux degrés (et à une phase) pour obtenir l’estimation epsem au niveau du domaine. Folsom et coll. ont également considéré des plans d’échantillonnage à deux phases et à deux degrés quand les chiffres de population des UPE au niveau des domaines sont inconnus, mais que les dénombrements d’UPE entières sont connus. Pour ces plans (que nous désignerons depsem-B) avec les UPE sélectionnées avec probabilité proportionnelle à la mesure de taille habituelle (c’est à dire la population totale de l’UPE) au premier degré, toutes les unités élémentaires dans chaque UPE sélectionnée font d’abord l’objet d’une présélection en vue de les classer par domaine à la première phase de collecte des données, avant la sélection par EAS au deuxième degré d’échantillonnage. Des échantillons stratifiés par domaine sont ensuite sélectionnés dans les UPE en appliquant des taux d’échantillonnage de domaine choisis de manière appropriée pour que les tailles d’échantillon de domaine obtenues soient celles souhaitées et que le plan d’échantillonnage résultant soit autopondéré. Dans le présent article, nous commençons par donner une justification simple des mesures composites de taille pour le plan depsem-A et des taux d’échantillonnage de domaine pour le plan depsem-B. Puis, pour les plans depsem-A et -B, nous proposons des généralisations, premièrement aux cas pour lesquels les identificateurs de domaine pour les unités élémentaires ne sont pas disponibles dans la base de sondage et les chiffres de population des UPE au niveau des domaines ne sont connus qu’approximativement à partir d’autres sources, et deuxièmement, aux cas pour lesquels les mesures de taille des UPE sont préétablies en se basant sur d’autres considérations pratiques et souhaitables de suréchantillonnage ou de sous-échantillonnage de certains domaines. Nous présentons aussi une généralisation supplémentaire en présence de sous-échantillonnage des unités élémentaires et de non-réponse dans certaines UPE à la première phase, avant la sélection des unités élémentaires de deuxième phase dans les domaines à l’intérieur de chaque UPE sélectionnée. Cette dernière généralisation du plan depsem-B est illustrée pour un échantillon aréolaire de logements.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 82-003-X201501214295
    Description :

    À l’aide du modèle de microsimulation du cancer du sein mis au point par le Cancer Intervention and Surveillance Monitoring Network de l’Université du Wisconsin adapté au contexte canadien, on a évalué 11 stratégies de dépistage par mammographie sur le plan des coûts et des années de vie ajustées en fonction de la qualité. Ces stratégies, qui s’adressent à la population générale, diffèrent selon l’âge au début et à la fin du dépistage ainsi que la fréquence des examens de dépistage. Des rapports coût/efficacité différentiels sont présentés, et des analyses de sensibilité servent à évaluer la robustesse des conclusions du modèle.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 82-003-X201501114243
    Description :

    Un outil de surveillance a été élaboré afin d’évaluer les données sur l’apport alimentaire recueillies dans le cadre d’enquêtes en fonction de Bien manger avec le Guide alimentaire canadien (GAC). L’outil permet de classer les aliments du Fichier canadien sur les éléments nutritifs (FCÉN) en fonction de leur degré de conformité avec les recommandations du GAC. Le présent article décrit l’exercice de validation effectué pour s’assurer que les aliments du FCÉN considérés « conformes aux recommandations du GAC » aient été classés de façon appropriée.

    Date de diffusion : 2015-11-18

  • Articles et rapports : 82-003-X201501014228
    Description :

    La présente étude fait état des résultats d’un couplage par appariement exact hiérarchique de données du Recensement de la population de 2006 et de données hospitalières pour toutes les provinces et les territoires (sauf le Québec) provenant de la Base de données sur les congés des patients pour la période 2006-2007 à 2008-2009. Elle a pour but de déterminer si le couplage recensement—BDCP donne des résultats similaires d’un secteur de compétence à l’autre, et si les taux de couplage et de couverture diminuent en fonction du temps écoulé depuis le recensement.

    Date de diffusion : 2015-10-21

  • Articles et rapports : 12-001-X201500114161
    Description :

    Le modèle de Fay Herriot est un modèle au niveau du domaine d’usage très répandu pour l’estimation des moyennes de petit domaine. Ce modèle contient des effets aléatoires en dehors de la régression linéaire (fixe) basée sur les covariables au niveau du domaine. Les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine s’obtiennent en estimant les effets aléatoires de domaine, et ils peuvent être exprimés sous forme d’une moyenne pondérée des estimateurs directs propres aux domaines et d’estimateurs synthétiques de type régression. Dans certains cas, les données observées n’appuient pas l’inclusion des effets aléatoires de domaine dans le modèle. L’exclusion de ces effets de domaine aboutit à l’estimateur synthétique de type régression, autrement dit un poids nul est appliqué à l’estimateur direct. L’étude porte sur un estimateur à test préliminaire d’une moyenne de petit domaine obtenu après l’exécution d’un test pour déceler la présence d’effets aléatoires de domaine. Parallèlement, elle porte sur les meilleurs prédicteurs linéaires sans biais empiriques des moyennes de petit domaine qui donnent toujours des poids non nuls aux estimateurs directs dans tous les domaines, ainsi que certains estimateurs de rechange basés sur le test préliminaire. La procédure de test préliminaire est également utilisée pour définir de nouveaux estimateurs de l’erreur quadratique moyenne des estimateurs ponctuels des moyennes de petit domaine. Les résultats d’une étude par simulation limitée montrent que, si le nombre de domaines est petit, la procédure d’essai préliminaire mène à des estimateurs de l’erreur quadratique moyenne présentant un biais relatif absolu moyen considérablement plus faible que les estimateurs de l’erreur quadratique moyenne usuels, surtout quand la variance des effets aléatoires est faible comparativement aux variances d’échantillonnage.

    Date de diffusion : 2015-06-29

  • Articles et rapports : 82-003-X201500614196
    Description :

    La présente étude examine la faisabilité et la validité de l’utilisation des numéros d’assurance-maladie personnels pour coupler de façon déterministe le Registre canadien du cancer la Base de données sur les congés des patients, afin d’obtenir des données sur les hospitalisations des personnes atteintes d’un cancer primaire.

    Date de diffusion : 2015-06-17

  • Articles et rapports : 12-001-X201400214119
    Description :

    Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400214110
    Description :

    Quand nous élaborons le plan de sondage d’une enquête, nous essayons de produire un bon plan compte tenu du budget disponible. L’information sur les coûts peut être utilisée pour établir des plans de sondage qui minimisent la variance d’échantillonnage d’un estimateur du total pour un coût fixe. Les progrès dans le domaine des systèmes de gestion d’enquête signifient qu’aujourd’hui, il est parfois possible d’estimer le coût d’inclusion de chaque unité dans l’échantillon. Le présent article décrit l’élaboration d’approches relativement simples pour déterminer si les avantages pouvant découler de l’utilisation de cette information sur les coûts au niveau de l’unité sont susceptibles d’avoir une utilité pratique. Nous montrons que le facteur important est le ratio du coefficient de variation du coût sur le coefficient de variation de l’erreur relative des coefficients de coût estimés.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 82-003-X201401014098
    Description :

    La présente analyse compare une approche fondée sur un registre et une approche non fondée sur un registre pour apparier les données du Recensement de la population de 2006 et les données d’hôpital provenant de la Base de données sur les congés de patients pour le Manitoba et l’Ontario.

    Date de diffusion : 2014-10-15

  • Articles et rapports : 12-001-X201400114004
    Description :

    En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201300111824
    Description :

    Dans la plupart des enquêtes, le même traitement est réservé à toutes les unités échantillonnées et les mêmes caractéristiques de plan de collecte des données s'appliquent à toutes les personnes et à tous les ménages sélectionnés. Le présent article explique comment les plans de collecte des données peuvent être adaptés en vue d'optimiser la qualité, étant donné des contraintes de coûts. Ces types de plans sont appelés plans de collecte adaptatifs. Les éléments fondamentaux de ce genre de plans sont présentés, discutés et illustrés au moyen de divers exemples.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111823
    Description :

    Bien que l'utilisation de pondérations soit très répandue dans l'échantillonnage, leur justification ultime dans la perspective du plan de sondage pose souvent problème. Ici, nous argumentons en faveur d'une justification bayésienne séquentielle des pondérations qui ne dépend pas explicitement du plan de sondage. Cette approche s'appuie sur le type classique d'information présent dans les variables auxiliaires, mais ne suppose pas qu'un modèle relie les variables auxiliaires aux caractéristiques d'intérêt. La pondération résultante d'une unité de l'échantillon peut être interprétée de la manière habituelle comme étant le nombre d'unités de la population que cette unité représente.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111831
    Description :

    Nous considérons une estimation prudente de la variance pour l'estimateur de Horvitz-Thompson d'un total de population sous des plans d'échantillonnage avec probabilités d'inclusion par paire nulles, appelés plans « non mesurables ». Nous décomposons l'estimateur de variance de Horvitz-Thompson classique sous ce genre de plan et caractérisons le biais de manière précise. Nous élaborons une correction du biais qui est garantie d'être faiblement prudente (non biaisée négativement) quelle que soit la nature de la non-mesurabilité. L'analyse jette de la lumière sur les conditions sous lesquelles l'estimateur de variance de Horvitz-Thompson classique donne de bons résultats malgré la non-mesurabilité et où la correction du biais prudente peut être meilleure que les approximations utilisées habituellement.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 12-001-X201300111825
    Description :

    Une limite importante des méthodes actuelles de vérification automatique des données tient au fait que toutes les vérifications sont traitées comme des contraintes fermes. Autrement dit, un rejet à la vérification suppose systématiquement une erreur dans les données. Par contre, dans le cas de la vérification manuelle, les spécialistes du domaine recourent aussi à de très nombreuses vérifications avec avertissement, c'est-à-dire des contraintes destinées à repérer les valeurs et combinaisons de valeurs qui sont suspectes mais pas forcément incorrectes. L'incapacité des méthodes de vérification automatique à traiter les vérifications avec avertissement explique partiellement pourquoi, en pratique, de nombreuses différences sont constatées entre les données vérifiées manuellement et celles vérifiées automatiquement. L'objet du présent article est de présenter une nouvelle formulation du problème de localisation des erreurs qui permet de faire la distinction entre les vérifications avec rejet (hard edits) et les vérifications avec avertissement (soft edits). En outre, il montre comment ce problème peut être résolu grâce à une extension de l'algorithme de localisation des erreurs de De Waal et Quere (2003).

    Date de diffusion : 2013-06-28

  • Articles et rapports : 82-003-X201300611796
    Description :

    La présente étude évalue la faisabilité d'utiliser des techniques de modélisation statistique pour combler les lacunes dans les données liées aux facteurs de risque, et plus particulièrement l'usage du tabac, dans les données de recensement couplées.

    Date de diffusion : 2013-06-19

  • Articles et rapports : 82-003-X201300511792
    Description :

    Le présent document décrit la mise en oeuvre de la composante sur l'air intérieur de l'Enquête canadienne sur les mesures de la santé et présente de l'information sur les taux de réponse et les résultats des échantillons de contrôle de la qualité sur le terrain.

    Date de diffusion : 2013-05-15

Références (94)

Références (94) (25 of 94 results)

  • Produits techniques : 11-522-X201700014745
    Description :

    Au moment de la conception des enquêtes, un certain nombre de paramètres, comme la propension à la prise de contact, la propension à la participation et les coûts par unité d’échantillonnage, jouent un rôle décisif. Dans le cas des enquêtes permanentes, ces paramètres de conception d’enquête sont habituellement estimés à partir de l’expérience antérieure et mis à jour graduellement, au fur et à mesure des nouvelles expériences. Dans les nouvelles enquêtes, ces paramètres sont estimés à partir de l’opinion des experts et de l’expérience acquise dans des enquêtes similaires. Même si les instituts de sondage ont une expertise et une expérience relativement bonnes, l’énoncé, l’estimation et la mise à jour des paramètres de conception d’enquête se font rarement de façon systématique. Dans la présentation, nous proposons un cadre bayésien qui permet de prendre en compte et de mettre à jour les connaissances acquises et les opinions des experts concernant les paramètres. Ce cadre est établi dans le contexte de plans de collecte adaptatifs, dans lesquels les différentes unités de population peuvent être traitées différemment compte tenu des objectifs de qualité et de coût. Pour ce type d’enquête, l’exactitude des paramètres de conception devient encore plus cruciale pour prendre des décisions efficaces. Le cadre permet une analyse bayésienne du rendement d’une enquête pendant la collecte des données et entre les vagues. Nous démontrons l’analyse bayésienne au moyen d’une étude de simulation réaliste.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014729
    Description :

    Les ensembles de données administratives servent de plus en plus couramment de sources de données en statistique officielle dans le cadre d’efforts visant à produire plus efficacement un plus grand nombre de produits. De nombreux produits résultent du couplage de deux ensembles de données ou plus, souvent réalisé en plusieurs phases en appliquant différentes méthodes et règles. Dans ces situations, nous aimerions pouvoir évaluer la qualité du couplage, ce qui comprend une certaine réévaluation des liens ainsi que des non-liens. Dans le présent article, nous discutons de méthodes d’échantillonnage en vue d’obtenir des estimations du nombre de faux négatifs et de faux positifs, en exerçant un contrôle raisonnable sur l’exactitude des estimations ainsi que sur les coûts. Des approches de stratification des liens (non-liens) pour l’échantillonnage sont évaluées en utilisant des données provenant du recensement de la population de l’Angleterre et du Pays de Galles de 2011.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014755
    Description :

    La National Children Study, dans sa phase pilote, est une étude de cohorte épidémiologique à grande échelle des enfants et de leurs parents. Des mesures ont été recueillies, de la période précédant la grossesse jusqu’à ce que l’enfant atteigne l’âge adulte. L’utilisation des données existantes visait à compléter la collecte directe de données auprès des répondants. Notre document énonce la stratégie pour le catalogage et l’évaluation des sources de données existantes, en vue de leur utilisation longitudinale à grande échelle. Dans le cadre de notre examen, nous avons sélectionné cinq facteurs d’évaluation pour guider les chercheurs à l’égard des sources de données disponibles : 1) pertinence, 2) actualité, 3) spatialité, 4) accessibilité et 5) exactitude.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014754
    Description :

    Contexte : Il existe un intérêt croissant à l’égard de la mesure et de l’étalonnage du rendement du système de santé. Nous avons comparé le système de santé du Canada, tant à l’échelle nationale que provinciale, avec celui d’autres pays de l’Organisation de coopération et de développement économiques (OCDE), pour 50 indicateurs du rendement. Cette analyse peut aider les provinces à déterminer les domaines possibles d’amélioration, compte tenu de la présence d’un comparateur optimal pour les comparaisons internationales. Méthodes : Les données sur la santé de l’OCDE pour 2013 ont servi à comparer les résultats du Canada avec ceux d’autres pays. Nous avons aussi calculé les résultats provinciaux pour les indicateurs du rendement du système de santé de l’OCDE, au moyen de la méthodologie de cet organisme. Nous avons normalisé les résultats des indicateurs, en vue de présenter plusieurs indicateurs sur la même échelle, et nous les avons comparés à la moyenne pour l’OCDE, ainsi qu’au 25e et au 75e centiles. Résultats : La présentation de valeurs normalisées permet la comparaison des résultats du Canada selon plusieurs indicateurs de l’OCDE, sur la même échelle. Aucun pays ni province n’affiche des résultats supérieurs aux autres de façon uniforme. Pour la plupart des indicateurs, les résultats canadiens sont similaires à ceux d’autres pays, mais il subsiste des domaines où le Canada réussit particulièrement bien (p. ex. taux de tabagisme) ou moins bien (p. ex. sécurité des patients). Ces données ont été présentées dans un outil électronique interactif. Conclusion : La comparaison des données des provinces canadiennes avec celles d’autres pays peut faire ressortir les domaines où une amélioration est nécessaire et peut aider à déterminer des stratégies possibles d’amélioration.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014708
    Description :

    Le programme de bases de sondage pour les enquêtes auprès des ménages (BSEM) de Statistique Canada fournit différents produits qui peuvent être utilisés seuls ou en combinaison afin d’améliorer la conception d’enquêtes au niveau de l’échantillonnage, de la collecte et du traitement et ce, selon le modèle traditionnel dans lequel on contacte un ménage. Alors que les enquêtes migrent toujours vers cet ensemble de produits de base, le programme de BSEM commence à planifier les changements qui seront requis à l’infrastructure, à l’organisation et aux liens avec d’autres sources de données de Statistique Canada afin de permettre l’évolution vers une utilisation accrue d’une multitude de sources de données administratives en tant qu’intrants au programme des statistiques sociales. La présentation fournira d’abord un aperçu du programme courant de BSEM. Elle identifiera ensuite les concepts de base qui devront être mis en œuvre dans le but d’augmenter le potentiel de couplage des enregistrements et se conclura en présentant la recherche stratégique qui sera menée d’ici au recensement de 2021.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014753
    Description :

    Le fait que le monde évolue constamment et que les nouvelles technologies sont de plus en plus accessibles crée de nouveaux débouchés et défis pour les instituts nationaux de statistiques (INS) dans le monde. Qu’arriverait-il si les INS pouvaient accéder à de grandes quantités de données complexes, gratuitement (ou à faible coût), auprès des entreprises? Cela pourrait-il augmenter la capacité des INS de diffuser des indicateurs plus précis pour les décideurs et les utilisateurs, réduire de façon significative le fardeau de réponse pour les entreprises, réduire les coûts pour les INS et, à long terme, améliorer le niveau de vie de la population d’un pays? Le temps est venu pour les INS de trouver la meilleure façon d’aligner les dispositions législatives, les règlements et les pratiques dans le domaine des données de lecteurs optiques et des mégadonnées. Sans un terrain d’entente, il est peu probable qu’on obtienne un consensus. Des discussions doivent être entreprises sur la façon de définir la qualité. Si les INS définissent et abordent la qualité différemment, cela entraînera une situation très peu souhaitable, les INS s’écartant de l’harmonisation. La Suède est l’un des principaux pays qui mettent ces questions à l’ordre du jour de la coopération en Europe. En 2012, la Suède a intégré des données de lecteurs optiques dans son Indice des prix à la consommation au niveau national, après qu’il eut été démontré, par suite d’études de recherche et d’analyses statistiques, que ces données étaient de loin supérieures aux données recueillies manuellement.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014748
    Description :

    Cette communication décrit la constitution d'une base de données élaborée en Suisse en vue de l’analyse de la migration et de l’intégration structurelle de la population d’origine étrangère. Cette base de données repose sur différents registres (registre des habitants, des assurances sociales, du chômage) et enquêtes et couvre 15 années (1998 à 2013). Des informations sur le statut migratoire et les caractéristiques socioéconomiques sont ainsi disponibles pour près de 4 millions d'étrangers ayant séjourné en Suisse entre 1998 et 2013. Cette base de données est le fruit d’une collaboration entre l’Office fédéral de la statistique et des chercheurs du NCCR On the Move.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014743
    Description :

    Le couplage probabiliste est susceptible de donner des erreurs d’appariement telles que les faux positifs et les faux négatifs . Dans de nombreux cas, ces erreurs peuvent être mesurées fiablement par des vérifications manuelles, c’est-à-dire l’inspection visuelle d’un échantillon de paires d’enregistrements pour déterminer si elles sont appariées. Nous décrivons un cadre pour la bonne exécution de ces vérifications qui se fonde sur un échantillon probabiliste de paires, des vérifications indépendantes répétées de mêmes paires et une analyse de classes latentes pour tenir compte des erreurs de vérification manuelle.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014715
    Description :

    En vue du Recensement de 2021 au Royaume-Uni, l'Office for National Statistics (ONS) s’est engagée à mener un programme de recherche exhaustif, afin d’explorer comment les données administratives couplées peuvent servir à appuyer les processus statistiques conventionnels. Le contrôle et l’imputation (C et I) au niveau de la question joueront un rôle important pour l’ajustement de la base de données du Recensement de 2021. Toutefois, l’incertitude associée à l’exactitude et à la qualité des données administratives disponibles jette des doutes sur l’efficacité d’une approche intégrée fondée sur des données du recensement et des données administratives en ce qui a trait au C et I. Les contraintes actuelles, qui dictent une approche anonymisée de la « clef » pour le couplage des enregistrements, afin d’assurer la confidentialité, accentuent cette incertitude. Nous fournissons les résultats préliminaires d’une étude de simulation comparant l’exactitude prédictive et l’exactitude de la distribution de la stratégie conventionnelle de C et I mise en œuvre au moyen du SCANCIR pour le Recensement de 2011 au Royaume-Uni, à celles d’une approche intégrée reposant sur des données administratives synthétiques, comme données auxiliaires, avec une erreur qui augmente de façon systématique. À cette étape initiale de la recherche, nous mettons l’accent sur l’imputation d’une année d’âge. L’objectif de l’étude est de déterminer si les données auxiliaires découlant des données administratives peuvent améliorer les estimations de l’imputation, et où se situent les différentes stratégies dans un continuum d’exactitude.

    Date de diffusion : 2016-03-24

  • Produits techniques : 12-002-X201500114147
    Description :

    En régression logistique, les observations influentes sont celles qui ont un effet notable sur certains aspects de l’adéquation du modèle. Une grande taille d’échantillon ne permet pas, à elle seule, d’écarter cette préoccupation; il demeure important d’examiner les observations qui pourraient être influentes, surtout dans les données d’enquêtes complexes. Le présent article décrit un algorithme simple pour rechercher les observations influentes potentielles dans les données d’enquête complexes en utilisant le logiciel SAS. Cet algorithme a été appliqué dans le cadre d’une étude fondée sur des données de l’Enquête sur la santé dans les collectivités canadiennes de 2005 en vue de déterminer les facteurs associés à l’utilisation des services des médecins de famille par les adolescents.

    Date de diffusion : 2015-03-25

  • Produits techniques : 11-522-X201300014280
    Description :

    Au cours de la dernière décennie, on a vu les enquêtes par panel en ligne s’établir comme un moyen rapide et économique d’effectuer des études de marché. Les progrès dans le domaine des technologies de l’information, en particulier la croissance rapide continue de l’usage d’Internet et des ordinateurs par les membres du public, sont à la base de ce phénomène. La croissance des taux de non-réponse et des prix à laquelle doit faire face l’industrie des sondages sous-tend aussi ce changement. Toutefois, certains risques importants sont associés aux enquêtes par panel en ligne, le biais de sélection dû à l’autosélection des répondants n’étant pas le moindre. Il existe aussi des risques d’erreurs de couverture et de mesure. L’absence d’un cadre d’inférence et d’indicateurs de la qualité des données constitue un obstacle à l’utilisation de panels en ligne pour la production de statistiques de haute qualité au sujet de la population générale. Néanmoins, les enquêtes par panel en ligne pour la production de statistiques ponctuelles et même de statistiques officielles semblent représenter une nouvelle forme de concurrence posant de plus en plus de défis à certains instituts nationaux de statistique. Le présent article explore la question de la conception et de l’utilisation des panels en ligne de façon scientifiquement valable. On donne d’abord un aperçu d’une norme de mesure de la performance établie par la Société suédoise des enquêtes et des sondages pour évaluer certains aspects qualitatifs des résultats des enquêtes par panel en ligne. Puis, on discute en détail de la décomposition du biais et de l’atténuation des risques de biais. Enfin, on présente certaines idées en vue de combiner des enquêtes par panel en ligne et des enquêtes classiques pour obtenir une inférence contrôlée de manière rentable.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014291
    Description :

    En Allemagne, le codage des professions est effectué principalement en utilisant des dictionnaires suivies d'une révision manuelle des cas qui n'ont pas pu être codés. Puisque le codage manuel est coûteux, il est souhaitable de coder le plus de cas possible automatiquement. Parallèlement, le codage automatique doit atteindre au moins le même niveau de qualité que le codage manuel. À titre de solution possible, nous employons divers algorthmes d'apprentissage automatique pour effectuer la tâche en utilisant une quantité importante de professions codées manuellement dans le cadre d'études récentes comme données d'apprentissage. Nous déterminons la faisabilité de ces méthodes en évaluant la performance et la qualité des algorithmes.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X200800010969
    Description :

    Dans le cadre d'un projet auquel ont participé plusieurs divisions du Census Bureau des États-Unis, un système hautement perfectionné et novateur a été mis au point pour faire la saisie, le suivi et le balayage optique des données des répondants. Ce système met en oeuvre la reconnaissance intelligente de caractères (RIC), la reconnaissance optique de caractères (ROC), la reconnaissance optique de marques (ROM) et une technologie de saisie clavier fortement axée sur la détection et le contrôle des erreurs. Appelé integrated Computer Assisted Data Entry (iCADE) System, il fournit des images numériques des questionnaires remplis par les répondants qui sont ensuite traitées par une combinaison d'algorithmes d'imagerie, envoyées à l'application de reconnaissance optique de marques (ROM) qui recueille les données sous forme de cases cochées, recueille automatiquement et envoie uniquement les champs à réponse écrite aux clavistes qui procèdent à la saisie des données. Ces capacités ont accru considérablement l'efficacité du processus de saisie des données et abouti à une approche nouvelle et efficace des activités postérieures à la collecte.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011011
    Description :

    Le Système de rapports sur la qualité de vie (SRQDV) de la Fédération canadienne des municipalités (FCM) offre un moyen de mesurer et de surveiller la qualité de vie dans les municipalités canadiennes et d'en rendre compte. Pour relever le défi que représente la collecte de données administratives auprès des diverses municipalités membres, l'équipe technique du SRQDV a collaboré au développement de l'Outil de collecte de données municipales (OCDM) qui est devenu une composante clé de la méthodologie d'acquisition de données du SRQDV. Soumis en tant qu'étude de cas de la collecte des données administratives, le présent article soutient que le lancement récent de l'OCDM a permis à la FCM d'avoir accès à des données administratives municipales pancanadiennes fiables pour le SRQDV.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010993
    Description :

    Jusqu'à maintenant, il fallait des années d'expérience en conception de questionnaires afin d'estimer le temps requis, en moyenne, par les répondants pour remplir le questionnaire ITAO d'une nouvelle enquête. Cet exposé porte sur une nouvelle méthode qui produit des estimations du temps requis pour remplir le questionnaire à l'étape de l'élaboration. La méthode s'appuie sur les données Blaise de vérification à rebours et sur des enquêtes antérieures. Elle a été élaborée, mise à l'essai et soumise à une vérification de l'exactitude dans le cadre de quelques grandes enquêtes.

    Tout d'abord, les données de vérification à rebours servent à déterminer le temps moyen qu'ont pris les répondants dans les enquêtes antérieures pour répondre à des types particuliers de questions. Il s'agit, entre autres, de questions exigeant des réponses par oui ou par non, des réponses indiquées sur une échelle, ou de type « cochez tout ce qui s'applique ». Ensuite, pour un questionnaire donné, les parcours des sous-groupes de la population sont représentés pour déterminer les séries de questions auxquelles ont répondu différents types de répondants, et chronométrés pour déterminer la durée maximale de l'interview. Enfin, le temps global prévu pour remplir le questionnaire est calculé en fonction de l'estimation de la proportion de la population qui devrait répondre à chacune des questions.

    Jusqu'à présent, nous avons utilisé les paradonnées pour estimer avec exactitude le temps requis, en moyenne, par les répondants pour terminer l'interview. Toutefois, la méthode que nous avons mise au point peut également servir à déterminer le temps de réponse requis pour des répondants particuliers.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011003
    Description :

    Le but de la présente étude est d'examiner la possibilité d'élaborer des facteurs de correction pour rajuster les mesures de l'indice de masse corporelle fondées sur des données autodéclarées afin d'obtenir des valeurs plus proches de celles calculées d'après des données mesurées. Les données proviennent de l'Enquête sur la santé dans les collectivités canadiennes de 2005 (ESCC) dans le cadre de laquelle on a demandé aux répondants d'indiquer leur taille et leur poids, lesquels ont ensuite été mesurés. Des analyses par régression ont été effectuées pour déterminer quelles caractéristiques sociodémographiques et relatives à la santé sont associées aux écarts entre les valeurs fondées sur des données autodéclarées et des données mesurées. L'échantillon a ensuite été divisé en deux groupes. Pour le premier, on a procédé à la régression de l'indice de masse corporelle (IMC) fondé sur des données autodéclarées et des prédicteurs des écarts sur l'IMC fondé sur des données mesurées. Des équations de correction ont été établies en utilisant toutes les variables explicatives ayant un effet significatif au seuil de signification de p<0,05. Puis, ces équations de correction ont été testées dans le deuxième groupe afin de calculer des estimations de la sensibilité, de la spécificité et de la prévalence de l'obésité. La relation entre l'IMC fondé sur des données mesurées, déclarées et corrigées, d'une part, et les problèmes de santé liés à l'obésité, d'autre part, a été examinée par régression logistique. Les estimations corrigées ont produit des mesures plus exactes de la prévalence de l'obésité, de l'IMC moyen et des niveaux de sensibilité. Les données autodéclarées exagéraient la relation entre l'IMC et les problèmes de santé, tandis que dans la plupart des cas, les estimations corrigées produisaient des rapports de cotes plus semblables à ceux obtenus pour l'IMC fondé sur des données mesurées.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010983
    Description :

    Le U.S. Census Bureau mène des enquêtes mensuelles, trimestrielles et annuelles sur l'économie américaine, ainsi qu'un recensement quinquennal. Ces programmes imposent un effort considérable aux entreprises. Les nouvelles technologies, les nouvelles formes d'organisation et l'amenuisement des ressources influent sur la capacité des entreprises de répondre aux enquêtes. Ces changements influencent également les attentes des entreprises à l'égard du Census Bureau, les systèmes internes de l'organisme et ses relations bilatérales avec les entreprises.

    Depuis plusieurs années, le Census Bureau prend des mesures spéciales pour aider les grandes entreprises à se préparer au recensement. Dans tous nos programmes, nous avons également instauré une communication centrée sur les entreprises. Nous avons ainsi établi un modèle de relation qui met l'accent sur l'infrastructure et les pratiques opérationnelles et qui permet au Census Bureau d'être plus réceptif.

    Le présent exposé porte sur les communications et les systèmes du Census Bureau, centrés sur les entreprises. Nous décrivons des initiatives et des difficultés importantes ainsi que leur incidence sur les pratiques du Census Bureau et sur le comportement des répondants.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011002
    Description :

    La présente étude s'appuie sur un échantillon représentatif de la population canadienne pour quantifier le biais dû à l'utilisation de données autodéclarées sur la taille, le poids et l'indice de masse corporelle (IMC) au lieu de mesures directes. Nous comparons les associations entre les catégories d'IMC et certains problèmes de santé afin de déterminer si les erreurs de classification résultant de l'utilisation de données autodéclarées modifient les associations entre l'obésité et les problèmes de santé. L'analyse est fondée sur 4 567 répondants à l'Enquête sur la santé dans les collectivités canadiennes (ESCC) de 2005 qui, durant une interview sur place, ont déclaré leur taille et leur poids, puis ont été mesurés et pesés par un intervieweur ayant reçu une formation appropriée. En se basant sur les données autodéclarées, une proportion importante de personnes ayant un excès de poids ont été classées incorrectement dans des catégories d'IMC plus faible. Ces erreurs de classification se sont soldées par des associations plus fortes entre l'excès de poids ou l'obésité et la morbidité.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010995
    Description :

    L'article intitulé « The Optimum Time at which to Conduct Survey Interviews » publié en 1992 cherchait à illustrer les avantages économiques que pouvaient tirer les organismes spécialisés en études de marché de la structuration des profils d'appels des intervieweurs dans les enquêtes-ménages. Les résultats étaient fondés sur l'enquête intercensitaire menée en 1986 au Pays de Galles (Welsh Inter Censal Survey). Le présent article fournit des renseignements supplémentaires sur les profils d'appels des intervieweurs provenant d'enquêtes semblables réalisées en 1997 et en 2006 en vue de déterminer si ces profils avaient changé. Ont également été examinées l'importance d'obtenir une réponse à l'enquête qui est représentative de la population et la façon dont l'adoption de stratégies d'appel efficaces permet d'atteindre cet objectif.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010960
    Description :

    La non-réponse est inévitable dans toute enquête, malgré tous les efforts mis en oeuvre pour la réduire aux différentes étapes de l'enquête. Cette non-réponse peut notamment être responsable de biais dans l'estimation. La non-réponse est par ailleurs une problématique d'autant plus importante dans une étude longitudinale que l'échantillon se réduit au fil du temps. L'Étude Longitudinale Française depuis l'Enfance (Elfe) est un projet de suivi de 20 000 enfants de la naissance à l'âge adulte dans une approche pluridisciplinaire. Cet article est basé sur les résultats des premières études pilotes menées en 2007 qui ont permis de tester la faisabilité et l'acceptation de l'étude. Les résultats de participation sont présentés (taux de réponse, facteurs liés à la non-réponse) ainsi qu'une première ébauche des méthodes de traitement de la non-réponse envisagées.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010955
    Description :

    Les gestionnaires d'enquête commencent tout juste à découvrir les nombreuses utilités de l'enregistrement audionumérique pour la surveillance et la gestion du personnel sur le terrain. Jusqu'ici, cette technique a surtout permis de garantir l'authenticité des interviews, de déceler la falsification, de fournir des exemples concrets permettant d'évaluer le rendement sur le terrain puis de renseigner les gestionnaires de la collecte des données sur les interviews menées en personne. Par ailleurs, l'interview enregistrée assistée par ordinateur (IEAO) permet d'améliorer certains aspects de la qualité des données d'enquête en corroborant ou en corrigeant les réponses codées par le personnel travaillant sur le terrain. À l'avenir, l'enregistrement sonore pourrait même remplacer ou suppléer la transcription textuelle des réponses libres, sur le terrain, d'autant plus qu'il promet de gagner en efficacité grâce aux logiciels de traduction de la voix en texte.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010975
    Description :

    Un problème important dans le domaine de la statistique officielle est l'accès à des mesures objectives permettant de prendre des décisions fondées sur des données factuelles. Istat a mis en place un système d'information en vue d'évaluer la qualité des enquêtes. Entre autres indicateurs standard de la qualité, les taux de non-réponse sont calculés et sauvegardés systématiquement pour toutes les enquêtes. Cette riche base d'information permet d'effecteur des analyses au cours du temps et des comparaisons entre enquêtes. Le présent article porte sur l'analyse des interdépendances entre le mode de collecte des données, ainsi que d'autres caractéristiques des enquêtes et la non-réponse totale. Une attention particulière est accordée à la mesure dans laquelle la collecte de données multimode améliore les taux de réponse.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010968
    Description :

    Statistique Canada a lancé un programme destiné à intensifier et à améliorer l'utilisation de la technologie d'imagerie pour le traitement des questionnaires d'enquête imprimés. Le but est d'en faire une méthode efficace, fiable et économique de saisie des données. L'objectif est de continuer de se servir de la reconnaissance optique de caractères (ROC) pour saisir les données des questionnaires, des documents et des télécopies reçus, tout en améliorant l'intégration du processus et l'assurance de la qualité/le contrôle de la qualité (CQ) du processus de saisie des données. Ces améliorations sont exposées dans le présent article.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010994
    Description :

    La difficulté grandissante à joindre les répondants affecte, de façon générale, la non-réponse des enquêtes téléphoniques, et particulièrement les enquêtes qui utilisent les techniques de composition aléatoire (CA) comme l'Enquête sociale générale (ESG). L'ESG est une enquête annuelle à sujets multiples effectuée auprès de 25 000 répondants. Ses objectifs sont de surveiller les caractéristiques et les modifications importantes de la structure sociale canadienne. Le cycle 21 (2007) de l'ESG porte sur la famille, le soutien social et la retraite et vise la population âgée de 45 ans et plus vivant dans les 10 provinces canadiennes. Pour cibler plus efficacement cette population, une partie de l'échantillon provient d'un suivi auprès des répondants du cycle 20 (2006) de l'ESG qui portait sur les transitions familiales. Il est complété par un nouvel échantillon obtenu par CA. Dans cet article, nous présentons d'abord le plan de sondage de l'enquête et la méthode de composition aléatoire utilisée. Nous décrivons ensuite les défis reliés au calcul du taux de non-réponse dans une enquête à composition aléatoire qui cible un sous-ensemble d'une population, pour lequel la population dans le champ de l'enquête doit être estimée ou modélisée. Ceci est fait notamment avec l'utilisation de paradonnées. La méthodologie utilisée au cycle 21 de l'ESG est présentée en détail.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010951
    Description :

    Les valeurs manquantes attribuables à la non-réponse constituent un type d'erreur non due à l'échantillonnage. Le rejet de cas comportant des valeurs manquantes dans des analyses statistiques peut entraîner des estimations biaisées en raison des différences entre les répondants pour lesquels des valeurs sont manquantes et les autres. De plus, lorsque des variables présentent différentes structures de valeurs manquantes parmi les cas échantillonnés et lorsque les cas comportant des valeurs manquantes sont rejetés des analyses statistiques, celles-ci peuvent produire des résultats incohérents puisqu'elles reposent sur des sous-ensembles différents de cas échantillonnés pouvant ne pas être comparables. Cependant, les analyses qui rejettent des cas avec valeurs manquantes peuvent être valides à la condition que ces valeurs soient manquantes entièrement au hasard. Or, est-ce bien le cas?

    En guise de compensation, les valeurs manquantes sont souvent imputées ou les poids de l'enquête sont ajustés à l'aide de méthodes de catégories de poids. Les analyses subséquentes peuvent être valides à condition que les valeurs soient manquantes au hasard dans chaque catégorie de données que supposent les variables indépendantes des modèles qui reposent sur des techniques d'ajustement. Or, peut-on dire que les valeurs sont manquantes au hasard?

    Comme les valeurs manquantes ne sont pas observées, les hypothèses sur les valeurs manquantes entièrement au hasard et les valeurs manquantes au hasard formulées dans les analyses ne sont pas souvent examinées. La communication décrit un modèle de sélection à partir duquel des tests d'hypothèse concernant les valeurs manquantes entièrement au hasard et les valeurs manquantes au hasard peuvent être réalisés même si les valeurs manquantes ne sont pas observées. Les données de la National Immunization Survey menée par le Department of Health and Human Services des États-Unis sont utilisées pour illustrer ces méthodes.

    Date de diffusion : 2009-12-03

Date de modification :