Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

2 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (107)

Tout (107) (25 of 107 results)

  • Articles et rapports : 12-001-X200800210763
    Description :

    Le présent article décrit une stratégie d'échantillonnage utile pour obtenir une taille d'échantillon planifiée pour des domaines appartenant à différentes partitions de la population et pour garantir que les erreurs d'échantillonnage des estimations de domaine soient inférieures à un seuil donné. La stratégie d'échantillonnage, qui englobe le cas multidomaine multivarié, est avantageuse quand la taille globale d'échantillon est bornée et que, par conséquent, la solution standard consistant à utiliser un échantillon stratifié dont les strates sont obtenues par le recoupement des variables qui définissent les diverses partitions n'est pas faisable, puisque le nombre de strates est plus grand que la taille globale d'échantillon. La stratégie d'échantillonnage proposée est fondée sur l'utilisation d'une méthode d'échantillonnage équilibré et sur une estimation de type GREG. Le principal avantage de la solution est la faisabilité des calculs, laquelle permet de mettre en oeuvre facilement une stratégie globale d'estimation pour petits domaines qui tient compte simultanément du plan d'échantillonnage et de l'estimateur, et qui améliore l'efficacité des estimateurs directs de domaine. Les propriétés empiriques de la stratégie d'échantillonnage étudiée sont illustrées au moyen d'une simulation portant sur des données de population réelles et divers estimateurs de domaine.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210760
    Description :

    Pour concevoir un échantillon aléatoire simple stratifié sans remise à partir d'une population finie, il faut résoudre deux grandes questions : définir une règle de partition de la population en strates et répartir les unités d'échantillonnage entre les strates sélectionnées. Dans le présent article, nous examinons une stratégie arborescente en vue d'aborder conjointement ces deux questions quand l'enquête est polyvalente et que de l'information multivariée, quantitative ou qualitative, est disponible. Nous formons les strates à l'aide d'un algorithme divisif hiérarchique qui sélectionne des partitions de plus en plus fines en minimisant, à chaque étape, la répartition d'échantillon requise pour atteindre les niveaux de précision établis pour chaque variable étudiée. De cette façon, nous pouvons satisfaire un grand nombre de contraintes sans augmenter fortement la taille globale d'échantillon et sans écarter certaines variables sélectionnées pour la stratification ni diminuer le nombre de leurs intervalles de classe. En outre, l'algorithme a tendance à ne pas définir de strate vide ou presque vide, ce qui évite de devoir regrouper certaines strates. Nous avons appliqué la méthode au remaniement de l'Enquête sur la structure des exploitations agricoles en Italie. Les résultats indiquent que le gain d'efficacité réalisé en utilisant notre stratégie n'est pas trivial. Pour une taille d'échantillon donnée, cette méthode permet d'obtenir la précision requise en exploitant un nombre de strates qui est habituellement égal à une fraction très faible du nombre de strates disponibles quand on combine toutes les classes possibles provenant de n'importe quelle covariable.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210762
    Description :

    Le présent article porte sur le traitement de la répartition optimale dans l'échantillonnage stratifié multivarié comme une optimisation matricielle non linéaire en nombres entiers. Un problème non linéaire d'optimisation multi-objectifs en nombres entiers est étudié à titre de cas particulier. Enfin, un exemple détaillé, y compris certaines méthodes proposées, est donné à la fin de l'exposé.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210757
    Description :

    Les poids d'échantillonnage peuvent être calés de manière à refléter les totaux connus de population d'un ensemble de variables auxiliaires. Le biais des prédicteurs des totaux de population finie calculés en utilisant ces poids est faible si ces variables sont reliées à la variable d'intérêt, mais leur variance peut être élevée si l'on utilise un trop grand nombre de variables auxiliaires. Dans le présent article, nous élaborons une approche de « calage adaptatif » où les variables auxiliaires qu'il convient d'utiliser dans la pondération sont sélectionnées en se servant de données d'échantillon. Nous montrons que, dans de nombreux cas, les estimateurs calés adaptativement ont une erreur quadratique moyenne plus faible et de meilleures propriétés de couverture que les estimateurs non adaptatifs.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210758
    Description :

    Nous proposons une méthode pour estimer la variance des estimateurs des évolutions qui prend en compte toutes les composantes de ceux-ci : le plan de sondage, le traitement des non-réponses, le traitement des grosses entreprises, la corrélation de la non-réponse d'une vague à l'autre, l'effet dû à l'utilisation d'un panel, la robustification et le calage au moyen d'un estimateur par le ratio. Cette méthode, qui permet la détermination d'intervalles de confiance des évolutions, est ensuite appliquée à l'enquête suisse sur la valeur ajoutée.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210768
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210755
    Description :

    L'interview avec rétroinformation (IRI) est utilisée dans de nombreuses enquêtes longitudinales pour « reporter » les données d'une vague à la suivante. Bien qu'il s'agisse d'une technique prometteuse qui a permis d'améliorer la qualité des données à certains égards, on en sait assez peu sur la façon dont elle est effectivement appliquée sur le terrain. La présente étude a pour but d'aborder cette question par la voie du codage du comportement. Divers styles d'IRI ont été employés dans l'English Longitudinal Study of Ageing (ELSA) de janvier 2006 et les interviews pilotes sur le terrain ont été enregistrées. Les enregistrements ont été analysés afin de déterminer si les questions (particulièrement les éléments d'IRI) étaient administrées convenablement et d'explorer la réaction des répondants à l'égard des données reportées. Un des objectifs était de déterminer si les répondants confirmaient ou contestaient l'information déclarée antérieurement, si les données de la vague précédente jouaient un rôle quand les répondants fournissaient les réponses à la vague courante et la façon dont toute discordance était négociée par l'intervieweur et le répondant. Un autre objectif était d'examiner l'efficacité de divers styles d'IRI. Par exemple, dans certains cas, les données de la vague précédente ont été reportées et on a demandé aux répondants de les confirmer explicitement ; dans d'autres, les données antérieures ont été lues et ont a demandé aux répondants si la situation était encore la même. Les résultats révèlent divers niveaux de conformité en ce qui a trait à la lecture initiale de la question et donnent à penser que certains styles d'IRI pourraient être plus efficaces que d'autres.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210764
    Description :

    Le présent article traite de situations où la valeur de la réponse cible est zéro ou une observation issue d'une loi continue. Un exemple type analysé dans l'article est l'évaluation des compétences en littératie, dont le résultat peut être zéro, ce qui représente l'analphabétisme, ou un score positif mesurant le niveau de littératie. Nous cherchons à déterminer comment obtenir des estimations valides de la réponse moyenne ou de la proportion de réponses positives pour des petits domaines pour lesquels nous ne disposons que de petits échantillons, voire aucun. Comme dans d'autres problèmes d'estimation pour petits domaines, la petite taille de l'échantillon pour au moins certains domaines échantillonnés et/ou l'existence de domaines non échantillonnés obligent à utiliser des méthodes fondées sur un modèle. Toutefois, les méthodes disponibles ne conviennent pas pour ce genre de données, à cause de la distribution mixte des réponses caractérisée par un pic important à zéro juxtaposé à une distribution continue pour le reste des réponses. Par conséquent, nous élaborons un modèle à effets aléatoires en deux parties et montrons comment l'ajuster et évaluer la qualité de son ajustement, et comment calculer les estimations sur petits domaines d'intérêt et mesurer leur précision. Nous illustrons la méthode proposée au moyen de données simulées et de données provenant d'une enquête sur la littératie réalisée au Cambodge.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210754
    Description :

    Le contexte de la discussion est la fréquence croissante des enquêtes internationales, dont fait partie l'International Tobacco Control (ITC) Policy Evaluation Project, qui a débuté en 2002. Les enquêtes ITC nationales, qui sont longitudinales, ont pour but d'évaluer les effets des mesures stratégiques adoptées dans divers pays en vertu de la Convention-cadre pour la lutte antitabac de l'OMS. Nous examinons et illustrons les défis que posent l'organisation, la collecte des données et l'analyse des enquêtes internationales. L'analyse est une raison qui motive de plus en plus la réalisation d'enquêtes transculturelles à grande échelle. La difficulté fondamentale de l'analyse est de discerner la réponse réelle (ou le manque de réponse) aux changements de politiques et de la séparer des effets du mode de collecte des données, de la non­réponse différentielle, des événements extérieurs, de la durée de la présence dans l'échantillon, de la culture et de la langue. Deux problèmes ayant trait à l'analyse statistique sont examinés. Le premier est celui de savoir quand et comment analyser des données regroupées provenant de plusieurs pays, afin de renforcer des conclusions qui pourraient être généralement valides. Bien que cela paraisse simple, dans certains cas les avis sont partagés quant à la mesure dans laquelle ce regroupement est possible et raisonnable. Selon certains, les modèles à effets aléatoires sont conceptuellement utiles pour les comparaisons formelles. Le deuxième problème consiste à trouver des modèles de mesure applicables à diverses cultures et à divers modes de collecte de données qui permettent l'étalonnage des réponses continues, binaires et ordinales, ainsi que la production de comparaisons dont ont été éliminés les effets extérieurs. Nous constatons que les modèles hiérarchiques offrent un moyen naturel de relâcher les exigences d'invariance du modèle entre les groupes.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210759
    Description :

    L'analyse des données recueillies auprès d'un échantillon stratifié à plusieurs degrés requiert de l'information sur le plan de sondage, telle que les identificateurs de strate et d'unité primaire d'échantillonnage (UPE), ou les poids de rééchantillonnage connexes, pour l'estimation de la variance. Dans certains fichiers de données à grande diffusion, l'information sur le plan de sondage est masquée en vue d'éviter le risque de divulgation, tout en permettant à l'utilisateur d'obtenir des estimations valides des variances. Par exemple, dans le cas des enquêtes aréolaires comptant un nombre limité d'UPE, les UPE originales sont divisées et (ou) recombinées pour construire des pseudo UPE dans lesquelles sont permutées les unités d'échantillonnage de deuxième degré et de degré subséquent. Cependant, ces méthodes de masquage des UPE faussent manifestement la structure de mise en grappes du plan d'échantillonnage, ce qui donne des estimations de variance biaisées pouvant présenter un rapport systématique entre les deux estimations de variance obtenues avec et sans masquage des identificateurs d'UPE. Certains travaux antérieurs ont révélé certaines tendances du ratio des estimations de la variance obtenues avec et sans masquage si on représente ce ratio graphiquement en fonction de l'effet de plan sans masquage. Le présent article traite de l'effet du masquage des UPE sur les estimations de la variance sous échantillonnage en grappes en fonction de divers aspects, dont la structure de mise en grappes et le degré de masquage. En outre, nous tâchons d'établir une stratégie de masquage des UPE par permutation des unités d'échantillonnage du degré subséquent qui réduit le biais résultant des estimations de la variance. En guise d'illustration, nous utilisons des données provenant de la National Health Interview Survey (NHIS) auxquelles nous avons apporté certaines modifications artificielles. La stratégie proposée permet de bien réduire le biais des estimations de la variance. Les résultats tant théoriques qu'empiriques indiquent que l'effet du masquage des UPE sur les estimations de la variance est modeste si la permutation des unités d'échantillonnage de degré subséquent est minimale. Nous avons appliqué la stratégie de masquage proposée aux données diffusées de la National Health and Nutrition Examination Survey (NHANES) de 2003 2004.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210756
    Description :

    Dans les enquêtes longitudinales, la non-réponse survient souvent selon un schéma non monotone. Nous considérons l'estimation des moyennes dépendantes du temps sous l'hypothèse que le mécanisme de non-réponse dépend de la dernière valeur. Puisque cette dernière valeur peut elle-même manquer quand la non-réponse est non monotone, le mécanisme de non-réponse examiné est non ignorable. Nous proposons une méthode d'imputation qui consiste à établir d'abord certains modèles d'imputation par la régression en fonction du mécanisme de non-réponse, puis à appliquer l'imputation par la régression non paramétrique. Nous supposons que les données longitudinales suivent une chaîne de Markov admettant des moments finis de deuxième ordre. Aucune autre contrainte n'est imposée à la distribution conjointe des données longitudinales et à leurs indicateurs de non-réponse. La variance est estimée par une méthode du bootstrap. Nous présentons certains résultats de simulation et un exemple concernant une enquête sur l'emploi.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210761
    Description :

    La stratification optimale est la méthode qui consiste à choisir les meilleures bornes qui rendent les strates intérieurement homogènes, étant donné la répartition de l'échantillon. Afin de rendre les strates intérieurement homogènes, celles ci doivent être construites de façon que les variances de strate de la caractéristique étudiée soient aussi faibles que possible. Un moyen efficace d'y arriver, si l'on connaît la distribution de la principale variable étudiée, consiste à créer des strates en découpant l'étendue de la distribution à des points appropriés. Si la distribution des fréquences de la variable étudiée est inconnue, on peut l'approximer en se fondant sur l'expérience passée ou sur certains renseignements a priori obtenus au cours d'une étude récente. Dans le présent article, le problème de la détermination des bornes optimales de strate (BOS) est considéré comme étant le problème de la détermination des largeurs optimales de strate (LOS). Il est formulé comme un problème de programmation mathématique (PPM) consistant à minimiser la variance du paramètre de population estimé sous la répartition de Neyman en imposant que la somme des largeurs des strates soit égale à l'étendue totale de la distribution. La variable étudiée est considérée comme suivant un loi continue dont la densité de probabilité est triangulaire ou normale standard. Les PPM formulés, qui s'avèrent être des problèmes de décision à plusieurs degrés, peuvent alors être résolus en utilisant la méthode de programmation dynamique proposée par Bühler et Deutler (1975). Des exemples numériques sont présentés pour illustrer les calculs. Les résultats obtenus sont également comparés à ceux donnés par la méthode de Dalenius et Hodges (1959) dans le cas d'une distribution normale.

    Date de diffusion : 2008-12-23

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2009001
    Description :

    Ce guide présente de l'information qui intéresse les utilisateurs des données provenant de l'Enquête sur les dépenses des ménages, nous avons obtenu des renseignements sur les habitudes de dépense, les caractéristiques des logements et de l'équipement ménager des ménages canadiens. L'enquête a porté sur les ménages privés des dix provinces. (Dans le but de réduire le fardeau de réponse pour les ménages du nord, l'EDM est menée dans le nord seulement tous les deux ans, débutant a partir de 1999.)

    Ce guide comprend les définitions des termes et des variables de l'enquête, ainsi que des descriptions de la méthode, la qualité des données, et le contenu de tableaux standards de données. Il contient aussi une section décrivant les différentes statistiques pouvant être créées au moyen des données sur les dépenses (p. ex. part du budget, part du marché, et agrégat de dépenses).

    Date de diffusion : 2008-12-22

  • Produits techniques : 75F0002M2008005
    Description :

    L'Enquête sur la dynamique du travail et du revenu (EDTR) est une enquête longitudinale qui date de 1993. Elle se veut un moyen de mesurer les variations du bien-être économique des Canadiens ainsi que les facteurs touchant ces changements. Les enquêtes par sondage sont sujet aux erreurs d'échantillonnage. Pour tenir compte de ces erreurs, les estimations présentées dans la série "Tendance du revenu au Canada" viennent avec un indicateur de qualité basé sur le coefficient de variation. Cependant d'autres facteurs doivent également ête considérés afin d'utiliser les données de l'enquête à bon escient. Statistique Canada met un temps et un effort considérable à contrôler les erreurs à chaque stade de l'enquête et à optimiser l'utilité des données. Malgré tout, la façon dont l'enquête a été conçue et le traitement des données peuvent limiter la bonne utilisation des données de l'enquête. Statistique Canada a pour politique de fournir des mesures de la qualité des données pour aider ses utilisateurs à bien interpréter les données. Le présent rapport résume l'ensemble des mesures de qualité des données de l'EDTR. Parmi les mesures incluses dans le rapport nous retrouvons la composition de l'échantillon, le taux d'érosion, les erreurs d'échantillonnage, les erreurs de couverture, le taux de réponse, le taux de permission d'accès au dossier fiscal, le taux de couplage avec le dossier fiscal et le taux d'imputation.

    Date de diffusion : 2008-08-20

  • Articles et rapports : 82-622-X2008001
    Description :

    La présente étude a pour but d'examiner la validité factorielle de certains modules de l'Enquête canadienne sur l'expérience des soins de santé primaires (ECESSP), afin de savoir s'il est possible de combiner les items de chaque module en indices sommaires représentant des concepts globaux de soins de santé primaires. Les modules examinés sont ceux de l'évaluation des soins pour maladies chroniques par les patients (ESMCP; en anglais, Patient Assessment of Chronic Illness Care ou PACIC), de l'activation des patients (AP), de la gestion de ses propres soins de santé (GPSS) et de la confiance dans le système de soins de santé (CSSS). Des analyses factorielles confirmatoires ont été réalisées sur chaque module afin de déterminer dans quelle mesure de multiples items observés reflètent l'existence de facteurs latents communs. Un modèle à quatre facteurs a été spécifié au départ pour l'échelle ESMCP en s'inspirant d'une théorie a priori et de travaux de recherche, mais son ajustement aux données n'était pas bon. Un modèle révisé à deux facteurs est celui qui s'est avéré le plus approprié. Ces deux facteurs ont été nommés « Soin global de la personne » et « Coordination des soins ». Les autres modules étudiés ici (c. à d. AP, GPSS et CSSS étaient tous bien représentés par des modèles à un seul facteur. Les résultats donnent à penser que la structure factorielle originale du module ESMCP établie dans le cadre d'études portant sur des échantillons cliniques n'est pas applicable aux populations générales, quoique les raisons précises de cette situation ne soient pas claires. D'autres études empiriques seront nécessaires pour jeter de la lumière sur cette divergence. Les deux facteurs cernés ici pour le module ESMCP, ainsi que les facteurs uniques produits pour les modules AP, GPSS et CSSS pourraient servir de fondement à des indices sommaires destinés à être utilisés dans de futures analyses des données de l'ECESSP.

    Date de diffusion : 2008-07-08

  • Produits techniques : 11-522-X200600110424
    Description :

    L'enquête réalisée par la Chine dans le cadre du programme de lutte internationale contre le tabagisme (ITC pour International Tobacco Control) comprend un plan d'échantillonnage à plusieurs degrés avec probabilités inégales où les grappes du niveau supérieur sont sélectionnées par la méthode d'échantillonnage PPT systématique randomisé. Durant l'exécution de l'enquête, il faut résoudre le problème suivant : plusieurs grappes de niveau supérieur échantillonnées refusent de participer et doivent être remplacées par des unités de substitution sélectionnées parmi les unités non incluses dans l'échantillon initial, de nouveau par la méthode d'échantillonnage PPT systématique randomisé. Dans de telles conditions, les probabilités d'inclusion de premier ordre des unités finales sélectionnées sont très difficiles à calculer et la détermination des probabilités d'inclusion de deuxième ordre devient virtuellement impossible. Dans le présent article, nous élaborons une méthode fondée sur la simulation pour calculer les probabilités d'inclusion de premier et de deuxième ordre lorsque le calcul direct est prohibitif ou impossible. Nous démontrons l'efficacité de la méthode que nous proposons en nous appuyant sur des considérations théoriques et des exemples numériques. Nous incluons plusieurs fonctions et codes R/S PLUS pour la procédure proposée. La méthode peut être étendue à des situations de refus/substitution plus complexes susceptibles de survenir en pratique.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110642
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110616
    Description :

    Dans le cas de données multivariées complètes, l'algorithme BACON (Billor, Hadi et Vellemann 2000) donne une estimation robuste de la matrice de covariance. La distance de Mahalanobis correspondante peut être utilisée pour la détection des observations aberrantes multivariées. Quand des items manquent, l'algorithme EM est un moyen commode d'estimer la matrice de covariance à chaque étape d'itération de l'algorithme BACON. Dans l'échantillonnage en population finie, l'algorithme EM doit être amélioré pour estimer la matrice de covariance de la population plutôt que de l'échantillon. Une version de l'algorithme EM pour données d'enquête suivant un modèle normal multivarié, appelée algorithme EEM (espérance estimée/maximisation), est proposée. La combinaison des deux algorithmes, dénommée algorithme BACON EEM, est appliquée à deux ensembles de données et comparée à d'autres méthodes.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110618
    Description :

    La National Health and Nutrition Examination Survey (NHANES) fait partie d'une série de programmes ayant trait à la santé parrainés par le National Center for Health Statistics des États-Unis. Une caractéristique unique de la NHANES est que tous les répondants de l'échantillon sont soumis à un examen médial complet. Afin de normaliser la façon dont ils sont effectués, ces examens ont lieu dans des centres d'examen mobiles (CEM). L'examen comprend des mesures physiques, des tests tels que l'examen de la vue et des dents, ainsi que le prélèvement d'échantillons de sang et d'urine pour des analyses biologiques. La NHANES est une enquête annuelle continue sur la santé réalisée auprès de la population civile des États-Unis ne résidant pas en établissement. Les principaux objectifs analytiques comprennent l'estimation du nombre et du pourcentage de personnes dans la population des États-Unis et dans des sous groupes désignés qui présentent certaines maladies et certains facteurs de risque. Le plan d'échantillonnage de la NHANES doit permettre d'établir un juste équilibre entre les exigences liées à l'obtention d'échantillons annuels et pluriannuels efficaces et la souplesse requise pour pouvoir modifier les paramètres essentiels du plan afin de mieux adapter l'enquête au besoin des chercheurs et des décideurs qui élaborent les politiques en matière de santé. Le présent article décrit les défis associés à la conception et à la mise en oeuvre d'un processus d'échantillonnage permettant d'atteindre les objectifs de la NHANES.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110612
    Description :

    Lehtonen et Veijanen (1999) ont proposé un nouvel estimateur par la régression généralisée (GREG) assisté par modèle d'une moyenne de petit domaine sous un modèle à deux niveaux. Ils ont montré que l'estimateur proposé donne de meilleurs résultats que l'estimateur GREG habituel en ce qui concerne le biais relatif absolu moyen et l'erreur relative absolue médiane moyenne. Nous calculons l'erreur quadratique moyenne (EQM) du nouvel estimateur GREG sous le modèle à deux niveaux et nous la comparons à celle de l'estimateur fondé sur le meilleur prédicteur linéaire sans biais (BLUP). Nous présentons aussi des résultats empiriques concernant l'efficacité relative des estimateurs. Nous montrons que le nouvel estimateur GREG a de meilleures propriétés que l'estimateur GREG habituel en ce qui concerne l'EQM moyenne et l'erreur relative absolue moyenne. Nous montrons aussi que, parce qu'il emprunte de l'information aux petits domaines apparentés, l'estimateur EBLUP donne des résultats nettement meilleurs que l'estimateur GREG habituel et que le nouvel estimateur GREG. Nous fournissons les résultats de simulation sous un modèle, ainsi qu'en population finie réelle.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110607
    Description :

    L'offre de primes en vue d'encourager la participation aux enquêtes est un moyen utilisé de plus en plus fréquemment pour combattre la chute des taux de réponse et les risques résultant de biais dû à la non réponse. Cette dernière pose tout spécialement un problème dans les enquêtes par panel, car même un faible taux de non réponse d'une vague à l'autre peut entraîner des pertes cumulées importantes et, si la non réponse est différentielle, cette situation peut aboutir à l'accroissement du biais d'une vague à l'autre. Les effets des primes d'encouragement ont été bien étudiés dans le contexte d'enquêtes transversales, mais l'on en sait fort peu quant à leurs effets cumulés sur l'ensemble des vagues d'un panel. Nous fournissons de nouvelles preuves des effets des paiements incitatifs continus sur l'attrition, ou érosion de l'échantillon, sur le biais et sur la non réponse partielle en nous appuyant sur les données d'une expérience d'offre de primes d'encouragement à grande échelle, multivagues, à mode d'interview mixte, intégrée dans une enquête par panel réalisée auprès des jeunes par le gouvernement britannique. Dans cette étude, les primes d'encouragement ont donné lieu à une réduction significative de l'attrition, qui compensait de loin les effets négatifs sur les taux de réponse partiels en ce qui concerne la quantité d'information recueillie dans le cadre de l'enquête par cas émis. Les primes d'encouragement ont eu des effets proportionnels sur les taux de rétention pour une gamme de caractéristiques des répondants et, par conséquent, n'ont pas réduit le biais d'attrition relatif à ces caractéristiques. Les effets des primes d'encouragement sur le taux de rétention étaient plus importants pour les primes inconditionnelles que pour les primes conditionnelles, et plus importants également pour le mode de collecte par la poste que pour celui par téléphone. D'une vague à l'autre, les effets sur l'attrition ont diminué quelque peu, mais les effets sur la non réponse partielle et l'absence d'effet sur le biais sont demeurés constants. Les effets des primes d'encouragement offertes lors de vagues plus tardives semblent avoir été indépendants des traitements relatifs aux primes et des modes de collecte des données appliqués lors de vagues antérieures.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110614
    Description :

    L'Enquête sur la population active (EPA) réalisée au Canada permet de produire des estimations mensuelles du taux de chômage aux niveaux national et provincial. Le programme de l'EPA diffuse aussi des estimations du chômage pour des régions infraprovinciales, comme les régions métropolitaines de recensement (RMR) et les centres urbains (CU). Cependant, pour certaines de ces régions infraprovinciales, les estimations directes ne sont pas fiables, parce que la taille de l'échantillon est assez petite. Dans le contexte de l'EPA, l'estimation pour de petites régions a trait à l'estimation des taux de chômage pour des régions infraprovinciales telles que les RMR/CU à l'aide de modèles pour petits domaines. Dans le présent article, nous discutons de divers modèles, dont celui de Fay Herriot et des modèles transversaux ainsi que chronologiques. En particulier, nous proposons un modèle non linéaire intégré à effets mixtes sous un cadre hiérarchique bayésien (HB) pour l'estimation du taux de chômage d'après les données de l'EPA. Nous utilisons les données mensuelles sur les bénéficiaires de l'assurance emploi (a. e.) au niveau de la RMR ou du CU comme covariables auxiliaires dans le modèle. Nous appliquons une approche HB ainsi que la méthode d'échantillonnage de Gibbs pour obtenir les estimations des moyennes et des variances a posteriori des taux de chômage au niveau de la RMR ou du CU. Le modèle HB proposé produit des estimations fondées sur un modèle fiables si l'on s'en tient à la réduction du coefficient de variation. Nous présentons dans l'article une analyse d'ajustement du modèle et une comparaison des estimations fondées sur le modèle aux estimations directes.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110613
    Description :

    L'enquête réalisée par la Chine dans le cadre du projet International Tobacco Control (ITC) Policy Evaluation Survey comprend un plan d'échantillonnage à plusieurs degrés avec probabilités inégales où les grappes du niveau supérieur sont sélectionnées par la méthode d'échantillonnage PPT systématique randomisé. Durant l'exécution de l'enquête, il faut résoudre le problème suivant : plusieurs grappes de niveau supérieur échantillonnées refusent de participer à l'enquête et doivent être remplacées par des unités de substitution sélectionnées parmi les unités non incluses dans l'échantillon initial, de nouveau par la méthode d'échantillonnage PPT systématique randomisé. Dans de telles conditions, les probabilités d'inclusion de premier ordre des unités finales sélectionnées sont très difficiles à calculer et la détermination des probabilités d'inclusion de deuxième ordre devient pratiquement impossible. Dans le présent article, nous élaborons une méthode fondée sur la simulation pour calculer les probabilités d'inclusion de premier et de deuxième ordre lorsque le calcul direct est prohibitif ou impossible. Nous démontrons l'efficacité et la faisabilité de la méthode que nous proposons en nous appuyant sur des considérations théoriques et des exemples numériques. Nous incluons plusieurs fonctions et codes R/S PLUS pour la procédure proposée. La méthode peut être étendue à des situations de refus/substitution plus complexes susceptibles de survenir en pratique.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110615
    Description :

    Nous considérons les taux d'échantillonnage optimaux dans des plans d'échantillonnage par élément, quand l'analyse prévue est la régression linéaire pondérée par les poids de sondage et que les paramètres à estimer sont des combinaisons linéaires des coefficients de régression provenant d'un ou de plusieurs modèles. Nous commençons par élaborer des méthodes en supposant que des renseignements exacts sur les variables du plan existent dans la base de sondage, puis nous les généralisons à des situations où l'information pour certaines variables du plan n'est disponible que sous forme d'agrégat pour des groupes de sujets éventuels ou provient de données inexactes ou périmées. Nous envisageons également un plan d'échantillonnage pour l'estimation de combinaisons de coefficients provenant de plus d'un modèle. Une généralisation supplémentaire permet d'utiliser des combinaisons flexibles de coefficients choisies pour améliorer l'estimation d'un effet tout en en contrôlant un autre. Les applications éventuelles comprennent l'estimation des moyennes pour plusieurs ensembles de domaines chevauchants, ou l'amélioration des estimations pour des sous populations telles que les races minoritaires par échantillonnage non proportionnel des régions géographiques. Dans le contexte de la conception d'un sondage sur les soins reçus par les cancéreux (l'étude CanCORS) qui a motivé nos travaux, l'information éventuelle sur les variables du plan d'échantillonnage comprenait des données de recensement au niveau de l'îlot sur la race/ethnicité et la pauvreté, ainsi que des données au niveau individuel. Pour un emplacement de l'étude, un plan d'échantillonnage avec probabilités inégales en utilisant les adresses résidentielles des sujets et des données de recensement réduirait la variance de l'estimateur d'un effet du revenu de 25 %, ou de 38 % si la race des sujets avait été connue également. Par pondération flexible des contrastes du revenu selon la race, la variance de l'estimateur serait réduite de 26 % en utilisant les adresses résidentielles seulement et de 52 % en utilisant les adresses et les races. Nos méthodes seraient utiles dans les études où l'on considère un suréchantillonnage géographique selon la race ethnicité ou les caractéristiques socioéconomiques, ou dans toute étude où les caractéristiques pour lesquelles des données sont disponibles dans les bases de sondage sont mesurées avec une erreur.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110611
    Description :

    En échantillonnage de populations finies, on dispose souvent d'information a priori sous la forme de renseignements partiels sur une variable auxiliaire, dont on connaît, par exemple, la moyenne. Dans de tels cas, on utilise fréquemment l'estimateur par le ratio et l'estimateur par la régression pour estimer la moyenne de population de la caractéristique d'intérêt. La loi a posteriori de Pólya a été établie à titre d'approche bayésienne non informative de l'échantillonnage. Son application est indiquée quand on ne dispose que de peu d'information a priori, voire aucune, au sujet de la population. Ici, nous montrons que cette loi peut être étendue afin d'y intégrer divers types d'information a priori partielle au sujet des variables auxiliaires. Nous verrons que cette approche produit généralement des méthodes ayant de bonnes propriétés fréquentistes, même dans certains cas où les méthodes fréquentistes classiques sont difficiles à appliquer.

    Date de diffusion : 2008-06-26

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (37)

Analyses (37) (25 of 37 results)

  • Articles et rapports : 12-001-X200800210763
    Description :

    Le présent article décrit une stratégie d'échantillonnage utile pour obtenir une taille d'échantillon planifiée pour des domaines appartenant à différentes partitions de la population et pour garantir que les erreurs d'échantillonnage des estimations de domaine soient inférieures à un seuil donné. La stratégie d'échantillonnage, qui englobe le cas multidomaine multivarié, est avantageuse quand la taille globale d'échantillon est bornée et que, par conséquent, la solution standard consistant à utiliser un échantillon stratifié dont les strates sont obtenues par le recoupement des variables qui définissent les diverses partitions n'est pas faisable, puisque le nombre de strates est plus grand que la taille globale d'échantillon. La stratégie d'échantillonnage proposée est fondée sur l'utilisation d'une méthode d'échantillonnage équilibré et sur une estimation de type GREG. Le principal avantage de la solution est la faisabilité des calculs, laquelle permet de mettre en oeuvre facilement une stratégie globale d'estimation pour petits domaines qui tient compte simultanément du plan d'échantillonnage et de l'estimateur, et qui améliore l'efficacité des estimateurs directs de domaine. Les propriétés empiriques de la stratégie d'échantillonnage étudiée sont illustrées au moyen d'une simulation portant sur des données de population réelles et divers estimateurs de domaine.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210760
    Description :

    Pour concevoir un échantillon aléatoire simple stratifié sans remise à partir d'une population finie, il faut résoudre deux grandes questions : définir une règle de partition de la population en strates et répartir les unités d'échantillonnage entre les strates sélectionnées. Dans le présent article, nous examinons une stratégie arborescente en vue d'aborder conjointement ces deux questions quand l'enquête est polyvalente et que de l'information multivariée, quantitative ou qualitative, est disponible. Nous formons les strates à l'aide d'un algorithme divisif hiérarchique qui sélectionne des partitions de plus en plus fines en minimisant, à chaque étape, la répartition d'échantillon requise pour atteindre les niveaux de précision établis pour chaque variable étudiée. De cette façon, nous pouvons satisfaire un grand nombre de contraintes sans augmenter fortement la taille globale d'échantillon et sans écarter certaines variables sélectionnées pour la stratification ni diminuer le nombre de leurs intervalles de classe. En outre, l'algorithme a tendance à ne pas définir de strate vide ou presque vide, ce qui évite de devoir regrouper certaines strates. Nous avons appliqué la méthode au remaniement de l'Enquête sur la structure des exploitations agricoles en Italie. Les résultats indiquent que le gain d'efficacité réalisé en utilisant notre stratégie n'est pas trivial. Pour une taille d'échantillon donnée, cette méthode permet d'obtenir la précision requise en exploitant un nombre de strates qui est habituellement égal à une fraction très faible du nombre de strates disponibles quand on combine toutes les classes possibles provenant de n'importe quelle covariable.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210762
    Description :

    Le présent article porte sur le traitement de la répartition optimale dans l'échantillonnage stratifié multivarié comme une optimisation matricielle non linéaire en nombres entiers. Un problème non linéaire d'optimisation multi-objectifs en nombres entiers est étudié à titre de cas particulier. Enfin, un exemple détaillé, y compris certaines méthodes proposées, est donné à la fin de l'exposé.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210757
    Description :

    Les poids d'échantillonnage peuvent être calés de manière à refléter les totaux connus de population d'un ensemble de variables auxiliaires. Le biais des prédicteurs des totaux de population finie calculés en utilisant ces poids est faible si ces variables sont reliées à la variable d'intérêt, mais leur variance peut être élevée si l'on utilise un trop grand nombre de variables auxiliaires. Dans le présent article, nous élaborons une approche de « calage adaptatif » où les variables auxiliaires qu'il convient d'utiliser dans la pondération sont sélectionnées en se servant de données d'échantillon. Nous montrons que, dans de nombreux cas, les estimateurs calés adaptativement ont une erreur quadratique moyenne plus faible et de meilleures propriétés de couverture que les estimateurs non adaptatifs.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210758
    Description :

    Nous proposons une méthode pour estimer la variance des estimateurs des évolutions qui prend en compte toutes les composantes de ceux-ci : le plan de sondage, le traitement des non-réponses, le traitement des grosses entreprises, la corrélation de la non-réponse d'une vague à l'autre, l'effet dû à l'utilisation d'un panel, la robustification et le calage au moyen d'un estimateur par le ratio. Cette méthode, qui permet la détermination d'intervalles de confiance des évolutions, est ensuite appliquée à l'enquête suisse sur la valeur ajoutée.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210768
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210755
    Description :

    L'interview avec rétroinformation (IRI) est utilisée dans de nombreuses enquêtes longitudinales pour « reporter » les données d'une vague à la suivante. Bien qu'il s'agisse d'une technique prometteuse qui a permis d'améliorer la qualité des données à certains égards, on en sait assez peu sur la façon dont elle est effectivement appliquée sur le terrain. La présente étude a pour but d'aborder cette question par la voie du codage du comportement. Divers styles d'IRI ont été employés dans l'English Longitudinal Study of Ageing (ELSA) de janvier 2006 et les interviews pilotes sur le terrain ont été enregistrées. Les enregistrements ont été analysés afin de déterminer si les questions (particulièrement les éléments d'IRI) étaient administrées convenablement et d'explorer la réaction des répondants à l'égard des données reportées. Un des objectifs était de déterminer si les répondants confirmaient ou contestaient l'information déclarée antérieurement, si les données de la vague précédente jouaient un rôle quand les répondants fournissaient les réponses à la vague courante et la façon dont toute discordance était négociée par l'intervieweur et le répondant. Un autre objectif était d'examiner l'efficacité de divers styles d'IRI. Par exemple, dans certains cas, les données de la vague précédente ont été reportées et on a demandé aux répondants de les confirmer explicitement ; dans d'autres, les données antérieures ont été lues et ont a demandé aux répondants si la situation était encore la même. Les résultats révèlent divers niveaux de conformité en ce qui a trait à la lecture initiale de la question et donnent à penser que certains styles d'IRI pourraient être plus efficaces que d'autres.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210764
    Description :

    Le présent article traite de situations où la valeur de la réponse cible est zéro ou une observation issue d'une loi continue. Un exemple type analysé dans l'article est l'évaluation des compétences en littératie, dont le résultat peut être zéro, ce qui représente l'analphabétisme, ou un score positif mesurant le niveau de littératie. Nous cherchons à déterminer comment obtenir des estimations valides de la réponse moyenne ou de la proportion de réponses positives pour des petits domaines pour lesquels nous ne disposons que de petits échantillons, voire aucun. Comme dans d'autres problèmes d'estimation pour petits domaines, la petite taille de l'échantillon pour au moins certains domaines échantillonnés et/ou l'existence de domaines non échantillonnés obligent à utiliser des méthodes fondées sur un modèle. Toutefois, les méthodes disponibles ne conviennent pas pour ce genre de données, à cause de la distribution mixte des réponses caractérisée par un pic important à zéro juxtaposé à une distribution continue pour le reste des réponses. Par conséquent, nous élaborons un modèle à effets aléatoires en deux parties et montrons comment l'ajuster et évaluer la qualité de son ajustement, et comment calculer les estimations sur petits domaines d'intérêt et mesurer leur précision. Nous illustrons la méthode proposée au moyen de données simulées et de données provenant d'une enquête sur la littératie réalisée au Cambodge.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210754
    Description :

    Le contexte de la discussion est la fréquence croissante des enquêtes internationales, dont fait partie l'International Tobacco Control (ITC) Policy Evaluation Project, qui a débuté en 2002. Les enquêtes ITC nationales, qui sont longitudinales, ont pour but d'évaluer les effets des mesures stratégiques adoptées dans divers pays en vertu de la Convention-cadre pour la lutte antitabac de l'OMS. Nous examinons et illustrons les défis que posent l'organisation, la collecte des données et l'analyse des enquêtes internationales. L'analyse est une raison qui motive de plus en plus la réalisation d'enquêtes transculturelles à grande échelle. La difficulté fondamentale de l'analyse est de discerner la réponse réelle (ou le manque de réponse) aux changements de politiques et de la séparer des effets du mode de collecte des données, de la non­réponse différentielle, des événements extérieurs, de la durée de la présence dans l'échantillon, de la culture et de la langue. Deux problèmes ayant trait à l'analyse statistique sont examinés. Le premier est celui de savoir quand et comment analyser des données regroupées provenant de plusieurs pays, afin de renforcer des conclusions qui pourraient être généralement valides. Bien que cela paraisse simple, dans certains cas les avis sont partagés quant à la mesure dans laquelle ce regroupement est possible et raisonnable. Selon certains, les modèles à effets aléatoires sont conceptuellement utiles pour les comparaisons formelles. Le deuxième problème consiste à trouver des modèles de mesure applicables à diverses cultures et à divers modes de collecte de données qui permettent l'étalonnage des réponses continues, binaires et ordinales, ainsi que la production de comparaisons dont ont été éliminés les effets extérieurs. Nous constatons que les modèles hiérarchiques offrent un moyen naturel de relâcher les exigences d'invariance du modèle entre les groupes.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210759
    Description :

    L'analyse des données recueillies auprès d'un échantillon stratifié à plusieurs degrés requiert de l'information sur le plan de sondage, telle que les identificateurs de strate et d'unité primaire d'échantillonnage (UPE), ou les poids de rééchantillonnage connexes, pour l'estimation de la variance. Dans certains fichiers de données à grande diffusion, l'information sur le plan de sondage est masquée en vue d'éviter le risque de divulgation, tout en permettant à l'utilisateur d'obtenir des estimations valides des variances. Par exemple, dans le cas des enquêtes aréolaires comptant un nombre limité d'UPE, les UPE originales sont divisées et (ou) recombinées pour construire des pseudo UPE dans lesquelles sont permutées les unités d'échantillonnage de deuxième degré et de degré subséquent. Cependant, ces méthodes de masquage des UPE faussent manifestement la structure de mise en grappes du plan d'échantillonnage, ce qui donne des estimations de variance biaisées pouvant présenter un rapport systématique entre les deux estimations de variance obtenues avec et sans masquage des identificateurs d'UPE. Certains travaux antérieurs ont révélé certaines tendances du ratio des estimations de la variance obtenues avec et sans masquage si on représente ce ratio graphiquement en fonction de l'effet de plan sans masquage. Le présent article traite de l'effet du masquage des UPE sur les estimations de la variance sous échantillonnage en grappes en fonction de divers aspects, dont la structure de mise en grappes et le degré de masquage. En outre, nous tâchons d'établir une stratégie de masquage des UPE par permutation des unités d'échantillonnage du degré subséquent qui réduit le biais résultant des estimations de la variance. En guise d'illustration, nous utilisons des données provenant de la National Health Interview Survey (NHIS) auxquelles nous avons apporté certaines modifications artificielles. La stratégie proposée permet de bien réduire le biais des estimations de la variance. Les résultats tant théoriques qu'empiriques indiquent que l'effet du masquage des UPE sur les estimations de la variance est modeste si la permutation des unités d'échantillonnage de degré subséquent est minimale. Nous avons appliqué la stratégie de masquage proposée aux données diffusées de la National Health and Nutrition Examination Survey (NHANES) de 2003 2004.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210756
    Description :

    Dans les enquêtes longitudinales, la non-réponse survient souvent selon un schéma non monotone. Nous considérons l'estimation des moyennes dépendantes du temps sous l'hypothèse que le mécanisme de non-réponse dépend de la dernière valeur. Puisque cette dernière valeur peut elle-même manquer quand la non-réponse est non monotone, le mécanisme de non-réponse examiné est non ignorable. Nous proposons une méthode d'imputation qui consiste à établir d'abord certains modèles d'imputation par la régression en fonction du mécanisme de non-réponse, puis à appliquer l'imputation par la régression non paramétrique. Nous supposons que les données longitudinales suivent une chaîne de Markov admettant des moments finis de deuxième ordre. Aucune autre contrainte n'est imposée à la distribution conjointe des données longitudinales et à leurs indicateurs de non-réponse. La variance est estimée par une méthode du bootstrap. Nous présentons certains résultats de simulation et un exemple concernant une enquête sur l'emploi.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210761
    Description :

    La stratification optimale est la méthode qui consiste à choisir les meilleures bornes qui rendent les strates intérieurement homogènes, étant donné la répartition de l'échantillon. Afin de rendre les strates intérieurement homogènes, celles ci doivent être construites de façon que les variances de strate de la caractéristique étudiée soient aussi faibles que possible. Un moyen efficace d'y arriver, si l'on connaît la distribution de la principale variable étudiée, consiste à créer des strates en découpant l'étendue de la distribution à des points appropriés. Si la distribution des fréquences de la variable étudiée est inconnue, on peut l'approximer en se fondant sur l'expérience passée ou sur certains renseignements a priori obtenus au cours d'une étude récente. Dans le présent article, le problème de la détermination des bornes optimales de strate (BOS) est considéré comme étant le problème de la détermination des largeurs optimales de strate (LOS). Il est formulé comme un problème de programmation mathématique (PPM) consistant à minimiser la variance du paramètre de population estimé sous la répartition de Neyman en imposant que la somme des largeurs des strates soit égale à l'étendue totale de la distribution. La variable étudiée est considérée comme suivant un loi continue dont la densité de probabilité est triangulaire ou normale standard. Les PPM formulés, qui s'avèrent être des problèmes de décision à plusieurs degrés, peuvent alors être résolus en utilisant la méthode de programmation dynamique proposée par Bühler et Deutler (1975). Des exemples numériques sont présentés pour illustrer les calculs. Les résultats obtenus sont également comparés à ceux donnés par la méthode de Dalenius et Hodges (1959) dans le cas d'une distribution normale.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 82-622-X2008001
    Description :

    La présente étude a pour but d'examiner la validité factorielle de certains modules de l'Enquête canadienne sur l'expérience des soins de santé primaires (ECESSP), afin de savoir s'il est possible de combiner les items de chaque module en indices sommaires représentant des concepts globaux de soins de santé primaires. Les modules examinés sont ceux de l'évaluation des soins pour maladies chroniques par les patients (ESMCP; en anglais, Patient Assessment of Chronic Illness Care ou PACIC), de l'activation des patients (AP), de la gestion de ses propres soins de santé (GPSS) et de la confiance dans le système de soins de santé (CSSS). Des analyses factorielles confirmatoires ont été réalisées sur chaque module afin de déterminer dans quelle mesure de multiples items observés reflètent l'existence de facteurs latents communs. Un modèle à quatre facteurs a été spécifié au départ pour l'échelle ESMCP en s'inspirant d'une théorie a priori et de travaux de recherche, mais son ajustement aux données n'était pas bon. Un modèle révisé à deux facteurs est celui qui s'est avéré le plus approprié. Ces deux facteurs ont été nommés « Soin global de la personne » et « Coordination des soins ». Les autres modules étudiés ici (c. à d. AP, GPSS et CSSS étaient tous bien représentés par des modèles à un seul facteur. Les résultats donnent à penser que la structure factorielle originale du module ESMCP établie dans le cadre d'études portant sur des échantillons cliniques n'est pas applicable aux populations générales, quoique les raisons précises de cette situation ne soient pas claires. D'autres études empiriques seront nécessaires pour jeter de la lumière sur cette divergence. Les deux facteurs cernés ici pour le module ESMCP, ainsi que les facteurs uniques produits pour les modules AP, GPSS et CSSS pourraient servir de fondement à des indices sommaires destinés à être utilisés dans de futures analyses des données de l'ECESSP.

    Date de diffusion : 2008-07-08

  • Articles et rapports : 12-001-X200800110642
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110616
    Description :

    Dans le cas de données multivariées complètes, l'algorithme BACON (Billor, Hadi et Vellemann 2000) donne une estimation robuste de la matrice de covariance. La distance de Mahalanobis correspondante peut être utilisée pour la détection des observations aberrantes multivariées. Quand des items manquent, l'algorithme EM est un moyen commode d'estimer la matrice de covariance à chaque étape d'itération de l'algorithme BACON. Dans l'échantillonnage en population finie, l'algorithme EM doit être amélioré pour estimer la matrice de covariance de la population plutôt que de l'échantillon. Une version de l'algorithme EM pour données d'enquête suivant un modèle normal multivarié, appelée algorithme EEM (espérance estimée/maximisation), est proposée. La combinaison des deux algorithmes, dénommée algorithme BACON EEM, est appliquée à deux ensembles de données et comparée à d'autres méthodes.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110618
    Description :

    La National Health and Nutrition Examination Survey (NHANES) fait partie d'une série de programmes ayant trait à la santé parrainés par le National Center for Health Statistics des États-Unis. Une caractéristique unique de la NHANES est que tous les répondants de l'échantillon sont soumis à un examen médial complet. Afin de normaliser la façon dont ils sont effectués, ces examens ont lieu dans des centres d'examen mobiles (CEM). L'examen comprend des mesures physiques, des tests tels que l'examen de la vue et des dents, ainsi que le prélèvement d'échantillons de sang et d'urine pour des analyses biologiques. La NHANES est une enquête annuelle continue sur la santé réalisée auprès de la population civile des États-Unis ne résidant pas en établissement. Les principaux objectifs analytiques comprennent l'estimation du nombre et du pourcentage de personnes dans la population des États-Unis et dans des sous groupes désignés qui présentent certaines maladies et certains facteurs de risque. Le plan d'échantillonnage de la NHANES doit permettre d'établir un juste équilibre entre les exigences liées à l'obtention d'échantillons annuels et pluriannuels efficaces et la souplesse requise pour pouvoir modifier les paramètres essentiels du plan afin de mieux adapter l'enquête au besoin des chercheurs et des décideurs qui élaborent les politiques en matière de santé. Le présent article décrit les défis associés à la conception et à la mise en oeuvre d'un processus d'échantillonnage permettant d'atteindre les objectifs de la NHANES.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110612
    Description :

    Lehtonen et Veijanen (1999) ont proposé un nouvel estimateur par la régression généralisée (GREG) assisté par modèle d'une moyenne de petit domaine sous un modèle à deux niveaux. Ils ont montré que l'estimateur proposé donne de meilleurs résultats que l'estimateur GREG habituel en ce qui concerne le biais relatif absolu moyen et l'erreur relative absolue médiane moyenne. Nous calculons l'erreur quadratique moyenne (EQM) du nouvel estimateur GREG sous le modèle à deux niveaux et nous la comparons à celle de l'estimateur fondé sur le meilleur prédicteur linéaire sans biais (BLUP). Nous présentons aussi des résultats empiriques concernant l'efficacité relative des estimateurs. Nous montrons que le nouvel estimateur GREG a de meilleures propriétés que l'estimateur GREG habituel en ce qui concerne l'EQM moyenne et l'erreur relative absolue moyenne. Nous montrons aussi que, parce qu'il emprunte de l'information aux petits domaines apparentés, l'estimateur EBLUP donne des résultats nettement meilleurs que l'estimateur GREG habituel et que le nouvel estimateur GREG. Nous fournissons les résultats de simulation sous un modèle, ainsi qu'en population finie réelle.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110607
    Description :

    L'offre de primes en vue d'encourager la participation aux enquêtes est un moyen utilisé de plus en plus fréquemment pour combattre la chute des taux de réponse et les risques résultant de biais dû à la non réponse. Cette dernière pose tout spécialement un problème dans les enquêtes par panel, car même un faible taux de non réponse d'une vague à l'autre peut entraîner des pertes cumulées importantes et, si la non réponse est différentielle, cette situation peut aboutir à l'accroissement du biais d'une vague à l'autre. Les effets des primes d'encouragement ont été bien étudiés dans le contexte d'enquêtes transversales, mais l'on en sait fort peu quant à leurs effets cumulés sur l'ensemble des vagues d'un panel. Nous fournissons de nouvelles preuves des effets des paiements incitatifs continus sur l'attrition, ou érosion de l'échantillon, sur le biais et sur la non réponse partielle en nous appuyant sur les données d'une expérience d'offre de primes d'encouragement à grande échelle, multivagues, à mode d'interview mixte, intégrée dans une enquête par panel réalisée auprès des jeunes par le gouvernement britannique. Dans cette étude, les primes d'encouragement ont donné lieu à une réduction significative de l'attrition, qui compensait de loin les effets négatifs sur les taux de réponse partiels en ce qui concerne la quantité d'information recueillie dans le cadre de l'enquête par cas émis. Les primes d'encouragement ont eu des effets proportionnels sur les taux de rétention pour une gamme de caractéristiques des répondants et, par conséquent, n'ont pas réduit le biais d'attrition relatif à ces caractéristiques. Les effets des primes d'encouragement sur le taux de rétention étaient plus importants pour les primes inconditionnelles que pour les primes conditionnelles, et plus importants également pour le mode de collecte par la poste que pour celui par téléphone. D'une vague à l'autre, les effets sur l'attrition ont diminué quelque peu, mais les effets sur la non réponse partielle et l'absence d'effet sur le biais sont demeurés constants. Les effets des primes d'encouragement offertes lors de vagues plus tardives semblent avoir été indépendants des traitements relatifs aux primes et des modes de collecte des données appliqués lors de vagues antérieures.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110614
    Description :

    L'Enquête sur la population active (EPA) réalisée au Canada permet de produire des estimations mensuelles du taux de chômage aux niveaux national et provincial. Le programme de l'EPA diffuse aussi des estimations du chômage pour des régions infraprovinciales, comme les régions métropolitaines de recensement (RMR) et les centres urbains (CU). Cependant, pour certaines de ces régions infraprovinciales, les estimations directes ne sont pas fiables, parce que la taille de l'échantillon est assez petite. Dans le contexte de l'EPA, l'estimation pour de petites régions a trait à l'estimation des taux de chômage pour des régions infraprovinciales telles que les RMR/CU à l'aide de modèles pour petits domaines. Dans le présent article, nous discutons de divers modèles, dont celui de Fay Herriot et des modèles transversaux ainsi que chronologiques. En particulier, nous proposons un modèle non linéaire intégré à effets mixtes sous un cadre hiérarchique bayésien (HB) pour l'estimation du taux de chômage d'après les données de l'EPA. Nous utilisons les données mensuelles sur les bénéficiaires de l'assurance emploi (a. e.) au niveau de la RMR ou du CU comme covariables auxiliaires dans le modèle. Nous appliquons une approche HB ainsi que la méthode d'échantillonnage de Gibbs pour obtenir les estimations des moyennes et des variances a posteriori des taux de chômage au niveau de la RMR ou du CU. Le modèle HB proposé produit des estimations fondées sur un modèle fiables si l'on s'en tient à la réduction du coefficient de variation. Nous présentons dans l'article une analyse d'ajustement du modèle et une comparaison des estimations fondées sur le modèle aux estimations directes.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110613
    Description :

    L'enquête réalisée par la Chine dans le cadre du projet International Tobacco Control (ITC) Policy Evaluation Survey comprend un plan d'échantillonnage à plusieurs degrés avec probabilités inégales où les grappes du niveau supérieur sont sélectionnées par la méthode d'échantillonnage PPT systématique randomisé. Durant l'exécution de l'enquête, il faut résoudre le problème suivant : plusieurs grappes de niveau supérieur échantillonnées refusent de participer à l'enquête et doivent être remplacées par des unités de substitution sélectionnées parmi les unités non incluses dans l'échantillon initial, de nouveau par la méthode d'échantillonnage PPT systématique randomisé. Dans de telles conditions, les probabilités d'inclusion de premier ordre des unités finales sélectionnées sont très difficiles à calculer et la détermination des probabilités d'inclusion de deuxième ordre devient pratiquement impossible. Dans le présent article, nous élaborons une méthode fondée sur la simulation pour calculer les probabilités d'inclusion de premier et de deuxième ordre lorsque le calcul direct est prohibitif ou impossible. Nous démontrons l'efficacité et la faisabilité de la méthode que nous proposons en nous appuyant sur des considérations théoriques et des exemples numériques. Nous incluons plusieurs fonctions et codes R/S PLUS pour la procédure proposée. La méthode peut être étendue à des situations de refus/substitution plus complexes susceptibles de survenir en pratique.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110615
    Description :

    Nous considérons les taux d'échantillonnage optimaux dans des plans d'échantillonnage par élément, quand l'analyse prévue est la régression linéaire pondérée par les poids de sondage et que les paramètres à estimer sont des combinaisons linéaires des coefficients de régression provenant d'un ou de plusieurs modèles. Nous commençons par élaborer des méthodes en supposant que des renseignements exacts sur les variables du plan existent dans la base de sondage, puis nous les généralisons à des situations où l'information pour certaines variables du plan n'est disponible que sous forme d'agrégat pour des groupes de sujets éventuels ou provient de données inexactes ou périmées. Nous envisageons également un plan d'échantillonnage pour l'estimation de combinaisons de coefficients provenant de plus d'un modèle. Une généralisation supplémentaire permet d'utiliser des combinaisons flexibles de coefficients choisies pour améliorer l'estimation d'un effet tout en en contrôlant un autre. Les applications éventuelles comprennent l'estimation des moyennes pour plusieurs ensembles de domaines chevauchants, ou l'amélioration des estimations pour des sous populations telles que les races minoritaires par échantillonnage non proportionnel des régions géographiques. Dans le contexte de la conception d'un sondage sur les soins reçus par les cancéreux (l'étude CanCORS) qui a motivé nos travaux, l'information éventuelle sur les variables du plan d'échantillonnage comprenait des données de recensement au niveau de l'îlot sur la race/ethnicité et la pauvreté, ainsi que des données au niveau individuel. Pour un emplacement de l'étude, un plan d'échantillonnage avec probabilités inégales en utilisant les adresses résidentielles des sujets et des données de recensement réduirait la variance de l'estimateur d'un effet du revenu de 25 %, ou de 38 % si la race des sujets avait été connue également. Par pondération flexible des contrastes du revenu selon la race, la variance de l'estimateur serait réduite de 26 % en utilisant les adresses résidentielles seulement et de 52 % en utilisant les adresses et les races. Nos méthodes seraient utiles dans les études où l'on considère un suréchantillonnage géographique selon la race ethnicité ou les caractéristiques socioéconomiques, ou dans toute étude où les caractéristiques pour lesquelles des données sont disponibles dans les bases de sondage sont mesurées avec une erreur.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110611
    Description :

    En échantillonnage de populations finies, on dispose souvent d'information a priori sous la forme de renseignements partiels sur une variable auxiliaire, dont on connaît, par exemple, la moyenne. Dans de tels cas, on utilise fréquemment l'estimateur par le ratio et l'estimateur par la régression pour estimer la moyenne de population de la caractéristique d'intérêt. La loi a posteriori de Pólya a été établie à titre d'approche bayésienne non informative de l'échantillonnage. Son application est indiquée quand on ne dispose que de peu d'information a priori, voire aucune, au sujet de la population. Ici, nous montrons que cette loi peut être étendue afin d'y intégrer divers types d'information a priori partielle au sujet des variables auxiliaires. Nous verrons que cette approche produit généralement des méthodes ayant de bonnes propriétés fréquentistes, même dans certains cas où les méthodes fréquentistes classiques sont difficiles à appliquer.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110606
    Description :

    Aux États Unis, les données provenant des sondages électoraux sont habituellement présentées dans des tableaux de contingence à double entrée et de nombreux sondages sont réalisés avant qu'ait lieu l'élection réelle en novembre. Par exemple, pour l'élection du gouverneur de l'État de l'Ohio en 1998, trois sondages (Buckeye State Poll) ont eu lieu, un en janvier, un en avril et un en octobre; la première catégorie des tableaux représente les candidats (par exemple Fisher, Taft et autre) et la deuxième représente l'intention courante de vote (votera vraisemblablement ou ne votera vraisemblablement pas pour le gouverneur de l'Ohio). Le nombre d'électeurs indécis est important dans l'une ou dans les deux catégories pour les trois sondages et nous utilisons une méthode bayésienne pour les répartir entre les trois candidats. Nous pouvons ainsi modéliser divers scénarios de données manquantes sous les hypothèses d'ignorabilité et de non ignorabilité, et nous utilisons un modèle Dirichlet Multinomial pour estimer les probabilités de cellule qui nous aideront à prédire le gagnant. Nous proposons un modèle de non réponse non ignorable variable en fonction du temps pour les trois tableaux. Ici, un modèle de non réponse non ignorable est centré sur un modèle de non réponse ignorable afin d'induire une certaine souplesse et une certaine incertitude au sujet de l'ignorabilité ou de la non ignorabilité. Nous considérons également deux autres modèles concurrents, à savoir un modèle de non réponse ignorable et un modèle de non réponse non ignorable. Ces deux derniers modèles reposent sur l'hypothèse d'un processus stochastique commun pour obtenir un renforcement par emprunt de données au cours du temps. Nous utilisons des méthodes de Monte Carlo par chaîne de Markov pour ajuster les modèles. Nous construisons aussi un paramètre qui peut éventuellement être utilisé pour prédire le gagnant parmi les candidats à l'élection de novembre.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110610
    Description :

    Un nouvel estimateur par la régression généralisée d'un total de population finie basé sur la méthode de transformation de Box-Cox et son estimateur de la variance sont proposés sous un plan général de sondage à probabilités inégales. En étant convergent par rapport au plan de sondage, l'estimateur proposé retient la propriété de robustesse de l'estimateur GREG, même si le modèle sous jacent est défaillant. En outre, la méthode de Box-Cox permet de trouver automatiquement une transformation raisonnable de la variable dépendante en se servant des données. La robustesse et l'efficacité du nouvel estimateur sont évaluées analytiquement et par des études en simulation de Monte Carlo.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110619
    Description :

    La prédiction sur petits domaines fondée sur des effets aléatoires, appelée (MPLSBE), est une méthode de construction d'estimations pour de petites régions géographiques ou de petites sous populations en utilisant les données d'enquête existantes. Souvent, le total des prédicteurs sur petits domaines est forcé d'être égal à l'estimation par sondage directe et ces prédicteurs sont alors dits calés. Nous passons en revue plusieurs prédicteurs calés et présentons un critère qui unifie leur calcul. Nous dérivons celui qui est l'unique meilleur prédicteur linéaire sans biais sous ce critère et discutons de l'erreur quadratique moyenne des prédicteurs calés. L'imposition de la contrainte comporte implicitement la possibilité que le modèle de petit domaine soit spécifié incorrectement et que les prédicteurs présentent un biais. Nous étudions des modèles augmentés contenant une variable explicative supplémentaire pour lesquels les prédicteurs sur petits domaines ordinaires présentent la propriété d'autocalage. Nous démontrons à l'aide de simulations que les prédicteurs calés ont un biais un peu plus faible que le prédicteur MPLSBE habituel. Cependant, si le biais est une préoccupation, une meilleure approche consiste à utiliser un modèle augmenté contenant une variable auxiliaire supplémentaire qui est fonction de la taille du domaine. Dans les simulations, les prédicteurs fondés sur le modèle augmenté ont une EQM plus petite que MPLSBE quand le modèle incorrect est utilisé pour la prédiction. De surcroît, l'EQM augmente très légèrement comparativement à celle de MPLSBE si la variable auxiliaire est ajoutée au modèle correct.

    Date de diffusion : 2008-06-26

Références (70)

Références (70) (25 of 70 results)

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2009001
    Description :

    Ce guide présente de l'information qui intéresse les utilisateurs des données provenant de l'Enquête sur les dépenses des ménages, nous avons obtenu des renseignements sur les habitudes de dépense, les caractéristiques des logements et de l'équipement ménager des ménages canadiens. L'enquête a porté sur les ménages privés des dix provinces. (Dans le but de réduire le fardeau de réponse pour les ménages du nord, l'EDM est menée dans le nord seulement tous les deux ans, débutant a partir de 1999.)

    Ce guide comprend les définitions des termes et des variables de l'enquête, ainsi que des descriptions de la méthode, la qualité des données, et le contenu de tableaux standards de données. Il contient aussi une section décrivant les différentes statistiques pouvant être créées au moyen des données sur les dépenses (p. ex. part du budget, part du marché, et agrégat de dépenses).

    Date de diffusion : 2008-12-22

  • Produits techniques : 75F0002M2008005
    Description :

    L'Enquête sur la dynamique du travail et du revenu (EDTR) est une enquête longitudinale qui date de 1993. Elle se veut un moyen de mesurer les variations du bien-être économique des Canadiens ainsi que les facteurs touchant ces changements. Les enquêtes par sondage sont sujet aux erreurs d'échantillonnage. Pour tenir compte de ces erreurs, les estimations présentées dans la série "Tendance du revenu au Canada" viennent avec un indicateur de qualité basé sur le coefficient de variation. Cependant d'autres facteurs doivent également ête considérés afin d'utiliser les données de l'enquête à bon escient. Statistique Canada met un temps et un effort considérable à contrôler les erreurs à chaque stade de l'enquête et à optimiser l'utilité des données. Malgré tout, la façon dont l'enquête a été conçue et le traitement des données peuvent limiter la bonne utilisation des données de l'enquête. Statistique Canada a pour politique de fournir des mesures de la qualité des données pour aider ses utilisateurs à bien interpréter les données. Le présent rapport résume l'ensemble des mesures de qualité des données de l'EDTR. Parmi les mesures incluses dans le rapport nous retrouvons la composition de l'échantillon, le taux d'érosion, les erreurs d'échantillonnage, les erreurs de couverture, le taux de réponse, le taux de permission d'accès au dossier fiscal, le taux de couplage avec le dossier fiscal et le taux d'imputation.

    Date de diffusion : 2008-08-20

  • Produits techniques : 11-522-X200600110424
    Description :

    L'enquête réalisée par la Chine dans le cadre du programme de lutte internationale contre le tabagisme (ITC pour International Tobacco Control) comprend un plan d'échantillonnage à plusieurs degrés avec probabilités inégales où les grappes du niveau supérieur sont sélectionnées par la méthode d'échantillonnage PPT systématique randomisé. Durant l'exécution de l'enquête, il faut résoudre le problème suivant : plusieurs grappes de niveau supérieur échantillonnées refusent de participer et doivent être remplacées par des unités de substitution sélectionnées parmi les unités non incluses dans l'échantillon initial, de nouveau par la méthode d'échantillonnage PPT systématique randomisé. Dans de telles conditions, les probabilités d'inclusion de premier ordre des unités finales sélectionnées sont très difficiles à calculer et la détermination des probabilités d'inclusion de deuxième ordre devient virtuellement impossible. Dans le présent article, nous élaborons une méthode fondée sur la simulation pour calculer les probabilités d'inclusion de premier et de deuxième ordre lorsque le calcul direct est prohibitif ou impossible. Nous démontrons l'efficacité de la méthode que nous proposons en nous appuyant sur des considérations théoriques et des exemples numériques. Nous incluons plusieurs fonctions et codes R/S PLUS pour la procédure proposée. La méthode peut être étendue à des situations de refus/substitution plus complexes susceptibles de survenir en pratique.

    Date de diffusion : 2008-06-26

  • Enquêtes et programmes statistiques — Documentation : 71-526-X
    Description :

    L'Enquête sur la population active du Canada (EPA) est la source d'estimations mensuelles de l'emploi et du chômage. Après chaque recensement décennal de la population, on remanie le plan de sondage de l'EPA pour tenir compte de l'évolution des caractéristiques de la population et des besoins en information que cette enquête cherche à satisfaire. Le programme de remaniement qui a suivi le recensement de 2001 a abouti à l'introduction d'un nouvel échantillon à la fin de l'année 2004. Cette publication est un ouvrage de référence sur la méthodologie et les opérations de l'EPA, y compris la stratification, l'échantillonnage, les opérations de l'enquête, la pondération, l'estimation et la qualité des données.

    Date de diffusion : 2008-06-25

  • Produits techniques : 75F0002M2008002
    Description :

    L'Enquête sur la dynamique du travail et du revenu (EDTR) comporte une interview annuelle sur le travail et le revenu en janvier. Les données sont recueillies au moyen d'une méthode d'entrevue assistée par ordinateur; il n'y a donc pas de questionnaires papier pour la collecte. Les questions, les réponses et le déroulement de l'entrevue sur le travail et le revenu sont décrits dans un autre document de recherche de l'EDTR. Ce document présente les renseignements de la partie entrée et sortie de l'entrevue 2007 sur le travail et le revenu (l'année de référence 2006).

    La composante d'Entrée et Sortie est répartie en cinq modules différents. Le module entrée correspond à la première série de données recueillies. Il sert à mettre à jour les données sur le lieu de résidence, les conditions et les dépenses de logement ainsi que sur la composition du ménage. Pour chaque personne signalée au module entrée, le module démographique permet de réunir (ou de mettre à jour) le nom de la personne, la date de naissance, le sexe, et l'état matrimonial. Ensuite, le module liens de parenté permet de réunir (ou de mettre à jour) le lien entre chaque répondant et tous les autres membres du ménage. Le module sortie comprend des questions sur l'identité de la personne avec qui communiquer pour la prochaine entrevue et les noms, numéros de téléphone et adresses de deux personnes-ressources à utiliser seulement si un dépistage des répondants est requis ultérieurement. Un aperçu de la composante dépistage est également inclus dans ce document.

    Date de diffusion : 2008-05-30

  • Produits techniques : 75F0002M2008003
    Description :

    L'Enquête sur la dynamique du travail et du revenu (EDTR) est une enquête longitudinale qui recueille des renseignements sur les niveaux de vie des personnes et de leur famille. En interviewant les mêmes personnes sur une période de six ans, les changements et leurs causes peuvent être surveiller.

    Une entrevue préliminaire visant à recueillir des renseignements généraux est menée auprès de tous les répondants âgés de 16 ans et plus qui sont ajoutés à l'échantillon de l'EDTR. Les entrevues préliminaires sont menées auprès des nouveaux membres d'un ménage pendant leur première entrevue sur le travail et le revenu après leur arrivée dans le ménage. Une interview sur le travail et le revenu est effectuée chaque année auprès de tous les répondants âgés de 16 ans et plus.

    Ce document de recherche présente le contenu de l'entrevue préliminaire, de l'entrevue sur le travail et le revenu de 2007 (pour l'année de référence 2006) y compris le libellé et le cheminement des questions ainsi que les choix de réponses possibles.

    Date de diffusion : 2008-05-30

  • Produits techniques : 11-522-X2006001
    Description :

    Depuis 1984, une série de conférences annuelles a été parrainé par Statistique Canada. Le recueil de la conférence est disponible depuis 1987. Le Symposium 2006 a été le vingt-troisième d'une série de colloques internationaux organisés par Statistique Canada sur des questions de méthodologie. Chaque année le symposium traite d'un thème particulier. Celui de 2006 était : « Enjeux méthodologiques reliés à la mesure de la santé des populations ».

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110410
    Description :

    Survey of Occupational Illnesses and Injuries (SOII) des États Unis est une enquête à grande échelle effectuée auprès des établissements et réalisée par le Bureau of Labor Statistics. Elle a pour but de mesurer les taux d'incidence et les conséquences des maladies et des blessures professionnelles dans certaines industries à l'échelle du pays et de l'État. À l'heure actuelle, cette enquête s'appuie sur des méthodes relativement simples pour la détection et le traitement des valeurs aberrantes. Les méthodes de détection des valeurs aberrantes reposent sur la comparaison des taux d'incidence déclarés en ce qui concerne l'établissement à la distribution correspondante des déclarations dans des cellules particulières définies par le croisement des classifications selon l'État et selon l'industrie. Les méthodes de traitement comportent le remplacement des poids probabilistes type par un poids dont la valeur est fixée à un, suivi par un étalonnage.

    Des méthodes plus complexes pourraient être utilisées pour la détection et le traitement des valeurs aberrantes dans la SOII, par exemple des méthodes de détection qui s'appuient sur des fonctions d'influence, des poids probabilistes et des observations multivariées, ou des méthodes de traitement fondées sur la winsorisation ou l'estimation M. L'évaluation des avantages pratiques de ces méthodes plus complexes nécessite la prise en considération de trois facteurs importants. Premièrement, les valeurs très extrêmes sont relativement rares, mais lorsqu'elles se produisent, elles peuvent avoir un effet important sur les estimateurs de la SOII dans les cellules définies par le croisement des États et des industries. Par conséquent, l'évaluation pratique de l'effet des méthodes de détection des valeurs aberrantes se concentre principalement sur les queues des distributions des estimateurs, plutôt que sur les mesures de performance agrégées normalisées, comme la variance ou l'erreur quadratique moyenne. Deuxièmement, les évaluations analytiques et fondées sur des données sont axées sur l'amélioration progressive obtenue grâce à l'utilisation de méthodes plus complexes, comparativement aux résultats produits par les méthodes simples suivies à l'heure actuelle. Troisièmement, l'élaboration des outils susmentionnés nécessite le recours à une théorie asymptotique qui n'est pas tout à fait standard pour refléter les compromis en ce qui a trait aux effets associés à, respectivement, l'accroissement de la taille des échantillons, l'accroissement du nombre de cellules pour la publication et l'évolution des queues des distributions sous jacentes des observations.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110418
    Description :

    L'usage courant des modèles multiniveaux pour examiner les effets du contexte environnant sur les résultats en matière de santé témoigne de leur valeur en tant que méthode statistique d'analyse de données groupées. Cependant, l'application de la modélisation multiniveaux à des données provenant d'enquêtes à l'échelle de la population est souvent limitée par le petit nombre de cas par unité de deuxième niveau, si bien que l'on relève dans la littérature sur les effets du quartier une tendance récente à appliquer des méthodes d'analyse par grappes, ou classification automatique, pour contourner le problème de la dispersion des données. Dans le présent article, nous utilisons des simulations de Monte Carlo pour étudier les effets des tailles marginales de groupe et des méthodes d'analyse par grappes sur la validité des estimations des paramètres dans les modèles multiniveaux linéaires ainsi que non linéaires.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110453
    Description :

    Les enquêtes nationales sur l'alimentation et la nutrition fournissent des renseignements essentiels pour comprendre la relation complexe qui existe entre la santé et l'alimentation au sein de la population. Bon nombre de ces enquêtes ont recours à la méthodologie du rappel alimentaire de 24 heures qui permet de connaître de façon détaillée tous les aliments et boissons consommés au cours d'une journée. Ce sont souvent les apports d'aliments et d'éléments nutritifs à long terme qui revêtent un intérêt, et il existe plusieurs techniques permettant d'estimer les apports habituels de la population. Ces techniques exigent qu'au moins un rappel alimentaire de 24 heures soit effectué auprès d'au moins un sous-ensemble de la population afin de pouvoir estimer la variabilité des apports chez une même personne. La détermination du nombre de personnes nécessaires pour constituer un rappel est une étape importante du plan d'enquête, dans la mesure où il faut reconnaître qu'un nombre trop faible de personnes participant au rappel peut compromettre la capacité à évaluer l'apport habituel, mais qu'un nombre élevé de rappels est coûteux et représente un fardeau supplémentaire pour les répondants. Ce document de recherche se penche sur les questions statistiques liées au nombre de personnes participant au rappel en évaluant l'incidence du nombre de ces personnes sur la stabilité et l'incertitude de l'estimation de la variabilité chez une même personne et en donnant une indication de ce que ce nombre devrait être.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110370
    Description :

    De nombreux pays mènent des enquêtes portant spécifiquement sur la santé de leur population. Puisque la santé tient une place de premier plan dans la plupart des aspects de la vie, des données sur la santé sont également recueillies dans des enquêtes auprès de la population qui traitent d'autres sujets. Les enquêtes sur la santé de la population comprennent généralement la santé physique et mentale, la santé dentaire, les incapacités, la toxicomanie, les facteurs de risque pour la santé, la nutrition, la promotion de la santé, l'utilisation et la qualité des soins de santé, la protection en matière de santé et les coûts. Certaines enquêtes portent sur des problèmes de santé bien précis, alors que d'autres visent à évaluer l'état général de santé. La santé est souvent une composante importante des études longitudinales, notamment dans les cohortes de naissance et les cohortes vieillissantes. Les renseignements sur la santé peuvent être recueillis par l'entremise des déclarations faites par les répondants (sur eux-mêmes et parfois sur d'autres), d'examens médicaux ou de mesures biologiques. L'exactitude des renseignements sur la santé déclarés par les répondants soulève des préoccupations réelles. La logistique, le coût et la collaboration des répondants sont des considérations de taille lorsque les renseignements sont recueillis par des examens médicaux. Enfin, les questions d'éthique et de protection de la vie privée sont souvent importantes, surtout lorsque de l'ADN et des biomarqueurs sont en cause. La comparabilité internationale des mesures de la santé gagne en importance. Le présent article analyse la méthodologie de diverses enquêtes sur la santé et examine les défis que pose la collecte de données exactes dans ce domaine.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110448
    Description :

    Des méthodes de sélection des dossiers servant à établir des totalisations des données nationales sur l'hospitalisation pour blessures ont été mises au jour. Trois de ces méthodes étaient fondées sur le diagnostic principal figurant dans le dossier de sortie d'hôpital, et les trois autres, sur le code de la cause externe de la blessure. Les différences relevées entre ces deux grands groupes se sont soldées par l'établissement de six méthodes distinctes, qui ont été appliquées séparément au même ensemble de données de sortie d'hôpital. Le nombre et le type de dossiers obtenus avec ces six méthodes sont comparés, et les résultats de ces comparaisons sont examinés sous l'angle de la surveillance des blessures.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110440
    Description :

    Alors que prennent fin une journée d'ateliers et deux journées bien remplies de séances, j'ai l'immense plaisir de vous livrer le mot de la fin et, surtout, de souligner les efforts déployés par ceux qui ont contribué au succès du Symposium de cette année. J'admets avec force qu'il s'agit d'une réussite.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110422
    Description :

    De nombreuses enquêtes sur la population recueillent des données sur la consommation d'aliments en recourant à la formule du rappel alimentaire de 24 heures pour consigner de façon détaillée la quantité d'aliments ingérés dans une journée. Afin d'estimer l'ingestion d'aliments et de nutriments à plus long terme à partir de ces données, des méthodes ont été mises au point qui nécessitent une deuxième interview de rappel auprès d'un sous-ensemble de répondants pour estimer la variabilité d'un jour à l'autre. Dans le cadre de l'Enquête thématique sur la nutrition comprise dans l'Enquête sur la santé dans les collectivités canadiennes (cycle 2.2), la plupart des premières interviews ont été menées en personne et la plupart des interviews de rappel, au téléphone. Le présent article examine les effets de la méthode utilisée pour les interviews sur les aliments et nutriments ingérés déclarés à la fois le premier jour et le jour du rappel, ainsi que sur l'estimation de la variabilité chez une même personne entre la première et la deuxième interview.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110401
    Description :

    L'Australian Bureau of Statistics (ABS) entamera la création d'un ensemble de données statistiques longitudinales de recensement (EDSLR) en sélectionnant un échantillon de 5 % de personnes provenant de la population du Recensement de 2006 en vue de le coupler de manière probabiliste aux données des futurs recensements. L'un des objectifs à long terme est de profiter de la force des riches données démographiques longitudinales fournies par l'EDSLR pour offrir des éclaircissements sur diverses questions qui ne peuvent être résolues à l'aide de données transversales. L'EDSLR pourrait être amélioré par couplage probabiliste avec les données sur les naissances, les décès et l'immigration, ainsi qu'avec celles des registres des maladies. Le présent article décrit brièvement les progrès récents dans le domaine du couplage des données à l'ABS, expose les grandes lignes, la méthodologie de couplage des données et les mesures de la qualité qui ont été envisagées et résume les résultats provisoires à l'aide des données du test du recensement.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110427
    Description :

    La National Health and Nutrition Examination Survey (NHANES) fait partie d'une série de programmes ayant trait à la santé parrainés par le National Center for Health Statistics des États-Unis. Une caractéristique unique de la NHANES est que tous les répondants de l'échantillon sont soumis à un examen médial complet. Afin de normaliser la façon dont ils sont effectués, ces examens se déroulent dans des centres d'examen mobiles (CEM). L'examen comprend des mesures physiques, des tests tels que l'examen de la vue et des dents, ainsi que le prélèvement d'échantillons de sang et d'urine pour des analyses biologiques. La NHANES est une enquête annuelle continue sur la santé effectuées auprès de la population civile des États-Unis ne résidant pas en établissement. Les principaux objectifs analytiques comprennent l'estimation du nombre et du pourcentage de personnes dans la population des États-Unis et dans des sous groupes désignés qui présentent certaines maladies et certains facteurs de risque. Le plan d'échantillonnage de la NHANES doit permettre d'établir un juste équilibre entre les exigences liées à l'obtention d'échantillons annuels et pluriannuels efficaces et la souplesse requise pour pouvoir modifier les paramètres essentiels du plan afin de mieux adapter l'enquête au besoin des chercheurs et des décideurs qui élaborent les politiques en matière de santé. Le présent article décrit les défis associés à la conception et à la mise en oeuvre d'un processus d'échantillonnage permettant d'atteindre les objectifs de la NHANES.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110421
    Description :

    Afin d'augmenter le taux de réponse et de réduire les coûts, un grand nombre d'organismes d'enquête ont commencé à utiliser plusieurs modes de collecte pour recueillir des données pertinentes. Bien que la National Health Interview Survey (NHIS), une enquête polyvalente sur la santé des ménages menée annuellement par le National Center for Health Statistics des Centers for Disease Control and Prevention, soit essentiellement une enquête par interview sur place, il arrive que les interviewers réalisent certaines interviews par téléphone. Cette situation soulève des questions quant à la qualité des données résultantes. Pour y répondre, les données de la NHIS de 2005 sont utilisées pour analyser l'effet du mode de collecte sur huit indicateurs clés de la santé.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110408
    Description :

    Malgré les progrès réalisés en vue d'améliorer la santé de la population des États Unis, des disparités en matière de santé persistent entre divers groupes raciaux/ethniques et socioéconomiques. Les sources habituelles de données pour évaluer la santé d'une population d'intérêt comprennent les enquêtes à grande échelle, qui contiennent souvent des questions à réponse autodéclarée, comme « Un médecin ou un autre professionnel de la santé vous a t-il déjà dit que vous souffrez de problème de santé d'intérêt ? Les réponses à de telles questions pourraient ne pas refléter la prévalence réelle des problèmes de santé (p. ex., si le répondant n'a pas accès à un médecin ou à un autre professionnel de la santé). De même, les renseignements autodéclarés concernant des données quantitatives telles que la taille et le poids pourraient être entachés d'erreurs de déclaration. Ce genre d'« erreurs de mesure » dans les données sur la santé pourraient avoir une incidence sur les inférences relatives aux mesures de la santé et aux disparités en matière de santé. Dans la présente étude, nous ajustons des modèles d'erreur de mesure aux données de la National Health and Nutrition Examination Survey, qui comprend un volet d'interview durant lequel sont posées des questions à réponse autodéclarée et un volet d'examen durant lequel sont obtenues des mesures physiques. Puis, nous élaborons des méthodes permettant d'utiliser les modèles ajustés pour améliorer l'analyse des données autodéclarées provenant d'une autre enquête ne comportant pas de volet d'examen. Enfin, nous appliquons ces méthodes, qui comportent l'imputation multiples de valeurs fondées sur les données recueillies par examen à l'enquête ne produisant que des données autodéclarées, à la National Health Interview Survey dans des exemples ayant trait au diabète, à l'hypertension et à l'obésité. Les résultats préliminaires laissent entendre que les ajustements pour l'erreur de mesure peuvent causer des variations non négligeables des estimations des mesures de la santé.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110396
    Description :

    À partir des données sur l'Enquête sur la santé dans les collectivités canadiennes, il est possible d'estimer les distributions des apports habituels de nutriments. Il est plus difficile d'estimer la consommation habituelle d'aliments. Cette dernière doit être estimée en jumelant la fréquence de consommation de l'aliment avec la distribution de l'apport habituel de l'aliment chez les consommateurs. Il peut être difficile d'estimer cette distribution pour des aliments plus rares et il est pratiquement impossible d'obtenir des estimations fiables de la fréquence de consommation de l'aliment en se fiant sur seulement deux jours de données par répondant. L'utilisation d'une source extérieure ou d'une hypothèse paramétrique peut solutionner en partie ce problème. Une alternative est d'utiliser une approche indirecte pour estimer l'impact d'un aliment sur la distribution de l'apport habituel d'un nutriment en éliminant ou en remplaçant en tout ou en partie l'aliment par un autre.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110438
    Description :

    Dans le cadre d'une initiative visant à concevoir un ensemble de questions pour mesurer l'incapacité dans le contexte de la Current Population Survey (CPS), des questions potentielles extraites d'enquêtes existantes ont fait l'objet de tests cognitifs et d'essais sur le terrain. À la suite d'une analyse des résultats des tests, un groupe de sept questions ont été retenues, testées sur le plan cognitif et intégrées dans la CPS de février 2006 en vue d'un essai. L'analyse des données de la CPS a révélé un taux global d'incapacité plus faible que celui de l'essai sur le terrain, les taux de réponse positifs à chaque question étant plus faibles. Aucun effet négatif sur les taux de réponse n'a été mis au jour.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110390
    Description :

    Nous proposons un modèle linéaire généralisé avec composantes aléatoires additives (GLMARC pour generalized linear model with additive random components) de niveau agrégé applicable aux dénombrements binaires provenant d'enquêtes. Ce modèle comporte une partie linéaire (pour les effets aléatoires) et une partie non linéaire (pour les effets fixes) pour la modélisation de la fonction de moyenne et appartient donc à la classe des modèles mixtes linéaires et non linéaires (MLNL). Il permet d'adopter une approche de type modèle linéaire mixte (LMM) pour l'estimation sur petits domaines (EPD) semblable dans une certaine mesure à la méthode bien connue de Fay Herriot (1979) et tient donc compte du plan d'échantillonnage. Contrairement à l'approche bayésienne hiérarchique (BH) de You et Rao (2002), la méthode proposée donne lieu à des estimations sur petits domaines et des diagnostics fréquentistes faciles à interpréter, ainsi qu'à un auto étalonnage reposant sur des estimations directes fiables sur grands domaines. La méthodologie habituelle des LMM ne convient pas dans le cas de dénombrements, à cause de l'absence de contraintes d'intervalle pour la fonction de moyenne et de la possibilité d'obtenir des estimations non raisonnables (p. ex. 0 dans le contexte de l'EPD) des composantes de variance, car le modèle ne permet pas que la partie des effets aléatoires de la fonction de moyenne conditionnelle dépende de la moyenne marginale. La méthode proposée est une amélioration de la méthode élaborée antérieurement par Vonesh et Carter (1992) qui s'appuyait aussi sur des modèles mixtes linéaires et non linéaires, mais qui ne tenait pas compte de la relation entre la variance et la moyenne, quoique cela se fasse habituellement par des contraintes d'intervalle pour les effets aléatoires. En outre, les effets du plan de sondage et l'estimation des effets aléatoires n'étaient pas envisagés. En revanche, dans notre application à l'estimation sur petits domaines, il est important d'obtenir des estimations appropriées des effets fixes ainsi qu'aléatoires. Il convient de souligner que, contrairement au modèle linéaire mixte généralisé (GLMM), le modèle GLMARC se caractérise, comme les LMM, par une grande simplicité d'ajustement. Cette dernière est due au remplacement des effets fixes et aléatoires originaux du GLMM par un nouvel ensemble de paramètres du GLMARC dont l'interprétation est assez différente, car l'effet aléatoire n'est plus intégré dans la fonction prédictrice non linéaire. Toutefois, cela n'a aucune conséquence pour estimation sur petits domaines, parce que les paramètres de petit domaine correspondent aux moyennes conditionnelles globales et non aux paramètres individuels du modèle. Nous proposons pour l'estimation des paramètres une méthode s'appuyant sur l'application itérative du meilleur prédicteur linéaire sans biais (BLUP pour best linear unbiased predictor) qui permet l'auto étalonnage après un agrandissement approprié du modèle. Le problème des petits domaines pour lesquels la taille d'échantillon est faible, voire nulle, ou des estimations directes nulles est résolu en regroupant les domaines pour l'étape de l'estimation des paramètres uniquement. L'application du modèle à l'Enquête sur la santé dans les collectivités canadiennes de 2000 2001 en vue d'estimer la proportion de fumeurs quotidiens dans les sous populations définies par les régions sociosanitaires provinciales selon le groupe âge sexe est présentée à titre d'illustration.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110437
    Description :

    Le ministère de la Santé de la Nouvelle-Zélande a élargi son enquête sur la santé de la population, la New Zealand Health Survey (NZHS), de façon à y intégrer un questionnaire portant précisément sur la santé des enfants. Le principal objectif de ce questionnaire est de recueillir auprès de parents ou de fournisseurs de soins des données sur la santé pouvant servir à évaluer l'état de santé des enfants à l'échelle de la population, le recours aux services de santé ainsi que les risques pour la santé et les comportements de protection qui trouvent leur origine dans l'enfance. Auparavant, seules les données recueillies à l'occasion des contacts de l'enfant avec le système de santé, comme les dossiers administratifs des hôpitaux et les bases de données sur les maladies/blessures, étaient disponibles pour évaluer la santé des enfants en Nouvelle-Zélande. L'auteure examine le processus de conception du questionnaire concernant la composante de la NZHS de 2006 2007 sur la santé des enfants, notamment en ce qui a trait au choix des sujets, à l'établissement des questions, aux tests cognitifs, au plan d'échantillonnage préliminaire, à la rédaction finale des questions et à l'essai général.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110443
    Description :

    La population du Brésil vieillit puisque le nombre de personnes âgées a augmenté. Des instruments ont été élaborés pour mesurer la qualité de vie de ces personnes. Un questionnaire composé de différents instruments validés et d'une question ouverte a donc été appliqué à un groupe de personnes âgées de la ville de Botucatu, SP, au Brésil. L'analyse des réponses à la question ouverte, évaluées selon des méthodes qualitatives, a permis d'obtenir onze catégories d'opinions des personnes âgées sur la qualité de vie, et une analyse par grappes des réponses a permis de diviser les personnes âgées en trois groupes. L'étude visait ainsi à valider les catégories obtenues à l'aide de la question ouverte par les questions fermées de l'instrument au moyen d'associations et de l'application de tests du chi carré au niveau de signification de 5 %. On a observé que l'analyse qualitative permet de déterminer les phénomènes sans égard à la saturation de catégories. En revanche, la méthode quantitative montre le poids de chaque catégorie dans un ensemble, c'est à dire globalement.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110435
    Description :

    En 1999, la première enquête représentative à l'échelle nationale de la santé mentale des enfants et des jeunes de 5 à 15 ans a été menée en Grande-Bretagne. Une deuxième enquête a été réalisée en 2004. Ces enquêtes avaient trois objectifs : estimer la prévalence des troubles mentaux chez les jeunes, examiner leur utilisation des services de santé, des services sociaux et des services éducatifs et analyser les facteurs de risque liés aux troubles mentaux. On a mené respectivement 10 500 et 8 000 interviews. Il a fallu aborder certaines questions essentielles concernant un grand nombre d'enjeux méthodologiques et prendre des décisions en tenant compte des facteurs étudiés dans le présent document.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110423
    Description :

    Réalisée par Statistique Canada, l'Enquête sur la santé dans les collectivités canadiennes utilise deux bases de sondage et deux modes de collecte des données. Au cycle 2.1, un changement dans la répartition de l'échantillon entre les deux bases a été apporté. Une étude sur l'effet des modes menée par Statistique Canada faisait état de problèmes de comparabilité entre les cycles 1.1 et 2.1. L'Institut de la statistique du Québec a plutôt examiné ce changement dans sa globalité et a classé 178 variables en « variables comparables » et « non comparables ». Des recommandations ont été données aux utilisateurs québécois en matière de comparaisons chronologiques et interrégionales.

    Date de diffusion : 2008-03-17

Date de modification :