Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (22)

Tout (22) (0 à 10 de 22 résultats)

  • Articles et rapports : 12-001-X200800210760
    Description :

    Pour concevoir un échantillon aléatoire simple stratifié sans remise à partir d'une population finie, il faut résoudre deux grandes questions : définir une règle de partition de la population en strates et répartir les unités d'échantillonnage entre les strates sélectionnées. Dans le présent article, nous examinons une stratégie arborescente en vue d'aborder conjointement ces deux questions quand l'enquête est polyvalente et que de l'information multivariée, quantitative ou qualitative, est disponible. Nous formons les strates à l'aide d'un algorithme divisif hiérarchique qui sélectionne des partitions de plus en plus fines en minimisant, à chaque étape, la répartition d'échantillon requise pour atteindre les niveaux de précision établis pour chaque variable étudiée. De cette façon, nous pouvons satisfaire un grand nombre de contraintes sans augmenter fortement la taille globale d'échantillon et sans écarter certaines variables sélectionnées pour la stratification ni diminuer le nombre de leurs intervalles de classe. En outre, l'algorithme a tendance à ne pas définir de strate vide ou presque vide, ce qui évite de devoir regrouper certaines strates. Nous avons appliqué la méthode au remaniement de l'Enquête sur la structure des exploitations agricoles en Italie. Les résultats indiquent que le gain d'efficacité réalisé en utilisant notre stratégie n'est pas trivial. Pour une taille d'échantillon donnée, cette méthode permet d'obtenir la précision requise en exploitant un nombre de strates qui est habituellement égal à une fraction très faible du nombre de strates disponibles quand on combine toutes les classes possibles provenant de n'importe quelle covariable.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210761
    Description :

    La stratification optimale est la méthode qui consiste à choisir les meilleures bornes qui rendent les strates intérieurement homogènes, étant donné la répartition de l'échantillon. Afin de rendre les strates intérieurement homogènes, celles ci doivent être construites de façon que les variances de strate de la caractéristique étudiée soient aussi faibles que possible. Un moyen efficace d'y arriver, si l'on connaît la distribution de la principale variable étudiée, consiste à créer des strates en découpant l'étendue de la distribution à des points appropriés. Si la distribution des fréquences de la variable étudiée est inconnue, on peut l'approximer en se fondant sur l'expérience passée ou sur certains renseignements a priori obtenus au cours d'une étude récente. Dans le présent article, le problème de la détermination des bornes optimales de strate (BOS) est considéré comme étant le problème de la détermination des largeurs optimales de strate (LOS). Il est formulé comme un problème de programmation mathématique (PPM) consistant à minimiser la variance du paramètre de population estimé sous la répartition de Neyman en imposant que la somme des largeurs des strates soit égale à l'étendue totale de la distribution. La variable étudiée est considérée comme suivant un loi continue dont la densité de probabilité est triangulaire ou normale standard. Les PPM formulés, qui s'avèrent être des problèmes de décision à plusieurs degrés, peuvent alors être résolus en utilisant la méthode de programmation dynamique proposée par Bühler et Deutler (1975). Des exemples numériques sont présentés pour illustrer les calculs. Les résultats obtenus sont également comparés à ceux donnés par la méthode de Dalenius et Hodges (1959) dans le cas d'une distribution normale.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210762
    Description :

    Le présent article porte sur le traitement de la répartition optimale dans l'échantillonnage stratifié multivarié comme une optimisation matricielle non linéaire en nombres entiers. Un problème non linéaire d'optimisation multi-objectifs en nombres entiers est étudié à titre de cas particulier. Enfin, un exemple détaillé, y compris certaines méthodes proposées, est donné à la fin de l'exposé.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210763
    Description :

    Le présent article décrit une stratégie d'échantillonnage utile pour obtenir une taille d'échantillon planifiée pour des domaines appartenant à différentes partitions de la population et pour garantir que les erreurs d'échantillonnage des estimations de domaine soient inférieures à un seuil donné. La stratégie d'échantillonnage, qui englobe le cas multidomaine multivarié, est avantageuse quand la taille globale d'échantillon est bornée et que, par conséquent, la solution standard consistant à utiliser un échantillon stratifié dont les strates sont obtenues par le recoupement des variables qui définissent les diverses partitions n'est pas faisable, puisque le nombre de strates est plus grand que la taille globale d'échantillon. La stratégie d'échantillonnage proposée est fondée sur l'utilisation d'une méthode d'échantillonnage équilibré et sur une estimation de type GREG. Le principal avantage de la solution est la faisabilité des calculs, laquelle permet de mettre en oeuvre facilement une stratégie globale d'estimation pour petits domaines qui tient compte simultanément du plan d'échantillonnage et de l'estimateur, et qui améliore l'efficacité des estimateurs directs de domaine. Les propriétés empiriques de la stratégie d'échantillonnage étudiée sont illustrées au moyen d'une simulation portant sur des données de population réelles et divers estimateurs de domaine.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 11-522-X200600110424
    Description :

    L'enquête réalisée par la Chine dans le cadre du programme de lutte internationale contre le tabagisme (ITC pour International Tobacco Control) comprend un plan d'échantillonnage à plusieurs degrés avec probabilités inégales où les grappes du niveau supérieur sont sélectionnées par la méthode d'échantillonnage PPT systématique randomisé. Durant l'exécution de l'enquête, il faut résoudre le problème suivant : plusieurs grappes de niveau supérieur échantillonnées refusent de participer et doivent être remplacées par des unités de substitution sélectionnées parmi les unités non incluses dans l'échantillon initial, de nouveau par la méthode d'échantillonnage PPT systématique randomisé. Dans de telles conditions, les probabilités d'inclusion de premier ordre des unités finales sélectionnées sont très difficiles à calculer et la détermination des probabilités d'inclusion de deuxième ordre devient virtuellement impossible. Dans le présent article, nous élaborons une méthode fondée sur la simulation pour calculer les probabilités d'inclusion de premier et de deuxième ordre lorsque le calcul direct est prohibitif ou impossible. Nous démontrons l'efficacité de la méthode que nous proposons en nous appuyant sur des considérations théoriques et des exemples numériques. Nous incluons plusieurs fonctions et codes R/S PLUS pour la procédure proposée. La méthode peut être étendue à des situations de refus/substitution plus complexes susceptibles de survenir en pratique.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110611
    Description :

    En échantillonnage de populations finies, on dispose souvent d'information a priori sous la forme de renseignements partiels sur une variable auxiliaire, dont on connaît, par exemple, la moyenne. Dans de tels cas, on utilise fréquemment l'estimateur par le ratio et l'estimateur par la régression pour estimer la moyenne de population de la caractéristique d'intérêt. La loi a posteriori de Pólya a été établie à titre d'approche bayésienne non informative de l'échantillonnage. Son application est indiquée quand on ne dispose que de peu d'information a priori, voire aucune, au sujet de la population. Ici, nous montrons que cette loi peut être étendue afin d'y intégrer divers types d'information a priori partielle au sujet des variables auxiliaires. Nous verrons que cette approche produit généralement des méthodes ayant de bonnes propriétés fréquentistes, même dans certains cas où les méthodes fréquentistes classiques sont difficiles à appliquer.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110613
    Description :

    L'enquête réalisée par la Chine dans le cadre du projet International Tobacco Control (ITC) Policy Evaluation Survey comprend un plan d'échantillonnage à plusieurs degrés avec probabilités inégales où les grappes du niveau supérieur sont sélectionnées par la méthode d'échantillonnage PPT systématique randomisé. Durant l'exécution de l'enquête, il faut résoudre le problème suivant : plusieurs grappes de niveau supérieur échantillonnées refusent de participer à l'enquête et doivent être remplacées par des unités de substitution sélectionnées parmi les unités non incluses dans l'échantillon initial, de nouveau par la méthode d'échantillonnage PPT systématique randomisé. Dans de telles conditions, les probabilités d'inclusion de premier ordre des unités finales sélectionnées sont très difficiles à calculer et la détermination des probabilités d'inclusion de deuxième ordre devient pratiquement impossible. Dans le présent article, nous élaborons une méthode fondée sur la simulation pour calculer les probabilités d'inclusion de premier et de deuxième ordre lorsque le calcul direct est prohibitif ou impossible. Nous démontrons l'efficacité et la faisabilité de la méthode que nous proposons en nous appuyant sur des considérations théoriques et des exemples numériques. Nous incluons plusieurs fonctions et codes R/S PLUS pour la procédure proposée. La méthode peut être étendue à des situations de refus/substitution plus complexes susceptibles de survenir en pratique.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110615
    Description :

    Nous considérons les taux d'échantillonnage optimaux dans des plans d'échantillonnage par élément, quand l'analyse prévue est la régression linéaire pondérée par les poids de sondage et que les paramètres à estimer sont des combinaisons linéaires des coefficients de régression provenant d'un ou de plusieurs modèles. Nous commençons par élaborer des méthodes en supposant que des renseignements exacts sur les variables du plan existent dans la base de sondage, puis nous les généralisons à des situations où l'information pour certaines variables du plan n'est disponible que sous forme d'agrégat pour des groupes de sujets éventuels ou provient de données inexactes ou périmées. Nous envisageons également un plan d'échantillonnage pour l'estimation de combinaisons de coefficients provenant de plus d'un modèle. Une généralisation supplémentaire permet d'utiliser des combinaisons flexibles de coefficients choisies pour améliorer l'estimation d'un effet tout en en contrôlant un autre. Les applications éventuelles comprennent l'estimation des moyennes pour plusieurs ensembles de domaines chevauchants, ou l'amélioration des estimations pour des sous populations telles que les races minoritaires par échantillonnage non proportionnel des régions géographiques. Dans le contexte de la conception d'un sondage sur les soins reçus par les cancéreux (l'étude CanCORS) qui a motivé nos travaux, l'information éventuelle sur les variables du plan d'échantillonnage comprenait des données de recensement au niveau de l'îlot sur la race/ethnicité et la pauvreté, ainsi que des données au niveau individuel. Pour un emplacement de l'étude, un plan d'échantillonnage avec probabilités inégales en utilisant les adresses résidentielles des sujets et des données de recensement réduirait la variance de l'estimateur d'un effet du revenu de 25 %, ou de 38 % si la race des sujets avait été connue également. Par pondération flexible des contrastes du revenu selon la race, la variance de l'estimateur serait réduite de 26 % en utilisant les adresses résidentielles seulement et de 52 % en utilisant les adresses et les races. Nos méthodes seraient utiles dans les études où l'on considère un suréchantillonnage géographique selon la race ethnicité ou les caractéristiques socioéconomiques, ou dans toute étude où les caractéristiques pour lesquelles des données sont disponibles dans les bases de sondage sont mesurées avec une erreur.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110618
    Description :

    La National Health and Nutrition Examination Survey (NHANES) fait partie d'une série de programmes ayant trait à la santé parrainés par le National Center for Health Statistics des États-Unis. Une caractéristique unique de la NHANES est que tous les répondants de l'échantillon sont soumis à un examen médial complet. Afin de normaliser la façon dont ils sont effectués, ces examens ont lieu dans des centres d'examen mobiles (CEM). L'examen comprend des mesures physiques, des tests tels que l'examen de la vue et des dents, ainsi que le prélèvement d'échantillons de sang et d'urine pour des analyses biologiques. La NHANES est une enquête annuelle continue sur la santé réalisée auprès de la population civile des États-Unis ne résidant pas en établissement. Les principaux objectifs analytiques comprennent l'estimation du nombre et du pourcentage de personnes dans la population des États-Unis et dans des sous groupes désignés qui présentent certaines maladies et certains facteurs de risque. Le plan d'échantillonnage de la NHANES doit permettre d'établir un juste équilibre entre les exigences liées à l'obtention d'échantillons annuels et pluriannuels efficaces et la souplesse requise pour pouvoir modifier les paramètres essentiels du plan afin de mieux adapter l'enquête au besoin des chercheurs et des décideurs qui élaborent les politiques en matière de santé. Le présent article décrit les défis associés à la conception et à la mise en oeuvre d'un processus d'échantillonnage permettant d'atteindre les objectifs de la NHANES.

    Date de diffusion : 2008-06-26

  • Enquêtes et programmes statistiques — Documentation : 89-631-X
    Description :

    Le présent document expose les faits nouveaux et les principes qui sous-tendent l'élaboration des cycles récents de l'Enquête sociale générale (ESG). Nous effectuons d'abord un survol des objectifs de l'ESG et des thèmes des cycles précédents, puis nous examinons plus particulièrement deux cycles récents concernant la famille au Canada : les transitions familiales (2006) et la famille, le soutien social et la retraite (2007). Pour terminer, nous présentons sommairement l'ESG de 2008, qui portera sur les réseaux sociaux, et nous décrivons un projet spécial qui marquera le vingtième anniversaire de l'ESG.

    L'enquête recueille des données sur une période de 12 mois auprès de la population des ménages privés des 10 provinces. À l'exception des cycles 16 et 21, qui ne ciblaient que des personnes de 45 ans et plus, l'enquête s'adresse à des répondants de 15 ans et plus.

    Le cycle 20 de l'ESG de 2006 est le quatrième cycle consacré à la collecte de données sur la famille (les trois premiers ont eu lieu en 1990, 1995 et 2001). Le cycle 20 aborde la plupart des mêmes thèmes que les cycles précédents sur la famille, mais quelques sections ont été revues et élaborées davantage. Les données recueillies permettent aux analystes d'étudier des variables associées à l'histoire conjugale et l'historique de la fécondité (chronologie des mariages, unions libres et enfants), les origines familiales, le départ des enfants du domicile familial, les intentions de fécondité, la garde d'enfants l'histoire professionnelle et d'autres caractéristiques socioéconomiques. Des questions portant sur les accords ou ententes de soutien financier (pour les enfants et l'ex-conjoint ou ex-partenaire) entre les familles divorcées ou séparées ont été modifiées, alors que des sections sur la participation sociale, le bien-être et les caractéristiques de la résidence ont été ajoutées.

    Date de diffusion : 2008-05-27
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (20)

Analyses (20) (0 à 10 de 20 résultats)

  • Articles et rapports : 12-001-X200800210760
    Description :

    Pour concevoir un échantillon aléatoire simple stratifié sans remise à partir d'une population finie, il faut résoudre deux grandes questions : définir une règle de partition de la population en strates et répartir les unités d'échantillonnage entre les strates sélectionnées. Dans le présent article, nous examinons une stratégie arborescente en vue d'aborder conjointement ces deux questions quand l'enquête est polyvalente et que de l'information multivariée, quantitative ou qualitative, est disponible. Nous formons les strates à l'aide d'un algorithme divisif hiérarchique qui sélectionne des partitions de plus en plus fines en minimisant, à chaque étape, la répartition d'échantillon requise pour atteindre les niveaux de précision établis pour chaque variable étudiée. De cette façon, nous pouvons satisfaire un grand nombre de contraintes sans augmenter fortement la taille globale d'échantillon et sans écarter certaines variables sélectionnées pour la stratification ni diminuer le nombre de leurs intervalles de classe. En outre, l'algorithme a tendance à ne pas définir de strate vide ou presque vide, ce qui évite de devoir regrouper certaines strates. Nous avons appliqué la méthode au remaniement de l'Enquête sur la structure des exploitations agricoles en Italie. Les résultats indiquent que le gain d'efficacité réalisé en utilisant notre stratégie n'est pas trivial. Pour une taille d'échantillon donnée, cette méthode permet d'obtenir la précision requise en exploitant un nombre de strates qui est habituellement égal à une fraction très faible du nombre de strates disponibles quand on combine toutes les classes possibles provenant de n'importe quelle covariable.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210761
    Description :

    La stratification optimale est la méthode qui consiste à choisir les meilleures bornes qui rendent les strates intérieurement homogènes, étant donné la répartition de l'échantillon. Afin de rendre les strates intérieurement homogènes, celles ci doivent être construites de façon que les variances de strate de la caractéristique étudiée soient aussi faibles que possible. Un moyen efficace d'y arriver, si l'on connaît la distribution de la principale variable étudiée, consiste à créer des strates en découpant l'étendue de la distribution à des points appropriés. Si la distribution des fréquences de la variable étudiée est inconnue, on peut l'approximer en se fondant sur l'expérience passée ou sur certains renseignements a priori obtenus au cours d'une étude récente. Dans le présent article, le problème de la détermination des bornes optimales de strate (BOS) est considéré comme étant le problème de la détermination des largeurs optimales de strate (LOS). Il est formulé comme un problème de programmation mathématique (PPM) consistant à minimiser la variance du paramètre de population estimé sous la répartition de Neyman en imposant que la somme des largeurs des strates soit égale à l'étendue totale de la distribution. La variable étudiée est considérée comme suivant un loi continue dont la densité de probabilité est triangulaire ou normale standard. Les PPM formulés, qui s'avèrent être des problèmes de décision à plusieurs degrés, peuvent alors être résolus en utilisant la méthode de programmation dynamique proposée par Bühler et Deutler (1975). Des exemples numériques sont présentés pour illustrer les calculs. Les résultats obtenus sont également comparés à ceux donnés par la méthode de Dalenius et Hodges (1959) dans le cas d'une distribution normale.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210762
    Description :

    Le présent article porte sur le traitement de la répartition optimale dans l'échantillonnage stratifié multivarié comme une optimisation matricielle non linéaire en nombres entiers. Un problème non linéaire d'optimisation multi-objectifs en nombres entiers est étudié à titre de cas particulier. Enfin, un exemple détaillé, y compris certaines méthodes proposées, est donné à la fin de l'exposé.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800210763
    Description :

    Le présent article décrit une stratégie d'échantillonnage utile pour obtenir une taille d'échantillon planifiée pour des domaines appartenant à différentes partitions de la population et pour garantir que les erreurs d'échantillonnage des estimations de domaine soient inférieures à un seuil donné. La stratégie d'échantillonnage, qui englobe le cas multidomaine multivarié, est avantageuse quand la taille globale d'échantillon est bornée et que, par conséquent, la solution standard consistant à utiliser un échantillon stratifié dont les strates sont obtenues par le recoupement des variables qui définissent les diverses partitions n'est pas faisable, puisque le nombre de strates est plus grand que la taille globale d'échantillon. La stratégie d'échantillonnage proposée est fondée sur l'utilisation d'une méthode d'échantillonnage équilibré et sur une estimation de type GREG. Le principal avantage de la solution est la faisabilité des calculs, laquelle permet de mettre en oeuvre facilement une stratégie globale d'estimation pour petits domaines qui tient compte simultanément du plan d'échantillonnage et de l'estimateur, et qui améliore l'efficacité des estimateurs directs de domaine. Les propriétés empiriques de la stratégie d'échantillonnage étudiée sont illustrées au moyen d'une simulation portant sur des données de population réelles et divers estimateurs de domaine.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 11-522-X200600110424
    Description :

    L'enquête réalisée par la Chine dans le cadre du programme de lutte internationale contre le tabagisme (ITC pour International Tobacco Control) comprend un plan d'échantillonnage à plusieurs degrés avec probabilités inégales où les grappes du niveau supérieur sont sélectionnées par la méthode d'échantillonnage PPT systématique randomisé. Durant l'exécution de l'enquête, il faut résoudre le problème suivant : plusieurs grappes de niveau supérieur échantillonnées refusent de participer et doivent être remplacées par des unités de substitution sélectionnées parmi les unités non incluses dans l'échantillon initial, de nouveau par la méthode d'échantillonnage PPT systématique randomisé. Dans de telles conditions, les probabilités d'inclusion de premier ordre des unités finales sélectionnées sont très difficiles à calculer et la détermination des probabilités d'inclusion de deuxième ordre devient virtuellement impossible. Dans le présent article, nous élaborons une méthode fondée sur la simulation pour calculer les probabilités d'inclusion de premier et de deuxième ordre lorsque le calcul direct est prohibitif ou impossible. Nous démontrons l'efficacité de la méthode que nous proposons en nous appuyant sur des considérations théoriques et des exemples numériques. Nous incluons plusieurs fonctions et codes R/S PLUS pour la procédure proposée. La méthode peut être étendue à des situations de refus/substitution plus complexes susceptibles de survenir en pratique.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110611
    Description :

    En échantillonnage de populations finies, on dispose souvent d'information a priori sous la forme de renseignements partiels sur une variable auxiliaire, dont on connaît, par exemple, la moyenne. Dans de tels cas, on utilise fréquemment l'estimateur par le ratio et l'estimateur par la régression pour estimer la moyenne de population de la caractéristique d'intérêt. La loi a posteriori de Pólya a été établie à titre d'approche bayésienne non informative de l'échantillonnage. Son application est indiquée quand on ne dispose que de peu d'information a priori, voire aucune, au sujet de la population. Ici, nous montrons que cette loi peut être étendue afin d'y intégrer divers types d'information a priori partielle au sujet des variables auxiliaires. Nous verrons que cette approche produit généralement des méthodes ayant de bonnes propriétés fréquentistes, même dans certains cas où les méthodes fréquentistes classiques sont difficiles à appliquer.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110613
    Description :

    L'enquête réalisée par la Chine dans le cadre du projet International Tobacco Control (ITC) Policy Evaluation Survey comprend un plan d'échantillonnage à plusieurs degrés avec probabilités inégales où les grappes du niveau supérieur sont sélectionnées par la méthode d'échantillonnage PPT systématique randomisé. Durant l'exécution de l'enquête, il faut résoudre le problème suivant : plusieurs grappes de niveau supérieur échantillonnées refusent de participer à l'enquête et doivent être remplacées par des unités de substitution sélectionnées parmi les unités non incluses dans l'échantillon initial, de nouveau par la méthode d'échantillonnage PPT systématique randomisé. Dans de telles conditions, les probabilités d'inclusion de premier ordre des unités finales sélectionnées sont très difficiles à calculer et la détermination des probabilités d'inclusion de deuxième ordre devient pratiquement impossible. Dans le présent article, nous élaborons une méthode fondée sur la simulation pour calculer les probabilités d'inclusion de premier et de deuxième ordre lorsque le calcul direct est prohibitif ou impossible. Nous démontrons l'efficacité et la faisabilité de la méthode que nous proposons en nous appuyant sur des considérations théoriques et des exemples numériques. Nous incluons plusieurs fonctions et codes R/S PLUS pour la procédure proposée. La méthode peut être étendue à des situations de refus/substitution plus complexes susceptibles de survenir en pratique.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110615
    Description :

    Nous considérons les taux d'échantillonnage optimaux dans des plans d'échantillonnage par élément, quand l'analyse prévue est la régression linéaire pondérée par les poids de sondage et que les paramètres à estimer sont des combinaisons linéaires des coefficients de régression provenant d'un ou de plusieurs modèles. Nous commençons par élaborer des méthodes en supposant que des renseignements exacts sur les variables du plan existent dans la base de sondage, puis nous les généralisons à des situations où l'information pour certaines variables du plan n'est disponible que sous forme d'agrégat pour des groupes de sujets éventuels ou provient de données inexactes ou périmées. Nous envisageons également un plan d'échantillonnage pour l'estimation de combinaisons de coefficients provenant de plus d'un modèle. Une généralisation supplémentaire permet d'utiliser des combinaisons flexibles de coefficients choisies pour améliorer l'estimation d'un effet tout en en contrôlant un autre. Les applications éventuelles comprennent l'estimation des moyennes pour plusieurs ensembles de domaines chevauchants, ou l'amélioration des estimations pour des sous populations telles que les races minoritaires par échantillonnage non proportionnel des régions géographiques. Dans le contexte de la conception d'un sondage sur les soins reçus par les cancéreux (l'étude CanCORS) qui a motivé nos travaux, l'information éventuelle sur les variables du plan d'échantillonnage comprenait des données de recensement au niveau de l'îlot sur la race/ethnicité et la pauvreté, ainsi que des données au niveau individuel. Pour un emplacement de l'étude, un plan d'échantillonnage avec probabilités inégales en utilisant les adresses résidentielles des sujets et des données de recensement réduirait la variance de l'estimateur d'un effet du revenu de 25 %, ou de 38 % si la race des sujets avait été connue également. Par pondération flexible des contrastes du revenu selon la race, la variance de l'estimateur serait réduite de 26 % en utilisant les adresses résidentielles seulement et de 52 % en utilisant les adresses et les races. Nos méthodes seraient utiles dans les études où l'on considère un suréchantillonnage géographique selon la race ethnicité ou les caractéristiques socioéconomiques, ou dans toute étude où les caractéristiques pour lesquelles des données sont disponibles dans les bases de sondage sont mesurées avec une erreur.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200800110618
    Description :

    La National Health and Nutrition Examination Survey (NHANES) fait partie d'une série de programmes ayant trait à la santé parrainés par le National Center for Health Statistics des États-Unis. Une caractéristique unique de la NHANES est que tous les répondants de l'échantillon sont soumis à un examen médial complet. Afin de normaliser la façon dont ils sont effectués, ces examens ont lieu dans des centres d'examen mobiles (CEM). L'examen comprend des mesures physiques, des tests tels que l'examen de la vue et des dents, ainsi que le prélèvement d'échantillons de sang et d'urine pour des analyses biologiques. La NHANES est une enquête annuelle continue sur la santé réalisée auprès de la population civile des États-Unis ne résidant pas en établissement. Les principaux objectifs analytiques comprennent l'estimation du nombre et du pourcentage de personnes dans la population des États-Unis et dans des sous groupes désignés qui présentent certaines maladies et certains facteurs de risque. Le plan d'échantillonnage de la NHANES doit permettre d'établir un juste équilibre entre les exigences liées à l'obtention d'échantillons annuels et pluriannuels efficaces et la souplesse requise pour pouvoir modifier les paramètres essentiels du plan afin de mieux adapter l'enquête au besoin des chercheurs et des décideurs qui élaborent les politiques en matière de santé. Le présent article décrit les défis associés à la conception et à la mise en oeuvre d'un processus d'échantillonnage permettant d'atteindre les objectifs de la NHANES.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 11-522-X200600110409
    Description :

    Dans le cas de l'échantillonnage avec probabilités de sélection inégales, les corrélations entre les probabilités de sélection et les données échantillonnées peuvent induire un biais. Pour le corriger, on fait souvent appel à des poids de sondage correspondant à l'inverse de la probabilité de sélection. Les plans d'échantillonnage fortement disproportionnels donnent lieu à des poids élevés, susceptibles d'introduire une variabilité superflue dans des statistiques telles que l'estimation de la moyenne de la population. L'élagage des poids consiste à réduire ceux dont la valeur est élevée à une valeur seuil fixée et à rajuster ceux dont la valeur est inférieure à ce seuil afin que leur somme demeure égale à celle des poids non élagués. Cet élagage réduit la variabilité, mais introduit un certain biais. Les méthodes habituelles ne sont pas « guidées par les données », c'est à dire qu'elles ne se fondent pas sur les données pour arriver au compromis biais variance approprié, ou bien elles le font de façon très inefficace. Cette communication décrit l'élaboration de méthodes bayésiennes de sélection des variables pour l'élagage des poids destinées à compléter les méthodes habituelles, ponctuelles, fondées sur le plan de sondage, lors de l'utilisation de plans à probabilités d'inclusion disproportionnelles où les variances dues aux poids de sondage excèdent la correction pour le biais. Ces méthodes sont utilisées pour estimer les paramètres de population provenant de modèles de régression linéaire et de régression linéaire généralisée dans le contexte de plans d'échantillonnage à probabilités de sélection connues stratifiés et stratifiés a posteriori. Des applications seront décrites dans le cas de données provenant d'enquêtes sur les blessures causées par des accidents de circulation, pour lesquelles des plans de sondage fortement disproportionnels sont souvent utilisés.

    Date de diffusion : 2008-03-17
Références (3)

Références (3) ((3 résultats))

  • Enquêtes et programmes statistiques — Documentation : 89-631-X
    Description :

    Le présent document expose les faits nouveaux et les principes qui sous-tendent l'élaboration des cycles récents de l'Enquête sociale générale (ESG). Nous effectuons d'abord un survol des objectifs de l'ESG et des thèmes des cycles précédents, puis nous examinons plus particulièrement deux cycles récents concernant la famille au Canada : les transitions familiales (2006) et la famille, le soutien social et la retraite (2007). Pour terminer, nous présentons sommairement l'ESG de 2008, qui portera sur les réseaux sociaux, et nous décrivons un projet spécial qui marquera le vingtième anniversaire de l'ESG.

    L'enquête recueille des données sur une période de 12 mois auprès de la population des ménages privés des 10 provinces. À l'exception des cycles 16 et 21, qui ne ciblaient que des personnes de 45 ans et plus, l'enquête s'adresse à des répondants de 15 ans et plus.

    Le cycle 20 de l'ESG de 2006 est le quatrième cycle consacré à la collecte de données sur la famille (les trois premiers ont eu lieu en 1990, 1995 et 2001). Le cycle 20 aborde la plupart des mêmes thèmes que les cycles précédents sur la famille, mais quelques sections ont été revues et élaborées davantage. Les données recueillies permettent aux analystes d'étudier des variables associées à l'histoire conjugale et l'historique de la fécondité (chronologie des mariages, unions libres et enfants), les origines familiales, le départ des enfants du domicile familial, les intentions de fécondité, la garde d'enfants l'histoire professionnelle et d'autres caractéristiques socioéconomiques. Des questions portant sur les accords ou ententes de soutien financier (pour les enfants et l'ex-conjoint ou ex-partenaire) entre les familles divorcées ou séparées ont été modifiées, alors que des sections sur la participation sociale, le bien-être et les caractéristiques de la résidence ont été ajoutées.

    Date de diffusion : 2008-05-27

  • Enquêtes et programmes statistiques — Documentation : 75F0002M1992001
    Description :

    À compter de 1994, l'Enquête sur la dynamique du travail et du revenu (EDTR) fera enquête auprès de particuliers et de familles pendant une période d'au moins six ans afin de recueillir des données sur leurs expériences sur le marché du travail, sur l'évolution de leur revenu et de leur situation familiale. Une proposition initiale touchant le contenu de l'EDTR et ayant pour titre «Contenu de l'Enquête sur la dynamique du travail et du revenu: Document de travail» a été publiée en février 1992.

    Ce document a servi de base à un processus de consultation auprès des utilisateurs qui ont fait part de leurs observations. Son contenu a subi des changements significatifs durant ce processus. En se basant sur le contenu révisé, nous procéderons à un essai à grande échelle de l'EDTR en février et en mai 1993.

    Le présent document passe brièvement en revue le contenu touchant le revenu et le patrimoine devant faire l'objet d'un test en mai 1993. Ce document est réellement un prolongement de la Série de documents de recherche de l'EDTR 92-01A, qui brosse un tableau du contenu du test de janvier/février 1993 dans les domaines de la démographie et du travail.

    Date de diffusion : 2008-02-29

  • Enquêtes et programmes statistiques — Documentation : 75F0002M1992007
    Description :

    L'interview préliminaire sera menée auprès du premier panel de l'EDTR, en janvier 1993, en guise de supplément à l'Enquête sur la population active. Le premier panel est formé d'environ 20 000 ménages, soit ceux qui terminent leur période de six mois dans l'échantillon de l'Enquête sur la population active, en janvier ou en février 1993. Le présent document vise à décrire l'objet de l'interview préliminair e de l'EDTR et les questions qui doivent être posées.

    Date de diffusion : 2008-02-29
Date de modification :