Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (17)

Tout (17) (17 of 17 results)

  • Articles et rapports : 12-001-X199200214481
    Description :

    À l’aide de données tirées d’une enquête portant sur des intervieweurs du U.S. Census Bureau, cet article étudie si des intervieweurs expérimentés obtiennent des taux de réponse plus élevés que des intervieweurs inexpérimentés, en « neutralisant » les différences dans le plan d’enquête et dans les attributs des populations affectées aux intervieweurs. Après avoir démontré que le rapport est positif et curviligne, l’étude tente d’expliquer les mécanismes qui permettent aux intervieweurs expérimentés d’obtenir ces taux de réponse et élabore sur la nature du rapport. L’article examine quels comportements et quelles attitudes sont à la base du plus grand succès dans l’espoir que ces éléments pourraient être inculqués aux stagiaires.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214483
    Description :

    Dans presque toutes les grandes enquêtes, l’imputation est utilisée sous une forme ou sous une autre. Le présent article expose une méthode d’estimation de la variance lorsque l’imputation simple (plutôt que multiple) est utilisée pour créer un ensemble complet de données. L’imputation ne reproduit jamais les vraies valeurs (sauf dans des cas tout à fait exceptionnels). L’erreur totale de l’estimation de l’enquête est considérée, dans cet article, comme la somme de l’erreur d’échantillonnage et de l’erreur d’imputation. Par conséquent, on en arrive à une variance globale qui est la somme d’une variance d’échantillonnage et d’une variance d’imputation. L’article s’attarde principalement à l’estimation de ces deux composantes, en utilisant les données après imputation, c’est-à-dire les valeurs réellement observées et les valeurs imputées. La méthode est fondée sur un modèle, en ce sens que le modèle sous-jacent à la méthode d’imputation, ainsi que la distribution de randomisation ayant servi à la sélection de l’échantillon, détermineront ensemble la forme que prendront les estimateurs de la variance. Les résultats théoriques sont confirmés par une simulation de Monte Carlo.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214482
    Description :

    Dans la foulée de l’élaboration d’un plan de sondage pour des enquêtes-entreprises à Statistique Canada, nous exposons le problème de la répartition de l’échantillon pour un plan de sondage général à deux phases comme un problème de programmation non linéaire sous contrainte. En exploitant la structure mathématique du problème, nous proposons une solution qui consiste en des itérations entre deux sous-problèmes qui sont beaucoup moins complexes sur le plan du calcul. Lorsqu’on utilise une solution approximative comme valeur de départ, la méthode proposée donne des résultats très satisfaisants dans une étude empirique.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214488
    Description :

    Dans de nombreux cas de sondage de populations finies, le plan peut être optimal, c’est-à-dire qu’il minimise la variance du meilleur estimateur linéaire sans biais suivant un modèle de travail particulier, mais laissera à désirer au point de vue de la robustesse - l’estimateur aura de fortes chances d’être affecté d’un biais si le modèle de travail est incorrect. Cependant, il existe d’importants modèles selon lesquels le plan de sondage assure efficience et robustesse. Nous présentons un théorème qui définit ces modèles et les plans optimaux qui s’y rattachent.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214484
    Description :

    L’estimation de vraisemblance maximale fondée sur des données d’échantillon complexe nécessite une plus grande modélisation en raison de l’information contenue dans le plan d’échantillonnage. Par ailleurs, on peut appliquer des pseudo-méthodes du maximum de vraisemblance, qui consistent à maximiser des valeurs estimées de la fonction de caractérisation du recensement. Dans cet article, nous examinons quelques-unes des méthodes décrites dans les ouvrages spécialisés et nous les comparons à une nouvelle méthode qui tire son origine de la notion de « distributions pondérées ». Les comparaisons portent principalement sur des situations où la totalité ou une fraction des variables de plan sont inconnues ou mal spécifiées. Les résultats obtenus avec la nouvelle méthode sont encourageants mais précisons que notre analyse se limite actuellement à des situations simples.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214486
    Description :

    Les méthodes de rééchantillonnage permettant d’obtenir, par inférence, des résultats à partir de données d’enquêtes complexes incluent la méthode du jackknife, la méthode BRR (« balanced repeated replication ») et la méthode d’auto-amorçage. La présente communication passe en revue certains travaux récents relatifs à ces méthodes, pour l’estimation des erreurs-types et des intervalles de confiance. Certains résultats empiriques relatifs à des statistiques non lisses sont également présentés.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214485
    Description :

    Godambe et Thompson (1986) définissent et élaborent des méthodes d’estimation optimale simultanée de paramètres de superpopulation et de population finie à partir d’un modèle de superpopulation et d’un plan de sondage. Dans leurs travaux, ils définissent le paramètre de population finie, \theta_N, comme la solution de l’équation d’estimation optimale pour le paramètre de superpopulation \theta; cependant, un autre paramètre de population finie, \phi, peut être tout aussi intéressant. Nous proposons d’élargir le modèle de superpopulation de telle manière que le paramètre \phi soit une fonction connue de \theta_N, c’est-à-dire \phi = f (\theta_N). Alors, \phi est estimé de manière optimale par f (\theta_s), où, d’après Godambe et Thompson (1986), \theta_s est l’estimateur optimal de \theta_N étant donné l’échantillon s et le plan de sondage.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214487
    Description :

    Dans cet article, on étudie la notion de robustesse appliquée à la randomisation et à l’inférence fondée sur un modèle pour des enquêtes descriptives et analytiques. Le manque de robustesse qui caractérise les méthodes basées sur un modèle peut être compensé en partie par un plan de sondage élaboré avec soin. À partir de méthodes de lissage, les auteurs proposent des méthodes d’analyse robustes basées sur un modèle.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214480
    Description :

    Les auteurs se penchent sur l’estimation du « poids en valeur » et de l’« importance relative » de diverses strates de produits et services pour les régions de consommation. L’estimation de ces paramètres est une opération indispensable pour la construction des indices des prix à la consommation aux É.-U. Dans cet article, on se sert de modèles à plusieurs variables pour construire des estimateurs composites qui intègrent de l’information provenant de sources pertinentes. L’erreur quadratique moyenne (EQM) des estimateurs proposés et des estimateurs existants est estimée au moyen des demi-échantillons répétés tirés de l’enquête. D’après les résultats obtenus, les estimateurs proposés semblent être supérieurs aux autres estimateurs.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200114494
    Description :

    Dans cet article on présente un choix bibliographique commenté d’ouvrages sur l’estimation de la taille de la population par saisie-resaisie (système dual), sur des prolongements de la méthodologie de base et sur l’application de ces techniques dans le contexte de l’estimation du sous-dénombrement du recensement.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114493
    Description :

    Dans le présent article, on examine la pertinence d’une procédure à base d’enquêtes pour estimer la population dans de petites régions rurales. La procédure est une variante de la méthode des unités de logement. Elle fait appel aux services d’experts locaux embauchés pour fournir des renseignements à propos des caractéristiques démographiques de ménages choisis aléatoirement dans des bases de sondage de quartiers d’habitation élaborées à partir des dossiers des sociétés de service public. La procédure ne dérange pas trop et elle est moins dispendieuse que les opérations traditionnelles de collecte de données au moyen d’enquêtes. Comme la procédure est basée sur l’échantillonnage aléatoire, on peut construire des intervalles de confiance autour de la population estimée au moyen de cette technique. On fournit les résultats d’une étude de cas portant sur l’estimation de la population totale dans trois collectivités non constituées situées dans une région rurale du sud du Nevada.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114495
    Description :

    Le registre des adresses est une base de sondage d’adresses résidentielles pour les centres urbains de moyenne et de grande dimension qui figurent dans le Fichier principal de région (FPR) de la Division de la géographie de Statistique Canada. Pour la Colombie-Britannique, le registre des adresses a été augmenté afin d’inclure des agglomérations urbaines plus petites ainsi que certaines régions rurales. Dans cet article, on présente un aperçu historique du projet, ses objectifs comme moyen de réduire le sous-dénombrement lors du recensement du Canada de 1991, ses sources et produits, la méthodologie requise pour sa mise en application initiale, l’évaluation postcensitaire proposée et des perspectives pour l’avenir.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114492
    Description :

    Nous considérons dans cet article le scénario d’une enquête par sondage ayant les deux objectifs principaux suivants : 1) l’identification, pour des études de suivi ultérieures, de n^* -sujets dans chacun des H sous-domaines et 2) l’estimation, au moment où on en est dans le déroulement de l’enquête, du niveau d’un caractère quelconque dans chacun de ces sous-domaines. Pour cette enquête, le plan de sondage doit se limiter à un échantillonnage par grappes à un seul degré, ce qui constitue une contrainte supplémentaire. Levy et coll. 1989, ont proposé une variante de l’échantillonnage par grappes à un seul degré, appelée échantillonnage par grappes à un seul degré étagé (ÉGSDÉ), comme moyen économique d’identifier n^* -sujets dans chacun des sous-domaines. Dans cet article-ci, nous étudions les propriétés statistiques de l’ÉGSDÉ pour l’estimation transversale du niveau d’un caractère dans la population. En particulier, la fiabilité d’estimations obtenues, à un coût donné, à l’aide de l’ÉGSDÉ est comparée à celle des estimations obtenues au même coût à l’aide de l’échantillonnage par grappes à un seul degré ordinaire (ÉGSDO). Nous avons été motivés par les problèmes rencontrés au cours de la conception statistique de l’Enquête de Shanghai sur la maladie d’Alzheimer et la démence (ESMAD), une étude épidémiologique de la prévalence et de l’incidence de la maladie d’Alzheimer et de la démence.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114499
    Description :

    Cet article examine quelques-uns des arguments invoqués à l’appui et à l’encontre du redressement des chiffres du recensement des É.-U. de 1980 et revoit la décision du tribunal.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114496
    Description :

    Les données du Programme des estimations démographiques (PED) de Statistique Canada sont toujours étalonnées en fonction du recensement le plus récent sans qu’il soit tenu compte de l’erreur de couverture dans ce recensement. Or, depuis qu’ils ont constaté une forte hausse du niveau de sous-dénombrement lors du recensement de 1986, Statistique Canada étudie la possibilité de redresser l’effectif de la population de base du PED pour tenir compte du sous-dénombrement net. Dans cet article, on définit et compare quatre estimateurs de l’effectif de la population de base : les chiffres non redressés du recensement, les chiffres redressés, un estimateur de test préliminaire et un estimateur composite. L’élément de comparaison, en l’occurrence, est une généralisation des fonctions de risque proposées antérieurement connue sous le nom d’erreur quadratique moyenne pondérée (EQMP). L’EQMP s’applique non seulement aux totaux de population, mais aux fonctions de totaux de population, comme les proportions de population et les taux de croissance d’un recensement à l’autre. Il est aussi question de l’utilisation de l’EQMP dans l’élaboration et l’évaluation des estimateurs pour petites régions dans le contexte du redressement des chiffres du recensement.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114498
    Description :

    Une façon de calculer le sous-dénombrement au niveau infra-national (par ex. : pour un État) est de prendre des données-échantillon d’une enquête postcensitaire et de les lisser suivant un modèle linéaire de variables explicatives. Le rapport entre la variance de l’erreur d’échantillonnage et la variance de l’erreur de modèle correspondante détermine le degré de lissage. L’estimation par la méthode du maximum de vraisemblance peut mener à un lissage excessif et, par conséquent, rendre le calcul du sous-dénombrement trop tributaire du modèle linéaire. Les estimateurs du maximum de vraisemblance avec contrainte (MVC) ne présentent pas de tels inconvénients. Dans cet article, on traite la prévision empirique de Bayes du sous-dénombrement fondée sur l’estimation MVC et on la compare, par des exemples et des simulations, à celle fondée sur la méthode du maximum de vraisemblance et à celle fondée sur une méthode des moments. Les propriétés de distribution pour grand échantillon des estimateurs MVC permettent un calcul précis de l’erreur quadratique moyenne de prévision des filtres de lissage fondés sur l’estimation MVC.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114497
    Description :

    Le présent article analyse une approche basée sur un modèle pour le redressement des données de la répétition générale du recensement de 1990, effectuée en 1988. Ces données ont été recueillies dans des régions d’essai au Missouri. L’objectif premier est d’élaborer des méthodes qui peuvent être utilisées pour modéliser les données de l’Enquête post-censitaire d’avril 1991, qui a fait suite au recensement de 1990, et pour lisser les estimations des facteurs de redressement tirés de l’enquête. Nous proposons dans le présent article une méthode hiérarchique de Bayes (HB) et une méthode empirique de Bayes (EB) qui satisfont à cet objectif. Les estimateurs qui résultent de ces deux méthodes semblent permettre d’améliorer de façon constante les estimations basées sur un système de double collecte et les estimateurs de régression lissés.

    Date de diffusion : 1992-06-15

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (17)

Analyses (17) (17 of 17 results)

  • Articles et rapports : 12-001-X199200214481
    Description :

    À l’aide de données tirées d’une enquête portant sur des intervieweurs du U.S. Census Bureau, cet article étudie si des intervieweurs expérimentés obtiennent des taux de réponse plus élevés que des intervieweurs inexpérimentés, en « neutralisant » les différences dans le plan d’enquête et dans les attributs des populations affectées aux intervieweurs. Après avoir démontré que le rapport est positif et curviligne, l’étude tente d’expliquer les mécanismes qui permettent aux intervieweurs expérimentés d’obtenir ces taux de réponse et élabore sur la nature du rapport. L’article examine quels comportements et quelles attitudes sont à la base du plus grand succès dans l’espoir que ces éléments pourraient être inculqués aux stagiaires.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214483
    Description :

    Dans presque toutes les grandes enquêtes, l’imputation est utilisée sous une forme ou sous une autre. Le présent article expose une méthode d’estimation de la variance lorsque l’imputation simple (plutôt que multiple) est utilisée pour créer un ensemble complet de données. L’imputation ne reproduit jamais les vraies valeurs (sauf dans des cas tout à fait exceptionnels). L’erreur totale de l’estimation de l’enquête est considérée, dans cet article, comme la somme de l’erreur d’échantillonnage et de l’erreur d’imputation. Par conséquent, on en arrive à une variance globale qui est la somme d’une variance d’échantillonnage et d’une variance d’imputation. L’article s’attarde principalement à l’estimation de ces deux composantes, en utilisant les données après imputation, c’est-à-dire les valeurs réellement observées et les valeurs imputées. La méthode est fondée sur un modèle, en ce sens que le modèle sous-jacent à la méthode d’imputation, ainsi que la distribution de randomisation ayant servi à la sélection de l’échantillon, détermineront ensemble la forme que prendront les estimateurs de la variance. Les résultats théoriques sont confirmés par une simulation de Monte Carlo.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214482
    Description :

    Dans la foulée de l’élaboration d’un plan de sondage pour des enquêtes-entreprises à Statistique Canada, nous exposons le problème de la répartition de l’échantillon pour un plan de sondage général à deux phases comme un problème de programmation non linéaire sous contrainte. En exploitant la structure mathématique du problème, nous proposons une solution qui consiste en des itérations entre deux sous-problèmes qui sont beaucoup moins complexes sur le plan du calcul. Lorsqu’on utilise une solution approximative comme valeur de départ, la méthode proposée donne des résultats très satisfaisants dans une étude empirique.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214488
    Description :

    Dans de nombreux cas de sondage de populations finies, le plan peut être optimal, c’est-à-dire qu’il minimise la variance du meilleur estimateur linéaire sans biais suivant un modèle de travail particulier, mais laissera à désirer au point de vue de la robustesse - l’estimateur aura de fortes chances d’être affecté d’un biais si le modèle de travail est incorrect. Cependant, il existe d’importants modèles selon lesquels le plan de sondage assure efficience et robustesse. Nous présentons un théorème qui définit ces modèles et les plans optimaux qui s’y rattachent.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214484
    Description :

    L’estimation de vraisemblance maximale fondée sur des données d’échantillon complexe nécessite une plus grande modélisation en raison de l’information contenue dans le plan d’échantillonnage. Par ailleurs, on peut appliquer des pseudo-méthodes du maximum de vraisemblance, qui consistent à maximiser des valeurs estimées de la fonction de caractérisation du recensement. Dans cet article, nous examinons quelques-unes des méthodes décrites dans les ouvrages spécialisés et nous les comparons à une nouvelle méthode qui tire son origine de la notion de « distributions pondérées ». Les comparaisons portent principalement sur des situations où la totalité ou une fraction des variables de plan sont inconnues ou mal spécifiées. Les résultats obtenus avec la nouvelle méthode sont encourageants mais précisons que notre analyse se limite actuellement à des situations simples.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214486
    Description :

    Les méthodes de rééchantillonnage permettant d’obtenir, par inférence, des résultats à partir de données d’enquêtes complexes incluent la méthode du jackknife, la méthode BRR (« balanced repeated replication ») et la méthode d’auto-amorçage. La présente communication passe en revue certains travaux récents relatifs à ces méthodes, pour l’estimation des erreurs-types et des intervalles de confiance. Certains résultats empiriques relatifs à des statistiques non lisses sont également présentés.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214485
    Description :

    Godambe et Thompson (1986) définissent et élaborent des méthodes d’estimation optimale simultanée de paramètres de superpopulation et de population finie à partir d’un modèle de superpopulation et d’un plan de sondage. Dans leurs travaux, ils définissent le paramètre de population finie, \theta_N, comme la solution de l’équation d’estimation optimale pour le paramètre de superpopulation \theta; cependant, un autre paramètre de population finie, \phi, peut être tout aussi intéressant. Nous proposons d’élargir le modèle de superpopulation de telle manière que le paramètre \phi soit une fonction connue de \theta_N, c’est-à-dire \phi = f (\theta_N). Alors, \phi est estimé de manière optimale par f (\theta_s), où, d’après Godambe et Thompson (1986), \theta_s est l’estimateur optimal de \theta_N étant donné l’échantillon s et le plan de sondage.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214487
    Description :

    Dans cet article, on étudie la notion de robustesse appliquée à la randomisation et à l’inférence fondée sur un modèle pour des enquêtes descriptives et analytiques. Le manque de robustesse qui caractérise les méthodes basées sur un modèle peut être compensé en partie par un plan de sondage élaboré avec soin. À partir de méthodes de lissage, les auteurs proposent des méthodes d’analyse robustes basées sur un modèle.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214480
    Description :

    Les auteurs se penchent sur l’estimation du « poids en valeur » et de l’« importance relative » de diverses strates de produits et services pour les régions de consommation. L’estimation de ces paramètres est une opération indispensable pour la construction des indices des prix à la consommation aux É.-U. Dans cet article, on se sert de modèles à plusieurs variables pour construire des estimateurs composites qui intègrent de l’information provenant de sources pertinentes. L’erreur quadratique moyenne (EQM) des estimateurs proposés et des estimateurs existants est estimée au moyen des demi-échantillons répétés tirés de l’enquête. D’après les résultats obtenus, les estimateurs proposés semblent être supérieurs aux autres estimateurs.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200114494
    Description :

    Dans cet article on présente un choix bibliographique commenté d’ouvrages sur l’estimation de la taille de la population par saisie-resaisie (système dual), sur des prolongements de la méthodologie de base et sur l’application de ces techniques dans le contexte de l’estimation du sous-dénombrement du recensement.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114493
    Description :

    Dans le présent article, on examine la pertinence d’une procédure à base d’enquêtes pour estimer la population dans de petites régions rurales. La procédure est une variante de la méthode des unités de logement. Elle fait appel aux services d’experts locaux embauchés pour fournir des renseignements à propos des caractéristiques démographiques de ménages choisis aléatoirement dans des bases de sondage de quartiers d’habitation élaborées à partir des dossiers des sociétés de service public. La procédure ne dérange pas trop et elle est moins dispendieuse que les opérations traditionnelles de collecte de données au moyen d’enquêtes. Comme la procédure est basée sur l’échantillonnage aléatoire, on peut construire des intervalles de confiance autour de la population estimée au moyen de cette technique. On fournit les résultats d’une étude de cas portant sur l’estimation de la population totale dans trois collectivités non constituées situées dans une région rurale du sud du Nevada.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114495
    Description :

    Le registre des adresses est une base de sondage d’adresses résidentielles pour les centres urbains de moyenne et de grande dimension qui figurent dans le Fichier principal de région (FPR) de la Division de la géographie de Statistique Canada. Pour la Colombie-Britannique, le registre des adresses a été augmenté afin d’inclure des agglomérations urbaines plus petites ainsi que certaines régions rurales. Dans cet article, on présente un aperçu historique du projet, ses objectifs comme moyen de réduire le sous-dénombrement lors du recensement du Canada de 1991, ses sources et produits, la méthodologie requise pour sa mise en application initiale, l’évaluation postcensitaire proposée et des perspectives pour l’avenir.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114492
    Description :

    Nous considérons dans cet article le scénario d’une enquête par sondage ayant les deux objectifs principaux suivants : 1) l’identification, pour des études de suivi ultérieures, de n^* -sujets dans chacun des H sous-domaines et 2) l’estimation, au moment où on en est dans le déroulement de l’enquête, du niveau d’un caractère quelconque dans chacun de ces sous-domaines. Pour cette enquête, le plan de sondage doit se limiter à un échantillonnage par grappes à un seul degré, ce qui constitue une contrainte supplémentaire. Levy et coll. 1989, ont proposé une variante de l’échantillonnage par grappes à un seul degré, appelée échantillonnage par grappes à un seul degré étagé (ÉGSDÉ), comme moyen économique d’identifier n^* -sujets dans chacun des sous-domaines. Dans cet article-ci, nous étudions les propriétés statistiques de l’ÉGSDÉ pour l’estimation transversale du niveau d’un caractère dans la population. En particulier, la fiabilité d’estimations obtenues, à un coût donné, à l’aide de l’ÉGSDÉ est comparée à celle des estimations obtenues au même coût à l’aide de l’échantillonnage par grappes à un seul degré ordinaire (ÉGSDO). Nous avons été motivés par les problèmes rencontrés au cours de la conception statistique de l’Enquête de Shanghai sur la maladie d’Alzheimer et la démence (ESMAD), une étude épidémiologique de la prévalence et de l’incidence de la maladie d’Alzheimer et de la démence.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114499
    Description :

    Cet article examine quelques-uns des arguments invoqués à l’appui et à l’encontre du redressement des chiffres du recensement des É.-U. de 1980 et revoit la décision du tribunal.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114496
    Description :

    Les données du Programme des estimations démographiques (PED) de Statistique Canada sont toujours étalonnées en fonction du recensement le plus récent sans qu’il soit tenu compte de l’erreur de couverture dans ce recensement. Or, depuis qu’ils ont constaté une forte hausse du niveau de sous-dénombrement lors du recensement de 1986, Statistique Canada étudie la possibilité de redresser l’effectif de la population de base du PED pour tenir compte du sous-dénombrement net. Dans cet article, on définit et compare quatre estimateurs de l’effectif de la population de base : les chiffres non redressés du recensement, les chiffres redressés, un estimateur de test préliminaire et un estimateur composite. L’élément de comparaison, en l’occurrence, est une généralisation des fonctions de risque proposées antérieurement connue sous le nom d’erreur quadratique moyenne pondérée (EQMP). L’EQMP s’applique non seulement aux totaux de population, mais aux fonctions de totaux de population, comme les proportions de population et les taux de croissance d’un recensement à l’autre. Il est aussi question de l’utilisation de l’EQMP dans l’élaboration et l’évaluation des estimateurs pour petites régions dans le contexte du redressement des chiffres du recensement.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114498
    Description :

    Une façon de calculer le sous-dénombrement au niveau infra-national (par ex. : pour un État) est de prendre des données-échantillon d’une enquête postcensitaire et de les lisser suivant un modèle linéaire de variables explicatives. Le rapport entre la variance de l’erreur d’échantillonnage et la variance de l’erreur de modèle correspondante détermine le degré de lissage. L’estimation par la méthode du maximum de vraisemblance peut mener à un lissage excessif et, par conséquent, rendre le calcul du sous-dénombrement trop tributaire du modèle linéaire. Les estimateurs du maximum de vraisemblance avec contrainte (MVC) ne présentent pas de tels inconvénients. Dans cet article, on traite la prévision empirique de Bayes du sous-dénombrement fondée sur l’estimation MVC et on la compare, par des exemples et des simulations, à celle fondée sur la méthode du maximum de vraisemblance et à celle fondée sur une méthode des moments. Les propriétés de distribution pour grand échantillon des estimateurs MVC permettent un calcul précis de l’erreur quadratique moyenne de prévision des filtres de lissage fondés sur l’estimation MVC.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114497
    Description :

    Le présent article analyse une approche basée sur un modèle pour le redressement des données de la répétition générale du recensement de 1990, effectuée en 1988. Ces données ont été recueillies dans des régions d’essai au Missouri. L’objectif premier est d’élaborer des méthodes qui peuvent être utilisées pour modéliser les données de l’Enquête post-censitaire d’avril 1991, qui a fait suite au recensement de 1990, et pour lisser les estimations des facteurs de redressement tirés de l’enquête. Nous proposons dans le présent article une méthode hiérarchique de Bayes (HB) et une méthode empirique de Bayes (EB) qui satisfont à cet objectif. Les estimateurs qui résultent de ces deux méthodes semblent permettre d’améliorer de façon constante les estimations basées sur un système de double collecte et les estimateurs de régression lissés.

    Date de diffusion : 1992-06-15

Références (0)

Références (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Date de modification :