Pondération et estimation

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (9)

Tout (9) ((9 résultats))

  • Articles et rapports : 12-001-X199200214480
    Description :

    Les auteurs se penchent sur l’estimation du « poids en valeur » et de l’« importance relative » de diverses strates de produits et services pour les régions de consommation. L’estimation de ces paramètres est une opération indispensable pour la construction des indices des prix à la consommation aux É.-U. Dans cet article, on se sert de modèles à plusieurs variables pour construire des estimateurs composites qui intègrent de l’information provenant de sources pertinentes. L’erreur quadratique moyenne (EQM) des estimateurs proposés et des estimateurs existants est estimée au moyen des demi-échantillons répétés tirés de l’enquête. D’après les résultats obtenus, les estimateurs proposés semblent être supérieurs aux autres estimateurs.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214483
    Description :

    Dans presque toutes les grandes enquêtes, l’imputation est utilisée sous une forme ou sous une autre. Le présent article expose une méthode d’estimation de la variance lorsque l’imputation simple (plutôt que multiple) est utilisée pour créer un ensemble complet de données. L’imputation ne reproduit jamais les vraies valeurs (sauf dans des cas tout à fait exceptionnels). L’erreur totale de l’estimation de l’enquête est considérée, dans cet article, comme la somme de l’erreur d’échantillonnage et de l’erreur d’imputation. Par conséquent, on en arrive à une variance globale qui est la somme d’une variance d’échantillonnage et d’une variance d’imputation. L’article s’attarde principalement à l’estimation de ces deux composantes, en utilisant les données après imputation, c’est-à-dire les valeurs réellement observées et les valeurs imputées. La méthode est fondée sur un modèle, en ce sens que le modèle sous-jacent à la méthode d’imputation, ainsi que la distribution de randomisation ayant servi à la sélection de l’échantillon, détermineront ensemble la forme que prendront les estimateurs de la variance. Les résultats théoriques sont confirmés par une simulation de Monte Carlo.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214484
    Description :

    L’estimation de vraisemblance maximale fondée sur des données d’échantillon complexe nécessite une plus grande modélisation en raison de l’information contenue dans le plan d’échantillonnage. Par ailleurs, on peut appliquer des pseudo-méthodes du maximum de vraisemblance, qui consistent à maximiser des valeurs estimées de la fonction de caractérisation du recensement. Dans cet article, nous examinons quelques-unes des méthodes décrites dans les ouvrages spécialisés et nous les comparons à une nouvelle méthode qui tire son origine de la notion de « distributions pondérées ». Les comparaisons portent principalement sur des situations où la totalité ou une fraction des variables de plan sont inconnues ou mal spécifiées. Les résultats obtenus avec la nouvelle méthode sont encourageants mais précisons que notre analyse se limite actuellement à des situations simples.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214485
    Description :

    Godambe et Thompson (1986) définissent et élaborent des méthodes d’estimation optimale simultanée de paramètres de superpopulation et de population finie à partir d’un modèle de superpopulation et d’un plan de sondage. Dans leurs travaux, ils définissent le paramètre de population finie, \theta_N, comme la solution de l’équation d’estimation optimale pour le paramètre de superpopulation \theta; cependant, un autre paramètre de population finie, \phi, peut être tout aussi intéressant. Nous proposons d’élargir le modèle de superpopulation de telle manière que le paramètre \phi soit une fonction connue de \theta_N, c’est-à-dire \phi = f (\theta_N). Alors, \phi est estimé de manière optimale par f (\theta_s), où, d’après Godambe et Thompson (1986), \theta_s est l’estimateur optimal de \theta_N étant donné l’échantillon s et le plan de sondage.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214486
    Description :

    Les méthodes de rééchantillonnage permettant d’obtenir, par inférence, des résultats à partir de données d’enquêtes complexes incluent la méthode du jackknife, la méthode BRR (« balanced repeated replication ») et la méthode d’auto-amorçage. La présente communication passe en revue certains travaux récents relatifs à ces méthodes, pour l’estimation des erreurs-types et des intervalles de confiance. Certains résultats empiriques relatifs à des statistiques non lisses sont également présentés.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200114492
    Description :

    Nous considérons dans cet article le scénario d’une enquête par sondage ayant les deux objectifs principaux suivants : 1) l’identification, pour des études de suivi ultérieures, de n^* -sujets dans chacun des H sous-domaines et 2) l’estimation, au moment où on en est dans le déroulement de l’enquête, du niveau d’un caractère quelconque dans chacun de ces sous-domaines. Pour cette enquête, le plan de sondage doit se limiter à un échantillonnage par grappes à un seul degré, ce qui constitue une contrainte supplémentaire. Levy et coll. 1989, ont proposé une variante de l’échantillonnage par grappes à un seul degré, appelée échantillonnage par grappes à un seul degré étagé (ÉGSDÉ), comme moyen économique d’identifier n^* -sujets dans chacun des sous-domaines. Dans cet article-ci, nous étudions les propriétés statistiques de l’ÉGSDÉ pour l’estimation transversale du niveau d’un caractère dans la population. En particulier, la fiabilité d’estimations obtenues, à un coût donné, à l’aide de l’ÉGSDÉ est comparée à celle des estimations obtenues au même coût à l’aide de l’échantillonnage par grappes à un seul degré ordinaire (ÉGSDO). Nous avons été motivés par les problèmes rencontrés au cours de la conception statistique de l’Enquête de Shanghai sur la maladie d’Alzheimer et la démence (ESMAD), une étude épidémiologique de la prévalence et de l’incidence de la maladie d’Alzheimer et de la démence.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114493
    Description :

    Dans le présent article, on examine la pertinence d’une procédure à base d’enquêtes pour estimer la population dans de petites régions rurales. La procédure est une variante de la méthode des unités de logement. Elle fait appel aux services d’experts locaux embauchés pour fournir des renseignements à propos des caractéristiques démographiques de ménages choisis aléatoirement dans des bases de sondage de quartiers d’habitation élaborées à partir des dossiers des sociétés de service public. La procédure ne dérange pas trop et elle est moins dispendieuse que les opérations traditionnelles de collecte de données au moyen d’enquêtes. Comme la procédure est basée sur l’échantillonnage aléatoire, on peut construire des intervalles de confiance autour de la population estimée au moyen de cette technique. On fournit les résultats d’une étude de cas portant sur l’estimation de la population totale dans trois collectivités non constituées situées dans une région rurale du sud du Nevada.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114496
    Description :

    Les données du Programme des estimations démographiques (PED) de Statistique Canada sont toujours étalonnées en fonction du recensement le plus récent sans qu’il soit tenu compte de l’erreur de couverture dans ce recensement. Or, depuis qu’ils ont constaté une forte hausse du niveau de sous-dénombrement lors du recensement de 1986, Statistique Canada étudie la possibilité de redresser l’effectif de la population de base du PED pour tenir compte du sous-dénombrement net. Dans cet article, on définit et compare quatre estimateurs de l’effectif de la population de base : les chiffres non redressés du recensement, les chiffres redressés, un estimateur de test préliminaire et un estimateur composite. L’élément de comparaison, en l’occurrence, est une généralisation des fonctions de risque proposées antérieurement connue sous le nom d’erreur quadratique moyenne pondérée (EQMP). L’EQMP s’applique non seulement aux totaux de population, mais aux fonctions de totaux de population, comme les proportions de population et les taux de croissance d’un recensement à l’autre. Il est aussi question de l’utilisation de l’EQMP dans l’élaboration et l’évaluation des estimateurs pour petites régions dans le contexte du redressement des chiffres du recensement.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114498
    Description :

    Une façon de calculer le sous-dénombrement au niveau infra-national (par ex. : pour un État) est de prendre des données-échantillon d’une enquête postcensitaire et de les lisser suivant un modèle linéaire de variables explicatives. Le rapport entre la variance de l’erreur d’échantillonnage et la variance de l’erreur de modèle correspondante détermine le degré de lissage. L’estimation par la méthode du maximum de vraisemblance peut mener à un lissage excessif et, par conséquent, rendre le calcul du sous-dénombrement trop tributaire du modèle linéaire. Les estimateurs du maximum de vraisemblance avec contrainte (MVC) ne présentent pas de tels inconvénients. Dans cet article, on traite la prévision empirique de Bayes du sous-dénombrement fondée sur l’estimation MVC et on la compare, par des exemples et des simulations, à celle fondée sur la méthode du maximum de vraisemblance et à celle fondée sur une méthode des moments. Les propriétés de distribution pour grand échantillon des estimateurs MVC permettent un calcul précis de l’erreur quadratique moyenne de prévision des filtres de lissage fondés sur l’estimation MVC.

    Date de diffusion : 1992-06-15
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (9)

Analyses (9) ((9 résultats))

  • Articles et rapports : 12-001-X199200214480
    Description :

    Les auteurs se penchent sur l’estimation du « poids en valeur » et de l’« importance relative » de diverses strates de produits et services pour les régions de consommation. L’estimation de ces paramètres est une opération indispensable pour la construction des indices des prix à la consommation aux É.-U. Dans cet article, on se sert de modèles à plusieurs variables pour construire des estimateurs composites qui intègrent de l’information provenant de sources pertinentes. L’erreur quadratique moyenne (EQM) des estimateurs proposés et des estimateurs existants est estimée au moyen des demi-échantillons répétés tirés de l’enquête. D’après les résultats obtenus, les estimateurs proposés semblent être supérieurs aux autres estimateurs.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214483
    Description :

    Dans presque toutes les grandes enquêtes, l’imputation est utilisée sous une forme ou sous une autre. Le présent article expose une méthode d’estimation de la variance lorsque l’imputation simple (plutôt que multiple) est utilisée pour créer un ensemble complet de données. L’imputation ne reproduit jamais les vraies valeurs (sauf dans des cas tout à fait exceptionnels). L’erreur totale de l’estimation de l’enquête est considérée, dans cet article, comme la somme de l’erreur d’échantillonnage et de l’erreur d’imputation. Par conséquent, on en arrive à une variance globale qui est la somme d’une variance d’échantillonnage et d’une variance d’imputation. L’article s’attarde principalement à l’estimation de ces deux composantes, en utilisant les données après imputation, c’est-à-dire les valeurs réellement observées et les valeurs imputées. La méthode est fondée sur un modèle, en ce sens que le modèle sous-jacent à la méthode d’imputation, ainsi que la distribution de randomisation ayant servi à la sélection de l’échantillon, détermineront ensemble la forme que prendront les estimateurs de la variance. Les résultats théoriques sont confirmés par une simulation de Monte Carlo.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214484
    Description :

    L’estimation de vraisemblance maximale fondée sur des données d’échantillon complexe nécessite une plus grande modélisation en raison de l’information contenue dans le plan d’échantillonnage. Par ailleurs, on peut appliquer des pseudo-méthodes du maximum de vraisemblance, qui consistent à maximiser des valeurs estimées de la fonction de caractérisation du recensement. Dans cet article, nous examinons quelques-unes des méthodes décrites dans les ouvrages spécialisés et nous les comparons à une nouvelle méthode qui tire son origine de la notion de « distributions pondérées ». Les comparaisons portent principalement sur des situations où la totalité ou une fraction des variables de plan sont inconnues ou mal spécifiées. Les résultats obtenus avec la nouvelle méthode sont encourageants mais précisons que notre analyse se limite actuellement à des situations simples.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214485
    Description :

    Godambe et Thompson (1986) définissent et élaborent des méthodes d’estimation optimale simultanée de paramètres de superpopulation et de population finie à partir d’un modèle de superpopulation et d’un plan de sondage. Dans leurs travaux, ils définissent le paramètre de population finie, \theta_N, comme la solution de l’équation d’estimation optimale pour le paramètre de superpopulation \theta; cependant, un autre paramètre de population finie, \phi, peut être tout aussi intéressant. Nous proposons d’élargir le modèle de superpopulation de telle manière que le paramètre \phi soit une fonction connue de \theta_N, c’est-à-dire \phi = f (\theta_N). Alors, \phi est estimé de manière optimale par f (\theta_s), où, d’après Godambe et Thompson (1986), \theta_s est l’estimateur optimal de \theta_N étant donné l’échantillon s et le plan de sondage.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200214486
    Description :

    Les méthodes de rééchantillonnage permettant d’obtenir, par inférence, des résultats à partir de données d’enquêtes complexes incluent la méthode du jackknife, la méthode BRR (« balanced repeated replication ») et la méthode d’auto-amorçage. La présente communication passe en revue certains travaux récents relatifs à ces méthodes, pour l’estimation des erreurs-types et des intervalles de confiance. Certains résultats empiriques relatifs à des statistiques non lisses sont également présentés.

    Date de diffusion : 1992-12-15

  • Articles et rapports : 12-001-X199200114492
    Description :

    Nous considérons dans cet article le scénario d’une enquête par sondage ayant les deux objectifs principaux suivants : 1) l’identification, pour des études de suivi ultérieures, de n^* -sujets dans chacun des H sous-domaines et 2) l’estimation, au moment où on en est dans le déroulement de l’enquête, du niveau d’un caractère quelconque dans chacun de ces sous-domaines. Pour cette enquête, le plan de sondage doit se limiter à un échantillonnage par grappes à un seul degré, ce qui constitue une contrainte supplémentaire. Levy et coll. 1989, ont proposé une variante de l’échantillonnage par grappes à un seul degré, appelée échantillonnage par grappes à un seul degré étagé (ÉGSDÉ), comme moyen économique d’identifier n^* -sujets dans chacun des sous-domaines. Dans cet article-ci, nous étudions les propriétés statistiques de l’ÉGSDÉ pour l’estimation transversale du niveau d’un caractère dans la population. En particulier, la fiabilité d’estimations obtenues, à un coût donné, à l’aide de l’ÉGSDÉ est comparée à celle des estimations obtenues au même coût à l’aide de l’échantillonnage par grappes à un seul degré ordinaire (ÉGSDO). Nous avons été motivés par les problèmes rencontrés au cours de la conception statistique de l’Enquête de Shanghai sur la maladie d’Alzheimer et la démence (ESMAD), une étude épidémiologique de la prévalence et de l’incidence de la maladie d’Alzheimer et de la démence.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114493
    Description :

    Dans le présent article, on examine la pertinence d’une procédure à base d’enquêtes pour estimer la population dans de petites régions rurales. La procédure est une variante de la méthode des unités de logement. Elle fait appel aux services d’experts locaux embauchés pour fournir des renseignements à propos des caractéristiques démographiques de ménages choisis aléatoirement dans des bases de sondage de quartiers d’habitation élaborées à partir des dossiers des sociétés de service public. La procédure ne dérange pas trop et elle est moins dispendieuse que les opérations traditionnelles de collecte de données au moyen d’enquêtes. Comme la procédure est basée sur l’échantillonnage aléatoire, on peut construire des intervalles de confiance autour de la population estimée au moyen de cette technique. On fournit les résultats d’une étude de cas portant sur l’estimation de la population totale dans trois collectivités non constituées situées dans une région rurale du sud du Nevada.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114496
    Description :

    Les données du Programme des estimations démographiques (PED) de Statistique Canada sont toujours étalonnées en fonction du recensement le plus récent sans qu’il soit tenu compte de l’erreur de couverture dans ce recensement. Or, depuis qu’ils ont constaté une forte hausse du niveau de sous-dénombrement lors du recensement de 1986, Statistique Canada étudie la possibilité de redresser l’effectif de la population de base du PED pour tenir compte du sous-dénombrement net. Dans cet article, on définit et compare quatre estimateurs de l’effectif de la population de base : les chiffres non redressés du recensement, les chiffres redressés, un estimateur de test préliminaire et un estimateur composite. L’élément de comparaison, en l’occurrence, est une généralisation des fonctions de risque proposées antérieurement connue sous le nom d’erreur quadratique moyenne pondérée (EQMP). L’EQMP s’applique non seulement aux totaux de population, mais aux fonctions de totaux de population, comme les proportions de population et les taux de croissance d’un recensement à l’autre. Il est aussi question de l’utilisation de l’EQMP dans l’élaboration et l’évaluation des estimateurs pour petites régions dans le contexte du redressement des chiffres du recensement.

    Date de diffusion : 1992-06-15

  • Articles et rapports : 12-001-X199200114498
    Description :

    Une façon de calculer le sous-dénombrement au niveau infra-national (par ex. : pour un État) est de prendre des données-échantillon d’une enquête postcensitaire et de les lisser suivant un modèle linéaire de variables explicatives. Le rapport entre la variance de l’erreur d’échantillonnage et la variance de l’erreur de modèle correspondante détermine le degré de lissage. L’estimation par la méthode du maximum de vraisemblance peut mener à un lissage excessif et, par conséquent, rendre le calcul du sous-dénombrement trop tributaire du modèle linéaire. Les estimateurs du maximum de vraisemblance avec contrainte (MVC) ne présentent pas de tels inconvénients. Dans cet article, on traite la prévision empirique de Bayes du sous-dénombrement fondée sur l’estimation MVC et on la compare, par des exemples et des simulations, à celle fondée sur la méthode du maximum de vraisemblance et à celle fondée sur une méthode des moments. Les propriétés de distribution pour grand échantillon des estimateurs MVC permettent un calcul précis de l’erreur quadratique moyenne de prévision des filtres de lissage fondés sur l’estimation MVC.

    Date de diffusion : 1992-06-15
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :