Vérification et imputation

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (2)

Tout (2) ((2 résultats))

  • Articles et rapports : 12-001-X199400214423
    Description :

    La plupart des enquêtes souffrent du problème de données manquantes attribuable à la non-réponse. Pour traiter ce problème, on a souvent recours à l’imputation afin de créer un « ensemble de données complet », c’est-à-dire, un ensemble de données composé d’observations réelles (pour les répondants) et d’imputations (pour les non-répondants). Habituellement, on effectue l’imputation en supposant un mécanisme de réponse non-confondu. Quand cette hypothèse se révèle fausse, un biais est introduit dans l’estimateur ordinaire de la moyenne de population calculé à partir de l’ensemble de données complet. Dans le présent article, nous étudions l’idée d’employer des facteurs de correction simples pour régler le problème du biais dans le cas où l’on a recours à l’imputation par quotient. Nous évaluons l’efficacité des facteurs de correction à l’aide d’une simulation de Monte Carlo dans laquelle nous utilisons des ensembles de données produits artificiellement qui représentent divers taux de non-réponse et mécanismes de non-réponse et diverses superpopulations et corrélations entre la variable étudiée et la variable auxiliaire. Nous constatons que ces facteurs de correction sont efficaces, particulièrement lorsque la population suit le modèle sous-jacent l’imputation par quotient. Nous traitons aussi d’une option pour estimer la variance des estimations ponctuelles corrigées.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400114433
    Description :

    L’imputation est une méthode dont se servent couramment les organismes d’enquête afin de corriger le problème posé par la non-réponse à des questions particulières. Bien que dans la plupart des cas, les ensembles de données ainsi complétés offrent de bonnes estimations des moyennes et des totaux, les variances correspondantes, souvent, sont largement sous-estimées. Plusieurs méthodes permettent de remédier à ce problème, mais la plupart dépendent du plan d’échantillonnage et de la méthode d’imputation. Récemment, Rao (1992) et Rao et Shao (1992) ont proposé une méthode jackknife unifiée pour l’estimation de la variance d’ensembles de données ayant fait l’objet d’une imputation. Le présent article évalue cette technique de manière empirique, au moyen d’une population réelle d’entreprises, et selon un plan d’échantillonnage aléatoire simple et un mécanisme de non-réponse uniforme. La possibilité d’étendre cette méthode à des plans d’échantillonnage stratifié à plusieurs degrés est examinée, et l’on se penche brièvement sur la performance de l’estimateur de la variance proposé dans le cas de mécanismes de réponse qui ne sont pas uniformes.

    Date de diffusion : 1994-06-15
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (2)

Analyses (2) ((2 résultats))

  • Articles et rapports : 12-001-X199400214423
    Description :

    La plupart des enquêtes souffrent du problème de données manquantes attribuable à la non-réponse. Pour traiter ce problème, on a souvent recours à l’imputation afin de créer un « ensemble de données complet », c’est-à-dire, un ensemble de données composé d’observations réelles (pour les répondants) et d’imputations (pour les non-répondants). Habituellement, on effectue l’imputation en supposant un mécanisme de réponse non-confondu. Quand cette hypothèse se révèle fausse, un biais est introduit dans l’estimateur ordinaire de la moyenne de population calculé à partir de l’ensemble de données complet. Dans le présent article, nous étudions l’idée d’employer des facteurs de correction simples pour régler le problème du biais dans le cas où l’on a recours à l’imputation par quotient. Nous évaluons l’efficacité des facteurs de correction à l’aide d’une simulation de Monte Carlo dans laquelle nous utilisons des ensembles de données produits artificiellement qui représentent divers taux de non-réponse et mécanismes de non-réponse et diverses superpopulations et corrélations entre la variable étudiée et la variable auxiliaire. Nous constatons que ces facteurs de correction sont efficaces, particulièrement lorsque la population suit le modèle sous-jacent l’imputation par quotient. Nous traitons aussi d’une option pour estimer la variance des estimations ponctuelles corrigées.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400114433
    Description :

    L’imputation est une méthode dont se servent couramment les organismes d’enquête afin de corriger le problème posé par la non-réponse à des questions particulières. Bien que dans la plupart des cas, les ensembles de données ainsi complétés offrent de bonnes estimations des moyennes et des totaux, les variances correspondantes, souvent, sont largement sous-estimées. Plusieurs méthodes permettent de remédier à ce problème, mais la plupart dépendent du plan d’échantillonnage et de la méthode d’imputation. Récemment, Rao (1992) et Rao et Shao (1992) ont proposé une méthode jackknife unifiée pour l’estimation de la variance d’ensembles de données ayant fait l’objet d’une imputation. Le présent article évalue cette technique de manière empirique, au moyen d’une population réelle d’entreprises, et selon un plan d’échantillonnage aléatoire simple et un mécanisme de non-réponse uniforme. La possibilité d’étendre cette méthode à des plans d’échantillonnage stratifié à plusieurs degrés est examinée, et l’on se penche brièvement sur la performance de l’estimateur de la variance proposé dans le cas de mécanismes de réponse qui ne sont pas uniformes.

    Date de diffusion : 1994-06-15
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :