Pondération et estimation

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (67)

Tout (67) (0 à 10 de 67 résultats)

  • Articles et rapports : 11-522-X202200100003
    Description : L’estimation à de fins niveaux d’agrégation est nécessaire pour mieux décrire une société. Les approches fondées sur un modèle d’estimation sur petits domaines qui combinent des données d’enquête parcimonieuses à des données riches provenant de sources auxiliaires se sont révélées utiles pour améliorer la fiabilité des estimations sur petits domaines. Nous examinons ici un scénario où des estimations basées sur un modèle pour petits domaines, produit à un niveau d’agrégation donné, devaient être désagrégées pour mieux décrire la structure sociale à des niveaux plus fins. Pour ce scénario, nous avons élaboré une méthode de répartition afin de mettre en œuvre la désagrégation, surmontant les problèmes associés à la disponibilité des données et à l’élaboration de modèles à des niveaux de cette finesse. La méthode est appliquée à l’estimation de la littératie et de la numératie des adultes au niveau du comté par groupe, au moyen des données du Programme pour l’évaluation internationale des compétences des adultes (PEICA) des États-Unis. Dans cette application, les groupes sont définis en fonction de l’âge ou de la scolarité, mais la méthode pourrait être appliquée à l’estimation d’autres groupes en quête d’équité.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 12-001-X202300100005
    Description : Le lissage des poids est une technique utile pour améliorer l’efficacité des estimateurs fondés sur le plan exposés au risque de biais en raison d’une spécification erronée du modèle. Dans le prolongement du travail de Kim et Skinner (2013), nous proposons d’employer le lissage des poids pour construire la vraisemblance conditionnelle pour une inférence analytique efficace dans le cadre d’un échantillonnage informatif. La distribution bêta prime peut être utilisée pour construire un modèle de paramètres pour les poids dans l’échantillon. Un test du score est développé pour tester les erreurs de spécifications dans le modèle de pondération. Un estimateur de prétest s’appuyant sur le test du score peut être élaboré naturellement. L’estimateur de prétest est presque exempt de biais et peut être plus efficace que l’estimateur fondé sur le plan lorsque le modèle de pondération est correctement spécifié ou que les poids d’origine sont très variables. Une étude par simulation limitée est présentée pour étudier le rendement des méthodes proposées.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202100100001
    Description :

    Dans un article précédent, nous avons élaboré un modèle pour effectuer une inférence sur des proportions de petits domaines en cas de biais de sélection dans lequel les réponses binaires et les probabilités de sélection sont corrélées. Il s’agit du modèle de sélection non ignorable homogène; une sélection non ignorable signifie que les probabilités de sélection et les réponses binaires sont corrélées. Il a été montré que le modèle de sélection non ignorable homogène donne de meilleurs résultats qu’un modèle de sélection ignorable de référence. Toutefois, l’une des limites du modèle de sélection non ignorable homogène réside dans le fait que les distributions des probabilités de sélection sont supposées identiques dans tous les domaines. C’est pourquoi nous introduisons un modèle plus général, le modèle de sélection non ignorable hétérogène, dans lequel les probabilités de sélection ne sont pas distribuées identiquement dans tous les domaines. Nous avons utilisé des méthodes de Monte Carlo par chaînes de Markov pour ajuster les trois modèles. Nous illustrons notre méthodologie et comparons nos modèles à l’aide d’un exemple sur la limitation d’activité sévère de la U.S. National Health Interview Survey (Enquête nationale sur la santé réalisée par interviews aux États-Unis). Nous réalisons également une étude par simulations pour démontrer que notre modèle de sélection non ignorable hétérogène est nécessaire en présence d’un biais de sélection modéré ou fort.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202100100005
    Description :

    Les stratégies bayésiennes de regroupement servent à résoudre les problèmes de précision liés aux analyses statistiques des données sur petits domaines. Dans ces cas, les échantillons des sous-populations sont généralement petits, même si la population ne l’est pas nécessairement. Une autre solution consiste à regrouper des données semblables en vue de réduire le nombre de paramètres dans le modèle. De nombreuses enquêtes recueillent des données catégoriques par domaine, lesquelles sont ensuite réunies dans un tableau de contingence. Nous examinons les modèles de regroupement bayésiens hiérarchisés avec une loi a priori de processus de Dirichlet pour analyser les données catégoriques sur de petits domaines. Toutefois, la loi a priori utilisée aux fins de regroupement de ces données entraîne souvent un problème de rétrécissement excessif. Pour corriger le problème, nous séparons les paramètres en effets globaux et locaux. Cette étude porte sur le regroupement de données au moyen d’un processus de Dirichlet. Nous comparons les modèles de regroupement utilisant des données sur la densité minérale osseuse (DMO) tirées de la Third National Health and Nutrition Examination Survey, portant sur la période de 1988 à 1994 aux États-Unis. Nos analyses des données sur la DMO sont effectuées au moyen d’un échantillonneur de Gibbs et d’un échantillonnage par tranche pour effectuer les calculs a posteriori.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X201900300001
    Description :

    Les estimateurs de la variance par linéarisation classiques de l’estimateur par la régression généralisée sont souvent trop petits, ce qui entraîne des intervalles de confiance ne donnant pas le taux de couverture souhaité. Pour remédier à ce problème, on peut apporter des ajustements à la matrice chapeau dans l’échantillonnage à deux degrés. Nous présentons la théorie de plusieurs nouveaux estimateurs de la variance et les comparons aux estimateurs classiques dans une série de simulations. Les estimateurs proposés corrigent les biais négatifs et améliorent les taux de couverture de l’intervalle de confiance dans diverses situations correspondant à celles rencontrées en pratique.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300003
    Description :

    Les formules largement utilisées pour la variance de l’estimateur par le ratio peuvent mener à une sérieuse sous-estimation quand l’échantillon est de petite taille; voir Sukhatme (1954), Koop (1968), Rao (1969) et Cochran (1977, pages 163 et 164). Nous proposons ici comme solution à ce problème classique de nouveaux estimateurs de la variance et de l’erreur quadratique moyenne de l’estimateur par le ratio qui ne sont pas entachés d’un important biais négatif. Des formules d’estimation semblables peuvent s’obtenir pour d’autres estimateurs par le ratio, comme il en est question dans Tin (1965). Nous comparons trois estimateurs de l’erreur quadratique moyenne de l’estimateur par le ratio dans une étude par simulation.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900200007
    Description :

    Quand on ajuste une variable catégorique ordonnée à L > 2 niveaux à un ensemble de covariables sur données d’enquêtes à plans complexes, on suppose communément que les éléments de la population suivent un modèle simple de régression logistique cumulative (modèle de régression logistique à cotes proportionnelles). Cela signifie que la probabilité que la variable catégorique se situe à un certain niveau ou au-dessous est une fonction logistique binaire des covariables du modèle. Ajoutons, sauf pour l’ordonnée à l’origine, les valeurs des paramètres de régression logistique sont les mêmes à chaque niveau. La méthode « fondée sur le plan » classique servant à ajuster le modèle à cotes proportionnelles est fondée sur le pseudo-maximum de vraisemblance. Nous comparons les estimations calculées par cette méthode à celles d’un traitement dans un cadre basé sur un modèle robuste sensible au plan. Nous indiquons par un simple exemple numérique en quoi les estimations tirées de ces deux traitements peuvent différer. La nouvelle méthode peut facilement s’élargir pour ajuster un modèle logistique cumulatif général où l’hypothèse du parallélisme peut ne pas se vérifier. Un test de cette hypothèse peut aisément s’ensuivre.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 13-604-M2019002
    Description :

    Le présent article vise deux objectifs : d’abord, examiner les concepts et les méthodes d’évaluation de la parité de pouvoir d’achat (PPA) Canada–États-Unis; ensuite, présenter des estimations clés. Les estimations intègrent les prix de référence pour 2017 qui sont fournis par le programme de PPA Eurostat-OCDE (Organisation de coopération et de développement économiques) ainsi que les données correspondantes sur le revenu national qui proviennent du Système de comptabilité nationale du Canada. Les données sur le revenu national des États-Unis ont été obtenues auprès du Bureau of Economic Analysis (BEA) et du U.S. Census Bureau.

    Date de diffusion : 2019-04-26

  • Articles et rapports : 12-001-X201600114543
    Description :

    L’estimateur par régression est utilisé de façon intensive en pratique, car il peut améliorer la fiabilité de l’estimation des paramètres d’intérêt tels que les moyennes ou les totaux. Il utilise les totaux de contrôle des variables connues au niveau de la population qui sont incluses dans le modèle de régression. Dans cet article, nous examinons les propriétés de l’estimateur par régression qui utilise les totaux de contrôle estimés à partir de l’échantillon, ainsi que ceux connus au niveau de la population. Cet estimateur est comparé aux estimateurs par régression qui utilisent uniquement les totaux connus du point de vue théorique et par simulation.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 11-522-X201700014737
    Description :

    Les méthodes statistiques classiques qui ne tiennent pas compte comme il convient de la complexité du plan d’échantillonnage peuvent mener à des inférences incorrectes lorsqu’elles sont appliquées à des données d’enquête. En particulier, le taux réel d’erreur de première espèce des tests d’hypothèse fondés sur les tests classiques peut être nettement plus élevé que le niveau nominal. On a proposé des méthodes qui tiennent compte des caractéristiques du plan d’échantillonnage dans les tests d’hypothèse, y compris les tests de Wald et les tests du quasi-score (Rao, Scott et Skinner 1998), qui font intervenir les matrices de covariance estimées des estimations des paramètres. La méthode du bootstrap de Rao et Wu (1983) est appliquée fréquemment à Statistique Canada pour estimer les matrices de covariance en utilisant un fichier de données contenant des colonnes de poids bootstrap. Les progiciels statistiques classiques permettent souvent d’utiliser des statistiques de test pondérées selon le plan d’échantillonnage et il est intéressant d’approximer les lois de ces statistiques sous l’hypothèse nulle par leurs analogues bootstrap calculés au moyen des poids bootstrap fournis dans le fichier de données. Beaumont et Bocci (2009) ont appliqué cette méthode du bootstrap pour tester les hypothèses sur les paramètres de régression sous un modèle de régression linéaire, en utilisant la statistique F pondérée. Dans le présent article, nous exposons une approche unifiée de la méthode susmentionnée consistant à construire des approximations bootstrap de la statistique du rapport de vraisemblance pondéré et de la statistique du quasi-score pondéré. Nous présentons les résultats d’une étude en simulation du test d’indépendance dans un tableau à double entrée de données d’enquête catégoriques. Nous avons étudié la performance de la méthode proposée comparativement à d’autres méthodes, dont la statistique du khi-carré corrigée de Rao-Scott pour les données d’enquête catégoriques.

    Date de diffusion : 2016-03-24
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (66)

Analyses (66) (0 à 10 de 66 résultats)

  • Articles et rapports : 11-522-X202200100003
    Description : L’estimation à de fins niveaux d’agrégation est nécessaire pour mieux décrire une société. Les approches fondées sur un modèle d’estimation sur petits domaines qui combinent des données d’enquête parcimonieuses à des données riches provenant de sources auxiliaires se sont révélées utiles pour améliorer la fiabilité des estimations sur petits domaines. Nous examinons ici un scénario où des estimations basées sur un modèle pour petits domaines, produit à un niveau d’agrégation donné, devaient être désagrégées pour mieux décrire la structure sociale à des niveaux plus fins. Pour ce scénario, nous avons élaboré une méthode de répartition afin de mettre en œuvre la désagrégation, surmontant les problèmes associés à la disponibilité des données et à l’élaboration de modèles à des niveaux de cette finesse. La méthode est appliquée à l’estimation de la littératie et de la numératie des adultes au niveau du comté par groupe, au moyen des données du Programme pour l’évaluation internationale des compétences des adultes (PEICA) des États-Unis. Dans cette application, les groupes sont définis en fonction de l’âge ou de la scolarité, mais la méthode pourrait être appliquée à l’estimation d’autres groupes en quête d’équité.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 12-001-X202300100005
    Description : Le lissage des poids est une technique utile pour améliorer l’efficacité des estimateurs fondés sur le plan exposés au risque de biais en raison d’une spécification erronée du modèle. Dans le prolongement du travail de Kim et Skinner (2013), nous proposons d’employer le lissage des poids pour construire la vraisemblance conditionnelle pour une inférence analytique efficace dans le cadre d’un échantillonnage informatif. La distribution bêta prime peut être utilisée pour construire un modèle de paramètres pour les poids dans l’échantillon. Un test du score est développé pour tester les erreurs de spécifications dans le modèle de pondération. Un estimateur de prétest s’appuyant sur le test du score peut être élaboré naturellement. L’estimateur de prétest est presque exempt de biais et peut être plus efficace que l’estimateur fondé sur le plan lorsque le modèle de pondération est correctement spécifié ou que les poids d’origine sont très variables. Une étude par simulation limitée est présentée pour étudier le rendement des méthodes proposées.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202100100001
    Description :

    Dans un article précédent, nous avons élaboré un modèle pour effectuer une inférence sur des proportions de petits domaines en cas de biais de sélection dans lequel les réponses binaires et les probabilités de sélection sont corrélées. Il s’agit du modèle de sélection non ignorable homogène; une sélection non ignorable signifie que les probabilités de sélection et les réponses binaires sont corrélées. Il a été montré que le modèle de sélection non ignorable homogène donne de meilleurs résultats qu’un modèle de sélection ignorable de référence. Toutefois, l’une des limites du modèle de sélection non ignorable homogène réside dans le fait que les distributions des probabilités de sélection sont supposées identiques dans tous les domaines. C’est pourquoi nous introduisons un modèle plus général, le modèle de sélection non ignorable hétérogène, dans lequel les probabilités de sélection ne sont pas distribuées identiquement dans tous les domaines. Nous avons utilisé des méthodes de Monte Carlo par chaînes de Markov pour ajuster les trois modèles. Nous illustrons notre méthodologie et comparons nos modèles à l’aide d’un exemple sur la limitation d’activité sévère de la U.S. National Health Interview Survey (Enquête nationale sur la santé réalisée par interviews aux États-Unis). Nous réalisons également une étude par simulations pour démontrer que notre modèle de sélection non ignorable hétérogène est nécessaire en présence d’un biais de sélection modéré ou fort.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X202100100005
    Description :

    Les stratégies bayésiennes de regroupement servent à résoudre les problèmes de précision liés aux analyses statistiques des données sur petits domaines. Dans ces cas, les échantillons des sous-populations sont généralement petits, même si la population ne l’est pas nécessairement. Une autre solution consiste à regrouper des données semblables en vue de réduire le nombre de paramètres dans le modèle. De nombreuses enquêtes recueillent des données catégoriques par domaine, lesquelles sont ensuite réunies dans un tableau de contingence. Nous examinons les modèles de regroupement bayésiens hiérarchisés avec une loi a priori de processus de Dirichlet pour analyser les données catégoriques sur de petits domaines. Toutefois, la loi a priori utilisée aux fins de regroupement de ces données entraîne souvent un problème de rétrécissement excessif. Pour corriger le problème, nous séparons les paramètres en effets globaux et locaux. Cette étude porte sur le regroupement de données au moyen d’un processus de Dirichlet. Nous comparons les modèles de regroupement utilisant des données sur la densité minérale osseuse (DMO) tirées de la Third National Health and Nutrition Examination Survey, portant sur la période de 1988 à 1994 aux États-Unis. Nos analyses des données sur la DMO sont effectuées au moyen d’un échantillonneur de Gibbs et d’un échantillonnage par tranche pour effectuer les calculs a posteriori.

    Date de diffusion : 2021-06-24

  • Articles et rapports : 12-001-X201900300001
    Description :

    Les estimateurs de la variance par linéarisation classiques de l’estimateur par la régression généralisée sont souvent trop petits, ce qui entraîne des intervalles de confiance ne donnant pas le taux de couverture souhaité. Pour remédier à ce problème, on peut apporter des ajustements à la matrice chapeau dans l’échantillonnage à deux degrés. Nous présentons la théorie de plusieurs nouveaux estimateurs de la variance et les comparons aux estimateurs classiques dans une série de simulations. Les estimateurs proposés corrigent les biais négatifs et améliorent les taux de couverture de l’intervalle de confiance dans diverses situations correspondant à celles rencontrées en pratique.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900300003
    Description :

    Les formules largement utilisées pour la variance de l’estimateur par le ratio peuvent mener à une sérieuse sous-estimation quand l’échantillon est de petite taille; voir Sukhatme (1954), Koop (1968), Rao (1969) et Cochran (1977, pages 163 et 164). Nous proposons ici comme solution à ce problème classique de nouveaux estimateurs de la variance et de l’erreur quadratique moyenne de l’estimateur par le ratio qui ne sont pas entachés d’un important biais négatif. Des formules d’estimation semblables peuvent s’obtenir pour d’autres estimateurs par le ratio, comme il en est question dans Tin (1965). Nous comparons trois estimateurs de l’erreur quadratique moyenne de l’estimateur par le ratio dans une étude par simulation.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201900200007
    Description :

    Quand on ajuste une variable catégorique ordonnée à L > 2 niveaux à un ensemble de covariables sur données d’enquêtes à plans complexes, on suppose communément que les éléments de la population suivent un modèle simple de régression logistique cumulative (modèle de régression logistique à cotes proportionnelles). Cela signifie que la probabilité que la variable catégorique se situe à un certain niveau ou au-dessous est une fonction logistique binaire des covariables du modèle. Ajoutons, sauf pour l’ordonnée à l’origine, les valeurs des paramètres de régression logistique sont les mêmes à chaque niveau. La méthode « fondée sur le plan » classique servant à ajuster le modèle à cotes proportionnelles est fondée sur le pseudo-maximum de vraisemblance. Nous comparons les estimations calculées par cette méthode à celles d’un traitement dans un cadre basé sur un modèle robuste sensible au plan. Nous indiquons par un simple exemple numérique en quoi les estimations tirées de ces deux traitements peuvent différer. La nouvelle méthode peut facilement s’élargir pour ajuster un modèle logistique cumulatif général où l’hypothèse du parallélisme peut ne pas se vérifier. Un test de cette hypothèse peut aisément s’ensuivre.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 13-604-M2019002
    Description :

    Le présent article vise deux objectifs : d’abord, examiner les concepts et les méthodes d’évaluation de la parité de pouvoir d’achat (PPA) Canada–États-Unis; ensuite, présenter des estimations clés. Les estimations intègrent les prix de référence pour 2017 qui sont fournis par le programme de PPA Eurostat-OCDE (Organisation de coopération et de développement économiques) ainsi que les données correspondantes sur le revenu national qui proviennent du Système de comptabilité nationale du Canada. Les données sur le revenu national des États-Unis ont été obtenues auprès du Bureau of Economic Analysis (BEA) et du U.S. Census Bureau.

    Date de diffusion : 2019-04-26

  • Articles et rapports : 12-001-X201600114543
    Description :

    L’estimateur par régression est utilisé de façon intensive en pratique, car il peut améliorer la fiabilité de l’estimation des paramètres d’intérêt tels que les moyennes ou les totaux. Il utilise les totaux de contrôle des variables connues au niveau de la population qui sont incluses dans le modèle de régression. Dans cet article, nous examinons les propriétés de l’estimateur par régression qui utilise les totaux de contrôle estimés à partir de l’échantillon, ainsi que ceux connus au niveau de la population. Cet estimateur est comparé aux estimateurs par régression qui utilisent uniquement les totaux connus du point de vue théorique et par simulation.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 11-522-X201700014737
    Description :

    Les méthodes statistiques classiques qui ne tiennent pas compte comme il convient de la complexité du plan d’échantillonnage peuvent mener à des inférences incorrectes lorsqu’elles sont appliquées à des données d’enquête. En particulier, le taux réel d’erreur de première espèce des tests d’hypothèse fondés sur les tests classiques peut être nettement plus élevé que le niveau nominal. On a proposé des méthodes qui tiennent compte des caractéristiques du plan d’échantillonnage dans les tests d’hypothèse, y compris les tests de Wald et les tests du quasi-score (Rao, Scott et Skinner 1998), qui font intervenir les matrices de covariance estimées des estimations des paramètres. La méthode du bootstrap de Rao et Wu (1983) est appliquée fréquemment à Statistique Canada pour estimer les matrices de covariance en utilisant un fichier de données contenant des colonnes de poids bootstrap. Les progiciels statistiques classiques permettent souvent d’utiliser des statistiques de test pondérées selon le plan d’échantillonnage et il est intéressant d’approximer les lois de ces statistiques sous l’hypothèse nulle par leurs analogues bootstrap calculés au moyen des poids bootstrap fournis dans le fichier de données. Beaumont et Bocci (2009) ont appliqué cette méthode du bootstrap pour tester les hypothèses sur les paramètres de régression sous un modèle de régression linéaire, en utilisant la statistique F pondérée. Dans le présent article, nous exposons une approche unifiée de la méthode susmentionnée consistant à construire des approximations bootstrap de la statistique du rapport de vraisemblance pondéré et de la statistique du quasi-score pondéré. Nous présentons les résultats d’une étude en simulation du test d’indépendance dans un tableau à double entrée de données d’enquête catégoriques. Nous avons étudié la performance de la méthode proposée comparativement à d’autres méthodes, dont la statistique du khi-carré corrigée de Rao-Scott pour les données d’enquête catégoriques.

    Date de diffusion : 2016-03-24
Références (1)

Références (1) ((1 résultat))

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015028
    Description :

    Nous abordons le problème de l'estimation des statistiques sur la dynamique du revenu calculées d'après les données d'enquêtes longitudinales complexes. En outre, nous comparons deux estimateurs (fondés sur le plan d'échantillonnage) de proportions longitudinales et de taux de transition, du point de vue de la variabilité, dans le cas de taux d'érosion élevé. Un des estimateurs est fondé sur des échantillons transversaux pour l'estimation des bornes de catégories de revenu à chaque période, ainsi que sur un échantillon longitudinal pour l'estimation des dénombrements longitudinaux. L'autre estimateur est entièrement fondé sur l'échantillon longitudinal pour l'estimation des bornes de catégories et pour les dénombrements longitudinaux. Nous établissons des estimateurs de variance par la linéarisation de Taylor, tant pour l'estimateur longitudinal que pour l'estimateur mixte, dans le cas où l'on présume qu'il n'y a aucun changement dans la population, et pour l'estimateur mixte, dans le cas où la population subit des changements.

    Date de diffusion : 1999-10-22
Date de modification :