Pondération et estimation

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

1 facets displayed. 0 facets selected.

Enquête ou programme statistique

2 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (30)

Tout (30) (0 à 10 de 30 résultats)

  • Articles et rapports : 75F0002M2004012
    Description :

    Dans cette étude, on compare les estimations de revenus dans le cadre de plusieurs programmes statistiques de Statistique Canada. On y examine comment des estimations semblables sont produites au moyen de séries de questions différentes.

    Les données sur le revenu sont recueillies dans le cadre de nombreuses enquêtes-ménages. Pour certaines enquêtes, le revenu est l'une des composantes principales du contenu, et l'information sur le revenu est donc recueillie à un niveau détaillé. Dans d'autres enquêtes, les données sont recueillies à partir d'une série de questions sur le revenu beaucoup plus restreinte. Fait à noter, aucune série normalisée de questions sur le revenu n'a été élaborée.

    Date de diffusion : 2004-12-23

  • Revues et périodiques : 92-395-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour le recensement de 2001. Il fournit un historique de l'application de ces méthodes aux recensements du Canada ainsi que les fondements opérationnels et théoriques de ces méthodes, et présente les resultats des études d'évaluation.

    Date de diffusion : 2004-12-15

  • Articles et rapports : 12-002-X20040027032
    Description :

    Dans cet article, on examine pourquoi un grand nombre d'enquêtes de Statistique Canada fournissent des poids bootstrap avec leurs microdonnées pour faciliter l'estimation de la variance fondée sur le plan de sondage. Les poids bootstrap ne fonctionnent pas sous les logiciels commerciaux comme SUDAAN et Wes Var. Cependant, il existe des façons d'utiliser ces applications pour produire des estimations de la variation bootstrap.

    On conclut cet article en donnant un bref aperçu des autres méthodes d'estimation de la variance ainsi que les logiciels, les programmes et les procédures dans lesquels ces méthodes sont employées.

    Date de diffusion : 2004-10-05

  • Articles et rapports : 11-522-X20020016430
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016714
    Description :

    Dans cet article de nature très technique, on illustre l'application de la méthode de l'estimateur de la variance par le jackknife avec suppression d'un groupe à une étude longitudinale complexe à plusieurs cycles, montrant son utilité pour les modèles de régression linéaire et d'autres modèles analytiques. L'estimateur de la variance par le jackknife avec suppression d'un groupe représente un outil fort utile de mesure de la variance en cas de plan d'échantillonnage complexe. Cette méthode consiste à : diviser l'échantillon de premier degré en groupes mutuellement exclusifs et de variances presque égales; supprimer un groupe à la fois pour créer un ensemble de répétitions; procéder, sur chaque répétition, à des redressements par pondération analogues à ceux effectués sur l'échantillon dans son ensemble. L'estimation de la variance se fait selon la méthode usuelle (non stratifiée) du jackknife.

    On applique la méthode au Chicago Health and Aging Project (CHAP), une étude longitudinale communautaire visant à examiner les facteurs de risque de problèmes de santé chroniques chez les personnes âgées. L'un des objectifs importants de l'étude est d'examiner les facteurs de risque de la manifestation de la maladie d'Alzheimer. Le plan de sondage courant du CHAP comprend deux composantes : (1) Tous les trois ans, l'ensemble des membres survivants de la cohorte sont interviewés sur divers sujets liés à la santé. Ces interviews incluent des mesures des fonctions cognitives et physiques. (2) Durant chaque cycle de collecte des données, un échantillon de Poisson stratifié est sélectionné parmi les répondants à l'interview couvrant la population dans son ensemble afin de procéder à un examen clinique détaillé et à des tests neuropsychologiques. Pour étudier les facteurs de risque liés aux nouveaux cas de maladie, on définit une cohorte de personnes « exemptes de la maladie » au point précédent dans le temps et celle-ci forme une strate importante dans la base de sondage.

    On donne des preuves de l'applicabilité théorique du jackknife avec suppression d'un groupe à des estimateurs particuliers dans les conditions de cet échantillonnage de Poisson, en accordant l'attention nécessaire à la distinction entre l'inférence en population finie et en population infinie (modèle). En outre, on examine le problème de la détermination du « nombre correct » des groupes de variance.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016717
    Description :

    Aux États-Unis, la National Health and Nutrition Examination Survey (NHANES) est couplée à la National Health Interview Survey (NHIS) au niveau de l'unité primaire d'échantillonnage (les mêmes comtés, mais pas nécessairement les mêmes personnes, participent aux deux enquêtes). La NHANES est réalisée auprès d'environ 5 000 personnes par année, tandis que la NHIS l'est auprès d'environ 100 000 personnes par année. Dans cet article, on expose les propriétés de modèles qui permettent d'utiliser les données de la NHIS et des données administratives comme information auxiliaire pour estimer les valeurs des variables étudiées dans le cadre de la NHANES. La méthode, qui est apparentée aux modèles régionaux de Fay Herriot (1979) et aux estimateurs par calage de Deville et Sarndal (1992), tient compte des plans de sondage dans la structure de l'erreur.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016718
    Description :

    Les études de surveillance du cancer nécessitent des estimations exactes des facteurs de risque à l'échelon régional. Ces données sur les facteurs de risque proviennent souvent d'enquêtes comme la National Health Interview Survey (NHIS) ou la Behavioral Risk Factors Surveillance Survey (BRFSS). Malheureusement, aucune enquête avec échantillon représentatif de la population ne fournit des estimations idéales de la prévalence de ces facteurs de risque.

    Une stratégie consiste à rassembler l'information provenant d'enquêtes multiples en tablant sur les points forts complémentaires d'une enquête pour compenser les faiblesses d'une autre. La NHIS est une enquête nationale par interview directe ayant un taux de réponse élevé; cependant, elle ne permet pas de produire des estimations de la prévalence des facteurs de risque à l'échelon de l'État ou à l'échelon infra État, parce que la taille des échantillons est trop faible. La BRFSS est une enquête téléphonique à l'échelon de l'État dont sont exclus les ménages n'ayant pas le téléphone et dont le taux de réponse est faible, mais elle fournit des tailles d'échantillon raisonnables pour tous les États et pour de nombreux comtés. Plusieurs méthodes existent pour construire des estimateurs régionaux qui rassemblent de l'information provenant de la NHIS et de la BRFSS, y compris des estimateurs directs, des estimateurs à modèles hiérarchiques bayesiens et des estimateurs assistés par modèle. Cet article porte principalement sur les derniers; on construit des estimateurs de régression généralisée (GREG) et des estimateurs de la « distance minimale », et on utilise des techniques existantes et récemment mises au point de lissage régional pour lisser les estimateurs résultants.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016727
    Description :

    Les données tirées du recensement sont largement utilisées pour procéder à la répartition et au ciblage des ressources aux échelons national, régional et local. Au Royaume-Uni, un recensement de la population est mené tous les 10 ans. En s'éloignant de la date du recensement, les données du recensement deviennent périmées et moins pertinentes, ce qui rend la répartition des ressources moins équitable. Dans cette étude, on analyse les différentes méthodes pour résoudre ce problème.

    Plusieurs méthodes aréolaires ont été mises au point pour produire des estimations postcensitaires, y compris la technique d'estimation préservant la structure mise au point par Purcell et Kish (1980). Cette étude porte sur la méthode de modélisation linéaire variable pour produire des estimations postcensitaires. On teste la validité de la méthode au moyen de données simulées à partir du registre de population de la Finlande et on applique la technique aux données britanniques pour produire des estimations mises à jour pour plusieurs indicateurs du recensement de 1991.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016734
    Description :

    Selon des documents publiés récemment, la méthode par calage est de plus en plus populaire en ce qui concerne l'échantillonnage, et nombre d'organismes d'enquête calculent régulièrement des estimateurs par calage. Cependant, pour toutes les méthodes existantes, le choix des variables de calage demeure ponctuel. Dans cet article, on montre que l'estimateur par calage basé sur un modèle de la moyenne d'une population finie, qui a été proposé par Wu et Sitter (2001) par raisonnement intuitif, est en effet optimal parmi une catégorie d'estimateurs par calage. En outre, on présente des estimateurs par calage optimaux pour la fonction de distribution d'une population finie, la variance de la population, la variance d'un estimateur linéaire et d'autres fonctions quadratiques de population finie dans un cadre de référence unifié. Une étude en simulation limitée révèle que l'amélioration de ces estimateurs optimaux par rapport aux estimateurs conventionnels peut être considérable. On aborde clairement la question de savoir quand et comment des données auxiliaires peuvent être utilisées tant pour l'estimation de la moyenne de la population à l'aide de l'estimateur par régression généralisée que pour l'estimation de sa variance par calage dans le contexte de la méthode générale proposée. On examine aussi la construction des estimateurs proposés en cas d'échantillonnage à deux degrés et certaines questions fondamentales relatives à l'utilisation d'information auxiliaire provenant de données d'enquête dans le contexte de l'estimation optimale.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016735
    Description :

    Dans le cadre du Recensement de la population de 2001, on a eu recours à l'estimation par calage ou par régression pour calculer un ensemble unique de coefficients de pondération au niveau du ménage pouvant être utilisé pour le calcul de toutes les estimations du recensement fondées sur les données recueillies auprès d'un échantillon national de 1 ménage sur 5 représentant plus de deux millions de ménages. Le nombre de variables auxiliaires étant très élevé, nous n'avons pu utiliser qu'un sous ensemble d'entre elles. Sinon, certains coefficients de pondération auraient été inférieurs à un, voire même négatifs. On a utilisé une méthode de sélection ascendante pour écarter les variables auxiliaires qui rendaient les coefficients de pondération inférieurs à un ou qui exigeaient un grand nombre de conditions pour qu'il y ait inversion de la matrice des poids de calage. En outre, nous avons procédé à deux ajustements de calage pour obtenir une bonne concordance entre les chiffres auxiliaires de population et les estimations pour les petites régions. Avant 2001, on utilisait l'estimateur par régression généralisée (GREG) pour la projection, et les coefficients de pondération ne pouvaient pas être nuls. Pour le Recensement de 2001, on est passé à un estimateur par régression pseudo optimal qui a permis de garder un plus grand nombre de variables auxiliaires tout en exigeant que les coefficients de pondération soient égaux ou supérieurs à un.

    Date de diffusion : 2004-09-13
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (29)

Analyses (29) (0 à 10 de 29 résultats)

  • Articles et rapports : 75F0002M2004012
    Description :

    Dans cette étude, on compare les estimations de revenus dans le cadre de plusieurs programmes statistiques de Statistique Canada. On y examine comment des estimations semblables sont produites au moyen de séries de questions différentes.

    Les données sur le revenu sont recueillies dans le cadre de nombreuses enquêtes-ménages. Pour certaines enquêtes, le revenu est l'une des composantes principales du contenu, et l'information sur le revenu est donc recueillie à un niveau détaillé. Dans d'autres enquêtes, les données sont recueillies à partir d'une série de questions sur le revenu beaucoup plus restreinte. Fait à noter, aucune série normalisée de questions sur le revenu n'a été élaborée.

    Date de diffusion : 2004-12-23

  • Revues et périodiques : 92-395-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour le recensement de 2001. Il fournit un historique de l'application de ces méthodes aux recensements du Canada ainsi que les fondements opérationnels et théoriques de ces méthodes, et présente les resultats des études d'évaluation.

    Date de diffusion : 2004-12-15

  • Articles et rapports : 12-002-X20040027032
    Description :

    Dans cet article, on examine pourquoi un grand nombre d'enquêtes de Statistique Canada fournissent des poids bootstrap avec leurs microdonnées pour faciliter l'estimation de la variance fondée sur le plan de sondage. Les poids bootstrap ne fonctionnent pas sous les logiciels commerciaux comme SUDAAN et Wes Var. Cependant, il existe des façons d'utiliser ces applications pour produire des estimations de la variation bootstrap.

    On conclut cet article en donnant un bref aperçu des autres méthodes d'estimation de la variance ainsi que les logiciels, les programmes et les procédures dans lesquels ces méthodes sont employées.

    Date de diffusion : 2004-10-05

  • Articles et rapports : 11-522-X20020016430
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016714
    Description :

    Dans cet article de nature très technique, on illustre l'application de la méthode de l'estimateur de la variance par le jackknife avec suppression d'un groupe à une étude longitudinale complexe à plusieurs cycles, montrant son utilité pour les modèles de régression linéaire et d'autres modèles analytiques. L'estimateur de la variance par le jackknife avec suppression d'un groupe représente un outil fort utile de mesure de la variance en cas de plan d'échantillonnage complexe. Cette méthode consiste à : diviser l'échantillon de premier degré en groupes mutuellement exclusifs et de variances presque égales; supprimer un groupe à la fois pour créer un ensemble de répétitions; procéder, sur chaque répétition, à des redressements par pondération analogues à ceux effectués sur l'échantillon dans son ensemble. L'estimation de la variance se fait selon la méthode usuelle (non stratifiée) du jackknife.

    On applique la méthode au Chicago Health and Aging Project (CHAP), une étude longitudinale communautaire visant à examiner les facteurs de risque de problèmes de santé chroniques chez les personnes âgées. L'un des objectifs importants de l'étude est d'examiner les facteurs de risque de la manifestation de la maladie d'Alzheimer. Le plan de sondage courant du CHAP comprend deux composantes : (1) Tous les trois ans, l'ensemble des membres survivants de la cohorte sont interviewés sur divers sujets liés à la santé. Ces interviews incluent des mesures des fonctions cognitives et physiques. (2) Durant chaque cycle de collecte des données, un échantillon de Poisson stratifié est sélectionné parmi les répondants à l'interview couvrant la population dans son ensemble afin de procéder à un examen clinique détaillé et à des tests neuropsychologiques. Pour étudier les facteurs de risque liés aux nouveaux cas de maladie, on définit une cohorte de personnes « exemptes de la maladie » au point précédent dans le temps et celle-ci forme une strate importante dans la base de sondage.

    On donne des preuves de l'applicabilité théorique du jackknife avec suppression d'un groupe à des estimateurs particuliers dans les conditions de cet échantillonnage de Poisson, en accordant l'attention nécessaire à la distinction entre l'inférence en population finie et en population infinie (modèle). En outre, on examine le problème de la détermination du « nombre correct » des groupes de variance.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016717
    Description :

    Aux États-Unis, la National Health and Nutrition Examination Survey (NHANES) est couplée à la National Health Interview Survey (NHIS) au niveau de l'unité primaire d'échantillonnage (les mêmes comtés, mais pas nécessairement les mêmes personnes, participent aux deux enquêtes). La NHANES est réalisée auprès d'environ 5 000 personnes par année, tandis que la NHIS l'est auprès d'environ 100 000 personnes par année. Dans cet article, on expose les propriétés de modèles qui permettent d'utiliser les données de la NHIS et des données administratives comme information auxiliaire pour estimer les valeurs des variables étudiées dans le cadre de la NHANES. La méthode, qui est apparentée aux modèles régionaux de Fay Herriot (1979) et aux estimateurs par calage de Deville et Sarndal (1992), tient compte des plans de sondage dans la structure de l'erreur.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016718
    Description :

    Les études de surveillance du cancer nécessitent des estimations exactes des facteurs de risque à l'échelon régional. Ces données sur les facteurs de risque proviennent souvent d'enquêtes comme la National Health Interview Survey (NHIS) ou la Behavioral Risk Factors Surveillance Survey (BRFSS). Malheureusement, aucune enquête avec échantillon représentatif de la population ne fournit des estimations idéales de la prévalence de ces facteurs de risque.

    Une stratégie consiste à rassembler l'information provenant d'enquêtes multiples en tablant sur les points forts complémentaires d'une enquête pour compenser les faiblesses d'une autre. La NHIS est une enquête nationale par interview directe ayant un taux de réponse élevé; cependant, elle ne permet pas de produire des estimations de la prévalence des facteurs de risque à l'échelon de l'État ou à l'échelon infra État, parce que la taille des échantillons est trop faible. La BRFSS est une enquête téléphonique à l'échelon de l'État dont sont exclus les ménages n'ayant pas le téléphone et dont le taux de réponse est faible, mais elle fournit des tailles d'échantillon raisonnables pour tous les États et pour de nombreux comtés. Plusieurs méthodes existent pour construire des estimateurs régionaux qui rassemblent de l'information provenant de la NHIS et de la BRFSS, y compris des estimateurs directs, des estimateurs à modèles hiérarchiques bayesiens et des estimateurs assistés par modèle. Cet article porte principalement sur les derniers; on construit des estimateurs de régression généralisée (GREG) et des estimateurs de la « distance minimale », et on utilise des techniques existantes et récemment mises au point de lissage régional pour lisser les estimateurs résultants.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016727
    Description :

    Les données tirées du recensement sont largement utilisées pour procéder à la répartition et au ciblage des ressources aux échelons national, régional et local. Au Royaume-Uni, un recensement de la population est mené tous les 10 ans. En s'éloignant de la date du recensement, les données du recensement deviennent périmées et moins pertinentes, ce qui rend la répartition des ressources moins équitable. Dans cette étude, on analyse les différentes méthodes pour résoudre ce problème.

    Plusieurs méthodes aréolaires ont été mises au point pour produire des estimations postcensitaires, y compris la technique d'estimation préservant la structure mise au point par Purcell et Kish (1980). Cette étude porte sur la méthode de modélisation linéaire variable pour produire des estimations postcensitaires. On teste la validité de la méthode au moyen de données simulées à partir du registre de population de la Finlande et on applique la technique aux données britanniques pour produire des estimations mises à jour pour plusieurs indicateurs du recensement de 1991.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016734
    Description :

    Selon des documents publiés récemment, la méthode par calage est de plus en plus populaire en ce qui concerne l'échantillonnage, et nombre d'organismes d'enquête calculent régulièrement des estimateurs par calage. Cependant, pour toutes les méthodes existantes, le choix des variables de calage demeure ponctuel. Dans cet article, on montre que l'estimateur par calage basé sur un modèle de la moyenne d'une population finie, qui a été proposé par Wu et Sitter (2001) par raisonnement intuitif, est en effet optimal parmi une catégorie d'estimateurs par calage. En outre, on présente des estimateurs par calage optimaux pour la fonction de distribution d'une population finie, la variance de la population, la variance d'un estimateur linéaire et d'autres fonctions quadratiques de population finie dans un cadre de référence unifié. Une étude en simulation limitée révèle que l'amélioration de ces estimateurs optimaux par rapport aux estimateurs conventionnels peut être considérable. On aborde clairement la question de savoir quand et comment des données auxiliaires peuvent être utilisées tant pour l'estimation de la moyenne de la population à l'aide de l'estimateur par régression généralisée que pour l'estimation de sa variance par calage dans le contexte de la méthode générale proposée. On examine aussi la construction des estimateurs proposés en cas d'échantillonnage à deux degrés et certaines questions fondamentales relatives à l'utilisation d'information auxiliaire provenant de données d'enquête dans le contexte de l'estimation optimale.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 11-522-X20020016735
    Description :

    Dans le cadre du Recensement de la population de 2001, on a eu recours à l'estimation par calage ou par régression pour calculer un ensemble unique de coefficients de pondération au niveau du ménage pouvant être utilisé pour le calcul de toutes les estimations du recensement fondées sur les données recueillies auprès d'un échantillon national de 1 ménage sur 5 représentant plus de deux millions de ménages. Le nombre de variables auxiliaires étant très élevé, nous n'avons pu utiliser qu'un sous ensemble d'entre elles. Sinon, certains coefficients de pondération auraient été inférieurs à un, voire même négatifs. On a utilisé une méthode de sélection ascendante pour écarter les variables auxiliaires qui rendaient les coefficients de pondération inférieurs à un ou qui exigeaient un grand nombre de conditions pour qu'il y ait inversion de la matrice des poids de calage. En outre, nous avons procédé à deux ajustements de calage pour obtenir une bonne concordance entre les chiffres auxiliaires de population et les estimations pour les petites régions. Avant 2001, on utilisait l'estimateur par régression généralisée (GREG) pour la projection, et les coefficients de pondération ne pouvaient pas être nuls. Pour le Recensement de 2001, on est passé à un estimateur par régression pseudo optimal qui a permis de garder un plus grand nombre de variables auxiliaires tout en exigeant que les coefficients de pondération soient égaux ou supérieurs à un.

    Date de diffusion : 2004-09-13
Références (1)

Références (1) ((1 résultat))

Date de modification :