Analyse des données

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 0 facets selected.

Géographie

2 facets displayed. 0 facets selected.

Enquête ou programme statistique

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (25)

Tout (25) (0 à 10 de 25 résultats)

  • Articles et rapports : 11-522-X202100100009
    Description :

    Le recours à des données auxiliaires pour améliorer l’efficacité d’estimateurs de totaux et de moyennes au moyen d’une procédure d’estimation d’enquête assistée par un modèle de régression a reçu une attention considérable ces dernières années. Des estimateurs par la régression généralisée (GREG), fondés sur un modèle de régression linéaire, sont actuellement utilisés dans le cadre d’enquêtes auprès d’établissements, à Statistique Canada et au sein de plusieurs autres organismes de statistiques. Les estimateurs GREG utilisent des poids d’enquête communs à toutes les variables d’étude et un calage aux totaux de population de variables auxiliaires. De plus en plus de variables auxiliaires sont disponibles et certaines peuvent être superflues. Cela mène à des poids GREG instables lorsque toutes les variables auxiliaires disponibles, y compris les interactions parmi les variables catégoriques, sont utilisées dans le modèle de régression linéaire. En revanche, de nouvelles méthodes d’apprentissage automatique, comme les arbres de régression et la méthode LASSO, sélectionnent automatiquement des variables auxiliaires significatives et mènent à des poids non négatifs stables et à d’éventuels gains d’efficacité par rapport à la méthode GREG. Dans cet article, une étude par simulations, fondée sur un ensemble de données-échantillon d’une enquête-entreprise réelle traité comme la population cible, est menée afin d’examiner le rendement relatif de la méthode GREG, d’arbres de régression et de la méthode LASSO sur le plan de l’efficacité des estimateurs.

    Mots-clés : inférence assistée par modèle; estimation par calage; sélection du modèle; estimateur par la régression généralisée.

    Date de diffusion : 2021-10-29

  • Articles et rapports : 11-522-X202100100021
    Description : L’Institut national italien de statistique (Istat) a lancé un nouveau projet relatif aux processus statistiques à court terme, afin de respecter la future nouvelle réglementation européenne visant à diffuser des estimations plus rapidement. L’évaluation et l’analyse du processus d’enquête actuel de l’enquête à court terme sur le chiffre d’affaires dans les services (FAS) visent à relever la façon dont les meilleures caractéristiques des méthodes et pratiques actuelles peuvent être exploitées pour concevoir un processus plus « efficace ». Le projet devrait, en particulier, fournir des méthodes permettant d’appliquer en général d’importantes économies d’échelle, de portée et de connaissances au contexte de production des enquêtes à court terme, qui ont généralement recours à un nombre restreint de ressources. L’analyse du processus TEL QUEL a révélé que l’enquête FAS entraînait des coûts substantiels de vérification et d’imputation, en particulier du fait de l’importance du suivi et de la vérification interactive utilisés pour tous les types d’erreurs détectées. Dans cette optique, nous avons essayé d’exploiter les leçons retenues en participant au Groupe de haut niveau sur la modernisation des statistiques officielles (GHN-MSO, CEE-ONU) sur l’utilisation de l’apprentissage automatique dans les statistiques officielles. Dans cette étude, nous présentons une première expérience utilisant les modèles de forêt aléatoire pour : (i) prédire les unités représentant des données « douteuses », (ii) évaluer l’utilisation du potentiel de prédiction sur de nouvelles données et (iii) explorer des données afin de relever des règles et des tendances cachées. Nous nous concentrons en particulier sur le recours à la modélisation par forêt aléatoire pour comparer certaines autres méthodes en matière d’efficacité de la prédiction d’erreurs et pour traiter des aspects principaux de la nouvelle conception du schéma de vérification et d’imputation.
    Date de diffusion : 2021-10-15

  • Articles et rapports : 12-001-X201600114542
    Description :

    La méthode du maximum de vraisemblance restreint (méthode REML pour restricted maximum likelihood) est généralement utilisée pour estimer la variance de l’effet aléatoire de domaine sous le modèle de Fay-Herriot (Fay et Herriot 1979) afin d’obtenir le meilleur estimateur linéaire sans biais empirique (estimateur EBLUP pour empirical best linear unbiased predictor) d’une moyenne de petit domaine. Lorsque l’estimation REML correspond à zéro, le poids de l’estimateur d’échantillon direct est zéro et l’EBLUP devient un estimateur synthétique, ce qui est rarement souhaitable. Pour résoudre le problème, Li et Lahiri (2011) et Yoshimori et Lahiri (2014) ont élaboré des estimateurs de variance constante par la méthode du maximum de vraisemblance ajusté (méthode ADM pour adjusted maximum likelihood), qui produisent toujours des estimations de variance positives. Certains des estimateurs ADM produisent toujours des estimations positives, mais génèrent un biais élevé, ce qui influe sur l’estimation de l’erreur quadratique moyenne (EQM) de l’estimateur EBLUP. Nous proposons d’utiliser un estimateur de variance MIX, défini comme étant une combinaison des méthodes REML et ADM. Nous montrons que cet estimateur est sans biais jusqu’à l’ordre deux et qu’il produit toujours une estimation de variance positive. Nous proposons également un estimateur de l’EQM sous la méthode MIX et montrons au moyen d’une simulation fondée sur un modèle que, dans de nombreuses situations, cet estimateur donne de meilleurs résultats que d’autres estimateurs de l’EQM par « linéarisation de Taylor » récemment proposés.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 11-522-X201700014714
    Description :

    Les Ententes sur le développement du marché du travail (EDMT) sont des ententes entre le Canada et les provinces et territoires visant à financer la formation et les services de soutien sur le marché du travail pour les prestataires d’assurance-emploi. L’objectif de cette communication est d’examiner les améliorations au fil des ans de la méthode d’évaluation des répercussions. Le présent document décrit les EDMT et les travaux d’élaboration passés et mentionne les raisons qui motivent une meilleure utilisation de fonds de données administratives importants. Suit une explication détaillée de la façon dont la nouvelle approche a fait en sorte que le processus d’évaluation nécessite moins de ressources, alors que les résultats s’appliquent mieux à l’élaboration de politiques. Le document fait aussi état des leçons apprises d’un point de vue méthodologique et fournit un aperçu des façons de rendre efficace ce type d’utilisation des données administratives, particulièrement dans le contexte des grands programmes.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014718
    Description :

    La présente étude vise à déterminer si le fait de commencer à participer aux Services d’aide à l’emploi (SAE) tôt après la présentation de la demande d’assurance-emploi (a.-e.) donne de meilleurs résultats pour les chômeurs que leur participation plus tardive durant la période de prestations. Comme dans Sianesi (2004) et dans Hujer et Thomsen (2010), l’analyse s’appuie sur une méthode d’appariement par score de propension stratifié, conditionnelle à la durée discrétisée de la période de chômage jusqu’au commencement du programme. Les résultats montrent que les personnes qui ont participé aux SAE dans les quatre premières semaines après la présentation de la demande d’assurance-emploi sont celles chez lesquelles les effets sur la rémunération et l’incidence de l’emploi ont été les meilleurs et que ces personnes ont également vu se réduire l’utilisation de l’assurance-emploi à partir de la deuxième année après le programme.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014740
    Description :

    Dans le présent document, nous abordons les répercussions des prestations d’emploi et mesures de soutien versées au Canada, en vertu des Ententes sur le développement du marché du travail. Nous utilisons un ensemble riche de données administratives longitudinales couplées englobant tous les participants aux EDMT de 2002 à 2005. Sur la base d’un appariement par score de propension, comme dans Blundell et coll. (2002), Gerfin et Lechner (2002), et Sianesi (2004), nous avons produit des estimations de l’impact différentiel à l’échelle nationale à partir d’un estimateur de l’écart des différences et d’un estimateur par la méthode du noyau (Heckman et Smith, 1999). Les résultats laissent supposer que, tant pour les Services d’aide à l’emploi que pour les programmes de prestations d’emploi, comme le Développement des compétences et les Subventions salariales ciblées, des effets positifs se font sentir sur la rémunération et l’emploi.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014757
    Description :

    Le Système de santé unifié brésilien (SUS) a été créé en 1988 et, afin d’organiser les systèmes d’information sur la santé et les bases de données déjà utilisées, une banque de données unifiée (DataSUS) a été créée en 1991. Les fichiers de DataSUS sont facilement disponibles sur Internet. L’accès à ces données et leur consultation se font actuellement au moyen d’un nombre limité de tableaux personnalisés et de diagrammes simples, qui ne répondent pas entièrement aux besoins des gestionnaires de la santé et des autres utilisateurs, qui souhaitent un outil souple et facile à utiliser, qui peut tenir compte des différents aspects de la santé qui les concernent, en vue de la recherche de connaissances et de la prise de décisions. Le projet actuel propose la production mensuelle interactive de rapports épidémiologiques synthétiques, qui sont non seulement facilement accessibles, mais aussi faciles à interpréter et à comprendre. L’accent est mis sur la visualisation des données, grâce à des diagrammes et des cartes plus informatifs.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 82-003-X201401014098
    Géographie : Province ou territoire
    Description :

    La présente analyse compare une approche fondée sur un registre et une approche non fondée sur un registre pour apparier les données du Recensement de la population de 2006 et les données d’hôpital provenant de la Base de données sur les congés de patients pour le Manitoba et l’Ontario.

    Date de diffusion : 2014-10-15

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-002-X201200111642
    Description :

    En général, il est recommandé de recourir à l'estimation pondérée au moment d'analyser les données d'un fichier de microdonnées issues du questionnaire complet du recensement. Puisque de tels fichiers de données sont maintenant disponibles dans les CDR, il est nécessaire de donner aux chercheurs de ces centres plus d'information sur la façon de procéder à une estimation pondérée avec ces fichiers. Ce document a pour objectif de fournir cette information, plus particulièrement la façon avec laquelle les variables de pondération ont été dérivées pour les fichiers de microdonnées du recensement et la pondération qui devrait être utilisée pour différentes unités d'analyse. Dans le cas des recensements de 1996, 2001 et 2006, la même variable de pondération est appropriée peu importe si ce sont des personnes, des familles ou des ménages qui sont étudiés. Dans le cas du Recensement de 1991, les recommandations sont plus complexes : une variable de pondération différente de celle des personnes et des familles est requise pour les ménages, et d'autres restrictions s'appliquent pour obtenir la bonne valeur de pondération pour les familles.

    Date de diffusion : 2012-10-25
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (25)

Analyses (25) (0 à 10 de 25 résultats)

  • Articles et rapports : 11-522-X202100100009
    Description :

    Le recours à des données auxiliaires pour améliorer l’efficacité d’estimateurs de totaux et de moyennes au moyen d’une procédure d’estimation d’enquête assistée par un modèle de régression a reçu une attention considérable ces dernières années. Des estimateurs par la régression généralisée (GREG), fondés sur un modèle de régression linéaire, sont actuellement utilisés dans le cadre d’enquêtes auprès d’établissements, à Statistique Canada et au sein de plusieurs autres organismes de statistiques. Les estimateurs GREG utilisent des poids d’enquête communs à toutes les variables d’étude et un calage aux totaux de population de variables auxiliaires. De plus en plus de variables auxiliaires sont disponibles et certaines peuvent être superflues. Cela mène à des poids GREG instables lorsque toutes les variables auxiliaires disponibles, y compris les interactions parmi les variables catégoriques, sont utilisées dans le modèle de régression linéaire. En revanche, de nouvelles méthodes d’apprentissage automatique, comme les arbres de régression et la méthode LASSO, sélectionnent automatiquement des variables auxiliaires significatives et mènent à des poids non négatifs stables et à d’éventuels gains d’efficacité par rapport à la méthode GREG. Dans cet article, une étude par simulations, fondée sur un ensemble de données-échantillon d’une enquête-entreprise réelle traité comme la population cible, est menée afin d’examiner le rendement relatif de la méthode GREG, d’arbres de régression et de la méthode LASSO sur le plan de l’efficacité des estimateurs.

    Mots-clés : inférence assistée par modèle; estimation par calage; sélection du modèle; estimateur par la régression généralisée.

    Date de diffusion : 2021-10-29

  • Articles et rapports : 11-522-X202100100021
    Description : L’Institut national italien de statistique (Istat) a lancé un nouveau projet relatif aux processus statistiques à court terme, afin de respecter la future nouvelle réglementation européenne visant à diffuser des estimations plus rapidement. L’évaluation et l’analyse du processus d’enquête actuel de l’enquête à court terme sur le chiffre d’affaires dans les services (FAS) visent à relever la façon dont les meilleures caractéristiques des méthodes et pratiques actuelles peuvent être exploitées pour concevoir un processus plus « efficace ». Le projet devrait, en particulier, fournir des méthodes permettant d’appliquer en général d’importantes économies d’échelle, de portée et de connaissances au contexte de production des enquêtes à court terme, qui ont généralement recours à un nombre restreint de ressources. L’analyse du processus TEL QUEL a révélé que l’enquête FAS entraînait des coûts substantiels de vérification et d’imputation, en particulier du fait de l’importance du suivi et de la vérification interactive utilisés pour tous les types d’erreurs détectées. Dans cette optique, nous avons essayé d’exploiter les leçons retenues en participant au Groupe de haut niveau sur la modernisation des statistiques officielles (GHN-MSO, CEE-ONU) sur l’utilisation de l’apprentissage automatique dans les statistiques officielles. Dans cette étude, nous présentons une première expérience utilisant les modèles de forêt aléatoire pour : (i) prédire les unités représentant des données « douteuses », (ii) évaluer l’utilisation du potentiel de prédiction sur de nouvelles données et (iii) explorer des données afin de relever des règles et des tendances cachées. Nous nous concentrons en particulier sur le recours à la modélisation par forêt aléatoire pour comparer certaines autres méthodes en matière d’efficacité de la prédiction d’erreurs et pour traiter des aspects principaux de la nouvelle conception du schéma de vérification et d’imputation.
    Date de diffusion : 2021-10-15

  • Articles et rapports : 12-001-X201600114542
    Description :

    La méthode du maximum de vraisemblance restreint (méthode REML pour restricted maximum likelihood) est généralement utilisée pour estimer la variance de l’effet aléatoire de domaine sous le modèle de Fay-Herriot (Fay et Herriot 1979) afin d’obtenir le meilleur estimateur linéaire sans biais empirique (estimateur EBLUP pour empirical best linear unbiased predictor) d’une moyenne de petit domaine. Lorsque l’estimation REML correspond à zéro, le poids de l’estimateur d’échantillon direct est zéro et l’EBLUP devient un estimateur synthétique, ce qui est rarement souhaitable. Pour résoudre le problème, Li et Lahiri (2011) et Yoshimori et Lahiri (2014) ont élaboré des estimateurs de variance constante par la méthode du maximum de vraisemblance ajusté (méthode ADM pour adjusted maximum likelihood), qui produisent toujours des estimations de variance positives. Certains des estimateurs ADM produisent toujours des estimations positives, mais génèrent un biais élevé, ce qui influe sur l’estimation de l’erreur quadratique moyenne (EQM) de l’estimateur EBLUP. Nous proposons d’utiliser un estimateur de variance MIX, défini comme étant une combinaison des méthodes REML et ADM. Nous montrons que cet estimateur est sans biais jusqu’à l’ordre deux et qu’il produit toujours une estimation de variance positive. Nous proposons également un estimateur de l’EQM sous la méthode MIX et montrons au moyen d’une simulation fondée sur un modèle que, dans de nombreuses situations, cet estimateur donne de meilleurs résultats que d’autres estimateurs de l’EQM par « linéarisation de Taylor » récemment proposés.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 11-522-X201700014714
    Description :

    Les Ententes sur le développement du marché du travail (EDMT) sont des ententes entre le Canada et les provinces et territoires visant à financer la formation et les services de soutien sur le marché du travail pour les prestataires d’assurance-emploi. L’objectif de cette communication est d’examiner les améliorations au fil des ans de la méthode d’évaluation des répercussions. Le présent document décrit les EDMT et les travaux d’élaboration passés et mentionne les raisons qui motivent une meilleure utilisation de fonds de données administratives importants. Suit une explication détaillée de la façon dont la nouvelle approche a fait en sorte que le processus d’évaluation nécessite moins de ressources, alors que les résultats s’appliquent mieux à l’élaboration de politiques. Le document fait aussi état des leçons apprises d’un point de vue méthodologique et fournit un aperçu des façons de rendre efficace ce type d’utilisation des données administratives, particulièrement dans le contexte des grands programmes.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014718
    Description :

    La présente étude vise à déterminer si le fait de commencer à participer aux Services d’aide à l’emploi (SAE) tôt après la présentation de la demande d’assurance-emploi (a.-e.) donne de meilleurs résultats pour les chômeurs que leur participation plus tardive durant la période de prestations. Comme dans Sianesi (2004) et dans Hujer et Thomsen (2010), l’analyse s’appuie sur une méthode d’appariement par score de propension stratifié, conditionnelle à la durée discrétisée de la période de chômage jusqu’au commencement du programme. Les résultats montrent que les personnes qui ont participé aux SAE dans les quatre premières semaines après la présentation de la demande d’assurance-emploi sont celles chez lesquelles les effets sur la rémunération et l’incidence de l’emploi ont été les meilleurs et que ces personnes ont également vu se réduire l’utilisation de l’assurance-emploi à partir de la deuxième année après le programme.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014740
    Description :

    Dans le présent document, nous abordons les répercussions des prestations d’emploi et mesures de soutien versées au Canada, en vertu des Ententes sur le développement du marché du travail. Nous utilisons un ensemble riche de données administratives longitudinales couplées englobant tous les participants aux EDMT de 2002 à 2005. Sur la base d’un appariement par score de propension, comme dans Blundell et coll. (2002), Gerfin et Lechner (2002), et Sianesi (2004), nous avons produit des estimations de l’impact différentiel à l’échelle nationale à partir d’un estimateur de l’écart des différences et d’un estimateur par la méthode du noyau (Heckman et Smith, 1999). Les résultats laissent supposer que, tant pour les Services d’aide à l’emploi que pour les programmes de prestations d’emploi, comme le Développement des compétences et les Subventions salariales ciblées, des effets positifs se font sentir sur la rémunération et l’emploi.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 11-522-X201700014757
    Description :

    Le Système de santé unifié brésilien (SUS) a été créé en 1988 et, afin d’organiser les systèmes d’information sur la santé et les bases de données déjà utilisées, une banque de données unifiée (DataSUS) a été créée en 1991. Les fichiers de DataSUS sont facilement disponibles sur Internet. L’accès à ces données et leur consultation se font actuellement au moyen d’un nombre limité de tableaux personnalisés et de diagrammes simples, qui ne répondent pas entièrement aux besoins des gestionnaires de la santé et des autres utilisateurs, qui souhaitent un outil souple et facile à utiliser, qui peut tenir compte des différents aspects de la santé qui les concernent, en vue de la recherche de connaissances et de la prise de décisions. Le projet actuel propose la production mensuelle interactive de rapports épidémiologiques synthétiques, qui sont non seulement facilement accessibles, mais aussi faciles à interpréter et à comprendre. L’accent est mis sur la visualisation des données, grâce à des diagrammes et des cartes plus informatifs.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 82-003-X201401014098
    Géographie : Province ou territoire
    Description :

    La présente analyse compare une approche fondée sur un registre et une approche non fondée sur un registre pour apparier les données du Recensement de la population de 2006 et les données d’hôpital provenant de la Base de données sur les congés de patients pour le Manitoba et l’Ontario.

    Date de diffusion : 2014-10-15

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-002-X201200111642
    Description :

    En général, il est recommandé de recourir à l'estimation pondérée au moment d'analyser les données d'un fichier de microdonnées issues du questionnaire complet du recensement. Puisque de tels fichiers de données sont maintenant disponibles dans les CDR, il est nécessaire de donner aux chercheurs de ces centres plus d'information sur la façon de procéder à une estimation pondérée avec ces fichiers. Ce document a pour objectif de fournir cette information, plus particulièrement la façon avec laquelle les variables de pondération ont été dérivées pour les fichiers de microdonnées du recensement et la pondération qui devrait être utilisée pour différentes unités d'analyse. Dans le cas des recensements de 1996, 2001 et 2006, la même variable de pondération est appropriée peu importe si ce sont des personnes, des familles ou des ménages qui sont étudiés. Dans le cas du Recensement de 1991, les recommandations sont plus complexes : une variable de pondération différente de celle des personnes et des familles est requise pour les ménages, et d'autres restrictions s'appliquent pour obtenir la bonne valeur de pondération pour les familles.

    Date de diffusion : 2012-10-25
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :