Pondération et estimation

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (578)

Tout (578) (0 à 10 de 578 résultats)

  • Articles et rapports : 11-522-X202200100001
    Description : Le couplage d’enregistrements vise à mettre en évidence les paires d’enregistrements liées à la même unité et observées dans deux ensembles de données différents, disons A et B. Fellegi et Sunter (1969) proposent de mettre à l’essai chaque paire d’enregistrements, qu’elle soit générée à partir de l’ensemble de paires appariées ou non. La fonction de décision est le rapport entre m(y) et u(y), les probabilités d’observer une comparaison y d’un ensemble de k>3 variables d’identification clés dans une paire d’enregistrements, sous l’hypothèse que la paire constitue, respectivement, un appariement ou non. On estime habituellement ces paramètres au moyen de l’algorithme EM en utilisant comme données les comparaisons pour toutes les paires du produit cartésien ?=A×B. On émet l’hypothèse que ces observations (sur les comparaisons et sur l’état des paires comme appariement ou non) sont générées indépendamment des autres paires, hypothèse caractérisant la majeure partie de la littérature sur le couplage d’enregistrements et mise en œuvre dans les outils logiciels (p. ex., RELAIS, Cibella et coll. 2012). Au contraire, les comparaisons y et l’état d’appariement dans O sont dépendants de manière déterministe. Par conséquent, les estimations sur m(y) et u(y) fondées sur l’algorithme EM sont généralement mauvaises. Ce fait compromet l’efficacité de l’application de la méthode de Fellegi-Sunter, ainsi que le calcul automatique des mesures de la qualité et la possibilité d’appliquer des méthodes efficaces aux fins d’estimation du modèle sur des données couplées (p. ex. les fonctions de régression), comme dans Chambers et coll. (2015). Nous proposons d’examiner O au moyen d’un ensemble d’échantillons, chacun tiré de manière à préserver l’indépendance des comparaisons entre les paires d’enregistrements sélectionnées. Les simulations sont encourageantes.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100003
    Description : L’estimation à de fins niveaux d’agrégation est nécessaire pour mieux décrire une société. Les approches fondées sur un modèle d’estimation sur petits domaines qui combinent des données d’enquête parcimonieuses à des données riches provenant de sources auxiliaires se sont révélées utiles pour améliorer la fiabilité des estimations sur petits domaines. Nous examinons ici un scénario où des estimations basées sur un modèle pour petits domaines, produit à un niveau d’agrégation donné, devaient être désagrégées pour mieux décrire la structure sociale à des niveaux plus fins. Pour ce scénario, nous avons élaboré une méthode de répartition afin de mettre en œuvre la désagrégation, surmontant les problèmes associés à la disponibilité des données et à l’élaboration de modèles à des niveaux de cette finesse. La méthode est appliquée à l’estimation de la littératie et de la numératie des adultes au niveau du comté par groupe, au moyen des données du Programme pour l’évaluation internationale des compétences des adultes (PEICA) des États-Unis. Dans cette application, les groupes sont définis en fonction de l’âge ou de la scolarité, mais la méthode pourrait être appliquée à l’estimation d’autres groupes en quête d’équité.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100004
    Description : Conformément au Plan d’action sur les données désagrégées (PADD) à long terme de Statistique Canada, plusieurs initiatives ont été mises en œuvre dans l’Enquête sur la population active (EPA). Une des initiatives les plus directes fut une augmentation ciblée dans la taille de l’échantillon mensuel de l’EPA. En outre, un programme d’enquête supplémentaire régulier a été introduit, où une série supplémentaire de questions a été posée à un sous-ensemble de répondants de l’EPA et analysée dans un cycle de production mensuel ou trimestriel. Enfin, les estimations fondées sur les méthodologies de l’estimation sur petits domaines (EPD) sont réintroduites dans l’EPA et comprendront une portée élargie avec davantage de valeur analytique qu’auparavant. Le présent article donne un aperçu de ces trois initiatives.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100005
    Description : Le lissage de la variance due à l’échantillonnage est un sujet important dans l’estimation sur petits domaines. Dans le présent article, nous proposons des méthodes de lissage de la variance due à l’échantillonnage aux fins d’estimation sur petits domaines. En particulier, nous considérons la fonction de variance généralisée et les méthodes d’effet de plan aux fins de lissage de la variance due à l’échantillonnage. Nous évaluons et comparons les variances dues à l’échantillonnage lissées et les estimations sur petits domaines fondées sur des estimations de la variance lissées au moyen de l’analyse de données d’enquête de Statistique Canada. Les résultats de l’analyse de données réelles indiquent que les méthodes de lissage de la variance due à l’échantillonnage proposées fonctionnent très bien pour l’estimation sur petits domaines.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100013
    Description : Les répondants des enquêtes auprès des ménages usuelles tendent à fortement sous-déclarer leur éventuel recours à l'aide alimentaire distribuée par les associations. Cette sous-déclaration est très vraisemblablement liée au stigmate social ressenti par les personnes dans une situation de très grandes difficultés financières. Les estimations du nombre de bénéficiaires de cette aide issues des enquêtes sont ainsi très inférieures aux décomptes directs des associations. Ces décomptes, eux, tendent à la surestimation en raison de doubles comptes. L'enquête Aide alimentaire (EAA) collectée fin 2021 en France dans un échantillon de sites d'associations distribuant de l'aide alimentaire permet, par son protocole adapté, de contrôler les biais qui affectent les autres sources et de clarifier l'ampleur du recours à cette aide.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100015
    Description : Nous présentons des estimateurs de type Horvitz-Thompson et de type multiplicité fondés sur le plan de sondage de la taille de la population, ainsi que du total et de la moyenne d’une variable de réponse associée aux éléments d’une population cachée à utiliser avec la variante d’échantillonnage par dépistage de liens proposée par Félix-Medina et Thompson (2004). Étant donné que le calcul des estimateurs nécessite de connaître les probabilités d’inclusion des personnes échantillonnées, mais qu’elles sont inconnues, nous proposons un modèle bayésien qui nous permet de les estimer et, par conséquent, de calculer les estimateurs des paramètres de population. Les résultats d’une petite étude numérique indiquent que les performances des estimateurs proposés sont acceptables.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100018
    Description : Le Programme d'élaboration de données sociales longitudinales (PEDSL) est une approche d'intégration des données sociales destinée à fournir des opportunités analytiques longitudinales sans imposer un fardeau de réponse supplémentaire aux répondants. Le PEDSL tire parti d'une multitude de signaux qui proviennent de différentes sources de données pour la même personne, ce qui permet de mieux comprendre leurs interactions et de suivre l'évolution dans le temps. Cet article traitera de la façon dont le statut d'ethnicité des personnes au Canada peut être estimé au niveau désagrégé le plus détaillé possible en utilisant les résultats d'une variété de règles opérationnelles appliquées aux données déjà appariées et au dénominateur du PEDSL puis montrera comment des améliorations ont pu être obtenues en utilisant des méthodes d'apprentissage automatique telles que des arbres de décision et des techniques de forêt aléatoire.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 12-001-X202300200002
    Description : Il est essentiel de pouvoir quantifier l’exactitude (biais, variance) des résultats publiés dans les statistiques officielles. Dans ces dernières, les résultats sont presque toujours divisés en sous-populations selon une variable de classification, comme le revenu moyen par catégorie de niveau de scolarité. Ces résultats sont également appelés « statistiques de domaine ». Dans le présent article, nous nous limitons aux variables de classification binaire. En pratique, des erreurs de classification se produisent et contribuent au biais et à la variance des statistiques de domaine. Les méthodes analytiques et numériques servant actuellement à estimer cet effet présentent deux inconvénients. Le premier inconvénient est qu’elles exigent que les probabilités de classification erronée soient connues au préalable et le deuxième est que les estimations du biais et de la variance sont elles-mêmes biaisées. Dans le présent article, nous présentons une nouvelle méthode, un modèle de mélange gaussien estimé par un algorithme espérance-maximisation (EM) combiné à un bootstrap, appelé « méthode bootstrap EM ». Cette nouvelle méthode n’exige pas que les probabilités de classification erronée soient connues au préalable, bien qu’elle soit plus efficace quand on utilise un petit échantillon de vérification qui donne une valeur de départ pour les probabilités de classification erronée dans l’algorithme EM. Nous avons comparé le rendement de la nouvelle méthode et celui des méthodes numériques actuellement disponibles, à savoir la méthode bootstrap et la méthode SIMEX. Des études antérieures ont démontré que pour les paramètres non linéaires, le bootstrap donne de meilleurs résultats que les expressions analytiques. Pour presque toutes les conditions mises à l’essai, les estimations du biais et de la variance obtenues par la méthode bootstrap EM sont plus proches de leurs vraies valeurs que celles obtenues par les méthodes bootstrap et SIMEX. Nous terminons l’article par une discussion sur les résultats et d’éventuels prolongements de la méthode.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200003
    Description : Nous étudions la prédiction sur petits domaines des paramètres généraux à partir de deux modèles pour les dénombrements au niveau de l’unité. Nous construisons des prédicteurs de paramètres, comme les quartiles, qui peuvent être des fonctions non linéaires de la variable réponse du modèle. Nous élaborons d’abord une procédure pour construire les meilleurs prédicteurs empiriques et les estimateurs de l’erreur quadratique moyenne des paramètres généraux dans un modèle Gamma-Poisson au niveau de l’unité. Nous utilisons ensuite un algorithme de rééchantillonnage préférentiel pour élaborer des prédicteurs pour un modèle linéaire mixte généralisé (MLMG) avec une distribution de la réponse de Poisson. Nous comparons les deux modèles au moyen d’une simulation et d’une analyse des données de l’Iowa Seat-Belt Use Survey (une enquête sur l’utilisation de la ceinture de sécurité dans l’État de l’Iowa).
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200004
    Description : Nous présentons une nouvelle méthodologie pour réconcilier des estimations des totaux des superficies cultivées au niveau du comté à un total prédéfini au niveau de l’État soumis à des contraintes d’inégalité et à des variances aléatoires dans le modèle de Fay-Herriot. Pour la superficie ensemencée du National Agricultural Statistics Service (NASS), un organisme du ministère de l’Agriculture des États-Unis (USDA), il est nécessaire d’intégrer la contrainte selon laquelle les totaux estimés, dérivés de données d’enquête et d’autres données auxiliaires, ne sont pas inférieurs aux totaux administratifs de la superficie ensemencée préenregistrés par d’autres organismes du USDA, à l’exception de NASS. Ces totaux administratifs sont considérés comme fixes et connus, et cette exigence de cohérence supplémentaire ajoute à la complexité de la réconciliation des estimations au niveau du comté. Une analyse entièrement bayésienne du modèle de Fay-Herriot offre un moyen intéressant d’intégrer les contraintes d’inégalité et de réconciliation et de quantifier les incertitudes qui en résultent, mais l’échantillonnage à partir des densités a posteriori comprend une intégration difficile; des approximations raisonnables doivent être faites. Tout d’abord, nous décrivons un modèle à rétrécissement unique, qui rétrécit les moyennes lorsque l’on suppose que les variances sont connues. Ensuite, nous élargissons ce modèle pour tenir compte du rétrécissement double par l’emprunt d’information dans les moyennes et les variances. Ce modèle élargi comporte deux sources de variation supplémentaire; toutefois, comme nous rétrécissons à la fois les moyennes et les variances, ce second modèle devrait avoir un meilleur rendement sur le plan de la qualité de l’ajustement (fiabilité) et, possiblement, sur le plan de la précision. Les calculs sont difficiles pour les deux modèles, qui sont appliqués à des ensembles de données simulées dont les propriétés ressemblent à celles des cultures de maïs de l’Illinois.
    Date de diffusion : 2024-01-03
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (551)

Analyses (551) (0 à 10 de 551 résultats)

  • Articles et rapports : 11-522-X202200100001
    Description : Le couplage d’enregistrements vise à mettre en évidence les paires d’enregistrements liées à la même unité et observées dans deux ensembles de données différents, disons A et B. Fellegi et Sunter (1969) proposent de mettre à l’essai chaque paire d’enregistrements, qu’elle soit générée à partir de l’ensemble de paires appariées ou non. La fonction de décision est le rapport entre m(y) et u(y), les probabilités d’observer une comparaison y d’un ensemble de k>3 variables d’identification clés dans une paire d’enregistrements, sous l’hypothèse que la paire constitue, respectivement, un appariement ou non. On estime habituellement ces paramètres au moyen de l’algorithme EM en utilisant comme données les comparaisons pour toutes les paires du produit cartésien ?=A×B. On émet l’hypothèse que ces observations (sur les comparaisons et sur l’état des paires comme appariement ou non) sont générées indépendamment des autres paires, hypothèse caractérisant la majeure partie de la littérature sur le couplage d’enregistrements et mise en œuvre dans les outils logiciels (p. ex., RELAIS, Cibella et coll. 2012). Au contraire, les comparaisons y et l’état d’appariement dans O sont dépendants de manière déterministe. Par conséquent, les estimations sur m(y) et u(y) fondées sur l’algorithme EM sont généralement mauvaises. Ce fait compromet l’efficacité de l’application de la méthode de Fellegi-Sunter, ainsi que le calcul automatique des mesures de la qualité et la possibilité d’appliquer des méthodes efficaces aux fins d’estimation du modèle sur des données couplées (p. ex. les fonctions de régression), comme dans Chambers et coll. (2015). Nous proposons d’examiner O au moyen d’un ensemble d’échantillons, chacun tiré de manière à préserver l’indépendance des comparaisons entre les paires d’enregistrements sélectionnées. Les simulations sont encourageantes.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100003
    Description : L’estimation à de fins niveaux d’agrégation est nécessaire pour mieux décrire une société. Les approches fondées sur un modèle d’estimation sur petits domaines qui combinent des données d’enquête parcimonieuses à des données riches provenant de sources auxiliaires se sont révélées utiles pour améliorer la fiabilité des estimations sur petits domaines. Nous examinons ici un scénario où des estimations basées sur un modèle pour petits domaines, produit à un niveau d’agrégation donné, devaient être désagrégées pour mieux décrire la structure sociale à des niveaux plus fins. Pour ce scénario, nous avons élaboré une méthode de répartition afin de mettre en œuvre la désagrégation, surmontant les problèmes associés à la disponibilité des données et à l’élaboration de modèles à des niveaux de cette finesse. La méthode est appliquée à l’estimation de la littératie et de la numératie des adultes au niveau du comté par groupe, au moyen des données du Programme pour l’évaluation internationale des compétences des adultes (PEICA) des États-Unis. Dans cette application, les groupes sont définis en fonction de l’âge ou de la scolarité, mais la méthode pourrait être appliquée à l’estimation d’autres groupes en quête d’équité.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100004
    Description : Conformément au Plan d’action sur les données désagrégées (PADD) à long terme de Statistique Canada, plusieurs initiatives ont été mises en œuvre dans l’Enquête sur la population active (EPA). Une des initiatives les plus directes fut une augmentation ciblée dans la taille de l’échantillon mensuel de l’EPA. En outre, un programme d’enquête supplémentaire régulier a été introduit, où une série supplémentaire de questions a été posée à un sous-ensemble de répondants de l’EPA et analysée dans un cycle de production mensuel ou trimestriel. Enfin, les estimations fondées sur les méthodologies de l’estimation sur petits domaines (EPD) sont réintroduites dans l’EPA et comprendront une portée élargie avec davantage de valeur analytique qu’auparavant. Le présent article donne un aperçu de ces trois initiatives.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100005
    Description : Le lissage de la variance due à l’échantillonnage est un sujet important dans l’estimation sur petits domaines. Dans le présent article, nous proposons des méthodes de lissage de la variance due à l’échantillonnage aux fins d’estimation sur petits domaines. En particulier, nous considérons la fonction de variance généralisée et les méthodes d’effet de plan aux fins de lissage de la variance due à l’échantillonnage. Nous évaluons et comparons les variances dues à l’échantillonnage lissées et les estimations sur petits domaines fondées sur des estimations de la variance lissées au moyen de l’analyse de données d’enquête de Statistique Canada. Les résultats de l’analyse de données réelles indiquent que les méthodes de lissage de la variance due à l’échantillonnage proposées fonctionnent très bien pour l’estimation sur petits domaines.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100013
    Description : Les répondants des enquêtes auprès des ménages usuelles tendent à fortement sous-déclarer leur éventuel recours à l'aide alimentaire distribuée par les associations. Cette sous-déclaration est très vraisemblablement liée au stigmate social ressenti par les personnes dans une situation de très grandes difficultés financières. Les estimations du nombre de bénéficiaires de cette aide issues des enquêtes sont ainsi très inférieures aux décomptes directs des associations. Ces décomptes, eux, tendent à la surestimation en raison de doubles comptes. L'enquête Aide alimentaire (EAA) collectée fin 2021 en France dans un échantillon de sites d'associations distribuant de l'aide alimentaire permet, par son protocole adapté, de contrôler les biais qui affectent les autres sources et de clarifier l'ampleur du recours à cette aide.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100015
    Description : Nous présentons des estimateurs de type Horvitz-Thompson et de type multiplicité fondés sur le plan de sondage de la taille de la population, ainsi que du total et de la moyenne d’une variable de réponse associée aux éléments d’une population cachée à utiliser avec la variante d’échantillonnage par dépistage de liens proposée par Félix-Medina et Thompson (2004). Étant donné que le calcul des estimateurs nécessite de connaître les probabilités d’inclusion des personnes échantillonnées, mais qu’elles sont inconnues, nous proposons un modèle bayésien qui nous permet de les estimer et, par conséquent, de calculer les estimateurs des paramètres de population. Les résultats d’une petite étude numérique indiquent que les performances des estimateurs proposés sont acceptables.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 11-522-X202200100018
    Description : Le Programme d'élaboration de données sociales longitudinales (PEDSL) est une approche d'intégration des données sociales destinée à fournir des opportunités analytiques longitudinales sans imposer un fardeau de réponse supplémentaire aux répondants. Le PEDSL tire parti d'une multitude de signaux qui proviennent de différentes sources de données pour la même personne, ce qui permet de mieux comprendre leurs interactions et de suivre l'évolution dans le temps. Cet article traitera de la façon dont le statut d'ethnicité des personnes au Canada peut être estimé au niveau désagrégé le plus détaillé possible en utilisant les résultats d'une variété de règles opérationnelles appliquées aux données déjà appariées et au dénominateur du PEDSL puis montrera comment des améliorations ont pu être obtenues en utilisant des méthodes d'apprentissage automatique telles que des arbres de décision et des techniques de forêt aléatoire.
    Date de diffusion : 2024-03-25

  • Articles et rapports : 12-001-X202300200002
    Description : Il est essentiel de pouvoir quantifier l’exactitude (biais, variance) des résultats publiés dans les statistiques officielles. Dans ces dernières, les résultats sont presque toujours divisés en sous-populations selon une variable de classification, comme le revenu moyen par catégorie de niveau de scolarité. Ces résultats sont également appelés « statistiques de domaine ». Dans le présent article, nous nous limitons aux variables de classification binaire. En pratique, des erreurs de classification se produisent et contribuent au biais et à la variance des statistiques de domaine. Les méthodes analytiques et numériques servant actuellement à estimer cet effet présentent deux inconvénients. Le premier inconvénient est qu’elles exigent que les probabilités de classification erronée soient connues au préalable et le deuxième est que les estimations du biais et de la variance sont elles-mêmes biaisées. Dans le présent article, nous présentons une nouvelle méthode, un modèle de mélange gaussien estimé par un algorithme espérance-maximisation (EM) combiné à un bootstrap, appelé « méthode bootstrap EM ». Cette nouvelle méthode n’exige pas que les probabilités de classification erronée soient connues au préalable, bien qu’elle soit plus efficace quand on utilise un petit échantillon de vérification qui donne une valeur de départ pour les probabilités de classification erronée dans l’algorithme EM. Nous avons comparé le rendement de la nouvelle méthode et celui des méthodes numériques actuellement disponibles, à savoir la méthode bootstrap et la méthode SIMEX. Des études antérieures ont démontré que pour les paramètres non linéaires, le bootstrap donne de meilleurs résultats que les expressions analytiques. Pour presque toutes les conditions mises à l’essai, les estimations du biais et de la variance obtenues par la méthode bootstrap EM sont plus proches de leurs vraies valeurs que celles obtenues par les méthodes bootstrap et SIMEX. Nous terminons l’article par une discussion sur les résultats et d’éventuels prolongements de la méthode.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200003
    Description : Nous étudions la prédiction sur petits domaines des paramètres généraux à partir de deux modèles pour les dénombrements au niveau de l’unité. Nous construisons des prédicteurs de paramètres, comme les quartiles, qui peuvent être des fonctions non linéaires de la variable réponse du modèle. Nous élaborons d’abord une procédure pour construire les meilleurs prédicteurs empiriques et les estimateurs de l’erreur quadratique moyenne des paramètres généraux dans un modèle Gamma-Poisson au niveau de l’unité. Nous utilisons ensuite un algorithme de rééchantillonnage préférentiel pour élaborer des prédicteurs pour un modèle linéaire mixte généralisé (MLMG) avec une distribution de la réponse de Poisson. Nous comparons les deux modèles au moyen d’une simulation et d’une analyse des données de l’Iowa Seat-Belt Use Survey (une enquête sur l’utilisation de la ceinture de sécurité dans l’État de l’Iowa).
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200004
    Description : Nous présentons une nouvelle méthodologie pour réconcilier des estimations des totaux des superficies cultivées au niveau du comté à un total prédéfini au niveau de l’État soumis à des contraintes d’inégalité et à des variances aléatoires dans le modèle de Fay-Herriot. Pour la superficie ensemencée du National Agricultural Statistics Service (NASS), un organisme du ministère de l’Agriculture des États-Unis (USDA), il est nécessaire d’intégrer la contrainte selon laquelle les totaux estimés, dérivés de données d’enquête et d’autres données auxiliaires, ne sont pas inférieurs aux totaux administratifs de la superficie ensemencée préenregistrés par d’autres organismes du USDA, à l’exception de NASS. Ces totaux administratifs sont considérés comme fixes et connus, et cette exigence de cohérence supplémentaire ajoute à la complexité de la réconciliation des estimations au niveau du comté. Une analyse entièrement bayésienne du modèle de Fay-Herriot offre un moyen intéressant d’intégrer les contraintes d’inégalité et de réconciliation et de quantifier les incertitudes qui en résultent, mais l’échantillonnage à partir des densités a posteriori comprend une intégration difficile; des approximations raisonnables doivent être faites. Tout d’abord, nous décrivons un modèle à rétrécissement unique, qui rétrécit les moyennes lorsque l’on suppose que les variances sont connues. Ensuite, nous élargissons ce modèle pour tenir compte du rétrécissement double par l’emprunt d’information dans les moyennes et les variances. Ce modèle élargi comporte deux sources de variation supplémentaire; toutefois, comme nous rétrécissons à la fois les moyennes et les variances, ce second modèle devrait avoir un meilleur rendement sur le plan de la qualité de l’ajustement (fiabilité) et, possiblement, sur le plan de la précision. Les calculs sont difficiles pour les deux modèles, qui sont appliqués à des ensembles de données simulées dont les propriétés ressemblent à celles des cultures de maïs de l’Illinois.
    Date de diffusion : 2024-01-03
Références (27)

Références (27) (0 à 10 de 27 résultats)

  • Enquêtes et programmes statistiques — Documentation : 98-306-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage, de pondération et d'estimation utilisées pour le Recensement de la population. Il fournit les justifications opérationnelles et théoriques et présente les résultats des évaluations de ces méthodes.

    Date de diffusion : 2023-10-04

  • Avis et consultations : 75F0002M2019006
    Description :

    En 2018, Statistique Canada a diffusé deux nouveaux tableaux de données présentant des estimations des taux d’imposition et de transfert effectifs des déclarants et des familles de recensement. Ces estimations sont tirées de la Banque de données administratives longitudinales. La publication fournit une description détaillée des méthodes utilisées pour produire les estimations des taux d’imposition et de transfert effectifs.

    Date de diffusion : 2019-04-16

  • Enquêtes et programmes statistiques — Documentation : 75F0002M2015003
    Description :

    Cette note porte sur les estimations révisées du revenu tirées de l’Enquête sur la dynamique du travail et du revenu (EDTR). Les révisions aux estimations de l’EDTR permettent de comparer les résultats de l’Enquête canadienne sur le revenu (ECR) à ceux des années précédentes puisqu’elles offrent une solution aux problèmes associés aux différences méthodologiques entre l’EDTR et l’ECR.

    Date de diffusion : 2015-12-17

  • Enquêtes et programmes statistiques — Documentation : 91-528-X
    Description :

    Ce manuel offre des descriptions détaillées des sources de données et des méthodes utilisées par Statistique Canada pour produire des estimations de la population. Elles comportent : les estimations postcensitaires et intercensitaires de la population; la population de départ; les naissances et les décès; l'immigration; les émigrations; les résidents non permanents; la migration interprovinciale; les estimations infraprovinciales de la population; les estimations de la population selon l'âge, le sexe et l'état matrimonial et les estimations des familles de recensement. Un glossaire des termes courants est inclus à la fin du manuel, suivi de la notation normalisée utilisée.

    Auparavant, la documentation sur les changements méthodologiques pour le calcul des estimations était éparpillée dans plusieurs publications et documents d'information de Statistique Canada. Ce manuel offre aux utilisateurs de statistiques démographiques un recueil exhaustif des procédures actuelles utilisées par Statistique Canada pour élaborer des estimations de la population et des familles.

    Date de diffusion : 2015-11-17

  • Enquêtes et programmes statistiques — Documentation : 13-605-X201500414166
    Description :

    Estimations de l’économie souterraine par province et territoire pour la période 2007 à 2012 sont maintenant disponibles pour la première fois. L’objet de cette note technique est d’expliquer comment la méthodologie utilisée afin de calculer les estimations de l’activité économique souterraine à la borne supérieure pour les provinces et les territoires diffère de celle utilisée afin de calculer les estimations nationales.

    Date de diffusion : 2015-04-29

  • Enquêtes et programmes statistiques — Documentation : 99-002-X2011001
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour l’Enquête nationale auprès des ménages de 2011. Il fournit les justifications opérationnelles et théoriques et présente les résultats des études d'évaluation de ces méthodes.

    Date de diffusion : 2015-01-28

  • Enquêtes et programmes statistiques — Documentation : 99-002-X
    Description : Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour l’Enquête nationale auprès des ménages de 2011. Il fournit les justifications opérationnelles et théoriques et présente les résultats des études d'évaluation de ces méthodes.
    Date de diffusion : 2015-01-28

  • Enquêtes et programmes statistiques — Documentation : 92-568-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour le Recensement de 2006. Il fournit un historique de l'application de ces méthodes aux recensements du Canada ainsi que les fondements opérationnels et théoriques de ces méthodes, et présente les résultats des études d'évaluation.

    Date de diffusion : 2009-08-11

  • Enquêtes et programmes statistiques — Documentation : 71F0031X2006003
    Description :

    Cet article est une introduction ainsi qu'une discussion sur les modifications apportées aux estimations de l'Enquête sur la population active en janvier 2006. Parmi ces modifications on retrouve notamment l'ajustement des estimations des chiffres de la population, des améliorations aux estimations des secteurs public et privé, ainsi que des mises à jour historiques de plusieurs petites agglomérations de recensement (AR).

    Date de diffusion : 2006-01-25

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2005002
    Description :

    Le présent document fournit un aperçu des différences entre l'ancienne et la nouvelle méthodologie de pondération, ainsi que des effets du nouveau système de pondération sur les estimations.

    Date de diffusion : 2005-06-30
Date de modification :