Analyse des données

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 0 facets selected.

Enquête ou programme statistique

1 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (7)

Tout (7) ((7 résultats))

  • Articles et rapports : 89-648-X2020004
    Description :

    Le présent rapport technique a pour but de valider le module de la sécurité alimentaire de l'Étude longitudinale et internationale des adultes (ELIA) de 2018 (vague 4) et de fournir des recommandations qui seront utilisées aux fins d’analyse. La section 2 du rapport donne un aperçu des données de l’ELIA. La section 3 donne des renseignements de base quant aux mesures de la sécurité alimentaire dans les enquêtes nationales et explique pourquoi ces mesures sont importantes dans la documentation actuelle. La section 4 offre une analyse des données relatives à la sécurité alimentaire en présentant des statistiques descriptives clés et des contrôles logiques faisant appel à la méthodologie de l'ELIA et à des renseignements fournis par des chercheurs externes. Dans la section 5, la validation de certification a été effectuée en comparant d'autres enquêtes nationales canadiennes qui ont utilisé un module de la sécurité alimentaire avec le module utilisé dans l’ELIA. Enfin, la section 6 présente les observations clés et leur incidence quant à l’ELIA.

    Date de diffusion : 2020-11-02

  • Articles et rapports : 11-633-X2018014
    Description :

    La Base canadienne de données sur la mortalité (BCDM) est une base de données administratives qui recueille des renseignements sur la cause de décès auprès de tous les registres provinciaux et territoriaux de la statistique de l’état civil au Canada. La Base canadienne de données sur la mortalité (BCDM) ne comporte pas d’identificateurs de la sous-population pour examiner les taux de mortalité et les disparités entre des groupes tels que les Premières Nations, les Métis, les Inuits et les groupes de minorités visibles. Le couplage des données de la BCDM à celles du Recensement de la population permet de contourner ce problème. Le présent rapport décrit un couplage de la BCDM (2006 à 2011) au Recensement de la population de 2006, qui a été réalisé au moyen d’un appariement exact déterministe hiérarchique, en mettant l’accent sur la méthodologie et la validation.

    Date de diffusion : 2018-02-14

  • Articles et rapports : 12-001-X201400214092
    Description :

    Les méthodologistes d’enquête étudient depuis longtemps les effets des intervieweurs sur la variance des estimations d’enquête. Les modèles statistiques tenant compte des effets aléatoires des intervieweurs sont souvent intégrés à ce genre d’études, et l’intérêt de la recherche repose sur l’ampleur de la composante de la variance de l’intervieweur. Une question peut se poser au cours d’une étude méthodologique : différents groupes d’intervieweurs (p. ex. ceux ayant de l’expérience relative à une enquête donnée par rapport aux nouvelles recrues, ou les intervieweurs IPAO par rapport aux intervieweurs ITAO) ont-ils des composantes de variance considérablement différentes dans ces modèles? Des écarts importants peuvent indiquer un besoin de formation supplémentaire pour certains sous-groupes, les propriétés moins optimales de différents modes ou styles d’interview pour certaines questions d’enquête (en ce qui concerne l’erreur quadratique moyenne globale des estimations d’enquête). Les chercheurs d’enquête désirant des réponses à ces types de questions disposent de différents outils statistiques. Le présent article cherche à fournir un aperçu des approches fréquentiste et bayésienne de rechange de la comparaison des composantes de la variance dans différents groupes d’intervieweurs d’enquête, au moyen d’un cadre de modélisation linéaire généralisée hiérarchique qui tient compte de différents types de variables d’enquête. Nous considérons d’abord les avantages et les limites de chaque approche, en comparant les méthodes utilisées pour l’estimation et l’inférence. Nous présentons ensuite une étude de simulation, en évaluant de façon empirique la capacité de chaque approche d’estimer efficacement les différences entre les composantes de la variance. Nous appliquons alors les deux approches à une analyse des données d’enquête réelles recueillies dans le cadre de la National Survey of Family Growth (NSFG) aux États-Unis. Nous concluons que les deux approches ont tendance à donner des inférences très semblables et nous présentons des suggestions à mettre en pratique, compte tenu des différences subtiles observées.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 11-522-X200800011014
    Description :

    Dans de nombreux pays, l'amélioration des statistiques économiques est au nombre des grandes priorités du 21e siècle. L'accent est mis, d'abord et avant tout, sur la qualité des comptes nationaux, tant annuels que trimestriels. À cet égard, la qualité des données sur les entreprises les plus grandes joue un rôle essentiel. L'analyse de cohérence est un outil fort utile pour s'assurer que les données fournies par ces entreprises sont de bonne qualité. Par cohérence, nous entendons que les données provenant de diverses sources concordent et brossent un tableau logique du développement de ces entreprises. Une analyse de cohérence efficace est généralement une tâche ardue qui consiste principalement à recueillir des données de différentes sources afin de les comparer de façon structurée. Au cours des deux dernières années, de grands progrès ont été accomplis à Statistics Sweden en ce qui concerne l'amélioration des routines servant à l'analyse de cohérence. Nous avons construit un outil TI qui recueille les données sur les plus grandes entreprises auprès d'un grand nombre de sources et les présente de manière structurée et logique, et nous avons élaboré une approche systématique d'analyse trimestrielle des données destinée aux comptes nationaux. Le présent article décrit les travaux effectués dans ces deux domaines et donne un aperçu de l'outil TI et des routines retenues.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X20020016714
    Description :

    Dans cet article de nature très technique, on illustre l'application de la méthode de l'estimateur de la variance par le jackknife avec suppression d'un groupe à une étude longitudinale complexe à plusieurs cycles, montrant son utilité pour les modèles de régression linéaire et d'autres modèles analytiques. L'estimateur de la variance par le jackknife avec suppression d'un groupe représente un outil fort utile de mesure de la variance en cas de plan d'échantillonnage complexe. Cette méthode consiste à : diviser l'échantillon de premier degré en groupes mutuellement exclusifs et de variances presque égales; supprimer un groupe à la fois pour créer un ensemble de répétitions; procéder, sur chaque répétition, à des redressements par pondération analogues à ceux effectués sur l'échantillon dans son ensemble. L'estimation de la variance se fait selon la méthode usuelle (non stratifiée) du jackknife.

    On applique la méthode au Chicago Health and Aging Project (CHAP), une étude longitudinale communautaire visant à examiner les facteurs de risque de problèmes de santé chroniques chez les personnes âgées. L'un des objectifs importants de l'étude est d'examiner les facteurs de risque de la manifestation de la maladie d'Alzheimer. Le plan de sondage courant du CHAP comprend deux composantes : (1) Tous les trois ans, l'ensemble des membres survivants de la cohorte sont interviewés sur divers sujets liés à la santé. Ces interviews incluent des mesures des fonctions cognitives et physiques. (2) Durant chaque cycle de collecte des données, un échantillon de Poisson stratifié est sélectionné parmi les répondants à l'interview couvrant la population dans son ensemble afin de procéder à un examen clinique détaillé et à des tests neuropsychologiques. Pour étudier les facteurs de risque liés aux nouveaux cas de maladie, on définit une cohorte de personnes « exemptes de la maladie » au point précédent dans le temps et celle-ci forme une strate importante dans la base de sondage.

    On donne des preuves de l'applicabilité théorique du jackknife avec suppression d'un groupe à des estimateurs particuliers dans les conditions de cet échantillonnage de Poisson, en accordant l'attention nécessaire à la distinction entre l'inférence en population finie et en population infinie (modèle). En outre, on examine le problème de la détermination du « nombre correct » des groupes de variance.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 12-001-X198800214583
    Description :

    Cette note d’information met en lumière les points forts et les points faibles du langage SQL.

    Date de diffusion : 1988-12-15
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (7)

Analyses (7) ((7 résultats))

  • Articles et rapports : 89-648-X2020004
    Description :

    Le présent rapport technique a pour but de valider le module de la sécurité alimentaire de l'Étude longitudinale et internationale des adultes (ELIA) de 2018 (vague 4) et de fournir des recommandations qui seront utilisées aux fins d’analyse. La section 2 du rapport donne un aperçu des données de l’ELIA. La section 3 donne des renseignements de base quant aux mesures de la sécurité alimentaire dans les enquêtes nationales et explique pourquoi ces mesures sont importantes dans la documentation actuelle. La section 4 offre une analyse des données relatives à la sécurité alimentaire en présentant des statistiques descriptives clés et des contrôles logiques faisant appel à la méthodologie de l'ELIA et à des renseignements fournis par des chercheurs externes. Dans la section 5, la validation de certification a été effectuée en comparant d'autres enquêtes nationales canadiennes qui ont utilisé un module de la sécurité alimentaire avec le module utilisé dans l’ELIA. Enfin, la section 6 présente les observations clés et leur incidence quant à l’ELIA.

    Date de diffusion : 2020-11-02

  • Articles et rapports : 11-633-X2018014
    Description :

    La Base canadienne de données sur la mortalité (BCDM) est une base de données administratives qui recueille des renseignements sur la cause de décès auprès de tous les registres provinciaux et territoriaux de la statistique de l’état civil au Canada. La Base canadienne de données sur la mortalité (BCDM) ne comporte pas d’identificateurs de la sous-population pour examiner les taux de mortalité et les disparités entre des groupes tels que les Premières Nations, les Métis, les Inuits et les groupes de minorités visibles. Le couplage des données de la BCDM à celles du Recensement de la population permet de contourner ce problème. Le présent rapport décrit un couplage de la BCDM (2006 à 2011) au Recensement de la population de 2006, qui a été réalisé au moyen d’un appariement exact déterministe hiérarchique, en mettant l’accent sur la méthodologie et la validation.

    Date de diffusion : 2018-02-14

  • Articles et rapports : 12-001-X201400214092
    Description :

    Les méthodologistes d’enquête étudient depuis longtemps les effets des intervieweurs sur la variance des estimations d’enquête. Les modèles statistiques tenant compte des effets aléatoires des intervieweurs sont souvent intégrés à ce genre d’études, et l’intérêt de la recherche repose sur l’ampleur de la composante de la variance de l’intervieweur. Une question peut se poser au cours d’une étude méthodologique : différents groupes d’intervieweurs (p. ex. ceux ayant de l’expérience relative à une enquête donnée par rapport aux nouvelles recrues, ou les intervieweurs IPAO par rapport aux intervieweurs ITAO) ont-ils des composantes de variance considérablement différentes dans ces modèles? Des écarts importants peuvent indiquer un besoin de formation supplémentaire pour certains sous-groupes, les propriétés moins optimales de différents modes ou styles d’interview pour certaines questions d’enquête (en ce qui concerne l’erreur quadratique moyenne globale des estimations d’enquête). Les chercheurs d’enquête désirant des réponses à ces types de questions disposent de différents outils statistiques. Le présent article cherche à fournir un aperçu des approches fréquentiste et bayésienne de rechange de la comparaison des composantes de la variance dans différents groupes d’intervieweurs d’enquête, au moyen d’un cadre de modélisation linéaire généralisée hiérarchique qui tient compte de différents types de variables d’enquête. Nous considérons d’abord les avantages et les limites de chaque approche, en comparant les méthodes utilisées pour l’estimation et l’inférence. Nous présentons ensuite une étude de simulation, en évaluant de façon empirique la capacité de chaque approche d’estimer efficacement les différences entre les composantes de la variance. Nous appliquons alors les deux approches à une analyse des données d’enquête réelles recueillies dans le cadre de la National Survey of Family Growth (NSFG) aux États-Unis. Nous concluons que les deux approches ont tendance à donner des inférences très semblables et nous présentons des suggestions à mettre en pratique, compte tenu des différences subtiles observées.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 11-522-X200800011014
    Description :

    Dans de nombreux pays, l'amélioration des statistiques économiques est au nombre des grandes priorités du 21e siècle. L'accent est mis, d'abord et avant tout, sur la qualité des comptes nationaux, tant annuels que trimestriels. À cet égard, la qualité des données sur les entreprises les plus grandes joue un rôle essentiel. L'analyse de cohérence est un outil fort utile pour s'assurer que les données fournies par ces entreprises sont de bonne qualité. Par cohérence, nous entendons que les données provenant de diverses sources concordent et brossent un tableau logique du développement de ces entreprises. Une analyse de cohérence efficace est généralement une tâche ardue qui consiste principalement à recueillir des données de différentes sources afin de les comparer de façon structurée. Au cours des deux dernières années, de grands progrès ont été accomplis à Statistics Sweden en ce qui concerne l'amélioration des routines servant à l'analyse de cohérence. Nous avons construit un outil TI qui recueille les données sur les plus grandes entreprises auprès d'un grand nombre de sources et les présente de manière structurée et logique, et nous avons élaboré une approche systématique d'analyse trimestrielle des données destinée aux comptes nationaux. Le présent article décrit les travaux effectués dans ces deux domaines et donne un aperçu de l'outil TI et des routines retenues.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 11-522-X20020016714
    Description :

    Dans cet article de nature très technique, on illustre l'application de la méthode de l'estimateur de la variance par le jackknife avec suppression d'un groupe à une étude longitudinale complexe à plusieurs cycles, montrant son utilité pour les modèles de régression linéaire et d'autres modèles analytiques. L'estimateur de la variance par le jackknife avec suppression d'un groupe représente un outil fort utile de mesure de la variance en cas de plan d'échantillonnage complexe. Cette méthode consiste à : diviser l'échantillon de premier degré en groupes mutuellement exclusifs et de variances presque égales; supprimer un groupe à la fois pour créer un ensemble de répétitions; procéder, sur chaque répétition, à des redressements par pondération analogues à ceux effectués sur l'échantillon dans son ensemble. L'estimation de la variance se fait selon la méthode usuelle (non stratifiée) du jackknife.

    On applique la méthode au Chicago Health and Aging Project (CHAP), une étude longitudinale communautaire visant à examiner les facteurs de risque de problèmes de santé chroniques chez les personnes âgées. L'un des objectifs importants de l'étude est d'examiner les facteurs de risque de la manifestation de la maladie d'Alzheimer. Le plan de sondage courant du CHAP comprend deux composantes : (1) Tous les trois ans, l'ensemble des membres survivants de la cohorte sont interviewés sur divers sujets liés à la santé. Ces interviews incluent des mesures des fonctions cognitives et physiques. (2) Durant chaque cycle de collecte des données, un échantillon de Poisson stratifié est sélectionné parmi les répondants à l'interview couvrant la population dans son ensemble afin de procéder à un examen clinique détaillé et à des tests neuropsychologiques. Pour étudier les facteurs de risque liés aux nouveaux cas de maladie, on définit une cohorte de personnes « exemptes de la maladie » au point précédent dans le temps et celle-ci forme une strate importante dans la base de sondage.

    On donne des preuves de l'applicabilité théorique du jackknife avec suppression d'un groupe à des estimateurs particuliers dans les conditions de cet échantillonnage de Poisson, en accordant l'attention nécessaire à la distinction entre l'inférence en population finie et en population infinie (modèle). En outre, on examine le problème de la détermination du « nombre correct » des groupes de variance.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 12-001-X198800214583
    Description :

    Cette note d’information met en lumière les points forts et les points faibles du langage SQL.

    Date de diffusion : 1988-12-15
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :