Analyse des données

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

2 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (8)

Tout (8) ((8 résultats))

  • Revues et périodiques : 13-551-X
    Description :

    Les seuils de faible revenu (SFR) visent à mesurer le niveau de revenu pour lequel une famille peut se trouver dans des circonstances difficiles du fait qu'elle doit dépenser une proportion plus grande de son revenu sur des articles de base (alimentation, logement et vêtements), comparativement à une famille moyenne de même taille. Les SFR varient en fonction de la taille de la famille et de la taille de la région de résidence.

    Cette publication fournit une courte explication sur la façon dont les SFR sont calculés et mis à jour annuellement. En outre, elle fournit, sur une base chronologique, les SFR en fonction de la taille de la famille et de la taille de la région de résidence. Le calcul des SFR est basé sur les dépenses que les familles effectuent pour se procurer les articles de base (alimentation, logement, vêtements). Ces données proviennent de l'Enquête sur les dépenses des ménages (autrefois l'Enquête sur les dépenses des familles (EDFAM)).

    Date de diffusion : 1999-12-10

  • Articles et rapports : 12-001-X19990014714
    Description :

    Dans cet article, nous utilisons un modèle général à niveaux multiples pour obtenir des estimations régionales à partir des données d'enquête. Ce type de modèle permet de ternir compte des variations entre les régions, en raison : (i) des différences dans la distribution des variables unitaires entre les régions; (ii) des différences dans la distribution des variables régionales entre les régions et (iii) des composantes de la variance propres à la région, qui permettent de tenir compte de la variation locale additionnelle qui ne peut être expliquée par les covariables unitaires ou régionales. Des estimateurs régionaux sont calculés pour ce modèle multiniveau et nous fournissons une approximation de l'erreur quadratique moyenne (EQM) de chaque estimation régionale, pour cette catégorie générale de modèles mixtes, ainsi qu'un estimateur de cette EQM. L'approximation de la EQM et l'estimateur de la EQM tiennent compte de trois sources de variation : (i) la prévision de l'erreur quadratique moyenne en présumant que les termes fixes et les composantes de la variance dans le modèle à niveaux multiples sont connus; (ii) la composante additionnelle du fait qu'il faille estimer les coefficients fixes et (iii) la composante additionnelle du fait que les composantes de la variance dans le modèle doivent être estimées. Les estimations par les méthodes proposées sont obtenues à partir d'un grand ensemble de données qui sert de base aux études numériques. Les résultats obtenus confirment que les composantes additionnelles de la variance incluses dans les modèles à niveaux multiples, de même que les covariables régionales, peuvent améliorer les estimations régionales et que l'approximation de la EQM et l'estimateur de la EQM sont satisfaisants.

    Date de diffusion : 1999-10-08

  • Articles et rapports : 12-001-X19980024347
    Description :

    Nous examinons dans cet article divers aspects de la conception et de l'analyse des études dans le cadre desquelles les mêmes unités sont examinées à différents moments; au fil des ans. Ces études incluent les enquêtes longitudinales, ainsi que les analyses longitudinales d'études rétrospectives et de données administratives ou données du recensement. Nous nous intéressons ici tout particulièrement aux problèmes particuliers qui résultent du caractère longitudinal de l'étude, en examinant quatre des principales composantes de l'étude longitudinale, à savoir la conception, la mise en oeuvre, l'évaluation et l'analyse. Une attention particulière doit être portée à chacune de ces étapes durant la planification d'une étude longitudinale. Au nombre des questions qui sont liées à la nature longitudinale des études, mentionnons les suivantes: concepts et définitions, bases de sondage, méthodes d'échantillonnage, collecte des données, traitement de la non-réponse, imputation, estimation, validation des données ainsi que analyse et diffusion des données. En présumant que les exigences fondamentales liées à la conduite d'une enquête transversale sont connues, nous énonçons ci-après les questions et les problèmes que se dessinent pour bon nombre d'études longitudinales.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980024348
    Description :

    Les flux bruts entre situations d'activité sont d'une grande importance pour comprendre la dynamique du marché du travail. Les flux observés sont généralement entachés d'erreurs de classification qui peuvent introduire des biais importants. Dans le présent article, nous passons en revue certaines des stratégies les plus couramment utilisées pour recueillir des données longitudinales sur la situation par rapport au marché du travail, ainsi que des méthodes de modélisation qui ont été créées pour corriger les flux bruts lorsqu'ils présentent des erreurs de classification. Nous présentons un cadre général pour l'estimation des flux bruts. Nous donnons des exemples des diverses spécifications de modèle appliquées à des données qui ont été recueillies avec des stratégies différentes. Nous considérons en particulier deux cas, c'est-à-dire les flux bruts de la U.S. Survey of Income and Program Participation et les flux bruts de l'Enquête française sur la population active, qui est une enquête annuelle dans laquelle on recueille des données mensuelles rétrospectives.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980024350
    Description :

    Dans le cadre d'enquêtes longitudinales, de simples estimations de variations, comme des différences de pourcentages, peuvent ne pas être toujours suffisamment efficaces pour déceler des variations ayant de l'importance sur le plan pratique, notamment dans le cas de sous-populations. Le recours à des modèles, qui peuvent représenter la structure de dépendance de l'enquête longitudinale, peut aider à résoudre ce problème. Une des principales caractéristiques observées dans le cadre de l'Enquête suisse sur la population active (ESPA) est la situation d'activité. Étant donné que cette enquête comporte un plan d'échantillonnage à renouvellement de panel, les données qui en sont tirées sont des données nominales multidimensionnelles, et une grande partie des profils de réponse est absente conformément à ce plan. Le modèle logistique multidimensionnel, qui a été introduit par Glonek et McCullagh (1995) comme généralisation de la régression logistique présente de l'intérêt dans ce contexte parce qu'il autorise des observations répétées dépendantes et des profiles de réponse incomplets. Nous montrons qu'en utilisant la régression logistique multidimensionnelle, on peut représenter la structure de dépendance complexe de l'ESPA à l'aide d'un petit nombre de paramètres et obtenir des estimations plus efficaces d'une variation.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980024351
    Description :

    Pour calculer les indices de prix, il faut recueillir des données relatives à un même article (en fait, un ensemble d'articles définis avec précision) durant diverses périodes. La question qu'on se pose est celle de savoir si de telles données quasi-longitudinales peuvent être modélisées de manière à expliquer ce qu'est un indice des prix. Des chercheurs de pointe spécialisés dans les questions relatives aux indices de prix ont émis des doutes quant à la possibilité d'utiliser la modélisation statistique pour caractériser de tels indices. Dans la présente communications, on propose un simple modèle à espace d'états relatif aux données sur les prix qui donne un indice des prix à la consommation exprimé d'après les paramètres du modèle.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980024353
    Description :

    Nous examinons dans cet article les erreurs de réponse qui surviennent lors de la Current Population Survey menée par le U.S. Bureau of the Census et évaluons l'incidence de ces erreurs sur les taux de chômage qui sont ensuite publiés par le Bureau of Labor Statistics. Les taux d'erreur sont calculés à partir des données de la réinterview, par une méthode qui se veut un prolongement de celle mise au point par Hui et Walter pour évaluer les tests de diagnostic. Contrairement aux études antérieures qui présumaient que les données conciliées de la réinterview reflétaient la situation véritable, la méthode proposée ici estime les taux d'erreur dans les deux interviews. À partir de ces estimations, nous montrons que les erreurs de classification dans l'enquête initiale ont un effet cyclique sur les estimations du taux de chômage qui sont ensuite publiées et que le degré de sous-estimation augmente tout particulièrement lorsque le taux de chômage réel est élevé. Comme nous n'avions pas suffisamment de données pour établir une distinction entre, d'une part, un modèle présumant que les taux d'erreurs de classification sont les mêmes durant tout le cycle économique et, d'autre part, un modèle qui présume que les taux varient selon que le taux de chômage est faible, modéré ou élevé, nos conclusions doivent être considérées comme provisoires. Celles-ci indiquent néanmoins qu'il y aurait lieu d'examiner plus à fond la relation entre les modèles utilisés pour évaluer l'exactitude des tests de diagnostic et les modèles servant à mesurer les taux d'erreurs de classification dans les données d'enquête.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980024356
    Description :

    En dehors des enquêtes complexes, on applique fréquemment des intervalles de confiance exacts aux proportions obtenues par distribution binomiale au lieu d'intervalles reposant sur une normalité approximative, quand les événements positifs sont peu nombreux. Malheureusement, il est impossible d'en faire autant avec les données des enquêtes complexes, en sorte qu'on utilise des intervalles reposant sur la normalité approximative hypothétique de la proportion pondérée selon l'échantillon, même quand il existe peu d'évènements positifs. Les auteurs proposent une simple modification aux intervalles binomiaux dans une situation de ce genre. Les simulations restreintes qu'ils présentent indiquent que la couverture probable de tels intervalles dépasse celle des intervalles reposant sur la normalité, des intervalles venant de la transformation par logit et des intervalles résultant de l'approximation de Poisson. Ils appliquent ensuite ces intervalles à la prévalance du virus de l'immunodéficience humaine (VIH) selon les données de la troisième Enquête nationale sur la santé et la nutrition et à la proportion de cocaïnomanes selon les données de l'Enquête sur la santé et la nutrition des personnes hispaniques.

    Date de diffusion : 1999-01-14
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (8)

Analyses (8) ((8 résultats))

  • Revues et périodiques : 13-551-X
    Description :

    Les seuils de faible revenu (SFR) visent à mesurer le niveau de revenu pour lequel une famille peut se trouver dans des circonstances difficiles du fait qu'elle doit dépenser une proportion plus grande de son revenu sur des articles de base (alimentation, logement et vêtements), comparativement à une famille moyenne de même taille. Les SFR varient en fonction de la taille de la famille et de la taille de la région de résidence.

    Cette publication fournit une courte explication sur la façon dont les SFR sont calculés et mis à jour annuellement. En outre, elle fournit, sur une base chronologique, les SFR en fonction de la taille de la famille et de la taille de la région de résidence. Le calcul des SFR est basé sur les dépenses que les familles effectuent pour se procurer les articles de base (alimentation, logement, vêtements). Ces données proviennent de l'Enquête sur les dépenses des ménages (autrefois l'Enquête sur les dépenses des familles (EDFAM)).

    Date de diffusion : 1999-12-10

  • Articles et rapports : 12-001-X19990014714
    Description :

    Dans cet article, nous utilisons un modèle général à niveaux multiples pour obtenir des estimations régionales à partir des données d'enquête. Ce type de modèle permet de ternir compte des variations entre les régions, en raison : (i) des différences dans la distribution des variables unitaires entre les régions; (ii) des différences dans la distribution des variables régionales entre les régions et (iii) des composantes de la variance propres à la région, qui permettent de tenir compte de la variation locale additionnelle qui ne peut être expliquée par les covariables unitaires ou régionales. Des estimateurs régionaux sont calculés pour ce modèle multiniveau et nous fournissons une approximation de l'erreur quadratique moyenne (EQM) de chaque estimation régionale, pour cette catégorie générale de modèles mixtes, ainsi qu'un estimateur de cette EQM. L'approximation de la EQM et l'estimateur de la EQM tiennent compte de trois sources de variation : (i) la prévision de l'erreur quadratique moyenne en présumant que les termes fixes et les composantes de la variance dans le modèle à niveaux multiples sont connus; (ii) la composante additionnelle du fait qu'il faille estimer les coefficients fixes et (iii) la composante additionnelle du fait que les composantes de la variance dans le modèle doivent être estimées. Les estimations par les méthodes proposées sont obtenues à partir d'un grand ensemble de données qui sert de base aux études numériques. Les résultats obtenus confirment que les composantes additionnelles de la variance incluses dans les modèles à niveaux multiples, de même que les covariables régionales, peuvent améliorer les estimations régionales et que l'approximation de la EQM et l'estimateur de la EQM sont satisfaisants.

    Date de diffusion : 1999-10-08

  • Articles et rapports : 12-001-X19980024347
    Description :

    Nous examinons dans cet article divers aspects de la conception et de l'analyse des études dans le cadre desquelles les mêmes unités sont examinées à différents moments; au fil des ans. Ces études incluent les enquêtes longitudinales, ainsi que les analyses longitudinales d'études rétrospectives et de données administratives ou données du recensement. Nous nous intéressons ici tout particulièrement aux problèmes particuliers qui résultent du caractère longitudinal de l'étude, en examinant quatre des principales composantes de l'étude longitudinale, à savoir la conception, la mise en oeuvre, l'évaluation et l'analyse. Une attention particulière doit être portée à chacune de ces étapes durant la planification d'une étude longitudinale. Au nombre des questions qui sont liées à la nature longitudinale des études, mentionnons les suivantes: concepts et définitions, bases de sondage, méthodes d'échantillonnage, collecte des données, traitement de la non-réponse, imputation, estimation, validation des données ainsi que analyse et diffusion des données. En présumant que les exigences fondamentales liées à la conduite d'une enquête transversale sont connues, nous énonçons ci-après les questions et les problèmes que se dessinent pour bon nombre d'études longitudinales.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980024348
    Description :

    Les flux bruts entre situations d'activité sont d'une grande importance pour comprendre la dynamique du marché du travail. Les flux observés sont généralement entachés d'erreurs de classification qui peuvent introduire des biais importants. Dans le présent article, nous passons en revue certaines des stratégies les plus couramment utilisées pour recueillir des données longitudinales sur la situation par rapport au marché du travail, ainsi que des méthodes de modélisation qui ont été créées pour corriger les flux bruts lorsqu'ils présentent des erreurs de classification. Nous présentons un cadre général pour l'estimation des flux bruts. Nous donnons des exemples des diverses spécifications de modèle appliquées à des données qui ont été recueillies avec des stratégies différentes. Nous considérons en particulier deux cas, c'est-à-dire les flux bruts de la U.S. Survey of Income and Program Participation et les flux bruts de l'Enquête française sur la population active, qui est une enquête annuelle dans laquelle on recueille des données mensuelles rétrospectives.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980024350
    Description :

    Dans le cadre d'enquêtes longitudinales, de simples estimations de variations, comme des différences de pourcentages, peuvent ne pas être toujours suffisamment efficaces pour déceler des variations ayant de l'importance sur le plan pratique, notamment dans le cas de sous-populations. Le recours à des modèles, qui peuvent représenter la structure de dépendance de l'enquête longitudinale, peut aider à résoudre ce problème. Une des principales caractéristiques observées dans le cadre de l'Enquête suisse sur la population active (ESPA) est la situation d'activité. Étant donné que cette enquête comporte un plan d'échantillonnage à renouvellement de panel, les données qui en sont tirées sont des données nominales multidimensionnelles, et une grande partie des profils de réponse est absente conformément à ce plan. Le modèle logistique multidimensionnel, qui a été introduit par Glonek et McCullagh (1995) comme généralisation de la régression logistique présente de l'intérêt dans ce contexte parce qu'il autorise des observations répétées dépendantes et des profiles de réponse incomplets. Nous montrons qu'en utilisant la régression logistique multidimensionnelle, on peut représenter la structure de dépendance complexe de l'ESPA à l'aide d'un petit nombre de paramètres et obtenir des estimations plus efficaces d'une variation.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980024351
    Description :

    Pour calculer les indices de prix, il faut recueillir des données relatives à un même article (en fait, un ensemble d'articles définis avec précision) durant diverses périodes. La question qu'on se pose est celle de savoir si de telles données quasi-longitudinales peuvent être modélisées de manière à expliquer ce qu'est un indice des prix. Des chercheurs de pointe spécialisés dans les questions relatives aux indices de prix ont émis des doutes quant à la possibilité d'utiliser la modélisation statistique pour caractériser de tels indices. Dans la présente communications, on propose un simple modèle à espace d'états relatif aux données sur les prix qui donne un indice des prix à la consommation exprimé d'après les paramètres du modèle.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980024353
    Description :

    Nous examinons dans cet article les erreurs de réponse qui surviennent lors de la Current Population Survey menée par le U.S. Bureau of the Census et évaluons l'incidence de ces erreurs sur les taux de chômage qui sont ensuite publiés par le Bureau of Labor Statistics. Les taux d'erreur sont calculés à partir des données de la réinterview, par une méthode qui se veut un prolongement de celle mise au point par Hui et Walter pour évaluer les tests de diagnostic. Contrairement aux études antérieures qui présumaient que les données conciliées de la réinterview reflétaient la situation véritable, la méthode proposée ici estime les taux d'erreur dans les deux interviews. À partir de ces estimations, nous montrons que les erreurs de classification dans l'enquête initiale ont un effet cyclique sur les estimations du taux de chômage qui sont ensuite publiées et que le degré de sous-estimation augmente tout particulièrement lorsque le taux de chômage réel est élevé. Comme nous n'avions pas suffisamment de données pour établir une distinction entre, d'une part, un modèle présumant que les taux d'erreurs de classification sont les mêmes durant tout le cycle économique et, d'autre part, un modèle qui présume que les taux varient selon que le taux de chômage est faible, modéré ou élevé, nos conclusions doivent être considérées comme provisoires. Celles-ci indiquent néanmoins qu'il y aurait lieu d'examiner plus à fond la relation entre les modèles utilisés pour évaluer l'exactitude des tests de diagnostic et les modèles servant à mesurer les taux d'erreurs de classification dans les données d'enquête.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980024356
    Description :

    En dehors des enquêtes complexes, on applique fréquemment des intervalles de confiance exacts aux proportions obtenues par distribution binomiale au lieu d'intervalles reposant sur une normalité approximative, quand les événements positifs sont peu nombreux. Malheureusement, il est impossible d'en faire autant avec les données des enquêtes complexes, en sorte qu'on utilise des intervalles reposant sur la normalité approximative hypothétique de la proportion pondérée selon l'échantillon, même quand il existe peu d'évènements positifs. Les auteurs proposent une simple modification aux intervalles binomiaux dans une situation de ce genre. Les simulations restreintes qu'ils présentent indiquent que la couverture probable de tels intervalles dépasse celle des intervalles reposant sur la normalité, des intervalles venant de la transformation par logit et des intervalles résultant de l'approximation de Poisson. Ils appliquent ensuite ces intervalles à la prévalance du virus de l'immunodéficience humaine (VIH) selon les données de la troisième Enquête nationale sur la santé et la nutrition et à la proportion de cocaïnomanes selon les données de l'Enquête sur la santé et la nutrition des personnes hispaniques.

    Date de diffusion : 1999-01-14
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :