Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (29)

Tout (29) (25 of 29 results)

  • Produits techniques : 75F0002M1993008
    Description :

    Dans ce document, on décrit la courbe d'apprentissage associée à la rupture par rapport à la méthode traditionnelle d'élaboration des questions pour un questionnaire papier et crayon, jusqu'à la fourniture des spécifications touchant les questions et les flux à l'intention d'un programmeur. On y utilise l'Enquête sur la dynamique du travail et du revenu (EDTR) comme étude de cas.

    Date de diffusion : 1995-12-30

  • Produits techniques : 75F0002M1995016
    Description :

    Dans cet article, on étudie le développement de fichiers de données, ou la modélisation des données, pour les enquêtes longitudinales.

    Date de diffusion : 1995-12-30

  • Articles et rapports : 11F0019M1995084
    Description :

    Le présent document expose une nouvelle méthode de mesure de la durée moyenne des périodes de chômage en se fondant sur des données recueillies au Canada. Il résume en termes généraux les travaux de Corak (1993) ainsi que de Corak et Heisz (1994) portant sur la période moyenne complète de chômage, c'est-à-dire qu'il met l'accent sur la distinction entre cette dernière et la période moyenne incomplète de chômage, données qui sont diffusées régulièrement par Statistique Canada. Il convient de signaler que cette dernière moyenne est un indicateur cyclique tardif. La période moyenne complète de chômage est un indicateur plus exact de la situation qui prévaut sur le marché du travail, mais certaines hypothèses qu'il faut poser pour l'établir laissent également croire qu'elle présente un décalage par rapport à la réalité.

    Date de diffusion : 1995-12-30

  • Articles et rapports : 11F0019M1995083
    Description :

    L'article porte sur la robustesse d'une mesure de la durée complète moyenne du chômage au Canada par rapport à diverses hypothèses de calcul. Contrairement à la durée incomplète moyenne du chômage, qui est un indicateur cyclique retardé, cette statistique est un indicateur contemporain du cycle économique. On examine l'impact d'une hypothèse d'état stable plutôt que de l'hypothèse alternative, de même que l'incidence des diverses méthodes de correction du biais dans les réponses. On conclut qu'un estimateur d'état non stable apporterait un complément utile aux données sur la durée du chômage qui sont actuellement publiées par bien des organismes statistiques, plus particulièrement Statistique Canada.

    Date de diffusion : 1995-12-30

  • Articles et rapports : 12-001-X199500214395
    Description :

    Lorsqu’on remanie un échantillon selon un plan stratifié à plusieurs degrés, il est parfois indiqué de maximiser le nombre d’unités primaires d’échantillonnage retenues dans le nouvel échantillon sans modifier les probabilités de sélection inconditionnelle. Il existe à cette fin une solution optimale qui s’appuie sur la théorie du transport pour une classe très générale de plans d’échantillonnage. Toutefois, à la connaissance des auteurs, cette méthode n’a jamais été utilisée pour la refonte d’une enquête. Cela s’explique en partie du fait que même pour une strate de taille modérée, le problème de transport résultant pourrait être trop grand pour se prêter à une solution pratique. Dans le présent article, nous proposons un algorithme de transport modifié à taille réduite permettant de maximiser le chevauchement, ce qui réduit sensiblement les dimensions du problème. Cette méthode a été utilisée lors du remaniement récent de l’Enquête sur le revenu et la participation aux programmes (Survey of Income and Program Participation, ou SIPP). Nous décrivons brièvement le rendement de l’algorithme à taille réduite, d’une part pour le chevauchement du SIPP en conditions réelles, et d’autre part pour des simulations artificielles antérieures du chevauchement du SIPP. Même si cette méthode n’est pas optimale et ne risque de produire, en théorie, que des améliorations négligeables du chevauchement attendu comparativement à la sélection indépendante, elle ouvre en pratique la voie à des améliorations importantes du chevauchement par rapport à la sélection indépendante dans le cas du SIPP et produit généralement un chevauchement presque optimal.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214399
    Description :

    Nous examinons l’utilité de la moyenne winsorisée comme estimateur de la moyenne d’une distribution à asymétrie positive. On obtient la moyenne winsorisée en remplaçant toutes les observations supérieures à une valeur limite donnée R par cette même valeur R, avant le calcul de la moyenne. La valeur limite optimale, telle qu’elle est définie par Searls (1966), minimise l’erreur quadratique moyenne (mean square error, ou MSE) de l’estimateur winsorisé. Nous proposons des méthodes d’évaluation de cette valeur limite optimale avec divers plans d’échantillonnage, y compris l’échantillonnage aléatoire simple, l’échantillonnage stratifié et l’échantillonnage avec probabilité proportionnelle à la taille (ppt). Pour la plupart des distributions asymétriques, la stratégie de winsorisation optimale aura généralement pour effet de modifier la valeur d’environ une observation dans l’échantillon. On dérive des approximations directes (qui ne fait pas appel à un processus itératif) de l’efficacité de la moyenne winsorisée de Searls en utilisant la théorie des statistiques d’ordre extrême. Une expérience de Monte Carlo nous sert à comparer divers estimateurs réduisant l’impact des valeurs extrêmes.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214396
    Description :

    Les auteurs exposent brièvement quelques-uns des principaux aspects de la théorie des fonctions d’estimation pour les populations finies. Plus précisément, ils abordent la question de l’estimation des moyennes et des totaux et étendent la théorie pertinente aux fonctions d’estimation qu’ils appliquent ensuite au problème de l’estimation de l’inégalité du revenu. Les statistiques qui résultent de l’exercice expriment des fonctions non linéaires des observations, certaines d’entre elles dépendant de l’ordre des observations ou quantiles. Par conséquent, l’erreur quadratique moyenne des estimations ne peut être représentée par une formule simple ni être estimée par les méthodes classiques d’estimation de la variance. Les auteurs montrent que, pour les fonctions d’estimation, il est possible de résoudre ce problème par la méthode de linéarisation de Taylor. Enfin, ils font la démonstration de la méthode proposée en utilisant les données relatives au revenu provenant de l’Enquête sur les finances des consommateurs du Canada et comparent cette méthode à celle du jackknife avec suppression d’une grappe.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214398
    Description :

    En nous fondant sur 14 enquêtes menées dans six pays, nous présentons la constatation empirique de l’existence et de l’ampleur des effets du plan de sondage (eps) pour cinq plans appartenant à deux types principaux. Le premier type a trait à eps (p_i – p_j), la différence de deux proportions d’une variable polytomique de trois catégories ou plus. Le deuxième type utilise les tests de chi carré pour l’analyse des différences entre deux échantillons. Nous montrons que pour toutes les variables et pour tous les plans, eps (p_i – p_j) \cong [eps (p_i) + eps (p_j)] / 2 constituent de bonnes approximations. Ces résultats sont empiriques, et les exceptions prouvent qu’il ne peut s’agir de simples inégalités analytiques. Il convient de signaler que ces résultats restent valables malgré les grandes variations des valeurs d’eps entre les variables et entre les catégories d’une même variable. Ils montrent en outre la nécessité d’utiliser des méthodes de traitement adaptées aux échantillons d’enquêtes pour l’analyse des données d’enquête, même lorsqu’on a affaire à des statistiques analytiques. En outre, ils permettent d’utiliser des approximations d’eps (p_i – p_j) tirées des valeurs plus facilement accessibles d’eps (p_i).

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214393
    Description :

    Les lacunes et les erreurs relevées dans les données censitaires et les registres de l’état civil aux États-Unis laissent planer un doute sérieux sur la qualité des données concernant les aînés et le recensement des décès dans ce pays. Dans le présent article, nous évaluons la concordance des données provenant de ces deux sources pour les populations blanche et afro-américaine. Nous étudions en particulier les aînés (60 ans et plus), où les tendances de la mortalité ont la plus grande incidence sur les programmes sociaux et où les problèmes de données sont les plus graves. Au moyen de l’analyse intercensitaire des cohortes, nous déterminons les discordances en fonction de l’âge entre les deux sources pour deux périodes : 1970-1980 et 1980-1990. Les anomalies relevées quant à la nature de la couverture et aux erreurs de contenu sont analysées à la lumière des données de la documentation spécialisée. Les données sur la population afro-américaine montrent de très nombreuses discordances pour la période 1970-1990, qui sont vraisemblablement attribuables à une exagération de l’âge déclaré lors des recensements, par rapport aux données des registres de l’état civil. On relève également des anomalies pour la population blanche dans la période intercensitaire 1970-1980. Selon nous, ces anomalies sont principalement dues à un sous-dénombrement dans le recensement de 1970, par rapport à celui de 1980 et au recensement des décès. Par contre, les données de 1980-1990 concernant les blancs, et en particulier les femmes, sont très cohérentes, beaucoup plus même que dans la plupart des pays européens.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214391
    Description :

    Le contrôle statistique du processus est un instrument qui peut servir à vérifier l’exactitude des bases de sondage construites périodiquement. La taille des bases de sondage est reportée sur un graphique de contrôle afin de déceler les causes spéciales de variation. On décrit les méthodes qui permettent de choisir le modèle chronologique (ARMMI) approprié pour des observations liées. On examine aussi les applications de l’analyse des séries chronologiques à la construction de graphiques de contrôle. Les données du programme de contrôle de la qualité des prestations d’assurance-chômage du United States Department of Labor servent à illustrer la méthode.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214394
    Description :

    Lors d’un recensement national pilote effectué en 1992, la séquence d’envoi d’une lettre de préavis, d’un formulaire de recensement, d’une carte de rappel et d’un questionnaire de remplacement a engendré un taux de réponse global de 63,4 %. Ce taux de réponse était considérablement plus élevé que le taux de 49,2 % obtenu lors du National Content Test Census de 1986, dans le cadre duquel on avait également utilisé un questionnaire de remplacement. L’écart a semblé principalement attribuable à la séquence « préavis - formulaire de recensement - rappel » des envois, mais on n’a pas su dans quelle mesure chacun des principaux effets et leurs interactions avaient influé sur les résultats globaux. Le présent article rend compte des résultats du test de mise en œuvre du Recensement de 1992, qui vérifiait l’influence individuelle et combinée, sur le taux de réponse, de la lettre de préavis, de l’enveloppe-réponse affranchie ainsi que de la carte de rappel. Il s’agissait d’un échantillon national de ménages (n = 50 000) interrogés à l’automne 1992. On a utilisé un plan factoriel pour vérifier les huit combinaisons possibles des principaux effets, ainsi que leurs interactions. On a également eu recours à la régression logistique et à des comparaisons multiples pour analyser les résultats du test.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214392
    Description :

    Les enquêtes à grande échelle réalisées dans les pays en développement peuvent fournir un instantané extrêmement utile de l’état de santé d’une collectivité, mais les résultats produits reflètent rarement la réalité actuelle puisqu’ils ne sont souvent diffusés que plusieurs mois ou même des années après la collecte des données. Ces retards sont en partie attribuables au temps nécessaire à la saisie, au codage et au traitement des données. Or, il est désormais possible de faire la saisie sur les lieux mêmes de l’enquête, grâce aux ordinateurs de poche. Les erreurs sont également moins nombreuses puisqu’une vérification automatique permet de rejeter les entrées illogiques ou incohérentes dès l’étape de l’administration du questionnaire. Le présent article porte sur l’utilisation d’une telle méthode d’enquête assistée par ordinateur pour la collecte de données démographiques au Kenya. Même si les coûts initiaux de la mise sur pied d’un tel système sont élevés, ses avantages sont évidents : les erreurs qui peuvent se glisser dans les données recueillies, malgré l’expérience du personnel technique, peuvent être réduites à des niveaux négligeables. Dans les situations où la rapidité d’exécution est essentielle, où les employés sont nombreux et où on a recours au précodage des réponses pour la collecte systématique de données sur une période de temps prolongée, l’entrevue assistée par ordinateur pourrait s’avérer économique à long terme, tout en améliorant radicalement la qualité des données à court terme.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214397
    Description :

    L’estimation par régression et sa généralisation, l’estimation par calage introduite par Deville et Särndal en 1993 permet de réduire a posteriori la variance des estimateur, grâce à l’utilisation de l’information auxiliaire. Dans les enquêtes réalisées par sondage, on dispose souvent d’information additionnelle exploitable répartie selon un schéma complexe notamment lorsque le sondage est réalisé en plusieurs phases. Une adaptation de l’estimation par régression a été proposée avec ses variantes dans le cadre du sondage à deux phases par Särndal et Swensson en 1987. Cet article propose d’étudier les stratégies d’estimation alternatives selon deux configurations alternatives pour l’information auxiliaire, en reliant les deux approches possibles pour aborder le problème : modèle de régression et estimation par calage.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214405
    Description :

    Le présent article étudie les effets de la variabilité de l’intervieweur sur la précision des écarts estimés entre les moyennes de domaines. La première partie est consacrée à l’élaboration d’un modèle des éléments corrélés de la variance, permettant d’identifier les facteurs qui déterminent l’ampleur des effets, aspect qui influe sur le plan d’échantillonnage et la formation de l’intervieweur. Dans la deuxième partie, on trouvera une analyse empirique des données provenant d’une vaste enquête à plusieurs degrés sur l’hygiène dentaire. On s’est servi du sexe et de la race du répondant pour créer les deux jeux de domaines servant à la comparaison. Les effets globaux dus à l’intervieweur et au groupement de l’échantillon n’ont guère d’incidence sur la variance des comparaisons entre sexes masculin et féminin, mais la variance augmente pour certains écarts entre les deux groupes ethniques retenus. De fait, les effets de l’intervieweur sont deux ou trois fois plus élevés pour la comparaison des groupes ethniques que pour celle des deux sexes. Ces constatations présentent une certaine utilité pour les enquêtes dans le secteur de la santé où il est courant de recourir à un petit nombre d’intervieweurs ayant subi une formation poussée.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 82-003-X19950022507
    Description :

    Les indicateurs fondés sur les données de l'état civil sevent à déterminer l'état de santé des populations. Ces indicateurs sont devenus de plus en plus nécessaires aux régions et aux collectivités, à mesure qu'on s'efforce de décentraliser les services de santé. Ils sont importants parce qu'ils influent sur le financement et sur la variété des services offerts. On tend à lier les indicateurs de santé à des variables telles que le degré d'urbanisation et le statut socioéconomique. A en juger par quatre de ces indicateurs - le taux de mortalité d'ensemble (toutes causes confondues), les taux de mortalité due à des causes exogènes, les taux de mortalité infantile et les taux de naissances vivantes à faible poids - les populations de certaines régions de la Colombie-Britannique, en particulier le long de la frontière albertaine, jouissent d'une santé relativement bonne même si les caractéristiques de ces régions laissent supposer qu'il devrait en être autrement. Toutefois, lorqu'on tient compte des données de l'état civil enregistrées en Alberta pour les habitants des mêmes régions en Colombie-Britannique, on obtient un tableau très différent de la situation. Le présent article montre que, pour assurer une planification et une mise en oeuvre adéquates des programmes de santé, certaines collectivités ont besoin des données venant d'une province voisine. Il montre les effets qu'a une intégration des données de l'Alberta dans l'élaboration des indicateurs de santé des populations de la Colombie-Britannique. Il donne également à conclure que des ajustements semblables devront peut- être être faits pour les données compilées dans d'autres provinces.

    Date de diffusion : 1995-11-20

  • Articles et rapports : 11F0019M1995081
    Description :

    Les utilisateurs de statistiques socio-économiques veulent habituellement plus de renseignements, et de meilleure qualité. Souvent, on peut répondre à ces besoins simplement par des collectes de données plus poussées, qui sont soumises aux contraintes habituelles relatives aux coûts et au fardeau de réponse des répondants. Les utilisateurs, particulièrement aux fins de politiques publiques, continuent de réclamer, et cette demande n'est toujours pas comblée, un système intégré et cohérent de statistiques socio-économiques. Dans ce cas, des données supplémentaires ne seront pas suffisantes; la contrainte la plus importante demeure l'absence d'une approche conceptuelle convenue.

    Nous examinons brièvement ici l'état des cadres d'utilisation des statistiques sociales et économiques, y compris les genres d'indicateurs socio-économiques que les utilisateurs pourraient désirer. Ces indicateurs sont premièrement justifiés, en termes généraux, par des principes de base et des concepts intuitifs, ce laisse de côté les détails de leur construction, pour le moment. Ensuite, nous montrons comment une structure cohérente de tels indicateurs peut être assemblée.

    Une conséquence fondamentale est que cette structure exige un réseau coordonné d'enquêtes et de processus de collecte de données, ainsi que des normes supérieures de qualité de données. Ceci, à son tour, implique une décomposition des systèmes sur mesure qui caractérisent la majeure partie du travail d'enquête des agences statistiques nationales (ex. des «chaînes de production» de données parallèles, mais généralement non reliées). De plus, les données émanant du réseau d'enquêtes doivent être intégrées. Puisque les données en question sont dynamiques, la méthode proposée dépasse la correspondance statistique et s'étend aux modèles de microsimulation. Enfin, ces idées sont illustrées avec les résultats préliminaires du modèle LifePathss actuellement en cours d'élaboration à Statistique Canada.

    Date de diffusion : 1995-07-30

  • Articles et rapports : 82-003-X19950011661
    Description :

    En 1994, Statistique Canada a commencé la collecte de données pour l'Enquête nationale sur la santé de la population (ENSP). Cette enquête-ménage a pour objet de mesurer l'état de santé des canadiens et de favoriser une meilleure compréhension des facteurs déterminants pour la santé. Il s'agit d'une enquête longitudinale pour laquelle on recueille, tous les deux ans, des données sur des personnes choisies dans le panel. Le présent article décrit le plan d'échantillonnage de l'ENSP, ainsi que les motifs qui ont déterminé l'élaboration. Il examine la répartition et la sélection représentative; les modifications adoptées pour le Québec et pour les territoires; de même que l'intégration de l'ENSP et de l'Enquête longitudinale nationale sur les enfants (ELNE). La section finale expose certaines questions méthodologiques que l'on devra traiter pour faciliter la conduite de cette enquête à l'avenir.

    Date de diffusion : 1995-07-27

  • Articles et rapports : 11F0019M1995067
    Description :

    Le rôle de l'innovation technique dans la croissance économique est à la fois une question qui intéresse beaucoup la gestion des affaires publiques et un domaine de la théorie économique où la recherche est active. Or l'élaboration de théories économiques est souvent limitée par des considérations de résolubilité mathématique. Grâce aux théories économiques évolutives qui sont élaborées sous forme de modèles de microsimulation informatisée, on peut raisonnablement espérer surmonter les contraintes d'ordre mathématique et aborder les questions fondamentales d'une manière plus réaliste et plus souple. Cet article donne un aperçu de XEcon, qui est un modèle de microsimulation de croissance économique de type évolutif.

    Date de diffusion : 1995-06-30

  • Articles et rapports : 12-001-X199500114415
    Description :

    Nous examinons la contribution de Stanley Warner à l’étude des réponses randomisées, avant d’élaborer un modèle linéaire, fondé sur les modèles de permutation aléatoire, qui permet d’intégrer, à titre de cas spéciaux, plusieurs plans connus à réponses randomisées. On obtient avec l’aide de ce modèle des estimateurs optimums des variances et des covariances de populations finies à l’intérieur d’une classe générale d’estimateurs quadratiques non biaisés. Ces résultats conduisent à la mise au point d’un estimateur de la corrélation de la population finie. Trois plans d’expérience particuliers à réponses randomisées sont examinés : (i) le modèle des questions non liées de Greenberg et coll. (1969); (ii) le modèle des constantes additives de Pollock et Bek (1976); le modèle des constantes multiplicatives de Pollock et Bek (1976). Nous proposons des modèles simples du biais dans les réponses afin d’illustrer l’effet de ce biais sur l’estimation de la corrélation.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114407
    Description :

    L’estimateur Horvitz-Thompson (estimateur HT) résiste mal aux valeurs aberrantes. La présence de valeurs aberrantes dans une population peut accroître sa variance, même si elle demeure non biaisée. Nous exprimons l’estimateur HT sous forme d’une fonctionnelle de moindres carrés afin d’en accroître la robustesse par l’intermédiaire d’estimateurs M. Nous dérivons une variance approximative de l’estimateur HT à robustesse accrue en utilisant un type de fonction d’influence pour l’échantillonnage, et nous élaborons un estimateur de cette variance. Une méthode adaptée de sélection d’un estimateur M conduit à des estimateurs à risque estimé minimum. Ces estimateurs et les estimateurs HT à robustesse accrue sont souvent plus efficaces que les estimateurs HT classiques, lorsque nous sommes en présence de valeurs aberrantes.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114416
    Description :

    Stanley Warner s’est acquis une renommée à titre de concepteur de la technique de randomisation des réponses pour les enquêtes comportant des questions délicates. Pendant près de vingt ans, il a aussi formulé et mis au point une méthode statistique s’appliquant à un autre problème, celui de l’obtention d’une information équilibrée sur des questions controversées de telle sorte que les deux points de vue soient représentés de manière adéquate et équitable. Nous passons en revue ces travaux, notamment deux situations d’enquête dans lesquelles Warner a mis sa méthode à l’épreuve, et nous examinons comment les concepts proposés s’inscrivent dans l’évolution actuelle de la méthodologie.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114408
    Description :

    On étudie le problème de l’estimation de la médiane d’une population finie quand une variable auxiliaire est présente. On propose des estimateurs ponctuels et des estimateurs par intervalle fondés sur une approche bayesienne non informative. L’estimateur ponctuel est comparé à d’autres estimateurs possibles et l’on constate qu’il donne de bons résultats dans diverses situations.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114413
    Description :

    Les organismes de statistiques effectuent de plus en plus d’enquêtes longitudinales. Or, même si ces enquêtes produisent surtout des données longitudinales, on s’attend dans la plupart des cas qu’elles donnent également des estimations transversales fiables. Les enquêtes menées auprès des individus et des ménages doivent pouvoir tenir compte de la dynamique des populations, c’est-à-dire des changements sensibles qui peuvent survenir, avec le temps, dans la composition des ménages. Ainsi, il convient d’adapter les méthodes d’estimation transversale à la nature longitudinale de l’échantillon. Dans le présent document, nous présentons un aperçu général de la méthode du partage des poids, laquelle peut servir entre autres à attribuer un poids de base aux membres d’un ménage. Nous nous penchons également sur l’estimateur de variance associé à cette méthode. Nous examinons finalement le problème que pose la pondération d’un échantillon longitudinal dans les cas où un échantillon supplémentaire est sélectionné pour améliorer la représentativité transversale de l’échantillon. Nous examinons, en guise d’application, l’Enquête sur la dynamique du travail et du revenu (EDTR) mise en œuvre par Statistique Canada en 1994. Cette enquête longitudinale s’intéresse à l’expérience pratique des individus, à l’évolution de leurs revenus et aux changements dans la composition des ménages.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114411
    Description :

    En 1991, Statistique Canada a, pour la première fois, redressé les données du Programme des estimations démographiques pour tenir compte du sous-dénombrement dans le recensement de 1991. Les études sur le champ d’observation du recensement fournissaient de bonnes estimations du sous-dénombrement pour les provinces et pour des groupes d’âge-sexe largement définis à l’échelle nationale. Or, pour redresser les séries d’estimations démographiques, il fallait connaître les estimations du sous-dénombrement pour des groupes d’âge-sexe définis à l’intérieur des provinces ou des territoires. Comme les estimations directes d’enquête pour quelques-uns de ces petits domaines avaient une erreur type élevée à cause du trop petit nombre d’unités de l’échantillon contenues dans ces domaines, il a fallu recourir à des méthodes de modélisation pour petite région. Afin de tenir compte de la plage de variabilité des estimations directes d’enquête, on s’est servi d’un modèle de régression fondé sur une méthode empirique de Bayes pour estimer le sous-dénombrement dans les petits domaines. On a ensuite appliqué la méthode itérative du quotient aux estimations du sous-dénombrement pour qu’il y ait concordance avec les estimations directes marginales. Cet article donne les résultats de la modélisation et la réduction estimée de l’erreur type.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114410
    Description :

    Dans le cadre de la décision relative au redressement des chiffres du recensement décennal de 1990, le U.S. Census Bureau a étudié l’hétérogénéité possible des taux de sous-dénombrement parmi des parties de différents États se trouvant dans la même case de rajustement ou strate formée a posteriori. Cinq « variables de remplacement » que l’on croyait associées au sous-dénombrement ont été analysées à l’aide d’une grande partie des données du recensement, et l’on a constaté une hétérogénéité significative. L’analyse de l’enquête post-censitaire sur les taux de sous-dénombrement a montré que les variables de stratification a posteriori expliquaient une plus grande partie de la variance que l’État, d’où le choix de la strate a posteriori comme case de rajustement. On a observé une hétérogénéité significative parmi les États dans 19 des 99 groupes de strates a posteriori (surtout dans les régions non urbaines), mais, après avoir regroupé des strates a posteriori, on n’a pratiquement rien observé qui donne à penser que l’estimateur de stratification a posteriori était biaisé de façon à défavoriser certains États. Néanmoins, de futures études sur l’évaluation de la couverture devraient permettre de résoudre cette question.

    Date de diffusion : 1995-06-15

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (27)

Analyses (27) (25 of 27 results)

  • Articles et rapports : 11F0019M1995084
    Description :

    Le présent document expose une nouvelle méthode de mesure de la durée moyenne des périodes de chômage en se fondant sur des données recueillies au Canada. Il résume en termes généraux les travaux de Corak (1993) ainsi que de Corak et Heisz (1994) portant sur la période moyenne complète de chômage, c'est-à-dire qu'il met l'accent sur la distinction entre cette dernière et la période moyenne incomplète de chômage, données qui sont diffusées régulièrement par Statistique Canada. Il convient de signaler que cette dernière moyenne est un indicateur cyclique tardif. La période moyenne complète de chômage est un indicateur plus exact de la situation qui prévaut sur le marché du travail, mais certaines hypothèses qu'il faut poser pour l'établir laissent également croire qu'elle présente un décalage par rapport à la réalité.

    Date de diffusion : 1995-12-30

  • Articles et rapports : 11F0019M1995083
    Description :

    L'article porte sur la robustesse d'une mesure de la durée complète moyenne du chômage au Canada par rapport à diverses hypothèses de calcul. Contrairement à la durée incomplète moyenne du chômage, qui est un indicateur cyclique retardé, cette statistique est un indicateur contemporain du cycle économique. On examine l'impact d'une hypothèse d'état stable plutôt que de l'hypothèse alternative, de même que l'incidence des diverses méthodes de correction du biais dans les réponses. On conclut qu'un estimateur d'état non stable apporterait un complément utile aux données sur la durée du chômage qui sont actuellement publiées par bien des organismes statistiques, plus particulièrement Statistique Canada.

    Date de diffusion : 1995-12-30

  • Articles et rapports : 12-001-X199500214395
    Description :

    Lorsqu’on remanie un échantillon selon un plan stratifié à plusieurs degrés, il est parfois indiqué de maximiser le nombre d’unités primaires d’échantillonnage retenues dans le nouvel échantillon sans modifier les probabilités de sélection inconditionnelle. Il existe à cette fin une solution optimale qui s’appuie sur la théorie du transport pour une classe très générale de plans d’échantillonnage. Toutefois, à la connaissance des auteurs, cette méthode n’a jamais été utilisée pour la refonte d’une enquête. Cela s’explique en partie du fait que même pour une strate de taille modérée, le problème de transport résultant pourrait être trop grand pour se prêter à une solution pratique. Dans le présent article, nous proposons un algorithme de transport modifié à taille réduite permettant de maximiser le chevauchement, ce qui réduit sensiblement les dimensions du problème. Cette méthode a été utilisée lors du remaniement récent de l’Enquête sur le revenu et la participation aux programmes (Survey of Income and Program Participation, ou SIPP). Nous décrivons brièvement le rendement de l’algorithme à taille réduite, d’une part pour le chevauchement du SIPP en conditions réelles, et d’autre part pour des simulations artificielles antérieures du chevauchement du SIPP. Même si cette méthode n’est pas optimale et ne risque de produire, en théorie, que des améliorations négligeables du chevauchement attendu comparativement à la sélection indépendante, elle ouvre en pratique la voie à des améliorations importantes du chevauchement par rapport à la sélection indépendante dans le cas du SIPP et produit généralement un chevauchement presque optimal.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214399
    Description :

    Nous examinons l’utilité de la moyenne winsorisée comme estimateur de la moyenne d’une distribution à asymétrie positive. On obtient la moyenne winsorisée en remplaçant toutes les observations supérieures à une valeur limite donnée R par cette même valeur R, avant le calcul de la moyenne. La valeur limite optimale, telle qu’elle est définie par Searls (1966), minimise l’erreur quadratique moyenne (mean square error, ou MSE) de l’estimateur winsorisé. Nous proposons des méthodes d’évaluation de cette valeur limite optimale avec divers plans d’échantillonnage, y compris l’échantillonnage aléatoire simple, l’échantillonnage stratifié et l’échantillonnage avec probabilité proportionnelle à la taille (ppt). Pour la plupart des distributions asymétriques, la stratégie de winsorisation optimale aura généralement pour effet de modifier la valeur d’environ une observation dans l’échantillon. On dérive des approximations directes (qui ne fait pas appel à un processus itératif) de l’efficacité de la moyenne winsorisée de Searls en utilisant la théorie des statistiques d’ordre extrême. Une expérience de Monte Carlo nous sert à comparer divers estimateurs réduisant l’impact des valeurs extrêmes.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214396
    Description :

    Les auteurs exposent brièvement quelques-uns des principaux aspects de la théorie des fonctions d’estimation pour les populations finies. Plus précisément, ils abordent la question de l’estimation des moyennes et des totaux et étendent la théorie pertinente aux fonctions d’estimation qu’ils appliquent ensuite au problème de l’estimation de l’inégalité du revenu. Les statistiques qui résultent de l’exercice expriment des fonctions non linéaires des observations, certaines d’entre elles dépendant de l’ordre des observations ou quantiles. Par conséquent, l’erreur quadratique moyenne des estimations ne peut être représentée par une formule simple ni être estimée par les méthodes classiques d’estimation de la variance. Les auteurs montrent que, pour les fonctions d’estimation, il est possible de résoudre ce problème par la méthode de linéarisation de Taylor. Enfin, ils font la démonstration de la méthode proposée en utilisant les données relatives au revenu provenant de l’Enquête sur les finances des consommateurs du Canada et comparent cette méthode à celle du jackknife avec suppression d’une grappe.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214398
    Description :

    En nous fondant sur 14 enquêtes menées dans six pays, nous présentons la constatation empirique de l’existence et de l’ampleur des effets du plan de sondage (eps) pour cinq plans appartenant à deux types principaux. Le premier type a trait à eps (p_i – p_j), la différence de deux proportions d’une variable polytomique de trois catégories ou plus. Le deuxième type utilise les tests de chi carré pour l’analyse des différences entre deux échantillons. Nous montrons que pour toutes les variables et pour tous les plans, eps (p_i – p_j) \cong [eps (p_i) + eps (p_j)] / 2 constituent de bonnes approximations. Ces résultats sont empiriques, et les exceptions prouvent qu’il ne peut s’agir de simples inégalités analytiques. Il convient de signaler que ces résultats restent valables malgré les grandes variations des valeurs d’eps entre les variables et entre les catégories d’une même variable. Ils montrent en outre la nécessité d’utiliser des méthodes de traitement adaptées aux échantillons d’enquêtes pour l’analyse des données d’enquête, même lorsqu’on a affaire à des statistiques analytiques. En outre, ils permettent d’utiliser des approximations d’eps (p_i – p_j) tirées des valeurs plus facilement accessibles d’eps (p_i).

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214393
    Description :

    Les lacunes et les erreurs relevées dans les données censitaires et les registres de l’état civil aux États-Unis laissent planer un doute sérieux sur la qualité des données concernant les aînés et le recensement des décès dans ce pays. Dans le présent article, nous évaluons la concordance des données provenant de ces deux sources pour les populations blanche et afro-américaine. Nous étudions en particulier les aînés (60 ans et plus), où les tendances de la mortalité ont la plus grande incidence sur les programmes sociaux et où les problèmes de données sont les plus graves. Au moyen de l’analyse intercensitaire des cohortes, nous déterminons les discordances en fonction de l’âge entre les deux sources pour deux périodes : 1970-1980 et 1980-1990. Les anomalies relevées quant à la nature de la couverture et aux erreurs de contenu sont analysées à la lumière des données de la documentation spécialisée. Les données sur la population afro-américaine montrent de très nombreuses discordances pour la période 1970-1990, qui sont vraisemblablement attribuables à une exagération de l’âge déclaré lors des recensements, par rapport aux données des registres de l’état civil. On relève également des anomalies pour la population blanche dans la période intercensitaire 1970-1980. Selon nous, ces anomalies sont principalement dues à un sous-dénombrement dans le recensement de 1970, par rapport à celui de 1980 et au recensement des décès. Par contre, les données de 1980-1990 concernant les blancs, et en particulier les femmes, sont très cohérentes, beaucoup plus même que dans la plupart des pays européens.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214391
    Description :

    Le contrôle statistique du processus est un instrument qui peut servir à vérifier l’exactitude des bases de sondage construites périodiquement. La taille des bases de sondage est reportée sur un graphique de contrôle afin de déceler les causes spéciales de variation. On décrit les méthodes qui permettent de choisir le modèle chronologique (ARMMI) approprié pour des observations liées. On examine aussi les applications de l’analyse des séries chronologiques à la construction de graphiques de contrôle. Les données du programme de contrôle de la qualité des prestations d’assurance-chômage du United States Department of Labor servent à illustrer la méthode.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214394
    Description :

    Lors d’un recensement national pilote effectué en 1992, la séquence d’envoi d’une lettre de préavis, d’un formulaire de recensement, d’une carte de rappel et d’un questionnaire de remplacement a engendré un taux de réponse global de 63,4 %. Ce taux de réponse était considérablement plus élevé que le taux de 49,2 % obtenu lors du National Content Test Census de 1986, dans le cadre duquel on avait également utilisé un questionnaire de remplacement. L’écart a semblé principalement attribuable à la séquence « préavis - formulaire de recensement - rappel » des envois, mais on n’a pas su dans quelle mesure chacun des principaux effets et leurs interactions avaient influé sur les résultats globaux. Le présent article rend compte des résultats du test de mise en œuvre du Recensement de 1992, qui vérifiait l’influence individuelle et combinée, sur le taux de réponse, de la lettre de préavis, de l’enveloppe-réponse affranchie ainsi que de la carte de rappel. Il s’agissait d’un échantillon national de ménages (n = 50 000) interrogés à l’automne 1992. On a utilisé un plan factoriel pour vérifier les huit combinaisons possibles des principaux effets, ainsi que leurs interactions. On a également eu recours à la régression logistique et à des comparaisons multiples pour analyser les résultats du test.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214392
    Description :

    Les enquêtes à grande échelle réalisées dans les pays en développement peuvent fournir un instantané extrêmement utile de l’état de santé d’une collectivité, mais les résultats produits reflètent rarement la réalité actuelle puisqu’ils ne sont souvent diffusés que plusieurs mois ou même des années après la collecte des données. Ces retards sont en partie attribuables au temps nécessaire à la saisie, au codage et au traitement des données. Or, il est désormais possible de faire la saisie sur les lieux mêmes de l’enquête, grâce aux ordinateurs de poche. Les erreurs sont également moins nombreuses puisqu’une vérification automatique permet de rejeter les entrées illogiques ou incohérentes dès l’étape de l’administration du questionnaire. Le présent article porte sur l’utilisation d’une telle méthode d’enquête assistée par ordinateur pour la collecte de données démographiques au Kenya. Même si les coûts initiaux de la mise sur pied d’un tel système sont élevés, ses avantages sont évidents : les erreurs qui peuvent se glisser dans les données recueillies, malgré l’expérience du personnel technique, peuvent être réduites à des niveaux négligeables. Dans les situations où la rapidité d’exécution est essentielle, où les employés sont nombreux et où on a recours au précodage des réponses pour la collecte systématique de données sur une période de temps prolongée, l’entrevue assistée par ordinateur pourrait s’avérer économique à long terme, tout en améliorant radicalement la qualité des données à court terme.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214397
    Description :

    L’estimation par régression et sa généralisation, l’estimation par calage introduite par Deville et Särndal en 1993 permet de réduire a posteriori la variance des estimateur, grâce à l’utilisation de l’information auxiliaire. Dans les enquêtes réalisées par sondage, on dispose souvent d’information additionnelle exploitable répartie selon un schéma complexe notamment lorsque le sondage est réalisé en plusieurs phases. Une adaptation de l’estimation par régression a été proposée avec ses variantes dans le cadre du sondage à deux phases par Särndal et Swensson en 1987. Cet article propose d’étudier les stratégies d’estimation alternatives selon deux configurations alternatives pour l’information auxiliaire, en reliant les deux approches possibles pour aborder le problème : modèle de régression et estimation par calage.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 12-001-X199500214405
    Description :

    Le présent article étudie les effets de la variabilité de l’intervieweur sur la précision des écarts estimés entre les moyennes de domaines. La première partie est consacrée à l’élaboration d’un modèle des éléments corrélés de la variance, permettant d’identifier les facteurs qui déterminent l’ampleur des effets, aspect qui influe sur le plan d’échantillonnage et la formation de l’intervieweur. Dans la deuxième partie, on trouvera une analyse empirique des données provenant d’une vaste enquête à plusieurs degrés sur l’hygiène dentaire. On s’est servi du sexe et de la race du répondant pour créer les deux jeux de domaines servant à la comparaison. Les effets globaux dus à l’intervieweur et au groupement de l’échantillon n’ont guère d’incidence sur la variance des comparaisons entre sexes masculin et féminin, mais la variance augmente pour certains écarts entre les deux groupes ethniques retenus. De fait, les effets de l’intervieweur sont deux ou trois fois plus élevés pour la comparaison des groupes ethniques que pour celle des deux sexes. Ces constatations présentent une certaine utilité pour les enquêtes dans le secteur de la santé où il est courant de recourir à un petit nombre d’intervieweurs ayant subi une formation poussée.

    Date de diffusion : 1995-12-15

  • Articles et rapports : 82-003-X19950022507
    Description :

    Les indicateurs fondés sur les données de l'état civil sevent à déterminer l'état de santé des populations. Ces indicateurs sont devenus de plus en plus nécessaires aux régions et aux collectivités, à mesure qu'on s'efforce de décentraliser les services de santé. Ils sont importants parce qu'ils influent sur le financement et sur la variété des services offerts. On tend à lier les indicateurs de santé à des variables telles que le degré d'urbanisation et le statut socioéconomique. A en juger par quatre de ces indicateurs - le taux de mortalité d'ensemble (toutes causes confondues), les taux de mortalité due à des causes exogènes, les taux de mortalité infantile et les taux de naissances vivantes à faible poids - les populations de certaines régions de la Colombie-Britannique, en particulier le long de la frontière albertaine, jouissent d'une santé relativement bonne même si les caractéristiques de ces régions laissent supposer qu'il devrait en être autrement. Toutefois, lorqu'on tient compte des données de l'état civil enregistrées en Alberta pour les habitants des mêmes régions en Colombie-Britannique, on obtient un tableau très différent de la situation. Le présent article montre que, pour assurer une planification et une mise en oeuvre adéquates des programmes de santé, certaines collectivités ont besoin des données venant d'une province voisine. Il montre les effets qu'a une intégration des données de l'Alberta dans l'élaboration des indicateurs de santé des populations de la Colombie-Britannique. Il donne également à conclure que des ajustements semblables devront peut- être être faits pour les données compilées dans d'autres provinces.

    Date de diffusion : 1995-11-20

  • Articles et rapports : 11F0019M1995081
    Description :

    Les utilisateurs de statistiques socio-économiques veulent habituellement plus de renseignements, et de meilleure qualité. Souvent, on peut répondre à ces besoins simplement par des collectes de données plus poussées, qui sont soumises aux contraintes habituelles relatives aux coûts et au fardeau de réponse des répondants. Les utilisateurs, particulièrement aux fins de politiques publiques, continuent de réclamer, et cette demande n'est toujours pas comblée, un système intégré et cohérent de statistiques socio-économiques. Dans ce cas, des données supplémentaires ne seront pas suffisantes; la contrainte la plus importante demeure l'absence d'une approche conceptuelle convenue.

    Nous examinons brièvement ici l'état des cadres d'utilisation des statistiques sociales et économiques, y compris les genres d'indicateurs socio-économiques que les utilisateurs pourraient désirer. Ces indicateurs sont premièrement justifiés, en termes généraux, par des principes de base et des concepts intuitifs, ce laisse de côté les détails de leur construction, pour le moment. Ensuite, nous montrons comment une structure cohérente de tels indicateurs peut être assemblée.

    Une conséquence fondamentale est que cette structure exige un réseau coordonné d'enquêtes et de processus de collecte de données, ainsi que des normes supérieures de qualité de données. Ceci, à son tour, implique une décomposition des systèmes sur mesure qui caractérisent la majeure partie du travail d'enquête des agences statistiques nationales (ex. des «chaînes de production» de données parallèles, mais généralement non reliées). De plus, les données émanant du réseau d'enquêtes doivent être intégrées. Puisque les données en question sont dynamiques, la méthode proposée dépasse la correspondance statistique et s'étend aux modèles de microsimulation. Enfin, ces idées sont illustrées avec les résultats préliminaires du modèle LifePathss actuellement en cours d'élaboration à Statistique Canada.

    Date de diffusion : 1995-07-30

  • Articles et rapports : 82-003-X19950011661
    Description :

    En 1994, Statistique Canada a commencé la collecte de données pour l'Enquête nationale sur la santé de la population (ENSP). Cette enquête-ménage a pour objet de mesurer l'état de santé des canadiens et de favoriser une meilleure compréhension des facteurs déterminants pour la santé. Il s'agit d'une enquête longitudinale pour laquelle on recueille, tous les deux ans, des données sur des personnes choisies dans le panel. Le présent article décrit le plan d'échantillonnage de l'ENSP, ainsi que les motifs qui ont déterminé l'élaboration. Il examine la répartition et la sélection représentative; les modifications adoptées pour le Québec et pour les territoires; de même que l'intégration de l'ENSP et de l'Enquête longitudinale nationale sur les enfants (ELNE). La section finale expose certaines questions méthodologiques que l'on devra traiter pour faciliter la conduite de cette enquête à l'avenir.

    Date de diffusion : 1995-07-27

  • Articles et rapports : 11F0019M1995067
    Description :

    Le rôle de l'innovation technique dans la croissance économique est à la fois une question qui intéresse beaucoup la gestion des affaires publiques et un domaine de la théorie économique où la recherche est active. Or l'élaboration de théories économiques est souvent limitée par des considérations de résolubilité mathématique. Grâce aux théories économiques évolutives qui sont élaborées sous forme de modèles de microsimulation informatisée, on peut raisonnablement espérer surmonter les contraintes d'ordre mathématique et aborder les questions fondamentales d'une manière plus réaliste et plus souple. Cet article donne un aperçu de XEcon, qui est un modèle de microsimulation de croissance économique de type évolutif.

    Date de diffusion : 1995-06-30

  • Articles et rapports : 12-001-X199500114415
    Description :

    Nous examinons la contribution de Stanley Warner à l’étude des réponses randomisées, avant d’élaborer un modèle linéaire, fondé sur les modèles de permutation aléatoire, qui permet d’intégrer, à titre de cas spéciaux, plusieurs plans connus à réponses randomisées. On obtient avec l’aide de ce modèle des estimateurs optimums des variances et des covariances de populations finies à l’intérieur d’une classe générale d’estimateurs quadratiques non biaisés. Ces résultats conduisent à la mise au point d’un estimateur de la corrélation de la population finie. Trois plans d’expérience particuliers à réponses randomisées sont examinés : (i) le modèle des questions non liées de Greenberg et coll. (1969); (ii) le modèle des constantes additives de Pollock et Bek (1976); le modèle des constantes multiplicatives de Pollock et Bek (1976). Nous proposons des modèles simples du biais dans les réponses afin d’illustrer l’effet de ce biais sur l’estimation de la corrélation.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114407
    Description :

    L’estimateur Horvitz-Thompson (estimateur HT) résiste mal aux valeurs aberrantes. La présence de valeurs aberrantes dans une population peut accroître sa variance, même si elle demeure non biaisée. Nous exprimons l’estimateur HT sous forme d’une fonctionnelle de moindres carrés afin d’en accroître la robustesse par l’intermédiaire d’estimateurs M. Nous dérivons une variance approximative de l’estimateur HT à robustesse accrue en utilisant un type de fonction d’influence pour l’échantillonnage, et nous élaborons un estimateur de cette variance. Une méthode adaptée de sélection d’un estimateur M conduit à des estimateurs à risque estimé minimum. Ces estimateurs et les estimateurs HT à robustesse accrue sont souvent plus efficaces que les estimateurs HT classiques, lorsque nous sommes en présence de valeurs aberrantes.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114416
    Description :

    Stanley Warner s’est acquis une renommée à titre de concepteur de la technique de randomisation des réponses pour les enquêtes comportant des questions délicates. Pendant près de vingt ans, il a aussi formulé et mis au point une méthode statistique s’appliquant à un autre problème, celui de l’obtention d’une information équilibrée sur des questions controversées de telle sorte que les deux points de vue soient représentés de manière adéquate et équitable. Nous passons en revue ces travaux, notamment deux situations d’enquête dans lesquelles Warner a mis sa méthode à l’épreuve, et nous examinons comment les concepts proposés s’inscrivent dans l’évolution actuelle de la méthodologie.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114408
    Description :

    On étudie le problème de l’estimation de la médiane d’une population finie quand une variable auxiliaire est présente. On propose des estimateurs ponctuels et des estimateurs par intervalle fondés sur une approche bayesienne non informative. L’estimateur ponctuel est comparé à d’autres estimateurs possibles et l’on constate qu’il donne de bons résultats dans diverses situations.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114413
    Description :

    Les organismes de statistiques effectuent de plus en plus d’enquêtes longitudinales. Or, même si ces enquêtes produisent surtout des données longitudinales, on s’attend dans la plupart des cas qu’elles donnent également des estimations transversales fiables. Les enquêtes menées auprès des individus et des ménages doivent pouvoir tenir compte de la dynamique des populations, c’est-à-dire des changements sensibles qui peuvent survenir, avec le temps, dans la composition des ménages. Ainsi, il convient d’adapter les méthodes d’estimation transversale à la nature longitudinale de l’échantillon. Dans le présent document, nous présentons un aperçu général de la méthode du partage des poids, laquelle peut servir entre autres à attribuer un poids de base aux membres d’un ménage. Nous nous penchons également sur l’estimateur de variance associé à cette méthode. Nous examinons finalement le problème que pose la pondération d’un échantillon longitudinal dans les cas où un échantillon supplémentaire est sélectionné pour améliorer la représentativité transversale de l’échantillon. Nous examinons, en guise d’application, l’Enquête sur la dynamique du travail et du revenu (EDTR) mise en œuvre par Statistique Canada en 1994. Cette enquête longitudinale s’intéresse à l’expérience pratique des individus, à l’évolution de leurs revenus et aux changements dans la composition des ménages.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114411
    Description :

    En 1991, Statistique Canada a, pour la première fois, redressé les données du Programme des estimations démographiques pour tenir compte du sous-dénombrement dans le recensement de 1991. Les études sur le champ d’observation du recensement fournissaient de bonnes estimations du sous-dénombrement pour les provinces et pour des groupes d’âge-sexe largement définis à l’échelle nationale. Or, pour redresser les séries d’estimations démographiques, il fallait connaître les estimations du sous-dénombrement pour des groupes d’âge-sexe définis à l’intérieur des provinces ou des territoires. Comme les estimations directes d’enquête pour quelques-uns de ces petits domaines avaient une erreur type élevée à cause du trop petit nombre d’unités de l’échantillon contenues dans ces domaines, il a fallu recourir à des méthodes de modélisation pour petite région. Afin de tenir compte de la plage de variabilité des estimations directes d’enquête, on s’est servi d’un modèle de régression fondé sur une méthode empirique de Bayes pour estimer le sous-dénombrement dans les petits domaines. On a ensuite appliqué la méthode itérative du quotient aux estimations du sous-dénombrement pour qu’il y ait concordance avec les estimations directes marginales. Cet article donne les résultats de la modélisation et la réduction estimée de l’erreur type.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114410
    Description :

    Dans le cadre de la décision relative au redressement des chiffres du recensement décennal de 1990, le U.S. Census Bureau a étudié l’hétérogénéité possible des taux de sous-dénombrement parmi des parties de différents États se trouvant dans la même case de rajustement ou strate formée a posteriori. Cinq « variables de remplacement » que l’on croyait associées au sous-dénombrement ont été analysées à l’aide d’une grande partie des données du recensement, et l’on a constaté une hétérogénéité significative. L’analyse de l’enquête post-censitaire sur les taux de sous-dénombrement a montré que les variables de stratification a posteriori expliquaient une plus grande partie de la variance que l’État, d’où le choix de la strate a posteriori comme case de rajustement. On a observé une hétérogénéité significative parmi les États dans 19 des 99 groupes de strates a posteriori (surtout dans les régions non urbaines), mais, après avoir regroupé des strates a posteriori, on n’a pratiquement rien observé qui donne à penser que l’estimateur de stratification a posteriori était biaisé de façon à défavoriser certains États. Néanmoins, de futures études sur l’évaluation de la couverture devraient permettre de résoudre cette question.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114414
    Description :

    Tout le monde sait que, dans un échantillonnage aléatoire simple avec remise, la moyenne d’échantillon calculée uniquement sur la base des unités non répétées est plus efficace que la moyenne d’échantillon calculée sur la base de toutes les unités échantillonnées sans distinction (Murthy 1967, pp. 65-66). Seth et Rao (1964) ont montré que, étant donné le même coût moyen d’échantillonnage, la moyenne d’échantillon calculée sur la base des unités non répétées dans un échantillonnage avec remise était moins efficace que la moyenne calculée dans un échantillonnage sans remise. En nous servant de la méthode des réponses randomisées de Warner (1965), nous comparons l’échantillonnage aléatoire simple sans remise et l’échantillonnage avec remise où seules les unités non répétées sont prises en compte.

    Date de diffusion : 1995-06-15

  • Articles et rapports : 12-001-X199500114406
    Description :

    Dans le présent article, on traite de la conception d’enquêtes auprès des visiteurs. Pour illustrer le sujet, on décrit deux enquêtes récentes. La première est une enquête auprès des visiteurs des zones administrées par le National Park Service à l’échelle des États-Unis pendant toute une année (1992). La deuxième est une enquête menée auprès des personnes qui ont utilisé des installations de loisirs du bassin des trois rivières autour de Pittsburgh, en Pennsylvanie, pendant une période de douze mois. Les deux enquêtes comportaient un échantillonnage dans le temps avec stratification temporelle et stratification dans l’espace. Les unités d’échantillonnage avaient la forme de paires site-période à l’avant dernier degré d’échantillonnage soit celui précédant de l’échantillonnage des visiteurs. L’attribution aléatoire des sites de l’échantillon à des périodes permet d’obtenir des estimations non biaisées pour les strates temporelles (p. ex., des estimations mensuelles et saisonnières) ainsi que des estimations pour les strates définies selon la région et le genre d’utilisation.

    Date de diffusion : 1995-06-15

Références (2)

Références (2) (2 results)

Date de modification :