Statistiques par sujet – Méthodes statistiques

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (18)

Tout (18) (18 of 18 results)

  • Articles et rapports : 12-001-X199100214506
    Description :

    Cet article compare, du point de vue de la nature et de l’importance numérique de la perte d’effectifs, deux enquêtes par panel par composition aléatoire (CA) menées séparément dans la ville de Chicago (c’est-à-dire que les enquêtes étaient des études indépendantes et n’étaient pas menées dans le cadre d’une même expérience) et ayant l’une et l’autre un décalage d’environ un an entre les cycles. Pour chaque enquête, l’échantillonnage au cycle 1 se faisait par composition aléatoire à un degré (échantillonnage aléatoire). Dans l’étude 1, on ne demandait pas son nom au répondant, de sorte qu’au moment des appels téléphoniques du cycle 2 les intervieweurs ne pouvaient pas demander le répondant par son nom. Ils utilisaient plutôt un descripteur, en l’occurrence l’âge et le sexe. Dans l’étude 2, on demandait à chaque répondant du cycle 1 un descripteur de nom, qu’on utilisait pour tenter d’entrer de nouveau en contact avec lui au moment du cycle 2. Dans l’étude 1, la perte d’effectifs (c’est-à-dire la proportion de répondants du cycle 1 non réinterviewés au cycle 2) a été de 47 %, alors que dans l’étude 2 elle a été de 43 % : l’écart entre les taux de perte d’effectifs a donc été relativement faible. Dans les deux enquêtes, la perte d’effectifs avait un rapport significatif avec l’âge, la race, le niveau de scolarité et le revenu. L’article examine l’alternative qui se pose en ces termes : réduire au minimum ou bien la perte d’effectifs ou bien la réaction de l’enquêté, c’est-à-dire l’effet que peut avoir sur ses réponses le fait qu’il sache qu’il sera réinterviewé, deux facteurs qui peuvent influer sur l’erreur totale de l’enquête. L’article contient aussi des suggestions sur les moyens de réduire la perte d’effectifs dans les enquêtes par panel par composition aléatoire.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214503
    Description :

    On fait souvent des enquêtes sur des flux de populations de personnes comme celles qui vont dans les musées, les bibliothèques et les parcs; les électeurs; les personnes qui font des courses; les malades en consultation externe; les touristes; les voyageurs venant de l’étranger et les passagers des automobiles. Les plans d’échantillonnage d’enquêtes de ce genre prévoient en général un échantillonnage dans le temps et dans l’espace. Dans cet article on passe en revue et on illustre les méthodes utilisées pour sonder les flux de populations humaines.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214504
    Description :

    Les enquêtes par quotas simples ou marginaux sont analysées par deux méthodes : (1) modélisation des comportements (modèle de superpopulation) et estimation par prédiction et (2) modélisation de l’échantillonnage (sondage aléatoire simple sous contraintes) et estimation dérivée de la distribution échantillonnale. Dans les deux cas on précise les limites de la théorie, à l’intérieur de laquelle on établit des formules de variance et d’estimation de variance quand on mesure des totaux. Une extension de la méthode des quotas (quotas non-proportionnels) est, au passage, décrite et analysée. Elle autorise, dans certains cas, une très nette amélioration de la précision des enquêtes. Les mérites de la méthode des quotas sont comparés à ceux de l’échantillonnage aléatoire. Ce dernier reste indispensable dans le cas d’enquêtes de grande taille dans le cadre de la Statistique officielle.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214501
    Description :

    Bien que les enquêtes agricoles du Département de l’agriculture des É.-U. (DAEU) servent à estimer la production végétale à l’échelle du pays et pour chaque État, les estimations par comté sont plus utiles aux décideurs locaux. Ce genre d’estimations sont aussi recherchées par les entreprises qui se spécialisent dans la vente d’engrais, de pesticides, d’assurance-récolte et de matériel agricole. Les États font souvent leurs propres enquêtes dans le but de produire des estimations de la production agricole par comté. En règle générale, ces enquêtes ne reposent pas sur des méthodes d’échantillonnage probabiliste. En outre, la somme des estimations pour chaque comté d’un État doit concorder avec l’estimation calculée par le DAEU pour l’ensemble de l’État. Les méthodes d’estimation classiques pour petites régions ne sont donc pas directement applicables dans les circonstances. Dans cet article, nous allons recourir à des modèles de régression pour estimer la production de blé par comté au Kansas. Nous allons décrire une étude de simulation par laquelle nous comparons les estimations obtenues par régression à celles calculées à l’aide de deux estimateurs classiques pour petites régions : l’estimateur synthétique et l’estimateur direct. Nous allons aussi comparer plusieurs méthodes par lesquelles nous pouvons pondérer les estimations initiales de manière qu’elles concordent avec l’estimation de la production totale de l’État calculée par le DAEU.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214500
    Description :

    L’Enquête sociale générale canadienne est une enquête annuelle ayant pour objet de recueillir des données sur les caractéristiques démographiques et sociales des Canadiens. Le présent article donne un aperçu général de l’enquête fondé sur l’expérience des cinq premiers cycles. Nous y examinons les objectifs du programme, les méthodes utilisées, les thèmes et les questions étudiés, les produits élaborés ainsi que les perspectives d’avenir.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214505
    Description :

    La méthode de désaisonnalisation X-11-ARMMI de même que la variante X-11 du programme Census Method II utilisent un test F d’analyse de variance ordinaire pour déterminer la présence d’un mouvement saisonnier stable. Ce test est appliqué à des séries formées de composantes saisonnières estimées et d’aléas (résidus) qui sont très susceptibles d’être autocorrélés, ce qui va à l’encontre de l’hypothèse fondamentale du test F. Les producteurs de données désaisonnalisées connaissent depuis longtemps cette lacune et se servent rarement de la valeur théorique de la statistique F comme critère pour la désaisonnalisation. Ils préfèrent utiliser des règles empiriques du genre « F égal ou supérieur à 7 ». Dans cet article, nous présentons un test exact qui tient compte des résidus autocorrélés qui suivent un processus MMS (à moyennes mobiles saisonnier) du type (0, q) (0, Q)_s. Nous comparons ensuite les résultats de ce test, qui est une version modifiée du test F, avec ceux du test d’analyse de variance de la X-11-ARMMI pour un grand nombre de séries socio-économiques canadiennes.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214507
    Description :

    Pour estimer la proportion et la valeur totale d’un caractère d’échantillonnage pour le dernier passage d’une enquête, on utilise trois méthodes qui permettent de combiner les estimations indépendantes de ce caractère relatives à ce dernier passage et aux précédents. Dans la première méthode, on étudie la tendance sur l’ensemble des passages. Dans la deuxième, on emploie le modèle unidimensionnel avec effets aléatoires. Dans la troisième, on se sert de l’approche empirique de Bayes. Chacune de ces trois méthodes se révèle plus efficace que l’estimation par échantillon fondée sur les données du dernier passage seul. On discute des avantages et des limites de ces méthodes, toutes trois étant illustrées par des données de la National Health Discharge Survey (Enquête nationale sur les sorties d’hôpital).

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214502
    Description :

    Les auteurs proposent un plan de sondage particulier pour des enquêtes infra-annuelles auprès des entreprises; ce plan couvre les opérations suivantes : échantillonnage initial, renouvellement de l’échantillon et mise à jour de l’échantillon. Le plan d’échantillonnage consiste en un échantillonnage en grappes stratifié, la stratification étant faite selon la branche d’activité, la région géographique et la taille de l’entreprise. Le renouvellement de l’échantillon est assujetti à des règles précises concernant le temps qu’une unité doit passer dans l’échantillon ou à l’extérieur de l’échantillon. La mise à jour de l’échantillon concerne la sélection des entreprises naissantes (entreprises nouvellement créées), l’exclusion des entreprises mortes (entreprises ayant cessé leurs activités) et l’introduction de modifications dans les variables servant à la stratification, c.-à-d. branche d’activité, région géographique et taille de l’entreprise. Au moyen d’une étude empirique, les auteurs évaluent dans diverses conditions un certain nombre d’estimateurs - notamment, l’estimateur d’extension et l’estimateur par quotient sans biais de Mickey (1959) - pour les besoins de ce plan de sondage. Ils examinent aussi l’estimation de la variance au moyen de la méthode de linéarisation de Taylor et de la méthode du jackknife.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214508
    Description :

    L’estimateur de système dual de la taille d’une population peut être fortement biaisé s’il y a hétérogénéité des probabilités de saisie. Dans cet article, nous étudions le biais de l’estimateur de variance correspondant dans des conditions d’hétérogénéité. Nous montrons que l’estimateur habituel est conservatif, c’est-à-dire qu’il produit des estimations excessives, lorsque les deux systèmes d’enregistrement sont corrélés négativement ou pas du tout ou encore lorsqu’il existe une corrélation positive mais faible. S’il existe une corrélation positive forte entre les deux systèmes, l’estimateur peut produire des sous-estimations. Nous proposons donc deux estimateurs, que nous comparons au premier. L’un est conservatif dans des conditions d’hétérogénéité quelconque, l’autre l’est dans des conditions d’hétérogénéité gaussienne. Nous appliquons ensuite ces estimateurs à des données sur les maladies professionnelles en Finlande.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100114524
    Description :

    La technique de Mitofsky et Waksberg est une méthode efficace pour prélever par composition aléatoire un échantillon autopondéré de ménages. Il s’agit d’une méthode progressive qui exige le prélèvement d’un nombre constant de ménages dans chaque grappe. Dans le présent article, les auteurs décrivent une version modifiée de la méthode de Mitofsky et Waksberg qui n’est ni autopondérée, ni progressive. Après avoir analysé le biais et la variance des estimations obtenues à l’aide de la méthode modifiée, ils indiquent dans quelles circonstances il peut être avantageux d’utiliser la version modifiée plutôt que la version originale de la méthode de Mitofsky et Waksberg.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114523
    Description :

    Grâce aux progrès récents de l’informatique, les organismes nationaux de statistique sont en mesure de produire efficacement des données de première qualité. Le Bureau central de la statistique des Pays-Bas (BCS) recourt de plus en plus au micro-ordinateur pour les diverses étapes de la production de données statistiques. Dans cet article, nous examinons le rôle que jouent les logiciels et les machines dans la collecte et le contrôle des données ainsi que dans la totalisation et l’analyse. Afin de sensibiliser le lecteur aux conséquences néfastes d’une gestion anarchique d’un système décentralisé de traitement de données, nous faisons ressortir toute l’importance de l’intégration. Celle-ci rend la production de données statistiques plus facile à gérer et plus efficace. Cet article est aussi une occasion de présenter le système Blaise, élaboré par le BCS, comme un outil informatique favorisant l’intégration du traitement des données d’enquête. À partir d’une description du questionnaire d’enquête, ce système peut générer automatiquement divers programmes destinés à la collecte des données (IPAO ou ITAO) ou à la saisie et au contrôle des données (IDAO). Il peut aussi être en liaison avec d’autres progiciels. À cet égard, nous décrivons le lien qui existe entre Blaise et les progiciels « maison » Bascula (pour la pondération) et Abacus (pour la totalisation). Ainsi, le système Blaise contrôle et coordonne, et par conséquent intègre, la majeure partie des opérations d’enquête.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114521
    Description :

    L’auteur définit des fonctions de vraisemblance marginales et des fonctions de vraisemblance conditionnelles approximatives pour les paramètres de corrélation d’un modèle de régression linéaire normal à erreurs corrélées. L’auteur se sert du principe de vraisemblance pour déterminer des fonctions de vraisemblance marginales et des fonctions de vraisemblance conditionnelles approximatives pour les paramètres de corrélation dans un plan d’échantillonnage répété (échantillonnage aléatoire simple et plans plus complexes).

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114520
    Description :

    L’Enquête sur l’emploi, la rémunération et les heures de travail que mène actuellement la Division du travail de Statistique Canada est une enquête mensuelle d’envergure permettant de recueillir des données à partir d’un grand échantillon d’établissements d’entreprises. Dans le présent article, l’auteur décrit les techniques d’enquête utilisées. Il donne une brève description des méthodes de stratification, de détermination de la taille de l’échantillon et de répartition, tandis qu’il décrit plus en détail la méthode de renouvellement en raison de sa complexité. Il souligne aussi certaines des simplifications qu’on peut apporter au plan de sondage.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114518
    Description :

    Cet article présente et discute de façon critique les récents développements dans l’évaluation de la fiabilité des estimations provisoires de comptabilité nationale. On introduit d’abord un schéma théorique du processus de révision des estimations d’un agrégat, et on considère les implications qu’il a sur le dessin des analyses des erreurs dans les données provisoires. Une attention particulière est ensuite portée au choix des mesures élémentaires des erreurs et d’indices synthétiques de précision convenables, et à l’impact des révisions sur les agrégats à prix constants et les déflateurs implicites. Enfin, les résultats de quelques analyses empiriques sur les discordances entre des estimations provisoires et révisées, menées comparativement sur des données de comptabilité nationale du Canada, des États-Unis et de l’Italie, sont synthétiquement présentés.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114526
    Description :

    L’établissement d’estimations assujetties à des contraintes de temps pose un problème constant, qui est celui des limitations importantes qui se rattachent à la collecte des données par la poste. Pour surmonter cette difficulté, le Bureau of Labor Statistics des États-Unis, a effectué pendant 7 ans d’importants travaux de recherche sur l’utilisation de l’interview téléphonique assistée par ordinateur (ITAO) et de l’auto-interview assistée par ordinateur (AIAO), dans le cadre de cette dernière méthode les répondants introduisant eux-mêmes leurs données au moyen d’un téléphone à clavier ou par reconaissance de la parole. Le présent article donne un aperçu de certains des principaux résultats de ces travaux ayant trait au rendement et au coût de ces méthodes. L’exposé s’achève par des observations sur un programme d’application à grande échelle de ces techniques à un échantillon mensuel de 350,000 entreprises.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114519
    Description :

    Dans cet article, nous élaborons un modèle permettant d’estimer un système d’équations linéaires à l’aide de données d’enquête. La théorie classique des sondages, axée sur des plans, nous est peu utile ici, bien que quelques-unes des techniques élaborées en vertu de cette théorie puissent être incorporées à des méthodes d’estimation robuste fondées sur un modèle. Les estimateurs de variance qui ont la forme de l’estimateur de « linéarisation » à équation unique sont quasi-non biaisés suivant de nombreuses structures d’erreur complexes. En outre, l’absence possible de variables explicatives peut être compensée par l’introduction de poids d’échantillonnage dans l’estimation par régression. Dans certains cas toutefois, l’absence de variables explicatives peut rendre incertaine l’estimation d’un système d’équations.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114522
    Description :

    On présente les résultats de la recherche et des essais des méthodes d’enquêtes par téléphone et assistées par ordinateur pour les enquêtes-ménages, que suit une discussion de la façon dont ces conclusions vont influencer le remaniement des enquêtes-ménages à Statistique Canada pendant les années 90. On s’attache plus particulièrement dans la communication à l’Enquête sur la population active du Canada.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114525
    Description :

    Le Bureau of Labor Statistics a mis en œuvre, dans le cadre d’une enquête mensuelle auprès des entreprises, une méthode de collecte électronique des données utilisant la reconnaissance des données introduites au moyen d’un téléphone à clavier. Le système d’introduction des données au moyen d’un téléphone à clavier (IDTC) utilise des expressions numérisées pour demander aux participants à l’enquête de répondre aux questions en appuyant sur les boutons d’un poste téléphonique à clavier numérique. Le système IDTC permet de réduire de façon substantielle les coûts d’enquête par suite de l’élimination de nombreuses activités à prédominance de main-d’œuvre. On en sait toutefois très peu au sujet des erreurs de mesure découlant de l’utilisation de ce mode de collecte. Dans la présente étude, nous évaluons les erreurs inhérentes à l’emploi de la méthode IDTC à partir de trois sources de données : il est ainsi possible d’analyser les erreurs reliées à des aspects précis de l’interface homme-machine. De plus, nous faisons état de certaines caractéristiques de conception du système qui ont des répercussions sur les erreurs dues à ce mode de collecte. Nous terminons en traitant de l’incidence de nos constatations sur d’autres enquêtes.

    Date de diffusion : 1991-06-14

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (18)

Analyses (18) (18 of 18 results)

  • Articles et rapports : 12-001-X199100214506
    Description :

    Cet article compare, du point de vue de la nature et de l’importance numérique de la perte d’effectifs, deux enquêtes par panel par composition aléatoire (CA) menées séparément dans la ville de Chicago (c’est-à-dire que les enquêtes étaient des études indépendantes et n’étaient pas menées dans le cadre d’une même expérience) et ayant l’une et l’autre un décalage d’environ un an entre les cycles. Pour chaque enquête, l’échantillonnage au cycle 1 se faisait par composition aléatoire à un degré (échantillonnage aléatoire). Dans l’étude 1, on ne demandait pas son nom au répondant, de sorte qu’au moment des appels téléphoniques du cycle 2 les intervieweurs ne pouvaient pas demander le répondant par son nom. Ils utilisaient plutôt un descripteur, en l’occurrence l’âge et le sexe. Dans l’étude 2, on demandait à chaque répondant du cycle 1 un descripteur de nom, qu’on utilisait pour tenter d’entrer de nouveau en contact avec lui au moment du cycle 2. Dans l’étude 1, la perte d’effectifs (c’est-à-dire la proportion de répondants du cycle 1 non réinterviewés au cycle 2) a été de 47 %, alors que dans l’étude 2 elle a été de 43 % : l’écart entre les taux de perte d’effectifs a donc été relativement faible. Dans les deux enquêtes, la perte d’effectifs avait un rapport significatif avec l’âge, la race, le niveau de scolarité et le revenu. L’article examine l’alternative qui se pose en ces termes : réduire au minimum ou bien la perte d’effectifs ou bien la réaction de l’enquêté, c’est-à-dire l’effet que peut avoir sur ses réponses le fait qu’il sache qu’il sera réinterviewé, deux facteurs qui peuvent influer sur l’erreur totale de l’enquête. L’article contient aussi des suggestions sur les moyens de réduire la perte d’effectifs dans les enquêtes par panel par composition aléatoire.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214503
    Description :

    On fait souvent des enquêtes sur des flux de populations de personnes comme celles qui vont dans les musées, les bibliothèques et les parcs; les électeurs; les personnes qui font des courses; les malades en consultation externe; les touristes; les voyageurs venant de l’étranger et les passagers des automobiles. Les plans d’échantillonnage d’enquêtes de ce genre prévoient en général un échantillonnage dans le temps et dans l’espace. Dans cet article on passe en revue et on illustre les méthodes utilisées pour sonder les flux de populations humaines.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214504
    Description :

    Les enquêtes par quotas simples ou marginaux sont analysées par deux méthodes : (1) modélisation des comportements (modèle de superpopulation) et estimation par prédiction et (2) modélisation de l’échantillonnage (sondage aléatoire simple sous contraintes) et estimation dérivée de la distribution échantillonnale. Dans les deux cas on précise les limites de la théorie, à l’intérieur de laquelle on établit des formules de variance et d’estimation de variance quand on mesure des totaux. Une extension de la méthode des quotas (quotas non-proportionnels) est, au passage, décrite et analysée. Elle autorise, dans certains cas, une très nette amélioration de la précision des enquêtes. Les mérites de la méthode des quotas sont comparés à ceux de l’échantillonnage aléatoire. Ce dernier reste indispensable dans le cas d’enquêtes de grande taille dans le cadre de la Statistique officielle.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214501
    Description :

    Bien que les enquêtes agricoles du Département de l’agriculture des É.-U. (DAEU) servent à estimer la production végétale à l’échelle du pays et pour chaque État, les estimations par comté sont plus utiles aux décideurs locaux. Ce genre d’estimations sont aussi recherchées par les entreprises qui se spécialisent dans la vente d’engrais, de pesticides, d’assurance-récolte et de matériel agricole. Les États font souvent leurs propres enquêtes dans le but de produire des estimations de la production agricole par comté. En règle générale, ces enquêtes ne reposent pas sur des méthodes d’échantillonnage probabiliste. En outre, la somme des estimations pour chaque comté d’un État doit concorder avec l’estimation calculée par le DAEU pour l’ensemble de l’État. Les méthodes d’estimation classiques pour petites régions ne sont donc pas directement applicables dans les circonstances. Dans cet article, nous allons recourir à des modèles de régression pour estimer la production de blé par comté au Kansas. Nous allons décrire une étude de simulation par laquelle nous comparons les estimations obtenues par régression à celles calculées à l’aide de deux estimateurs classiques pour petites régions : l’estimateur synthétique et l’estimateur direct. Nous allons aussi comparer plusieurs méthodes par lesquelles nous pouvons pondérer les estimations initiales de manière qu’elles concordent avec l’estimation de la production totale de l’État calculée par le DAEU.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214500
    Description :

    L’Enquête sociale générale canadienne est une enquête annuelle ayant pour objet de recueillir des données sur les caractéristiques démographiques et sociales des Canadiens. Le présent article donne un aperçu général de l’enquête fondé sur l’expérience des cinq premiers cycles. Nous y examinons les objectifs du programme, les méthodes utilisées, les thèmes et les questions étudiés, les produits élaborés ainsi que les perspectives d’avenir.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214505
    Description :

    La méthode de désaisonnalisation X-11-ARMMI de même que la variante X-11 du programme Census Method II utilisent un test F d’analyse de variance ordinaire pour déterminer la présence d’un mouvement saisonnier stable. Ce test est appliqué à des séries formées de composantes saisonnières estimées et d’aléas (résidus) qui sont très susceptibles d’être autocorrélés, ce qui va à l’encontre de l’hypothèse fondamentale du test F. Les producteurs de données désaisonnalisées connaissent depuis longtemps cette lacune et se servent rarement de la valeur théorique de la statistique F comme critère pour la désaisonnalisation. Ils préfèrent utiliser des règles empiriques du genre « F égal ou supérieur à 7 ». Dans cet article, nous présentons un test exact qui tient compte des résidus autocorrélés qui suivent un processus MMS (à moyennes mobiles saisonnier) du type (0, q) (0, Q)_s. Nous comparons ensuite les résultats de ce test, qui est une version modifiée du test F, avec ceux du test d’analyse de variance de la X-11-ARMMI pour un grand nombre de séries socio-économiques canadiennes.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214507
    Description :

    Pour estimer la proportion et la valeur totale d’un caractère d’échantillonnage pour le dernier passage d’une enquête, on utilise trois méthodes qui permettent de combiner les estimations indépendantes de ce caractère relatives à ce dernier passage et aux précédents. Dans la première méthode, on étudie la tendance sur l’ensemble des passages. Dans la deuxième, on emploie le modèle unidimensionnel avec effets aléatoires. Dans la troisième, on se sert de l’approche empirique de Bayes. Chacune de ces trois méthodes se révèle plus efficace que l’estimation par échantillon fondée sur les données du dernier passage seul. On discute des avantages et des limites de ces méthodes, toutes trois étant illustrées par des données de la National Health Discharge Survey (Enquête nationale sur les sorties d’hôpital).

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214502
    Description :

    Les auteurs proposent un plan de sondage particulier pour des enquêtes infra-annuelles auprès des entreprises; ce plan couvre les opérations suivantes : échantillonnage initial, renouvellement de l’échantillon et mise à jour de l’échantillon. Le plan d’échantillonnage consiste en un échantillonnage en grappes stratifié, la stratification étant faite selon la branche d’activité, la région géographique et la taille de l’entreprise. Le renouvellement de l’échantillon est assujetti à des règles précises concernant le temps qu’une unité doit passer dans l’échantillon ou à l’extérieur de l’échantillon. La mise à jour de l’échantillon concerne la sélection des entreprises naissantes (entreprises nouvellement créées), l’exclusion des entreprises mortes (entreprises ayant cessé leurs activités) et l’introduction de modifications dans les variables servant à la stratification, c.-à-d. branche d’activité, région géographique et taille de l’entreprise. Au moyen d’une étude empirique, les auteurs évaluent dans diverses conditions un certain nombre d’estimateurs - notamment, l’estimateur d’extension et l’estimateur par quotient sans biais de Mickey (1959) - pour les besoins de ce plan de sondage. Ils examinent aussi l’estimation de la variance au moyen de la méthode de linéarisation de Taylor et de la méthode du jackknife.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100214508
    Description :

    L’estimateur de système dual de la taille d’une population peut être fortement biaisé s’il y a hétérogénéité des probabilités de saisie. Dans cet article, nous étudions le biais de l’estimateur de variance correspondant dans des conditions d’hétérogénéité. Nous montrons que l’estimateur habituel est conservatif, c’est-à-dire qu’il produit des estimations excessives, lorsque les deux systèmes d’enregistrement sont corrélés négativement ou pas du tout ou encore lorsqu’il existe une corrélation positive mais faible. S’il existe une corrélation positive forte entre les deux systèmes, l’estimateur peut produire des sous-estimations. Nous proposons donc deux estimateurs, que nous comparons au premier. L’un est conservatif dans des conditions d’hétérogénéité quelconque, l’autre l’est dans des conditions d’hétérogénéité gaussienne. Nous appliquons ensuite ces estimateurs à des données sur les maladies professionnelles en Finlande.

    Date de diffusion : 1991-12-16

  • Articles et rapports : 12-001-X199100114524
    Description :

    La technique de Mitofsky et Waksberg est une méthode efficace pour prélever par composition aléatoire un échantillon autopondéré de ménages. Il s’agit d’une méthode progressive qui exige le prélèvement d’un nombre constant de ménages dans chaque grappe. Dans le présent article, les auteurs décrivent une version modifiée de la méthode de Mitofsky et Waksberg qui n’est ni autopondérée, ni progressive. Après avoir analysé le biais et la variance des estimations obtenues à l’aide de la méthode modifiée, ils indiquent dans quelles circonstances il peut être avantageux d’utiliser la version modifiée plutôt que la version originale de la méthode de Mitofsky et Waksberg.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114523
    Description :

    Grâce aux progrès récents de l’informatique, les organismes nationaux de statistique sont en mesure de produire efficacement des données de première qualité. Le Bureau central de la statistique des Pays-Bas (BCS) recourt de plus en plus au micro-ordinateur pour les diverses étapes de la production de données statistiques. Dans cet article, nous examinons le rôle que jouent les logiciels et les machines dans la collecte et le contrôle des données ainsi que dans la totalisation et l’analyse. Afin de sensibiliser le lecteur aux conséquences néfastes d’une gestion anarchique d’un système décentralisé de traitement de données, nous faisons ressortir toute l’importance de l’intégration. Celle-ci rend la production de données statistiques plus facile à gérer et plus efficace. Cet article est aussi une occasion de présenter le système Blaise, élaboré par le BCS, comme un outil informatique favorisant l’intégration du traitement des données d’enquête. À partir d’une description du questionnaire d’enquête, ce système peut générer automatiquement divers programmes destinés à la collecte des données (IPAO ou ITAO) ou à la saisie et au contrôle des données (IDAO). Il peut aussi être en liaison avec d’autres progiciels. À cet égard, nous décrivons le lien qui existe entre Blaise et les progiciels « maison » Bascula (pour la pondération) et Abacus (pour la totalisation). Ainsi, le système Blaise contrôle et coordonne, et par conséquent intègre, la majeure partie des opérations d’enquête.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114521
    Description :

    L’auteur définit des fonctions de vraisemblance marginales et des fonctions de vraisemblance conditionnelles approximatives pour les paramètres de corrélation d’un modèle de régression linéaire normal à erreurs corrélées. L’auteur se sert du principe de vraisemblance pour déterminer des fonctions de vraisemblance marginales et des fonctions de vraisemblance conditionnelles approximatives pour les paramètres de corrélation dans un plan d’échantillonnage répété (échantillonnage aléatoire simple et plans plus complexes).

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114520
    Description :

    L’Enquête sur l’emploi, la rémunération et les heures de travail que mène actuellement la Division du travail de Statistique Canada est une enquête mensuelle d’envergure permettant de recueillir des données à partir d’un grand échantillon d’établissements d’entreprises. Dans le présent article, l’auteur décrit les techniques d’enquête utilisées. Il donne une brève description des méthodes de stratification, de détermination de la taille de l’échantillon et de répartition, tandis qu’il décrit plus en détail la méthode de renouvellement en raison de sa complexité. Il souligne aussi certaines des simplifications qu’on peut apporter au plan de sondage.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114518
    Description :

    Cet article présente et discute de façon critique les récents développements dans l’évaluation de la fiabilité des estimations provisoires de comptabilité nationale. On introduit d’abord un schéma théorique du processus de révision des estimations d’un agrégat, et on considère les implications qu’il a sur le dessin des analyses des erreurs dans les données provisoires. Une attention particulière est ensuite portée au choix des mesures élémentaires des erreurs et d’indices synthétiques de précision convenables, et à l’impact des révisions sur les agrégats à prix constants et les déflateurs implicites. Enfin, les résultats de quelques analyses empiriques sur les discordances entre des estimations provisoires et révisées, menées comparativement sur des données de comptabilité nationale du Canada, des États-Unis et de l’Italie, sont synthétiquement présentés.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114526
    Description :

    L’établissement d’estimations assujetties à des contraintes de temps pose un problème constant, qui est celui des limitations importantes qui se rattachent à la collecte des données par la poste. Pour surmonter cette difficulté, le Bureau of Labor Statistics des États-Unis, a effectué pendant 7 ans d’importants travaux de recherche sur l’utilisation de l’interview téléphonique assistée par ordinateur (ITAO) et de l’auto-interview assistée par ordinateur (AIAO), dans le cadre de cette dernière méthode les répondants introduisant eux-mêmes leurs données au moyen d’un téléphone à clavier ou par reconaissance de la parole. Le présent article donne un aperçu de certains des principaux résultats de ces travaux ayant trait au rendement et au coût de ces méthodes. L’exposé s’achève par des observations sur un programme d’application à grande échelle de ces techniques à un échantillon mensuel de 350,000 entreprises.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114519
    Description :

    Dans cet article, nous élaborons un modèle permettant d’estimer un système d’équations linéaires à l’aide de données d’enquête. La théorie classique des sondages, axée sur des plans, nous est peu utile ici, bien que quelques-unes des techniques élaborées en vertu de cette théorie puissent être incorporées à des méthodes d’estimation robuste fondées sur un modèle. Les estimateurs de variance qui ont la forme de l’estimateur de « linéarisation » à équation unique sont quasi-non biaisés suivant de nombreuses structures d’erreur complexes. En outre, l’absence possible de variables explicatives peut être compensée par l’introduction de poids d’échantillonnage dans l’estimation par régression. Dans certains cas toutefois, l’absence de variables explicatives peut rendre incertaine l’estimation d’un système d’équations.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114522
    Description :

    On présente les résultats de la recherche et des essais des méthodes d’enquêtes par téléphone et assistées par ordinateur pour les enquêtes-ménages, que suit une discussion de la façon dont ces conclusions vont influencer le remaniement des enquêtes-ménages à Statistique Canada pendant les années 90. On s’attache plus particulièrement dans la communication à l’Enquête sur la population active du Canada.

    Date de diffusion : 1991-06-14

  • Articles et rapports : 12-001-X199100114525
    Description :

    Le Bureau of Labor Statistics a mis en œuvre, dans le cadre d’une enquête mensuelle auprès des entreprises, une méthode de collecte électronique des données utilisant la reconnaissance des données introduites au moyen d’un téléphone à clavier. Le système d’introduction des données au moyen d’un téléphone à clavier (IDTC) utilise des expressions numérisées pour demander aux participants à l’enquête de répondre aux questions en appuyant sur les boutons d’un poste téléphonique à clavier numérique. Le système IDTC permet de réduire de façon substantielle les coûts d’enquête par suite de l’élimination de nombreuses activités à prédominance de main-d’œuvre. On en sait toutefois très peu au sujet des erreurs de mesure découlant de l’utilisation de ce mode de collecte. Dans la présente étude, nous évaluons les erreurs inhérentes à l’emploi de la méthode IDTC à partir de trois sources de données : il est ainsi possible d’analyser les erreurs reliées à des aspects précis de l’interface homme-machine. De plus, nous faisons état de certaines caractéristiques de conception du système qui ont des répercussions sur les erreurs dues à ce mode de collecte. Nous terminons en traitant de l’incidence de nos constatations sur d’autres enquêtes.

    Date de diffusion : 1991-06-14

Références (0)

Références (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Date de modification :