Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (19)

Tout (19) (19 of 19 results)

  • Articles et rapports : 12-001-X198900214562
    Description :

    L’auteur présente une méthode qui permet de construire des intervalles de confiance acceptables pour des estimations postcensitaires de la population en utilisant une version modifiée de la méthode de corrélation des rapports, appelée méthode des rangs. Il montre que le test de Wilcoxon peut servir à déterminer si un modèle de corrélation des rapports donné est stable à long terme. Si la stabilité du modèle est vérifiée, on en conclut que les intervalles de confiance liés aux données qui ont servi à la construction du modèle sont acceptables pour des estimations postcensitaires. Dans le cas contraire, on en conclut que les intervalles de confiance ne sont pas acceptables et qu’en plus, ils sont susceptibles d’exagérer la précision des estimations postcensitaires. Étant donné un modèle instable, l’auteur montre que l’on peut néanmoins déterminer des intervalles de confiance acceptables pour les estimations postcensitaires en utilisant la méthode des rangs. Il présente finalement un exemple empirique où il utilise les estimations de la population des comtés de l’État de Washington.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214566
    Description :

    L’auteur élabore un modèle de randomisation des réponses pour des populations dichotomiques. Ce modèle prévoit l’utilisation de la randomisation continue ainsi que des essais multiples pour chaque répondant. L’auteur se penche sur le cas particulier de la randomisation avec distributions normales et exécute une simulation par ordinateur pour découvrir les effets que peut avoir cette méthode d’échantillonnage sur la quantité d’information dans l’échantillon. Il décrit aussi un appareil électronique portatif qui mettrait en application son modèle. Enfin, il présente les résultats de l’enquête qu’il a réalisée à l’aide de cet appareil. Les résultats illustrent la supériorité de la méthode des réponses randomisées par rapport à l’interview directe, du moins en ce qui a trait à certaines questions délicates.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214565
    Description :

    Les auteurs se servent de méthodes empiriques de Bayes pour estimer des proportions pour de « petites Région ». Ces méthodes se sont avérées profitables antérieurement dans diverses situations, comme en fait foi l’article de Morris (1983). Suivant l’idée originale de Dempster et Tomberlin (1980), il s’agit essentiellement d’intégrer des effets aléatoires et des effets aléatoires emboîtés dans des modèles qui reflètent la structure complexe d’un plan de sondage à plusieurs degrés. Cela permet d’obtenir des estimations de proportions ainsi que les estimations de variabilité correspondantes. Les auteurs appliquent ces méthodes à des données simulées provenant d’une étude de Monte Carlo qui vise à comparer plusieurs méthodes d’estimation pour petites régions.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214569
    Description :

    Depuis une dizaine d’années environ, beaucoup de chemin a été parcouru dans l’élaboration de méthodes d’analyse statistique qui tiennent compte de la complexité du plan de sondage. Les progrès les plus notables ont été observés dans l’analyse de données quantitatives recoupées. Mentionnons à ce propos l’estimation par les moindres carrés pondérés de modèles linéaires généralisés et les tests de validité de l’ajustement et de sous-hypothèses de Wald correspondants, la correction de tests chi carré ordinaires ou de tests du rapport des vraisemblances selon des modèles log-linéaires ou des modèles de régression logistique avec variable de réponse binaire, et les tests chi carré avec estimateur jackknife. Cet article vise à décrire l’application de versions élargies de ces méthodes à des données d’enquêtes complexes. Ainsi, la méthode de Scott, Rao et Thomas (1989) pour régression pondérée avec matrices de covariances singulières est appliquée à des données de l’Enquête Santé Canada (1978-1979). Des méthodes pour modèles de régression logistique sont étendues à des modèles de Box-Cox comprenant des transformations de puissance de probabilités relatives par case et sont appliquées à des données de l’Enquête sur la population active du Canada. Par ailleurs, nous appliquons à des données de la même enquête des méthodes qui permettent de tester l’égalité des paramètres de deux modèles de régression logistique qui correspondent à deux périodes distinctes. Enfin, nous analysons une catégorie de modèles de réponse polytomique et appliquons des tests chi carré corrigés à des données de l’Enquête Santé Canada (1978-1979). Nous décrivons aussi brièvement le logiciel utilisé dans les circonstances (programmes SAS exécutés sur un gros ordinateur).

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214563
    Description :

    Ce document étudie l’exactitude des estimations d’émigrants du Canada et de migrants interprovinciaux déduites des fichiers d’allocations familiales et d’impôt de Revenu Canada. L’application de ces fichiers à l’estimation de la population totale du Canada, des provinces et des territoires est évaluée par comparaison aux chiffres du recensement de 1986. On démontre que ces deux fichiers administratifs offrent des séries de données cohérentes et raisonnablement précises sur l’émigration et la migration interprovinciale pour la période de 1981 à 1986. Il en résulte que les estimations de population sont exactes. L’estimation des émigrants produite à partir du fichier des allocations familiales serait plus précise si l’on utilisait le fichier de l’immigration d’Emploi et Immigration Canada dans le calcul du rapport des taux d’émigration des adultes à ceux des enfants.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214567
    Description :

    L’auteur expose des méthodes qui permettent de calculer des estimateurs convergents des paramètres d’une fonction logistique générale et de la matrice des covariances asymptotique correspondante selon des plans de sondage complexes. Il corrige l’estimateur de Taylor de la matrice des covariances de manière à obtenir une matrice définie positive et à réduire du même coup le biais dû aux petits échantillons. L’auteur s’intéresse tout d’abord au cas de l’échantillonnage en grappes et passe ensuite à des plans de sondage plus complexes. Il réalise une étude de Monte Carlo afin d’analyser les caractéristiques de tests F construits à partir de diverses matrices de covariances pour de petits échantillons. Enfin, il compare la méthode du maximum de vraisemblance, qui ne tient aucunement compte du plan de sondage, avec la méthode du développement de Taylor et une version modifiée de celle-ci.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214564
    Description :

    On doit parfois mettre à jour l’échantillon à probabilité proportionnelle à la taille sans remise (PPTSR) des unités de premier degré (u.p.é.) d’un plan de sondage à plusieurs degrés afin de tenir compte des nouveaux effectifs observés dans ces unités. Toutefois, compte tenu des ressources considérables que nécessitent l’établissement des cartes dans les u.p.é., la segmentation, le listage, le recrutement des recenseurs, etc., on voudrait conserver dans la mesure du possible les mêmes u.p.é., pourvu que les probabilités d’échantillonnage puissent être considérées comme proportionnelles aux nouveaux effectifs. La méthode exposée dans cet article diffère de toutes celles qui ont été décrites antérieurement en ce qu’elle vaut pour n’importe quelle taille d’échantillon et qu’elle ne nécessite pas une énumération de tous les échantillons possibles. De plus, il n’est pas nécessaire de conserver la même méthode d’échantillonnage. Par conséquent, la méthode proposée ici rend possible non seulement la mise à jour de la taille de population mais aussi l’utilisation d’une nouvelle méthode d’échantillonnage.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214568
    Description :

    L’auteur analyse par une étude de Monte Carlo des méthodes de construction d’intervalles de confiance simultanés pour k > 2 proportions selon un modèle d’échantillonnage en grappes à deux degrés. Parmi les intervalles de confiance étudiés, citons i) les intervalles multinomiaux ordinaires, ii) les intervalles de Scheffé fondés sur des estimations-échantillon des variances de proportions de case, iii) les intervalles de Quesenberry-Hurst adaptés à des données agglomérées au moyen des corrections de premier et de second degré de X^2 de Rao et Scott, iv) les intervalles de Bonferroni simples, v) les intervalles de Bonferroni fondés sur des transformations des proportions estimées, et vi) les intervalles de Bonferroni calculés au moyen des niveaux critiques du test t de Student. L’étude de Monte Carlo révèle que, dans plusieurs situations, le niveau de confiance réel des intervalles multinomiaux est largement inférieur au niveau théorique. Les intervalles les plus efficaces au point de vue du niveau de confiance et de la symétrie des taux d’erreur (notion découlant d’un principe avancé par Jennings) sont les intervalles de Bonferroni fondés sur le critère t et soumis aux transformations logarithmique et logit. Parmi les intervalles de type Scheffé, les plus efficaces sont les intervalles de Quesenberry-Hurst modifiés par la correction de premier degré de Rao-Scott.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900114571
    Description :

    Statistique Canada s’emploie actuellement à remanier son registre central des entités économiques. Dans le nouveau registre, chaque entité économique est considérée comme un réseau d’entités juridiques et exploitantes dont les caractéristiques permettent de déterminer des entités statistiques. On obtient l’image de ce réseau, c’est-à-dire le profil par le processus dit d’« établissement des profils », qui suppose des contacts avec l’entité économique. En 1986, on s’est servi d’une liste de toutes les entités avec lesquelles il fallait entrer en contact afin d’obtenir les profils permettant de constituer le nouveau registre. Pour dresser cette liste, on a eu recours à des données administratives. À l’avenir, les données administratives serviront de source de renseignements sur les changements qui auront pu se produire dans les entités économiques. Elles pourront donc être utilisées comme source de mise-à-jour directe ou comme signal qu’on doit reviser la structure d’une entité. L’article porte d’abord sur les objectifs du processus d’établissement des profils. On présente ensuite les procédures de construction de la base de sondage servant au processus d’établissement des profils initiaux à l’aide de plusieurs sources de données administratives. Ces procédures comprennent l’application de concepts, la détection des cas de chevauchement entre les sources et l’évaluation de la qualité des données. On examine ensuite le rôle des données administratives comme source de renseignements sur les changements qui peuvent s’être produits dans les entités économiques et comme source de données sur lesquelles on peut s’appuyer pour demander de vérifier les profils. Suit une analyse des résultats d’une étude de simulation visant à évaluer ce rôle. L’exposé s’achève par une série de questions sur la méthodologie relative à l’utilisation de données administratives en vue de l’établissement de profils de mise à jour.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114578
    Description :

    Dans les enquêtes à objectifs multiples, on réalise souvent la répartition optimale de l’échantillon en définissant des contraintes linéaires pour la variance puis en utilisant la programmation convexe pour minimiser le coût de l’enquête. En nous servant du théorème de Kuhn-Tucker, nous définissons dans cet article une formule de répartition optimale en fonction des multiplicateurs de Lagrange. Cette formule sert ensuite à déterminer la dérivée partielle de la fonction de coût par rapport à la k-ième contrainte de variance; cette dérivée partielle est -2 \alpha_{k^*} g (x^*) / v_k, où g (x^*) est le coût de la répartition optimale et \alpha_{k^*} et v_k sont respectivement, le k-ième multiplicateur de Lagrange normalisé et la borne supérieure pour la précision de la k-ième variable. Enfin, nous présentons un algorithme de calcul simple et en analysons les propriétés de convergence. Nous illustrons l’application de ces résultats à un plan de sondage à l’aide des données d’une enquête sur les établissements commerciaux.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114574
    Description :

    Soit A x B l’espace produit de deux ensembles A et B, qui est formé de concordances (paires dont les éléments représentent la même entité) et de non-concordances (paires dont les éléments représentent des entités différentes). Les règles d’appariement divisent A x B en liens (concordances désignées), en cas indéterminés (paires pour lesquelles nous reportons une décision) et en non-liens (non-concordances désignées). Suivant un intervalle fixe pour les taux d’erreur, Fellegi et Sunter (1969) ont défini une règle d’appariement optimale, c’est-à-dire une règle qui réduit au minimum l’ensemble des cas indéterminés. L’optimalité dépend de la connaissance de certaines probabilités utilisées dans un rapport de vraisemblance déterminant. En appliquant le modèle d’appariement des enregistrements, on pose souvent une hypothèse d’indépendance qui permet d’estimer les probabilités. Si l’hypothèse n’est pas satisfaite, il se peut qu’une méthode d’appariement qui utilise des estimations calculées suivant cette hypothèse ne soit pas optimale. Dans cet article, nous analysons des méthodes qui permettent de modifier les règles d’appariement lorsque l’hypothèse d’indépendance n’est pas valide. À cette fin, nous faisons une analyse empirique de listes d’entreprises pour lesquelles l’authenticité des concordances a été vérifiée. Le nombre de cas indéterminés que produisent les méthodes de calcul habituelles et les méthodes révisées peut varier selon les échantillons. Cette relation est analysée au moyen de méthodes « bootstrap » (Efron 1987).

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114579
    Description :

    Les auteurs examinent brièvement l’estimation de la moyenne d’une caractéristique pour une population à différentes périodes à partir d’une série d’enquêtes successives. En définissant un modèle paramétrique stochastique pour ces moyennes, il est possible d’en estimer les paramètres et d’obtenir des estimateurs des moyennes proprement dites. Les auteurs exposent le cas où les moyennes de population suivent un processus autorégressif de moyennes mobiles (ARMA) et où les erreurs de sondage peuvent aussi être exprimées par un tel processus. Enfin, les auteurs ont recours à un exemple où ils utilisent des données de l’Enquête sur les voyages des Canadiens.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114573
    Description :

    Aux fins de son programme de la statistique économique, le Census Bureau fait grande utilisation des dossiers administratifs. Le nombre de dossiers traités chaque année est considérable, mais il l’est encore plus durant les années de recensement. Pour assurer la qualité de toutes les données qu’il reçoit, le Census Bureau a mis au point des programmes de contrôle sur gros ordinateur. Toutefois, étant donné le très grand nombre de tableaux de vérification requis, et compte tenu du fait que les ressources nécessaires à la programmation sont limitées et coûteuses, il serait difficile d’adopter un système exhaustif de contrôle exploité entièrement sur gros ordinateur. En outre, vu le caractère confidentiel des données et les conséquences possibles des erreurs, le Census Bureau a conclu qu’il fallait mettre au point un système de contrôle plus « sophistiqué », qui s’appuie sur la technologie des micro-ordinateurs. La division des enquêtes économiques est en train de mettre au point un tel système qui sera utilisé pour traiter les fichiers de données administratives de 1987. Le système intègre la technologie des gros ordinateurs à celle des micro-ordinateurs. Les fichiers de données administratives qui arrivent chaque semaine au Bureau sont d’abord traitées sur gros ordinateur. Les données ainsi traitées sont transférées sur micro-ordinateur et sont formatées pour être exploitées par un tableur. La vérification systématique de la qualité des données (examen de données, détection des erreurs, production de rapports) est faite sur micro-ordinateur, par le tableur. L’utilisation combinée d’un gros ordinateur et de micro-ordinateurs permet d’alléger la charge des programmeurs, de faciliter le travail des analystes (plus de souplesse) et de réduire les coûts du traitement sur gros ordinateur. Enfin, la composante « contrôle-vérification » du système assure une vérification rigoureuse et exhaustive des données.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114580
    Description :

    Les auteurs cherchent à estimer le cheptel porcin et le cheptel bovin d’un État à l’aide des données de l’enquête énumérative de juin, qui est réalisée par le National Agricultural Statistics Service du Département de l’agriculture des États-Unis. Six estimateurs peuvent être construits à l’aide de ces données. Trois d’entre eux reposent sur des données d’échantillons aréolaires et les trois autres réunissent des données tirées d’enquêtes avec échantillonnage sur liste et d’enquêtes à base aréolaire. Un plan d’échantillonnage avec renouvellement est utilisé pour la partie de l’enquête énumérative de juin qui repose sur une base aréolaire. À l’aide de données pour la période 1982-1986, les auteurs estiment les covariances des estimateurs pour diverses années. Ils proposent un estimateur composite pour établir le nombre de têtes de bétail. Ils déterminent cet estimateur en faisant une régression par moindres carrés généralisés du vecteur formé de divers estimateurs annuels par rapport à un ensemble approprié de variables auxiliaires. L’estimateur composite est censé produire des estimations qui sont du même ordre que les estimations officielles du Département de l’agriculture des É.-U.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114575
    Description :

    L’expérience de quatre pays scandinaves fait ressortir les avantages et les inconvénients des recensements de la population réalisés à partir de registres et montre comment on pourrait remédier aux inconvénients. Dans d’autres pays, les tenants de cette façon de procéder se heurtent à des obstacles : soit on n’y possède pas les systèmes de données nécessaires ou de la qualité voulue, soit le public y voit une menace à la vie privée et s’interroge sur le pouvoir de l’État. Ces questions se situent bien au-delà du domaine de la statistique : elles sont d’ordre politique et administratif. Dans cette communication, la situation dans deux pays, le Royaume-Uni et l’Australie, est examinée. Au Royaume-Uni lorsque, par le passé, il a été question d’établir un registre de population en période de paix, ce genre de tentative a échoué, et l’opinion publique actuelle y est toujours hostile. Le gouvernement a néamoins entrepris une réforme controversée des taxes locales, qui suppose la création de nouveaux registres. En Australie, le gouvernement déposa un projet de loi visant à introduire une carte d’identité nationale fondée sur un registre central et invoqua des arguments politiques clairs à l’appui de ce projet de loi; plus tard cette loi fût rétractée. La conclusion est que les questions soulevées par la réforme des systèmes de données méritent un examen approfondi, et quelques raisons pour lesquelles les statisticiens devraient prendre une part prépondérante au débat sont avancées.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114581
    Description :

    Dans cet article, l’auteur utilise un modèle des effets aléatoires pour construire un estimateur convergent selon le plan pour un petit domaine. Il évalue ensuite l’erreur quadratique moyenne de cet estimateur sans supposer que la composante d’effet aléatoire du modèle est juste. À l’aide des données d’une enquête par sondage complexe, l’auteur montre comment cette méthode d’estimation de l’erreur quadratique moyenne, bien que probablement trop incertaine pour être appliquée directement, peut servir à déterminer si l’estimateur pour petits domaines proposé ici est supérieur à l’estimateur classique fondé sur un plan.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114577
    Description :

    Dans le présent article, les auteurs évaluent l’efficacité relative des méthodes de collecte de données que sont l’enquête-mémoire et l’enquête-journal dans le contexte du marché des communications téléphoniques interurbaines. Une analyse des réponses de 1 530 répondants montre que deux variables démographiques, le sexe et le revenu, expliquent la différence qui existe entre la déclaration des dépenses lors d’une enquête et l’inscription de ces renseignements dans un carnet.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114576
    Description :

    Une des principales tâches des agents sanitaires en poste dans les pays en voie de développement est de vérifier si une population répond à certaines normes, par exemple la proportion d’habitants vaccinés contre une certaine maladie. Comme les populations sont généralement nombreuses et que les ressources et le temps nécessaires à des études sont limités, on doit habituellement procéder par échantillonnage et établir des estimations pour la population toute entière. Selon la proportion de personnes non vaccinées dans l’échantillon, on déterminera si la couverture vaccinale est acceptable ou s’il y a lieu d’accentuer les efforts pour accroître cette couverture. Plusieurs méthodes d’échantillonnage sont actuellement en usage. Parmi celles-ci figure une version modifiée de la méthode d’échantillonnage en grappes, recommandée par le Programme élargi de vaccination (PEV) de l’Organisation mondiale de la Santé. Plus récemment, on a suggéré que l’assurance de la qualité par échantillonnage (AQE), une méthode couramment utilisée dans l’inspection des produits manufacturés, pourrait être utile au suivi des programmes de santé. Dans cet article, nous décrivons la méthode AQE et donnons un exemple d’application.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114572
    Description :

    La SIPP (Survey of Income and Program Participation/Enquête sur le revenu et la participation aux programmes) est une importante nouvelle enquête par panel du Census Bureau destinée à fournir des données sur la situation économique des particuliers et des familles aux États-Unis. La donnée de base de la SIPP est le revenu mensuel qui est déclaré pour chacun des quatre mois de la période de référence qui précède le mois de l’interview. L’étude de vérification des enregistrements SIPP utilise les données des dossiers administratifs pour évaluer la qualité des estimations de la SIPP pour un grand nombre de sources de revenus et de programmes de transfert. Le projet utilise des techniques informatiques d’appariement des enregistrements pour identifier les personnes échantillonnées dans quatre États qui, selon les dossiers, ont reçu des paiements de n’importe lequel de neuf programmes administrés par l’État ou par le gouvernement fédéral. On compare ensuite les dates et les montants des paiements déclarés lors de l’Enquête aux données correspondantes des dossiers officiels. Le document décrit le projet en détail et présente quelques-unes des premières conclusions.

    Date de diffusion : 1989-06-15

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (19)

Analyses (19) (19 of 19 results)

  • Articles et rapports : 12-001-X198900214562
    Description :

    L’auteur présente une méthode qui permet de construire des intervalles de confiance acceptables pour des estimations postcensitaires de la population en utilisant une version modifiée de la méthode de corrélation des rapports, appelée méthode des rangs. Il montre que le test de Wilcoxon peut servir à déterminer si un modèle de corrélation des rapports donné est stable à long terme. Si la stabilité du modèle est vérifiée, on en conclut que les intervalles de confiance liés aux données qui ont servi à la construction du modèle sont acceptables pour des estimations postcensitaires. Dans le cas contraire, on en conclut que les intervalles de confiance ne sont pas acceptables et qu’en plus, ils sont susceptibles d’exagérer la précision des estimations postcensitaires. Étant donné un modèle instable, l’auteur montre que l’on peut néanmoins déterminer des intervalles de confiance acceptables pour les estimations postcensitaires en utilisant la méthode des rangs. Il présente finalement un exemple empirique où il utilise les estimations de la population des comtés de l’État de Washington.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214566
    Description :

    L’auteur élabore un modèle de randomisation des réponses pour des populations dichotomiques. Ce modèle prévoit l’utilisation de la randomisation continue ainsi que des essais multiples pour chaque répondant. L’auteur se penche sur le cas particulier de la randomisation avec distributions normales et exécute une simulation par ordinateur pour découvrir les effets que peut avoir cette méthode d’échantillonnage sur la quantité d’information dans l’échantillon. Il décrit aussi un appareil électronique portatif qui mettrait en application son modèle. Enfin, il présente les résultats de l’enquête qu’il a réalisée à l’aide de cet appareil. Les résultats illustrent la supériorité de la méthode des réponses randomisées par rapport à l’interview directe, du moins en ce qui a trait à certaines questions délicates.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214565
    Description :

    Les auteurs se servent de méthodes empiriques de Bayes pour estimer des proportions pour de « petites Région ». Ces méthodes se sont avérées profitables antérieurement dans diverses situations, comme en fait foi l’article de Morris (1983). Suivant l’idée originale de Dempster et Tomberlin (1980), il s’agit essentiellement d’intégrer des effets aléatoires et des effets aléatoires emboîtés dans des modèles qui reflètent la structure complexe d’un plan de sondage à plusieurs degrés. Cela permet d’obtenir des estimations de proportions ainsi que les estimations de variabilité correspondantes. Les auteurs appliquent ces méthodes à des données simulées provenant d’une étude de Monte Carlo qui vise à comparer plusieurs méthodes d’estimation pour petites régions.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214569
    Description :

    Depuis une dizaine d’années environ, beaucoup de chemin a été parcouru dans l’élaboration de méthodes d’analyse statistique qui tiennent compte de la complexité du plan de sondage. Les progrès les plus notables ont été observés dans l’analyse de données quantitatives recoupées. Mentionnons à ce propos l’estimation par les moindres carrés pondérés de modèles linéaires généralisés et les tests de validité de l’ajustement et de sous-hypothèses de Wald correspondants, la correction de tests chi carré ordinaires ou de tests du rapport des vraisemblances selon des modèles log-linéaires ou des modèles de régression logistique avec variable de réponse binaire, et les tests chi carré avec estimateur jackknife. Cet article vise à décrire l’application de versions élargies de ces méthodes à des données d’enquêtes complexes. Ainsi, la méthode de Scott, Rao et Thomas (1989) pour régression pondérée avec matrices de covariances singulières est appliquée à des données de l’Enquête Santé Canada (1978-1979). Des méthodes pour modèles de régression logistique sont étendues à des modèles de Box-Cox comprenant des transformations de puissance de probabilités relatives par case et sont appliquées à des données de l’Enquête sur la population active du Canada. Par ailleurs, nous appliquons à des données de la même enquête des méthodes qui permettent de tester l’égalité des paramètres de deux modèles de régression logistique qui correspondent à deux périodes distinctes. Enfin, nous analysons une catégorie de modèles de réponse polytomique et appliquons des tests chi carré corrigés à des données de l’Enquête Santé Canada (1978-1979). Nous décrivons aussi brièvement le logiciel utilisé dans les circonstances (programmes SAS exécutés sur un gros ordinateur).

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214563
    Description :

    Ce document étudie l’exactitude des estimations d’émigrants du Canada et de migrants interprovinciaux déduites des fichiers d’allocations familiales et d’impôt de Revenu Canada. L’application de ces fichiers à l’estimation de la population totale du Canada, des provinces et des territoires est évaluée par comparaison aux chiffres du recensement de 1986. On démontre que ces deux fichiers administratifs offrent des séries de données cohérentes et raisonnablement précises sur l’émigration et la migration interprovinciale pour la période de 1981 à 1986. Il en résulte que les estimations de population sont exactes. L’estimation des émigrants produite à partir du fichier des allocations familiales serait plus précise si l’on utilisait le fichier de l’immigration d’Emploi et Immigration Canada dans le calcul du rapport des taux d’émigration des adultes à ceux des enfants.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214567
    Description :

    L’auteur expose des méthodes qui permettent de calculer des estimateurs convergents des paramètres d’une fonction logistique générale et de la matrice des covariances asymptotique correspondante selon des plans de sondage complexes. Il corrige l’estimateur de Taylor de la matrice des covariances de manière à obtenir une matrice définie positive et à réduire du même coup le biais dû aux petits échantillons. L’auteur s’intéresse tout d’abord au cas de l’échantillonnage en grappes et passe ensuite à des plans de sondage plus complexes. Il réalise une étude de Monte Carlo afin d’analyser les caractéristiques de tests F construits à partir de diverses matrices de covariances pour de petits échantillons. Enfin, il compare la méthode du maximum de vraisemblance, qui ne tient aucunement compte du plan de sondage, avec la méthode du développement de Taylor et une version modifiée de celle-ci.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214564
    Description :

    On doit parfois mettre à jour l’échantillon à probabilité proportionnelle à la taille sans remise (PPTSR) des unités de premier degré (u.p.é.) d’un plan de sondage à plusieurs degrés afin de tenir compte des nouveaux effectifs observés dans ces unités. Toutefois, compte tenu des ressources considérables que nécessitent l’établissement des cartes dans les u.p.é., la segmentation, le listage, le recrutement des recenseurs, etc., on voudrait conserver dans la mesure du possible les mêmes u.p.é., pourvu que les probabilités d’échantillonnage puissent être considérées comme proportionnelles aux nouveaux effectifs. La méthode exposée dans cet article diffère de toutes celles qui ont été décrites antérieurement en ce qu’elle vaut pour n’importe quelle taille d’échantillon et qu’elle ne nécessite pas une énumération de tous les échantillons possibles. De plus, il n’est pas nécessaire de conserver la même méthode d’échantillonnage. Par conséquent, la méthode proposée ici rend possible non seulement la mise à jour de la taille de population mais aussi l’utilisation d’une nouvelle méthode d’échantillonnage.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900214568
    Description :

    L’auteur analyse par une étude de Monte Carlo des méthodes de construction d’intervalles de confiance simultanés pour k > 2 proportions selon un modèle d’échantillonnage en grappes à deux degrés. Parmi les intervalles de confiance étudiés, citons i) les intervalles multinomiaux ordinaires, ii) les intervalles de Scheffé fondés sur des estimations-échantillon des variances de proportions de case, iii) les intervalles de Quesenberry-Hurst adaptés à des données agglomérées au moyen des corrections de premier et de second degré de X^2 de Rao et Scott, iv) les intervalles de Bonferroni simples, v) les intervalles de Bonferroni fondés sur des transformations des proportions estimées, et vi) les intervalles de Bonferroni calculés au moyen des niveaux critiques du test t de Student. L’étude de Monte Carlo révèle que, dans plusieurs situations, le niveau de confiance réel des intervalles multinomiaux est largement inférieur au niveau théorique. Les intervalles les plus efficaces au point de vue du niveau de confiance et de la symétrie des taux d’erreur (notion découlant d’un principe avancé par Jennings) sont les intervalles de Bonferroni fondés sur le critère t et soumis aux transformations logarithmique et logit. Parmi les intervalles de type Scheffé, les plus efficaces sont les intervalles de Quesenberry-Hurst modifiés par la correction de premier degré de Rao-Scott.

    Date de diffusion : 1989-12-15

  • Articles et rapports : 12-001-X198900114571
    Description :

    Statistique Canada s’emploie actuellement à remanier son registre central des entités économiques. Dans le nouveau registre, chaque entité économique est considérée comme un réseau d’entités juridiques et exploitantes dont les caractéristiques permettent de déterminer des entités statistiques. On obtient l’image de ce réseau, c’est-à-dire le profil par le processus dit d’« établissement des profils », qui suppose des contacts avec l’entité économique. En 1986, on s’est servi d’une liste de toutes les entités avec lesquelles il fallait entrer en contact afin d’obtenir les profils permettant de constituer le nouveau registre. Pour dresser cette liste, on a eu recours à des données administratives. À l’avenir, les données administratives serviront de source de renseignements sur les changements qui auront pu se produire dans les entités économiques. Elles pourront donc être utilisées comme source de mise-à-jour directe ou comme signal qu’on doit reviser la structure d’une entité. L’article porte d’abord sur les objectifs du processus d’établissement des profils. On présente ensuite les procédures de construction de la base de sondage servant au processus d’établissement des profils initiaux à l’aide de plusieurs sources de données administratives. Ces procédures comprennent l’application de concepts, la détection des cas de chevauchement entre les sources et l’évaluation de la qualité des données. On examine ensuite le rôle des données administratives comme source de renseignements sur les changements qui peuvent s’être produits dans les entités économiques et comme source de données sur lesquelles on peut s’appuyer pour demander de vérifier les profils. Suit une analyse des résultats d’une étude de simulation visant à évaluer ce rôle. L’exposé s’achève par une série de questions sur la méthodologie relative à l’utilisation de données administratives en vue de l’établissement de profils de mise à jour.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114578
    Description :

    Dans les enquêtes à objectifs multiples, on réalise souvent la répartition optimale de l’échantillon en définissant des contraintes linéaires pour la variance puis en utilisant la programmation convexe pour minimiser le coût de l’enquête. En nous servant du théorème de Kuhn-Tucker, nous définissons dans cet article une formule de répartition optimale en fonction des multiplicateurs de Lagrange. Cette formule sert ensuite à déterminer la dérivée partielle de la fonction de coût par rapport à la k-ième contrainte de variance; cette dérivée partielle est -2 \alpha_{k^*} g (x^*) / v_k, où g (x^*) est le coût de la répartition optimale et \alpha_{k^*} et v_k sont respectivement, le k-ième multiplicateur de Lagrange normalisé et la borne supérieure pour la précision de la k-ième variable. Enfin, nous présentons un algorithme de calcul simple et en analysons les propriétés de convergence. Nous illustrons l’application de ces résultats à un plan de sondage à l’aide des données d’une enquête sur les établissements commerciaux.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114574
    Description :

    Soit A x B l’espace produit de deux ensembles A et B, qui est formé de concordances (paires dont les éléments représentent la même entité) et de non-concordances (paires dont les éléments représentent des entités différentes). Les règles d’appariement divisent A x B en liens (concordances désignées), en cas indéterminés (paires pour lesquelles nous reportons une décision) et en non-liens (non-concordances désignées). Suivant un intervalle fixe pour les taux d’erreur, Fellegi et Sunter (1969) ont défini une règle d’appariement optimale, c’est-à-dire une règle qui réduit au minimum l’ensemble des cas indéterminés. L’optimalité dépend de la connaissance de certaines probabilités utilisées dans un rapport de vraisemblance déterminant. En appliquant le modèle d’appariement des enregistrements, on pose souvent une hypothèse d’indépendance qui permet d’estimer les probabilités. Si l’hypothèse n’est pas satisfaite, il se peut qu’une méthode d’appariement qui utilise des estimations calculées suivant cette hypothèse ne soit pas optimale. Dans cet article, nous analysons des méthodes qui permettent de modifier les règles d’appariement lorsque l’hypothèse d’indépendance n’est pas valide. À cette fin, nous faisons une analyse empirique de listes d’entreprises pour lesquelles l’authenticité des concordances a été vérifiée. Le nombre de cas indéterminés que produisent les méthodes de calcul habituelles et les méthodes révisées peut varier selon les échantillons. Cette relation est analysée au moyen de méthodes « bootstrap » (Efron 1987).

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114579
    Description :

    Les auteurs examinent brièvement l’estimation de la moyenne d’une caractéristique pour une population à différentes périodes à partir d’une série d’enquêtes successives. En définissant un modèle paramétrique stochastique pour ces moyennes, il est possible d’en estimer les paramètres et d’obtenir des estimateurs des moyennes proprement dites. Les auteurs exposent le cas où les moyennes de population suivent un processus autorégressif de moyennes mobiles (ARMA) et où les erreurs de sondage peuvent aussi être exprimées par un tel processus. Enfin, les auteurs ont recours à un exemple où ils utilisent des données de l’Enquête sur les voyages des Canadiens.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114573
    Description :

    Aux fins de son programme de la statistique économique, le Census Bureau fait grande utilisation des dossiers administratifs. Le nombre de dossiers traités chaque année est considérable, mais il l’est encore plus durant les années de recensement. Pour assurer la qualité de toutes les données qu’il reçoit, le Census Bureau a mis au point des programmes de contrôle sur gros ordinateur. Toutefois, étant donné le très grand nombre de tableaux de vérification requis, et compte tenu du fait que les ressources nécessaires à la programmation sont limitées et coûteuses, il serait difficile d’adopter un système exhaustif de contrôle exploité entièrement sur gros ordinateur. En outre, vu le caractère confidentiel des données et les conséquences possibles des erreurs, le Census Bureau a conclu qu’il fallait mettre au point un système de contrôle plus « sophistiqué », qui s’appuie sur la technologie des micro-ordinateurs. La division des enquêtes économiques est en train de mettre au point un tel système qui sera utilisé pour traiter les fichiers de données administratives de 1987. Le système intègre la technologie des gros ordinateurs à celle des micro-ordinateurs. Les fichiers de données administratives qui arrivent chaque semaine au Bureau sont d’abord traitées sur gros ordinateur. Les données ainsi traitées sont transférées sur micro-ordinateur et sont formatées pour être exploitées par un tableur. La vérification systématique de la qualité des données (examen de données, détection des erreurs, production de rapports) est faite sur micro-ordinateur, par le tableur. L’utilisation combinée d’un gros ordinateur et de micro-ordinateurs permet d’alléger la charge des programmeurs, de faciliter le travail des analystes (plus de souplesse) et de réduire les coûts du traitement sur gros ordinateur. Enfin, la composante « contrôle-vérification » du système assure une vérification rigoureuse et exhaustive des données.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114580
    Description :

    Les auteurs cherchent à estimer le cheptel porcin et le cheptel bovin d’un État à l’aide des données de l’enquête énumérative de juin, qui est réalisée par le National Agricultural Statistics Service du Département de l’agriculture des États-Unis. Six estimateurs peuvent être construits à l’aide de ces données. Trois d’entre eux reposent sur des données d’échantillons aréolaires et les trois autres réunissent des données tirées d’enquêtes avec échantillonnage sur liste et d’enquêtes à base aréolaire. Un plan d’échantillonnage avec renouvellement est utilisé pour la partie de l’enquête énumérative de juin qui repose sur une base aréolaire. À l’aide de données pour la période 1982-1986, les auteurs estiment les covariances des estimateurs pour diverses années. Ils proposent un estimateur composite pour établir le nombre de têtes de bétail. Ils déterminent cet estimateur en faisant une régression par moindres carrés généralisés du vecteur formé de divers estimateurs annuels par rapport à un ensemble approprié de variables auxiliaires. L’estimateur composite est censé produire des estimations qui sont du même ordre que les estimations officielles du Département de l’agriculture des É.-U.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114575
    Description :

    L’expérience de quatre pays scandinaves fait ressortir les avantages et les inconvénients des recensements de la population réalisés à partir de registres et montre comment on pourrait remédier aux inconvénients. Dans d’autres pays, les tenants de cette façon de procéder se heurtent à des obstacles : soit on n’y possède pas les systèmes de données nécessaires ou de la qualité voulue, soit le public y voit une menace à la vie privée et s’interroge sur le pouvoir de l’État. Ces questions se situent bien au-delà du domaine de la statistique : elles sont d’ordre politique et administratif. Dans cette communication, la situation dans deux pays, le Royaume-Uni et l’Australie, est examinée. Au Royaume-Uni lorsque, par le passé, il a été question d’établir un registre de population en période de paix, ce genre de tentative a échoué, et l’opinion publique actuelle y est toujours hostile. Le gouvernement a néamoins entrepris une réforme controversée des taxes locales, qui suppose la création de nouveaux registres. En Australie, le gouvernement déposa un projet de loi visant à introduire une carte d’identité nationale fondée sur un registre central et invoqua des arguments politiques clairs à l’appui de ce projet de loi; plus tard cette loi fût rétractée. La conclusion est que les questions soulevées par la réforme des systèmes de données méritent un examen approfondi, et quelques raisons pour lesquelles les statisticiens devraient prendre une part prépondérante au débat sont avancées.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114581
    Description :

    Dans cet article, l’auteur utilise un modèle des effets aléatoires pour construire un estimateur convergent selon le plan pour un petit domaine. Il évalue ensuite l’erreur quadratique moyenne de cet estimateur sans supposer que la composante d’effet aléatoire du modèle est juste. À l’aide des données d’une enquête par sondage complexe, l’auteur montre comment cette méthode d’estimation de l’erreur quadratique moyenne, bien que probablement trop incertaine pour être appliquée directement, peut servir à déterminer si l’estimateur pour petits domaines proposé ici est supérieur à l’estimateur classique fondé sur un plan.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114577
    Description :

    Dans le présent article, les auteurs évaluent l’efficacité relative des méthodes de collecte de données que sont l’enquête-mémoire et l’enquête-journal dans le contexte du marché des communications téléphoniques interurbaines. Une analyse des réponses de 1 530 répondants montre que deux variables démographiques, le sexe et le revenu, expliquent la différence qui existe entre la déclaration des dépenses lors d’une enquête et l’inscription de ces renseignements dans un carnet.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114576
    Description :

    Une des principales tâches des agents sanitaires en poste dans les pays en voie de développement est de vérifier si une population répond à certaines normes, par exemple la proportion d’habitants vaccinés contre une certaine maladie. Comme les populations sont généralement nombreuses et que les ressources et le temps nécessaires à des études sont limités, on doit habituellement procéder par échantillonnage et établir des estimations pour la population toute entière. Selon la proportion de personnes non vaccinées dans l’échantillon, on déterminera si la couverture vaccinale est acceptable ou s’il y a lieu d’accentuer les efforts pour accroître cette couverture. Plusieurs méthodes d’échantillonnage sont actuellement en usage. Parmi celles-ci figure une version modifiée de la méthode d’échantillonnage en grappes, recommandée par le Programme élargi de vaccination (PEV) de l’Organisation mondiale de la Santé. Plus récemment, on a suggéré que l’assurance de la qualité par échantillonnage (AQE), une méthode couramment utilisée dans l’inspection des produits manufacturés, pourrait être utile au suivi des programmes de santé. Dans cet article, nous décrivons la méthode AQE et donnons un exemple d’application.

    Date de diffusion : 1989-06-15

  • Articles et rapports : 12-001-X198900114572
    Description :

    La SIPP (Survey of Income and Program Participation/Enquête sur le revenu et la participation aux programmes) est une importante nouvelle enquête par panel du Census Bureau destinée à fournir des données sur la situation économique des particuliers et des familles aux États-Unis. La donnée de base de la SIPP est le revenu mensuel qui est déclaré pour chacun des quatre mois de la période de référence qui précède le mois de l’interview. L’étude de vérification des enregistrements SIPP utilise les données des dossiers administratifs pour évaluer la qualité des estimations de la SIPP pour un grand nombre de sources de revenus et de programmes de transfert. Le projet utilise des techniques informatiques d’appariement des enregistrements pour identifier les personnes échantillonnées dans quatre États qui, selon les dossiers, ont reçu des paiements de n’importe lequel de neuf programmes administrés par l’État ou par le gouvernement fédéral. On compare ensuite les dates et les montants des paiements déclarés lors de l’Enquête aux données correspondantes des dossiers officiels. Le document décrit le projet en détail et présente quelques-unes des premières conclusions.

    Date de diffusion : 1989-06-15

Références (0)

Références (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Date de modification :