Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (23)

Tout (23) (23 of 23 results)

  • Articles et rapports : 12-001-X198800214585
    Description :

    Les méthodes servant à contrôler la qualité des opérations d’enquête à Statistique Canada consistent habituellement en un échantillonnage pour acceptation pour chaque caractéristique, accompagné d’une inspection de redressement, l’une et l’autre opération s’inscrivant dans le cadre plus général du contrôle d’acceptation. Bien que ces méthodes soient considérées comme de bonnes mesures correctives, elles sont peu efficaces pour empêcher une répétition des erreurs. Vu l’importance primordiale de cet aspect de la gestion de la qualité, le Système de gestion de la qualité (SGQ) a été conçu en fonction de plusieurs objectifs dont la prévention des erreurs est un des principaux. C’est pourquoi il sert à produire des rapports de contrôle et des graphiques à l’intention des opérateurs, superviseurs et gestionnaires chargés des diverses opérations. Il sert également à produire des données sur les changements survenus au chapitre de l’inspection et permet ainsi aux méthodologistes de réviser les plans et les méthodes d’inspection en conformité avec les grandes lignes du contrôle d’acceptation. Cet article expose les principales caractéristiques du SGQ au point de vue de l’estimation et de la totalisation des données et montre de quelle façon ce système dessert les principaux programmes de contrôle de la qualité à Statistique Canada. Des fonctions importantes sont également analysées du point de vue méthodologique et systémique.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214595
    Description :

    Depuis 1961, Statistique Canada produit des estimations du sous-dénombrement pour chaque recensement. À cette fin, le Bureau utilise la méthode dite de contre-vérification des dossiers (CVD). La fiabilité des estimations est importante parce que ces dernières sont utilisées pour évaluer la qualité des données du recensement et pour établir les principales causes de l’erreur de couverture. Cette fiabilité a également un rôle très important dans l’élaboration de méthodes conçues pour améliorer la couverture des recensements futurs. Dans cette étude, nous définissons les sources potentielles d’erreur de la CVD de manière à bien les comprendre et, dans la mesure du possible, à en réduire les effets sur l’estimation de l’erreur de couverture.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214582
    Description :

    Bibliographie complète des ouvrages, comptes rendus de recherche et articles publiés sur la théorie, l’application et le développement des techniques associées à la méthode des réponses randomisées; avec une classification par sujet.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214594
    Description :

    Un accroissement significatif dans le sous-dénombrement du recensement de 1986 est révélé tant par la contre-vérification des dossiers que par la méthode démographique présentée dans ce document. Une attention particulière est portée à l’évaluation des différentes composantes de l’accroissement de la population, spécialement à la migration interprovinciale. Le texte conclut par un survol de deux méthodes différentes pour générer les estimations postcensitaires : celle couramment utilisée, basée sur le recensement, et un modèle flexible utilisant toutes les données pertinentes en plus du recensement.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214587
    Description :

    Le système QUID, conçu et développé par l’INSEE (Paris) est un système de chiffrement automatique de données d’enquête recueillies sous forme d’intitulés littéraux exprimés dans la terminologie du répondant. Le système repose sur l’utilisation d’une très vaste base d’apprentissage composée de phrases réelles codifiées par des experts. L’article présente d’abord le traitement automatique de normalisation préalable des phrases, puis l’algorithme organisant la base de phrases en une arborescence optimisée. Un exemple de classement est donné en illustration. Le traitement des variables annexes de codification, venant compléter l’information contenue dans les phrases, présente actuellement des difficultés qui sont examinées en détail. Le projet QUID 2, version rénovée du système, est évoqué succinctement.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214584
    Description :

    Lorsqu’on examine les adresses postales pouvant figurer dans un fichier administratif, nous sommes frappés par la complexité de la syntaxe, l’absence de normes, les ambiguïtés diverses et les nombreuses erreurs. L’utilisation des adresses postales par un système informatique présente donc de réelles difficultés. Le PAAS (système d’analyse des adresses postales) en voie d’élaboration à Statistique Canada a pour objet de remplacer le sous-programme désuet utilisé partout dans le Bureau pour décoder les adresses postales. Le PAAS permettra aux applications informatiques d’obtenir les composantes d’adresses, la version normalisée de ces composantes et la clé de recherche d’adresse (ASK) correspondante.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214593
    Description :

    En Australie, les estimations démographiques sont établies à partir des chiffres du recensement; lors des trois derniers recensements (1976, 1981 et 1986), ces chiffres ont été redressés pour tenir compte du sous-dénombrement. L’opération de redressement s’inspire des résultats d’une enquête postcensitaire et d’une analyse démographique. Cet article expose les méthodes utilisées de même que les résultats du redressement des données de 1986. Les auteurs voient aussi dans l’usage formel des rapports de masculinité proposé par Wolter (1986) une amélioration par rapport au rôle qu’avaient auparavant ces ratios dans le redressement des chiffres du recensement.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214588
    Description :

    Supposons que des taux de sous-dénombrement ont été estimés pour un recensement et que des estimations du niveau de sous-dénombrement ont été établies pour les îlots. Il peut être alors souhaitable de dresser une nouvelle liste de ménages qui comprendrait les ménages qui auraient été oubliés. Nous proposons dans cet article de dresser une telle liste en pondérant les ménages qui ont été dénombrés. Les poids des ménages sont déterminés par des équations linéaires qui représentent le nombre total voulu de personnes dans chaque classe d’estimation et le nombre total voulu de ménages. On calcule alors des poids qui satisfont les contraintes et qui rapprochent le plus possible le tableau des données ajustées des données brutes. On peut voir dans cette méthode un exemple d’application de la méthode itérative du quotient à des cas où les contraintes ne concernent pas les fréquences marginales d’un tableau de contingence. Des covariables continues ou discrètes peuvent être utilisées dans les opérations de redressement et il est possible de vérifier directement si les contraints peuvent être satisfaites. Enfin, nous proposons des méthodes pour l’utilisation de données pondérées à des fins diverses liées au recensement et pour le redressement de données corrélées sur les caractéristiques des ménages oubliés, par exemple le revenu, qui ne sont pas considérées directement dans l’estimation du niveau de sous-dénombrement.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214586
    Description :

    Dans cet article, il est question de l’application généralisée d’une méthode de codage automatique. Jusqu’à récemment, le codage était une opération manuelle confiée à des personnes formées spécialement à cet effet; toutefois, la création de systèmes informatiques particuliers a contribué à éliminer sinon à réduire sensiblement le codage manuel. En règle générale, l’utilisation de ces nouveaux systèmes est limitée aux applications pour lesquelles ils ont été conçus. Le système qui est décrit ici peut servir à n’importe quelle forme de codage de textes anglais ou français selon n’importe quel mode de classification.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214591
    Description :

    Pour estimer le taux de sous-dénombrement dans le recensement, on exécute une enquête postcensitaire (EP) et on tente d’apparier les enregistrements de cette enquête avec des enregistrements du recensement; le taux d’appariement donne une estimation du taux de couverture du recensement. L’estimation du sous-dénombrement repose sur une stratification a posteriori où les caractéristiques géographiques et démographiques et les caractéristiques du logement X servent de critères de stratification. Or, la non-réponse fait qu’il manque des données sur X pour certaines personnes; en outre, on ne peut déterminer un code d’appariement Y pour chaque personne. Il faut donc une méthode pour imputer les valeurs manquantes de X et de Y. Cet article vise à examiner les méthodes d’imputation qui ont été utilisées dans le Test des opérations de redressement de 1986 (Schenker 1988) et propose deux méthodes de rechange axées sur des modèles : (1) une méthode d’estimation de tableau de contingence fondée sur le maximum de vraisemblance, qui ne tient pas compte du mécanisme de non-réponse et (2) une nouvelle méthode d’estimation de tableau de contingence de type bayesien, qui tient compte du mécanisme de non-réponse. La première méthode est plus simple au point de vue du calcul mais la seconde est plus intéressante au point de vue théorique et scientifique.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214583
    Description :

    Cette note d’information met en lumière les points forts et les points faibles du langage SQL.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214590
    Description :

    Le présent article expose les résultats d’une étude des causes du sous-dénombrement à l’occasion du recensement d’une région urbaine à dominante hispanique particulièrement difficile à dénombrer. L’étude propose un cadre d’organisation des causes du sous-dénombrement et tente d’expliquer ces celles-ci à partir de diverses hypothèses. L’approche adoptée est unique dans le sens qu’elle vise à quantifier les causes de sous-dénombrement et à isoler les problèmes exceptionnellement importants en incluant une analyse statistique des autres problèmes.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214592
    Description :

    Des arguments convaincants militent pour ou contre le redressement des chiffres des recensements décennaux aux États-Unis mais bon nombre de ces arguments reposent plus sur des considérations politiques que techniques. La décision de redresser les chiffres du recensement dépend essentiellement de la méthode de redressement. De plus, si le redressement devait s’effectuer, par exemple, à l’aide d’une méthode synthétique ou d’une méthode de régression, à quel niveau devrait-il se faire et comment devrait-on procéder pour les niveaux inférieurs ou supérieurs ? Pour apporter une réponse judicieuse à ces questions, il nous faut un modèle d’erreurs de sous-dénombrement « cohérent » en ce sens qu’il ne change pas d’un niveau d’agrégation à l’autre (pays, état, comté, etc.). Le présent article propose un modèle de ce genre; les sous-régions ayant des caractéristiques communes sont groupées par strate de telle sorte que les moyennes des facteurs de redressement des sous-régions de la strate soient les mêmes et que les variances soient inversement proportionnelles aux chiffres du recensement. En prenant en considération l’échantillonnage des régions (par l’estimation de système dual par exemple), nous pouvons construire des estimateurs empiriques de Bayes qui intègrent des éléments d’information sur la moyenne de la strate et la valeur de l’échantillon. Ces estimateurs sont calculés pour chaque état (51 états, y compris Washington, D.C.) et stratifiés selon l’origine raciale ou ethnique (3 strates) à l’aide de données de l’Enquête postcensitaire de 1980 (PEP 3-8, pour la population hors établissement institutionnel).

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214589
    Description :

    Le U.S. Bureau of the Census utilise des estimateurs de système dual (ESD) pour évaluer l’erreur de couverture dans le recensement. Ce genre d’estimateur repose sur des données du recensement initial et d’une enquête postcensitaire. Lorsqu’on mesure la précision de l’ESD, il importe de savoir que cet estimateur est soumis à plusieurs composantes de l’erreur d’échantillonnage et de l’erreur non due à l’échantillonnage. Dans cet article, nous décrivons des modèles de l’erreur totale et des composantes d’erreur dans les estimateurs de système dual. Ces modèles établissent un rapport entre des indices observés de la qualité des données, comme le taux d’erreur d’appariement, et les deux premiers moments des composantes d’erreur. Nous analysons également la propagation de l’erreur dans l’ESD et évaluons le biais et la variance de cet estimateur. La méthode proposée est appliquée au recensement du Central Los Angeles County de 1986 dans le cadre du Test des opérations de redressement du U.S. Bureau of the Census. Cette méthode sera aussi utile pour évaluer l’erreur dans l’ESD à l’occasion du recensement de 1990 et pour d’autres applications.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800114604
    Description :

    Malgré la facilité relative de l’étude des erreurs dans les statistiques du commerce extérieur, il y a eu peu de tentatives pour quantifier leur taille, leur origine, leur distribution et leur évolution dans le temps. Les décideurs et les négociateurs commerciaux n’ont que des notions très limitées de l’imprécision de ces statistiques, en dépit de leur niveau de détail poussé. L’auteur s’est servi de la banque de données du commerce mondial mise au point à Statistique Canada pour étudier et quantifier les divergences qui existent dans les statistiques du commerce extérieur.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114600
    Description :

    Le présent article contient la description d’un programme d’ordinateur personnel servant à l’estimation de la variance pour de grandes enquêtes. Ce programme, connu sous le nom de PC CARP, permet de calculer des estimations pour des agrégats, des rapports, des moyennes, des quantiles et des coefficients de régression et d’estimer les variances correspondantes.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114598
    Description :

    Cet article porte sur les méthodes de traitement des données manquantes dans les enquêtes postcensitaires en vue de l’estimation de l’erreur de couverture dans le recensement; à titre d’illustration, nous analysons le test des opérations de redressement de 1986 (Diffendal 1988). Les méthodes précitées comprennent des méthodes d’imputation fondées sur le hot-deck et des modèles de régression logistique de même que des méthodes de redressement par la pondération. Nous analysons également la sensibilité des estimations de sous-dénombrement tirées du test de 1986 à la variation des modèles d’imputation.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114597
    Description :

    Le U.S. Bureau of the Census aura recours à une enquête post-censitaire pour évaluer le taux de couverture du recensement décennal de 1990. Cet article décrit les nouvelles méthodes que le Bureau a mises au point et expérimentées pour accroître le degré de précision des estimations de cette enquête. Il étudie aussi les catégories d’erreur qui surviennent dans une enquête post-censitaire de même que les moyens qui permettent de juger de l’exactitude des résultats. À cette fin, les auteurs se servent d’une enquête post-censitaire qui a été réalisée récemment à titre expérimental.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114596
    Description :

    L’efficacité des estimateurs de système dual du sous-dénombrement du recensement repose en grande partie sur l’hypothèse selon laquelle des personnes dénombrées lors de l’étude d’évaluation peuvent être appariées de façon précise aux mêmes personnes dénombrées lors du recensement. Or, les erreurs d’appariement et les non-appariements erronés, qui sont inévitables, diminuent l’exactitude des estimateurs. De fait, des études ont démontré que l’ampleur de l’erreur résultante peut être suffisamment importante par rapport à l’erreur d’observation du recensement pour que l’estimation devienne inutilisable. Le présent mémoire a pour objet d’exposer un modèle d’analyse de l’effet de l’erreur d’appariement sur les estimateurs du sous-dénombrement et d’illustrer son utilisation possible dans le cadre du programme d’évaluation du sous-dénombrement du recensement de 1990. L’erreur quadratique moyenne de l’estimateur de système dual est d’abord dérivée du modèle proposé et les composantes de l’EQM résultant de l’erreur d’appariement sont définies et expliquées. Nous étudierons ensuite, à la lumière du modèle, l’incidence de l’erreur d’appariement sur l’EQM de l’estimateur du sous-dénombrement du recensement. Enfin, nous illustrerons une méthodologie permettant d’utiliser le modèle pour optimaliser la conception des études d’évaluation de l’erreur d’appariement et donnerons la forme des estimateurs.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114599
    Description :

    En vue du recensement décennal de 1990, le Census Bureau a étudié la possibilité de redresser les chiffres du recensement pour tenir compte du taux de sous-dénombrement estimé. À cette fin, il a exécuté un recensement d’essai dans un secteur à majorité hispanique du Central Los Angeles County afin de vérifier le calendrier et les caractéristiques des opérations de redressement réalisées au moyen d’une enquête post-censitaire (EP). Cet article vise à exposer les méthodes qui ont été utilisées pour produire des données de recensement qui tiennent compte de la population non dénombrée; on y trouve également les résultats de l’application de ces méthodes. Les méthodes utilisées pour le redressement des données de recensement comprenaient l’élaboration d’un plan de sondage, l’estimation « bivalente » et le calcul d’estimations régionales. Le plan de sondage prévoyait un échantillon d’îlots stratifiés selon l’origine ethnique. L’appariement s’est fait par ordinateur tandis que les opérations de contrôle et de résolution ont été exécutées manuellement. L’estimateur « bivalent », appelé aussi estimateur de Petersen ou saisie-resaisie, a servi à estimer la population. À cause de la nature des recensements, les chiffres du recensement ont été redressés avant de servir au calcul de l’estimateur bivalent. Avant de corriger les estimations régionales, on a ajusté un modèle de régression au facteur de redressement (estimateur bivalent divisé par le chiffre du recensement) afin de réduire les effets de la variabilité d’échantillonnage. Un estimateur synthétique a permis d’effectuer le redressement jusqu’au niveau de l’îlot. Les résultats de l’estimation bivalente sont présentés pour la région d’essai selon les trois principaux groupes ethniques (hispanique, asiatique, autre), le mode d’occupation, l’âge et le sexe. Enfin, nous présentons en bref les résultats du redressement des estimations régionales du recensement par îlot et nous en faisons l’analyse.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114602
    Description :

    Pour un degré de précision donné, Hidiroglou (1986) a défini un algorithme permettant de diviser la population en une strate à tirage complet et en une strate à tirage partiel de manière à minimiser la taille de l’échantillon global en supposant un échantillonnage aléatoire simple sans remise dans la strate à tirage partiel. Sethi (1963) a proposé un algorithme permettant un découpage optimal de la population en un certain nombre de strates à tirage partiel. Dans cet article, il est question d’un algorithme itératif qui vise à déterminer les bornes de strates pour une population fortement asymétrique découpée en une strate à tirage complet et en un certain nombre de strates à tirage partiel. Ces bornes de strates sont calculées de manière à minimiser la taille de l’échantillon global étant donné un degré de précision relative, un échantillonnage aléatoire simple sans remise dans les strates à tirage partiel et une répartition à la puissance « p » de l’échantillon entre ces mêmes strates. L’algorithme présenté dans cet article est une combinaison des travaux d’Hidiroglou (1986) et de Sethi (1963).

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114603
    Description :

    La plupart des enquêtes ont de nombreux usages et nous proposons dans cet article une hiérarchie de ces usages en six niveaux. Toutefois, la plupart des théories et des ouvrages statistiques mettent l’accent sur les enquêtes à usage unique pour éviter la complexité des plans de sondage à usages multiples et les problèmes que ces plans soulèvent. Nous exposons tout d’abord dix sources d’incompatibilité entre les usages de ces plans, puis nous posons des problèmes et donnons des solutions pour chaque cas. Heureusement, des compromis et des solutions communes sont possibles puisque la plupart des optimums sont très peu prononcés et que la plupart des « exigences » relatives à la précision sont en réalité très souples. Il est préférable de parler d’usages multiples et de composer avec eux que de se limiter à quelques usages choisis arbitrairement; en outre, la venue de l’informatique a facilité l’application des plans de sondage à usages multiples.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114601
    Description :

    La SIPP (Survey of Income and Program Participation/Enquête sur le revenu et la participation aux programmes) est une enquête permanente menée par le U.S. Bureau of the Census auprès d’un échantillon de ménages représentatif de la population à l’échelle nationale. Le but principal de la SIPP est d’améliorer la mesure de l’information sur la situation économique des ménages et des particuliers aux États-Unis. Pour atteindre ce but, des interviews sont menées à plusieurs reprises auprès des individus échantillonnés. Elles sont basées sur un questionnaire contenant des questions d’approfondissement dont la période de référence est courte. Le plan de sondage à plusieurs interviews de la SIPP soulève des questions d’ordre méthodologique et statistique qui concernent toutes les enquêtes par panel menées auprès de familles et de particuliers. Ces questions sont traitées dans le présent article du point de vue de la SIPP. Il s’agit : 1) de la conception du questionnaire; 2) de la collecte des données, notamment des règles de conduite adoptées à l’égard des répondants, du mode de collecte des données, de la durée de la période de référence et des règles de conduite adoptées à l’égard des personnes ayant déménagé; 3) des définitions, du plan de sondage et des estimations; 4) de l’erreur de réponse.

    Date de diffusion : 1988-06-15

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (23)

Analyses (23) (23 of 23 results)

  • Articles et rapports : 12-001-X198800214585
    Description :

    Les méthodes servant à contrôler la qualité des opérations d’enquête à Statistique Canada consistent habituellement en un échantillonnage pour acceptation pour chaque caractéristique, accompagné d’une inspection de redressement, l’une et l’autre opération s’inscrivant dans le cadre plus général du contrôle d’acceptation. Bien que ces méthodes soient considérées comme de bonnes mesures correctives, elles sont peu efficaces pour empêcher une répétition des erreurs. Vu l’importance primordiale de cet aspect de la gestion de la qualité, le Système de gestion de la qualité (SGQ) a été conçu en fonction de plusieurs objectifs dont la prévention des erreurs est un des principaux. C’est pourquoi il sert à produire des rapports de contrôle et des graphiques à l’intention des opérateurs, superviseurs et gestionnaires chargés des diverses opérations. Il sert également à produire des données sur les changements survenus au chapitre de l’inspection et permet ainsi aux méthodologistes de réviser les plans et les méthodes d’inspection en conformité avec les grandes lignes du contrôle d’acceptation. Cet article expose les principales caractéristiques du SGQ au point de vue de l’estimation et de la totalisation des données et montre de quelle façon ce système dessert les principaux programmes de contrôle de la qualité à Statistique Canada. Des fonctions importantes sont également analysées du point de vue méthodologique et systémique.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214595
    Description :

    Depuis 1961, Statistique Canada produit des estimations du sous-dénombrement pour chaque recensement. À cette fin, le Bureau utilise la méthode dite de contre-vérification des dossiers (CVD). La fiabilité des estimations est importante parce que ces dernières sont utilisées pour évaluer la qualité des données du recensement et pour établir les principales causes de l’erreur de couverture. Cette fiabilité a également un rôle très important dans l’élaboration de méthodes conçues pour améliorer la couverture des recensements futurs. Dans cette étude, nous définissons les sources potentielles d’erreur de la CVD de manière à bien les comprendre et, dans la mesure du possible, à en réduire les effets sur l’estimation de l’erreur de couverture.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214582
    Description :

    Bibliographie complète des ouvrages, comptes rendus de recherche et articles publiés sur la théorie, l’application et le développement des techniques associées à la méthode des réponses randomisées; avec une classification par sujet.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214594
    Description :

    Un accroissement significatif dans le sous-dénombrement du recensement de 1986 est révélé tant par la contre-vérification des dossiers que par la méthode démographique présentée dans ce document. Une attention particulière est portée à l’évaluation des différentes composantes de l’accroissement de la population, spécialement à la migration interprovinciale. Le texte conclut par un survol de deux méthodes différentes pour générer les estimations postcensitaires : celle couramment utilisée, basée sur le recensement, et un modèle flexible utilisant toutes les données pertinentes en plus du recensement.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214587
    Description :

    Le système QUID, conçu et développé par l’INSEE (Paris) est un système de chiffrement automatique de données d’enquête recueillies sous forme d’intitulés littéraux exprimés dans la terminologie du répondant. Le système repose sur l’utilisation d’une très vaste base d’apprentissage composée de phrases réelles codifiées par des experts. L’article présente d’abord le traitement automatique de normalisation préalable des phrases, puis l’algorithme organisant la base de phrases en une arborescence optimisée. Un exemple de classement est donné en illustration. Le traitement des variables annexes de codification, venant compléter l’information contenue dans les phrases, présente actuellement des difficultés qui sont examinées en détail. Le projet QUID 2, version rénovée du système, est évoqué succinctement.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214584
    Description :

    Lorsqu’on examine les adresses postales pouvant figurer dans un fichier administratif, nous sommes frappés par la complexité de la syntaxe, l’absence de normes, les ambiguïtés diverses et les nombreuses erreurs. L’utilisation des adresses postales par un système informatique présente donc de réelles difficultés. Le PAAS (système d’analyse des adresses postales) en voie d’élaboration à Statistique Canada a pour objet de remplacer le sous-programme désuet utilisé partout dans le Bureau pour décoder les adresses postales. Le PAAS permettra aux applications informatiques d’obtenir les composantes d’adresses, la version normalisée de ces composantes et la clé de recherche d’adresse (ASK) correspondante.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214593
    Description :

    En Australie, les estimations démographiques sont établies à partir des chiffres du recensement; lors des trois derniers recensements (1976, 1981 et 1986), ces chiffres ont été redressés pour tenir compte du sous-dénombrement. L’opération de redressement s’inspire des résultats d’une enquête postcensitaire et d’une analyse démographique. Cet article expose les méthodes utilisées de même que les résultats du redressement des données de 1986. Les auteurs voient aussi dans l’usage formel des rapports de masculinité proposé par Wolter (1986) une amélioration par rapport au rôle qu’avaient auparavant ces ratios dans le redressement des chiffres du recensement.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214588
    Description :

    Supposons que des taux de sous-dénombrement ont été estimés pour un recensement et que des estimations du niveau de sous-dénombrement ont été établies pour les îlots. Il peut être alors souhaitable de dresser une nouvelle liste de ménages qui comprendrait les ménages qui auraient été oubliés. Nous proposons dans cet article de dresser une telle liste en pondérant les ménages qui ont été dénombrés. Les poids des ménages sont déterminés par des équations linéaires qui représentent le nombre total voulu de personnes dans chaque classe d’estimation et le nombre total voulu de ménages. On calcule alors des poids qui satisfont les contraintes et qui rapprochent le plus possible le tableau des données ajustées des données brutes. On peut voir dans cette méthode un exemple d’application de la méthode itérative du quotient à des cas où les contraintes ne concernent pas les fréquences marginales d’un tableau de contingence. Des covariables continues ou discrètes peuvent être utilisées dans les opérations de redressement et il est possible de vérifier directement si les contraints peuvent être satisfaites. Enfin, nous proposons des méthodes pour l’utilisation de données pondérées à des fins diverses liées au recensement et pour le redressement de données corrélées sur les caractéristiques des ménages oubliés, par exemple le revenu, qui ne sont pas considérées directement dans l’estimation du niveau de sous-dénombrement.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214586
    Description :

    Dans cet article, il est question de l’application généralisée d’une méthode de codage automatique. Jusqu’à récemment, le codage était une opération manuelle confiée à des personnes formées spécialement à cet effet; toutefois, la création de systèmes informatiques particuliers a contribué à éliminer sinon à réduire sensiblement le codage manuel. En règle générale, l’utilisation de ces nouveaux systèmes est limitée aux applications pour lesquelles ils ont été conçus. Le système qui est décrit ici peut servir à n’importe quelle forme de codage de textes anglais ou français selon n’importe quel mode de classification.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214591
    Description :

    Pour estimer le taux de sous-dénombrement dans le recensement, on exécute une enquête postcensitaire (EP) et on tente d’apparier les enregistrements de cette enquête avec des enregistrements du recensement; le taux d’appariement donne une estimation du taux de couverture du recensement. L’estimation du sous-dénombrement repose sur une stratification a posteriori où les caractéristiques géographiques et démographiques et les caractéristiques du logement X servent de critères de stratification. Or, la non-réponse fait qu’il manque des données sur X pour certaines personnes; en outre, on ne peut déterminer un code d’appariement Y pour chaque personne. Il faut donc une méthode pour imputer les valeurs manquantes de X et de Y. Cet article vise à examiner les méthodes d’imputation qui ont été utilisées dans le Test des opérations de redressement de 1986 (Schenker 1988) et propose deux méthodes de rechange axées sur des modèles : (1) une méthode d’estimation de tableau de contingence fondée sur le maximum de vraisemblance, qui ne tient pas compte du mécanisme de non-réponse et (2) une nouvelle méthode d’estimation de tableau de contingence de type bayesien, qui tient compte du mécanisme de non-réponse. La première méthode est plus simple au point de vue du calcul mais la seconde est plus intéressante au point de vue théorique et scientifique.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214583
    Description :

    Cette note d’information met en lumière les points forts et les points faibles du langage SQL.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214590
    Description :

    Le présent article expose les résultats d’une étude des causes du sous-dénombrement à l’occasion du recensement d’une région urbaine à dominante hispanique particulièrement difficile à dénombrer. L’étude propose un cadre d’organisation des causes du sous-dénombrement et tente d’expliquer ces celles-ci à partir de diverses hypothèses. L’approche adoptée est unique dans le sens qu’elle vise à quantifier les causes de sous-dénombrement et à isoler les problèmes exceptionnellement importants en incluant une analyse statistique des autres problèmes.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214592
    Description :

    Des arguments convaincants militent pour ou contre le redressement des chiffres des recensements décennaux aux États-Unis mais bon nombre de ces arguments reposent plus sur des considérations politiques que techniques. La décision de redresser les chiffres du recensement dépend essentiellement de la méthode de redressement. De plus, si le redressement devait s’effectuer, par exemple, à l’aide d’une méthode synthétique ou d’une méthode de régression, à quel niveau devrait-il se faire et comment devrait-on procéder pour les niveaux inférieurs ou supérieurs ? Pour apporter une réponse judicieuse à ces questions, il nous faut un modèle d’erreurs de sous-dénombrement « cohérent » en ce sens qu’il ne change pas d’un niveau d’agrégation à l’autre (pays, état, comté, etc.). Le présent article propose un modèle de ce genre; les sous-régions ayant des caractéristiques communes sont groupées par strate de telle sorte que les moyennes des facteurs de redressement des sous-régions de la strate soient les mêmes et que les variances soient inversement proportionnelles aux chiffres du recensement. En prenant en considération l’échantillonnage des régions (par l’estimation de système dual par exemple), nous pouvons construire des estimateurs empiriques de Bayes qui intègrent des éléments d’information sur la moyenne de la strate et la valeur de l’échantillon. Ces estimateurs sont calculés pour chaque état (51 états, y compris Washington, D.C.) et stratifiés selon l’origine raciale ou ethnique (3 strates) à l’aide de données de l’Enquête postcensitaire de 1980 (PEP 3-8, pour la population hors établissement institutionnel).

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800214589
    Description :

    Le U.S. Bureau of the Census utilise des estimateurs de système dual (ESD) pour évaluer l’erreur de couverture dans le recensement. Ce genre d’estimateur repose sur des données du recensement initial et d’une enquête postcensitaire. Lorsqu’on mesure la précision de l’ESD, il importe de savoir que cet estimateur est soumis à plusieurs composantes de l’erreur d’échantillonnage et de l’erreur non due à l’échantillonnage. Dans cet article, nous décrivons des modèles de l’erreur totale et des composantes d’erreur dans les estimateurs de système dual. Ces modèles établissent un rapport entre des indices observés de la qualité des données, comme le taux d’erreur d’appariement, et les deux premiers moments des composantes d’erreur. Nous analysons également la propagation de l’erreur dans l’ESD et évaluons le biais et la variance de cet estimateur. La méthode proposée est appliquée au recensement du Central Los Angeles County de 1986 dans le cadre du Test des opérations de redressement du U.S. Bureau of the Census. Cette méthode sera aussi utile pour évaluer l’erreur dans l’ESD à l’occasion du recensement de 1990 et pour d’autres applications.

    Date de diffusion : 1988-12-15

  • Articles et rapports : 12-001-X198800114604
    Description :

    Malgré la facilité relative de l’étude des erreurs dans les statistiques du commerce extérieur, il y a eu peu de tentatives pour quantifier leur taille, leur origine, leur distribution et leur évolution dans le temps. Les décideurs et les négociateurs commerciaux n’ont que des notions très limitées de l’imprécision de ces statistiques, en dépit de leur niveau de détail poussé. L’auteur s’est servi de la banque de données du commerce mondial mise au point à Statistique Canada pour étudier et quantifier les divergences qui existent dans les statistiques du commerce extérieur.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114600
    Description :

    Le présent article contient la description d’un programme d’ordinateur personnel servant à l’estimation de la variance pour de grandes enquêtes. Ce programme, connu sous le nom de PC CARP, permet de calculer des estimations pour des agrégats, des rapports, des moyennes, des quantiles et des coefficients de régression et d’estimer les variances correspondantes.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114598
    Description :

    Cet article porte sur les méthodes de traitement des données manquantes dans les enquêtes postcensitaires en vue de l’estimation de l’erreur de couverture dans le recensement; à titre d’illustration, nous analysons le test des opérations de redressement de 1986 (Diffendal 1988). Les méthodes précitées comprennent des méthodes d’imputation fondées sur le hot-deck et des modèles de régression logistique de même que des méthodes de redressement par la pondération. Nous analysons également la sensibilité des estimations de sous-dénombrement tirées du test de 1986 à la variation des modèles d’imputation.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114597
    Description :

    Le U.S. Bureau of the Census aura recours à une enquête post-censitaire pour évaluer le taux de couverture du recensement décennal de 1990. Cet article décrit les nouvelles méthodes que le Bureau a mises au point et expérimentées pour accroître le degré de précision des estimations de cette enquête. Il étudie aussi les catégories d’erreur qui surviennent dans une enquête post-censitaire de même que les moyens qui permettent de juger de l’exactitude des résultats. À cette fin, les auteurs se servent d’une enquête post-censitaire qui a été réalisée récemment à titre expérimental.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114596
    Description :

    L’efficacité des estimateurs de système dual du sous-dénombrement du recensement repose en grande partie sur l’hypothèse selon laquelle des personnes dénombrées lors de l’étude d’évaluation peuvent être appariées de façon précise aux mêmes personnes dénombrées lors du recensement. Or, les erreurs d’appariement et les non-appariements erronés, qui sont inévitables, diminuent l’exactitude des estimateurs. De fait, des études ont démontré que l’ampleur de l’erreur résultante peut être suffisamment importante par rapport à l’erreur d’observation du recensement pour que l’estimation devienne inutilisable. Le présent mémoire a pour objet d’exposer un modèle d’analyse de l’effet de l’erreur d’appariement sur les estimateurs du sous-dénombrement et d’illustrer son utilisation possible dans le cadre du programme d’évaluation du sous-dénombrement du recensement de 1990. L’erreur quadratique moyenne de l’estimateur de système dual est d’abord dérivée du modèle proposé et les composantes de l’EQM résultant de l’erreur d’appariement sont définies et expliquées. Nous étudierons ensuite, à la lumière du modèle, l’incidence de l’erreur d’appariement sur l’EQM de l’estimateur du sous-dénombrement du recensement. Enfin, nous illustrerons une méthodologie permettant d’utiliser le modèle pour optimaliser la conception des études d’évaluation de l’erreur d’appariement et donnerons la forme des estimateurs.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114599
    Description :

    En vue du recensement décennal de 1990, le Census Bureau a étudié la possibilité de redresser les chiffres du recensement pour tenir compte du taux de sous-dénombrement estimé. À cette fin, il a exécuté un recensement d’essai dans un secteur à majorité hispanique du Central Los Angeles County afin de vérifier le calendrier et les caractéristiques des opérations de redressement réalisées au moyen d’une enquête post-censitaire (EP). Cet article vise à exposer les méthodes qui ont été utilisées pour produire des données de recensement qui tiennent compte de la population non dénombrée; on y trouve également les résultats de l’application de ces méthodes. Les méthodes utilisées pour le redressement des données de recensement comprenaient l’élaboration d’un plan de sondage, l’estimation « bivalente » et le calcul d’estimations régionales. Le plan de sondage prévoyait un échantillon d’îlots stratifiés selon l’origine ethnique. L’appariement s’est fait par ordinateur tandis que les opérations de contrôle et de résolution ont été exécutées manuellement. L’estimateur « bivalent », appelé aussi estimateur de Petersen ou saisie-resaisie, a servi à estimer la population. À cause de la nature des recensements, les chiffres du recensement ont été redressés avant de servir au calcul de l’estimateur bivalent. Avant de corriger les estimations régionales, on a ajusté un modèle de régression au facteur de redressement (estimateur bivalent divisé par le chiffre du recensement) afin de réduire les effets de la variabilité d’échantillonnage. Un estimateur synthétique a permis d’effectuer le redressement jusqu’au niveau de l’îlot. Les résultats de l’estimation bivalente sont présentés pour la région d’essai selon les trois principaux groupes ethniques (hispanique, asiatique, autre), le mode d’occupation, l’âge et le sexe. Enfin, nous présentons en bref les résultats du redressement des estimations régionales du recensement par îlot et nous en faisons l’analyse.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114602
    Description :

    Pour un degré de précision donné, Hidiroglou (1986) a défini un algorithme permettant de diviser la population en une strate à tirage complet et en une strate à tirage partiel de manière à minimiser la taille de l’échantillon global en supposant un échantillonnage aléatoire simple sans remise dans la strate à tirage partiel. Sethi (1963) a proposé un algorithme permettant un découpage optimal de la population en un certain nombre de strates à tirage partiel. Dans cet article, il est question d’un algorithme itératif qui vise à déterminer les bornes de strates pour une population fortement asymétrique découpée en une strate à tirage complet et en un certain nombre de strates à tirage partiel. Ces bornes de strates sont calculées de manière à minimiser la taille de l’échantillon global étant donné un degré de précision relative, un échantillonnage aléatoire simple sans remise dans les strates à tirage partiel et une répartition à la puissance « p » de l’échantillon entre ces mêmes strates. L’algorithme présenté dans cet article est une combinaison des travaux d’Hidiroglou (1986) et de Sethi (1963).

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114603
    Description :

    La plupart des enquêtes ont de nombreux usages et nous proposons dans cet article une hiérarchie de ces usages en six niveaux. Toutefois, la plupart des théories et des ouvrages statistiques mettent l’accent sur les enquêtes à usage unique pour éviter la complexité des plans de sondage à usages multiples et les problèmes que ces plans soulèvent. Nous exposons tout d’abord dix sources d’incompatibilité entre les usages de ces plans, puis nous posons des problèmes et donnons des solutions pour chaque cas. Heureusement, des compromis et des solutions communes sont possibles puisque la plupart des optimums sont très peu prononcés et que la plupart des « exigences » relatives à la précision sont en réalité très souples. Il est préférable de parler d’usages multiples et de composer avec eux que de se limiter à quelques usages choisis arbitrairement; en outre, la venue de l’informatique a facilité l’application des plans de sondage à usages multiples.

    Date de diffusion : 1988-06-15

  • Articles et rapports : 12-001-X198800114601
    Description :

    La SIPP (Survey of Income and Program Participation/Enquête sur le revenu et la participation aux programmes) est une enquête permanente menée par le U.S. Bureau of the Census auprès d’un échantillon de ménages représentatif de la population à l’échelle nationale. Le but principal de la SIPP est d’améliorer la mesure de l’information sur la situation économique des ménages et des particuliers aux États-Unis. Pour atteindre ce but, des interviews sont menées à plusieurs reprises auprès des individus échantillonnés. Elles sont basées sur un questionnaire contenant des questions d’approfondissement dont la période de référence est courte. Le plan de sondage à plusieurs interviews de la SIPP soulève des questions d’ordre méthodologique et statistique qui concernent toutes les enquêtes par panel menées auprès de familles et de particuliers. Ces questions sont traitées dans le présent article du point de vue de la SIPP. Il s’agit : 1) de la conception du questionnaire; 2) de la collecte des données, notamment des règles de conduite adoptées à l’égard des répondants, du mode de collecte des données, de la durée de la période de référence et des règles de conduite adoptées à l’égard des personnes ayant déménagé; 3) des définitions, du plan de sondage et des estimations; 4) de l’erreur de réponse.

    Date de diffusion : 1988-06-15

Références (0)

Références (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Date de modification :