Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (24)

Tout (24) (24 of 24 results)

  • Articles et rapports : 91F0015M1997004
    Description :

    L'estimation des effectifs de population par âge, sexe, état matrimonial par provinces, est une entreprise difficile surtout à cause des migrations. En effet, on ne peut caractériser le migrant que par ses déclarations au recensement. Jusqu'en 1991, le recensement ne comportait que la question sur le lieu de résidence cinq ans auparavant. Ainsi, l'individu qui avait cinq ans auparavant une résidence différente était considéré comme un migrant et en tant que tel on lui attribuait au moment de sa migration les caractéristiques qu'il déclarait au recensement. Or, il avait eu cinq ans pour en changer, en particulier son état matrimonial.

    Depuis 1991, le recensement pose la question sur la résidence un an auparavant. La même démarche fait attribuer au migrant, au moment de sa migration, des caractéristiques qui selon toute vraisemblance risque davantage d'être les mêmes que celles qu'il déclare. Il n'a eu qu'une seule année pour en changer.L'article décrit en détail les méthodes utilisées maintenant par Statistique Canada pour estimer les caractéristiques des migrants et mesure les avantages par rapport à l'utilisation de la mobilité sur cinq ans.

    Date de diffusion : 1997-12-23

  • Tableau : 62-010-X19970023422
    Description :

    La période de base officielle de l'indice des prix à la consommation (IPC) est actuellement 1986=100. Cette période de base a été utilisée pour la première fois au moment de la diffusion des données de l'IPC pour juin 1990. Statistique Canada s'apprête à convertir toutes les séries des indices de prix à la période de base 1992=100. Par conséquent, toutes les séries en dollars constants seront aussi converties en dollars de 1992. L'IPC adoptera la nouvelle période de base lorsque paraîtront les données de l'indice pour janvier 1998 dès le 27 février 1998.

    Date de diffusion : 1997-11-17

  • Index et guides : 92-125-G
    Description :

    Le présent guide de consultation marque le début du processus de consultation sur le contenu du recensement de 2001 et du processus de mise à l'essai du contenu. On demandera à un large éventail d'utilisateurs de données (représentants de tous les paliers de gouvernement, associations nationales, organisations non gouvernementales, groupes communautaires, entreprises et secteur privé, universités et grand public) d'apporter leurs commentaires sur les questions du recensement et sur leurs besoins futurs en matière de données et de signaler les lacunes statistiques.

    Date de diffusion : 1997-10-31

  • Articles et rapports : 91F0015M1997003
    Description :

    Pour des raisons historiques, les tables de mortalité les plus connues et fréquemment utilisées sont les tables du moment. Elles sont construites avec les taux de mortalité par âge observés sur une courte période (souvent l'année) et ont pour but de renseigner sur l'état de la mortalité à cette période. Les survivants et les décès qui figurent dans leurs colonnes sont en quelque sorte davantage des abstractions que des réalités. Il est donc fautif de croire que la table de mortalité d'une année (1995 par exemple) a une quelconque valeur prédictive de la cadence à laquelle disparaîtront ceux qui naissent cette année-là et par extension de la durée moyenne de la vie qu'ils commencent. À de rares exceptions la moyenne des années vécues par les individus a toujours été plus longue que l'espérance de vie de la table de mortalité de l'année de leur naissance. Cela vient de ce que l'incessante lutte contre la mort réduit année après année ces risques de décès à chaque âge et les individus, en avançant dans la vie bénéficient de ces gains successifs.

    Pour reconstituer (ou envisager) la cadence à laquelle les membres d'une génération ont réellement disparu (ou disparaîtront), il faut disposer de très longues séries de taux de mortalité par âge et d'indications fiables sur ceux qui manquent pour les agencer de manière à constituer le cheminement réel d'une génération. Construites exactement de la même manière que celles du moment ces tables portent tout naturellement le nom de tables de génération mais l'observation comparative de leurs paramètres livre des enseignements d'une grande richesse.

    Date de diffusion : 1997-10-01

  • Articles et rapports : 12-001-X19970013108
    Description :

    L'auteur explique comment recourir au calcul matriciel pour simplifier la dérivation de l'estimateur du coefficient de régression et de l'estimateur de régression par linéarisation.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013107
    Description :

    Aux États-Unis, les enquêtes démographiques polyvalentes comptent souvent parmi leurs principaux objectifs la production d'estimations de petites sous-populations définies, par example, selon la race, l'origine ethnique et le revenu. Le suréchantillonnage géographique est l'une des techniques fréquemment envisagées pour accroître la fiabilité des statistiques sur ces petites sous-populations (ou domaines), dans la mesure où l'information sur les îlots ou les groupes d'îlots du Bureau of the Census permet d'identifier les régions où se concentrent les sous-pupulations auxquelles on s'interesse. Les auteurs ménages en vue d'améliorer la précision des estimations sur les petits domaines. Ils présentent les résultats d'une évaluation empirique de la réduction de la variance obtenue par suréchantillonnage géographique et évaluent la robustesse de l'efficacité de l'échantillonnage dans le temps, à mesure que les données servant à la stratification perdent de leur actualité. L'article aborde aussi la question du suréchantillonnage simultané de plusieurs petites sous-populations.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013104
    Description :

    Les mesures de l'inégalité et de la polarisation du revenu sont essentielles à l'étude de nombreux dossiers économiques et sociaux. La plupart de ces mesures étant des fonctions non linéaires de la fonction de distribution et (ou) des qualtiles, on ne peut exprimer leur variance au moyen d'une formule simple et on doit recourir aux méthodes à l'estimation de la variance de six mesures particulières de l'inégalité et de la polarisation du revenu et on étudie empiriquement leur performance grâce à une étude en simulation fondée sur l'Enquête canadienne sur les finances des consommateurs. Les résultats indiquent que, pour les mesures étudiées, la méthode bootstrap et celle des équations d'estimation donnent de nettement meilleurs résultats que les autres.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013101
    Description :

    Dans le travail ordinaire en statistique, l'échantillonnage est souvent exécuté en fonction d'un processus qui choisit des variables aléatoires telles sont indépendantes et distribuées de façon identique (IDI), de sorte qu'il faut avoir recours à des rajustements pour les utiliser dans le contexte d'une enquête complexe. Toutefois, au lieu de rajuster l'analyse, les auteurs ont adopté une formulation qui a ceci de nouveau qu'elle prélève un second échantillon dans l'échantillon original. Dans ce second échantillon, le premier ensemble de sélections est inversé de façon à fournir à terme un échantillon aléatoire simple. Bien entendu, il serait inefficace d'utiliser ce processus en deux étapes pour tirer un échantillon aléatoire simple unique d'une enquête complexe normalement beaucoup plus grande, et c'est pourquoi des échantillons aléatoires simples multiples sont prélevés, les auteurs ayant élaboré une façon de fonder sur eux des inférences. Les échantillons originaux ne peuvent pas tous être inversés, mais les auteurs abordent de nombreux cas spéciaux qui couvrent tout un éventail de possibilités.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013103
    Description :

    Les auteurs décrivent certaines méthodes diagnostiques simples utilisées pour guider la construction de cellules de correction pour la non-réponse. S'inspirant des travaux de Little (1986), ils étudient la construction de cellules de correction par regroupement d'unités d'échantillonnage selon la probabilité estimée de réponse ou selon la réponse estimée aux questions de l'enquête. Ils examinent plus particulièrement l'évaluation de la sensibilité des estimations corrigées de la moyenne à la variation de k, c'est-à-dire le nombre de cellules utilisées, le dépistage de cellules particulières qui nécessitent une mise au point supplémentaire, la comparaison des estimations corrigées et non corrigées de la moyenne et la comparaison des estimations obtenues au moyen des cellules fondées sur la probabilité estimée de réponse, d'une part, et sur la réponse estimée aux questions, d'autre part. Les auteurs justifient les méthodes proposées et les illustrent par une application à l'estimation du revenu moyen des unités de la U.S. Consumer Expenditure Survey.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013100
    Description :

    Les auteurs présentent un système de procédures qui peut servir à automatiser les calculs algébriques complexes que l'on retrouve souvent en théorie des enquêtes par échantillonnage. Ils montrent que trois techniques de base en théorie de l'échantillonnage dépendent de l'application répétée de règles donnant lieu à des partitions: le calcul des valeurs espérées dans un plan d'échantillonnage quelconque à un dégré, la détermination d'estimateurs non biaisés ou convergents dans le cadre de ces plans et le développement en séries de Taylor. La méthode est appliquée ici à des calculs de moments de la moyenne de l'échantillon, de l'estimateur de quotients et de l'estimateur de la régression dans le cas spécial d'un sondage aléatoire simple sans remise. L'innovation présentée ici est que les calculs peuvent désormais être exécutés instantanément par ordinateur sans erreur et sans recours à des formules existantes possiblement longues et complexes. Un autre avantage immédiat est que les calculs peuvent être exécutés là où il n'existe actuellement aucune formule. Le code machine élaboré en vue de la mise en œuvre de cette méthode est accessible par FTP anonyme au fisher.stats.uwo.ca.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013102
    Description :

    Les auteurs examinent la sélection des variables auxiliaires pour l'estimation par régression des paramètres des populations finies dans le cas d'un plan de sondage aléatoire simple. Ce problème fondamental que posent les méthodes d'échantillonnage fondé sur un modèle ou assisté par un modèle prend une importance d'ordre pratique quand le nombre de variables disponibles est grand. Les auteurs élaborent une méthode consistant à minimiser un estimateur de l'erreur quadratique moyenne, puis, la comparent à d'autres en utilisant un ensemble fixe de variables auxiliaires, un test de signification classique, une méthode de réduction du nombre de conditions et une méthode de régression ridge. Selon les résultats de l'étude, la méthode proposée est efficace. Les auteurs soulignent que la méthode de sélection des variables influe sur les propriétés des estimateurs types de la variance, ce qui entraîne par conséquent un problème d'estimation de la variance.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013106
    Description :

    La méthode utilisée pour estimer l'erreur-type des données des recensements décennaux des États-Unis de 1970 à 1990 donne des résultats disparates. Ainsi, on obtient des erreurs-types différentes pour les réponses "oui" et "non" à la même variable binomiale, alors que les deux estimations devraient être identiques. Quand la plupart des personnes répondent d'une façon à une question binomiale et quelques autres donnent la réponse contraire, l'erreur-type est beaucoup plus élevée pour la personne la plus fréquente. D'autre part, lorsque les personnes interrogées fournissent toutes la même réponse, l'erreur-type n'est pas égale à zéro et reste fort élevée. Signaler les effets moyens du plan d'échantillonnage pondérés selon le nombre de répondants qui présentent des caractéristiques particulières ne fait qu'aggraver le problème. L'auteur propose une solution de rechange à la méthode d'estimation de l'erreur-type des groupes aléatoires utilisée dans le cadre du recensement des États-Unis.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013105
    Description :

    Les auteurs étudient le problème qui consiste à estimer les taux de transition au moyen des données d'une enquête longitudinale, lorsqu'il existe des erreurs de classification. Ils examinent les approches faisant appel à des données auxiliaires sur les taux de classification erronée et ainsi que d'autres approches pour modéliser l'erreur de mesure. À partir de variables instrumentales nominales, ils suggèrent comment identifier et estimer les modèles qui comprennent des variables de ce genre en considérant un modèle à structure latente restreinte. Enfin, ils étudient les propriétés numériques des estimateurs implicites des variables instrumentales pour les taux des flux grâce aux données de l'étude par panel sur la dynamique de revenu.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 11F0019M1997099
    Description :

    Contexte : Le poumon est depuis plusieurs années le principal siège de cancer causant le décès pour les hommes et il est devenu depuis 1994 également laprincipale cause de décès par cancer pour les femmes au Canada. Il est donc important d'évaluer les ressources nécessaires à son diagnostic et à son traitement. Cetarticle présente, à partir d'un modèle de micro-simulation, une estimation des coûts médicaux directs associés au diagnostic et au traitement du cancer du poumon. L'incidence de 1992 est choisie comme référence alors que les coûts sont évalués selon les tarifs de 1993.Méthodes : Un module consacré au cancer du poumon a été incorporé au Modèle sur la santé de la population (POHEM). Les paramètres du module proviennent,entre autre, du régistre canadien des cancers (RCC) de Statistique Canada qui a fourni de l'information sur l'incidence et la classification histologique des cas decancer du poumon au Canada. Les registres de deux provinces ont permis d'estimer la distribution des stades du cancer au moment du diagnostic. Une équiped'oncologues a dérivé des méthodes de traitements «types» reflétant la pratique actuelle ainsi que les coûts directs associés. L'intégration de ces informations ainsique des courbes de survie appropriées au modèle POHEM permet, par simulation Monte Carlo, d'estimer les coûts globaux de traitement. Résultats : Nous avons estimé que les coûts médicaux directs de diagnostic et de traitement du cancer du poumon s'élevaient globalement à un peu plus de 528millions de dollars. Le coût par année de vie gagnée grâce au traitement de la maladie était d'environ 19,450 $. Pour la première fois au Canada, on a pu estimer lescoûts pour chacune des cinq années postérieures au diagnostic ainsi que pour chacun des stades au moment du diagnostic. Finalement, le coût par année de viegagnée supplémentaire pour trois traitements alternatifs du cancer du poumon non à petite cellule (CPNPC) a pu être estimé. Une analyse de sensibilité a montré queces coûts variaient entre 1,867 $ et 6,850 $ par année de vie gagnée supplémentaire, ce qui se compare avantageusement aux coûts que peuvent entraîner letraitement d'autres maladies.Conclusions : Contrairement à certains avis répandus, il semble que le traitement du cancer du poumon soit efficace d'un point de vue économique. En outre,l'utilisation d'un modèle de micro-simulation comme POHEM permet non seulement l'intégration cohérente d'information de sources diverses mais offre aussi lapossibilité d'estimer l'effet d'interventions médicales alternatives du point de vue des pressions financières sur le système de soins de santé.

    Date de diffusion : 1997-04-22

  • Articles et rapports : 12-001-X19960022980
    Description :

    Dans le présent article, nous présentons une méthode qui permet d'estimer l'intervalle de confiance de la moyenne d'une population finie quand on dispose de certaines données auxiliaires. Comme l'ont montré Royall et Cumberland grâce à une série d'études empiriques, l'application naïve des méthodes existantes de construction des intervalles de confiance de la moyenne d'une population aboutit parfois à de très médiocres probabilités conditionnelles de couverture subordonnées à la moyenne d'échantillon de la covariable. Le cas échéant, nous proposons de transformer les données pour améliorer la précision de l'approximation normale. Puis, d'après les données transformées, nous faisons une inférence quant à la moyenne de la population originale et intégrons les données auxiliaires à l'inférence soit directement, soit par calage au moyen d'une fonction empirique de vraisemblance. Nous appliquons notre méthode, qui est basée sur le plan de sondage, à six populations réelles et constatons que, dans les cas où la transformation est nécessaire, elle donne de bons résultats comparativement à la méthode de régression habituelle.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022985
    Description :

    La couverture des sondages téléphoniques effectués aux États-Unis est biaisée, car environ 6% des ménages sont privés de téléphone à un moment ou à un autre dans le temps. Le biais attribuable au sous-dénombrement peut être important. En effet, les ménages sans téléphone sont généralement plus démunis que les autres et leurs caractéristiques différent de celles de la population d'abonnés. La stratification a posteriori et les autres méthodes d'ajustement habituelles permettent rarement de compenser pareil biais en totalité. La présente recherche porte sur une méthode servant à ajuster les estimations de l'enquête. Cette méthode repose sur l'observation que certains ménages n'ont le téléphone qu'une partie de l'année, souvent à cause de difficultés économiques. En recueillant des données sur les interruptions du service téléphonique durant l'année antérieure, on peut procéder à un ajustement statistique des estimations et réduire le biais, mais parallèlement la variance augmente en raison de la plus grande variabilité des poids. Nous examinerons ici une méthode d'ajustement articulée sur les données recueillies lors d'une sondage téléphonique mené à l'échelle nationale. La réduction du biais et l'effet sur l'erreur quadratique moyenne des estimations ont été évalués pour diverses statistiques. Les résultats indiquent que lorsque les estimations tirées de l'enquête sont étroitement liées à la situation économique, la méthode d'ajustement fondée sur les interruptions du service téléphonique peut améliorer l'erreur quadratique moyenne des résultats.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022979
    Description :

    Dans cet article, les auteurs comparent empiriquement trois méthodes d'estimation - par régression, par régression restreinte au moyen de la méthode dite de la personne principale - utilisées dans une enquête-ménage sur les dépenses de consommation. Les trois méthodes sont appliquées à la stratification a posteriori, qui est importante dans de nombreuses enquêtes-ménages afin de corriger le sous-dénombrement de la population cible. Dans les recensements externes, on dispose habituellement de chiffres de population pour des strates a posteriori pour les personnes, mais non pour les ménages. Si on a besoin d'estimations par ménage, on doit assigner un facteur de pondération unique à chaque ménage, tout en utilisant le nombre de personnes pour la stratification a posteriori. On y parvient facilement en employant des estimateurs de régression pour les totaux ou les moyennes, et en utilisant le nombre de personnes dans les données auxiliaires de chaque ménage. L'estimation par régression restreinte permet de mieux calculer les facteurs de pondération, car on contrôle les valeurs extrêmes et l'on peut obtenir des estimateurs présentant une variance moindre que les estimateurs de Horvitz-Thompson, tout en respectant les totaux de contrôle de la population. Les méthodes de régression permettent également d'utiliser des contrôles pour les chiffres au niveau des personnes et des ménages et pour les données auxiliaires quantitatives. Avec la méthode dite de la personne principale, les personnes sont classées dans les strates a posteriori, et les facteurs de pondération pour les personnes font l'objet d'un rajustement par quotient afin d'obtenir des totaux de contrôle de la population. De la sorte, chaque personne dans un ménage peut se voir attribuer un facteur de pondération différent. Le facteur de pondération associé à la "personne principale" est alors choisi comme facteur de pondération pour le ménage. Nous comparerons les moyennes calculées à partir des trois méthodes, ainsi que leurs erreurs-types estimées, pour un certain nombre de dépenses tirées de l'enquête sur les dépenses de consommation parrainée par le Bureau of Labor Statistics.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022973
    Description :

    Il existe des méthodes bien connues dues à Deville et Sárndal (1992) qui permettent de corriger les poids d'échantillonnage de façon à respecter les contraintes d'étalonnage et les restrictions applicables à la fourchette de valeurs. Les estimateurs qui en résultent s'appellent estimateurs de calage. Il existe également une méthode antérieure, peut-être moins bien connue, due à Huang et Fuller (1978). De plus, d'autres méthodes ont été élaborées par Singh (1993), qui a montré que, comme les résultats de Deville-Sárndal l'indiquent, toutes ces méthodes sont asymptotiquement équivalentes à la méthode de régression. Le présent article comporte trois objectifs: i) fournir une justification heuristique simple pour tous les estimateurs de calage, y compris ceux qui sont bien connus et moins bien connus, en adoptant une stratégie non traditionnelle; il s'agit d'abord de choisir un modèle (au lieu de la fonction de distance) pour le coefficient de correction des poids, et, ensuite, de montrer qu'une méthode appropriée d'ajustement des modèles correspond à la solution de minimisation de la distance; ii) offrir aux praticiens des algorithmes de calcul rapide; iii) comparer différentes méthodes du point de vue de la distribution des coefficients de correction des poids, des estimations ponctuelles, de la précision estimée et du nombre de calculs à effectuer en citant des exemples numériques fondés sur un ensemble de données réelles. Il est possible de formuler des observations intéressantes à l'aide d'une analyse descriptive de résultats numériques indiquant que, même si toutes les méthodes de calage ressemblent à la méthode de régression en ce qui concerne les limites larges, elles comportent des différences pour ce qui est des limites étroites.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022978
    Description :

    L'utilisation de données auxiliaires dans les méthodes d'estimation des enquêtes complexes, notamment l'Enquête sur la population active de Statistique Canada, ne cesse de se perfectionner. L'estimation par régression et l'estimation par itération du quotient étaient naguère les méthodes les plus courantes pour intégrer les données auxiliaires à l'estimation. Il arrivait toutefois que les poids associés à l'estimateur soient négatifs ou hautement positifs. Les progrès théoriques réalisés récemment par Deville et Sárndal (1992) en vue de la construction de poids "restrictifs" que l'on peut assujettir à une valeur positive et à un plafond nous ont incités à étudier les propriétés des estimateurs en résultant. Nous examinons ici les propriétés de diverses méthodes servant à engendrer des poids de ce genre et la variance estimative correspondante. Nous nous intéresserons en particulier à deux méthodes d'estimation de la variance en recourant à une simulation de Monte Carlo articulée sur les données de l'Enquête sur la population active. Il s'agit en l'occurrence des méthodes du jackknife et de la linéarisation de Taylor. On en conclut que les estimateurs ponctuels et les estimateurs de la variance n'entraînent qu'un biais minime, même avec l'application de sérieuses "restrictions" aux poids finals.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022984
    Description :

    Dans le présent article, nous décrivons deux applications du lissage spatial en utilisant des données recueillies dans le cadre d'une enquête économique à grande échelle portant sur les exploitations agricoles australiennes: la première pour les petites régions et la seconde pour les grandes. Dans le premier cas, (petites régions), nous décrivons comment le lissage spatial des poids de l'échantillon peut permettre d'améliorer les estimations. Dans le second cas (grandes régions), nous proposons une méthode de lissage spatial et une méthode de cartographie des données lissées. La méthode standard de pondération utilisée pour l'enquête est une variante de la pondération à régression linéaire. Pour les petites régions, cette méthode est modifiée par l'introduction d'une contrainte sur la variabilité spatiale des poids. Les résultats d'une étude empirique à petite échelle laissent constater que cette méthode réduit comme prévu la variance des estimateurs des petites régions, mais au coût d'une augmentation de leur biais. Pour l'application aux grandes régions, nous décrivons la méthode de régression non paramétrique utilisée pour le lissage spatial des données d'enquête, ainsi que les techniques de cartographie de ces données lissées fondées sur un système d'information géographique (SIG). Nous présentons en outre les résultats d'une étude de de simulation réalisée afin de déterminer la méthode et le degré de lissage les plus appropriés pour l'utilisation avec les cartes.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022983
    Description :

    Nous proposons une approximation des probabilités d'inclusion d'ordre deux pour le plan de Chao (1982) en vue d'obtenir un estimateur de variance approché pour l'estimateur de Horvitz et Thompson. Ensuite, nous comparerons cette variance à d'autres approximations données pour le plan systématique randomisé (Hartley et Rao 1962), le plan réjectif (Hájek 1964) et le plan de Rao-Sampford (Rao 1965 et Sampford 1967). Nous conclurons que ces approximations sont équivalentes si les probabilités d'inclusion d'ordre un sont petites et si taille de l'échantillon est grande.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022981
    Description :

    Les résultats des études du panel partiel de la Current Population Survey révèlent que l'interview téléphonique assistée par ordinateur centralisée (ITAOC) a un effet sur l'estimation de la population active. Une hypothèse est que l'ITAOC accroît la probabilité que le répondant modifie sa déclaration au sujet de sa situation vis-à-vis de l'activité. Le test de McNemar à double échantillon permet de tester cette hypothèse: celle qui nous intéresse est que les changements marginaux relevés dans les tableaux des deux échantillons indépendants sont égaux. Les auteurs présentent deux variantes du test adaptées aux données d'enquêtes complexes, ainsi que leur application aux données du panel partiel de l'enquête parallèle à la Current Population Survey et à celles du projet d'intégration de l'ITAOC à la Current Population Survey.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022986
    Description :

    On présente une méthode combinée, élaborée dans le cadre d'un remaniement d'enquête, permettant de déterminer la taille minimale de l'échantillon requise pour appliquer l'estimateur de régression généralisé à une population à distribution asymétrique (p.ex., entreprises, institutions, entreprises agricoles). Pour être efficace, la stratégie de remaniement du plan d'échantillonnage doit comprendre trois éléments, à savoir: i) la partition efficace de la population en un groupe "à tirage complet" et un groupe "échantillon", ii) la définition d'une méthode efficace de sélection de l'échantillon et iii) la détermination de la taille minimale de l'échantillon requise pour satisfaire la ou les contraintes de précision imposées. On conçoit un mécanisme, bâptisé "algorithme de transfert", pour résoudre la première question (Pandher 1995) et on l'intègre aux deux autres éléments pour aboutir à une méthode itérative combinée qui converge vers une taille globalement minimale d'échantillon et une partition de la population qui satisfont les contraintes de précision imposés. Parallèlement, on obtient une solution équivalente de l'algorithme de transfert qu'on peut exprimer au moyen de quantités simples calculables directement à partir des données auxiliaires sur la population. Enfin, on présente les résultats de l'application de la méthode proposée de remaniement de l'échantillon à l'Enquête sur les finances des administrations locales en Ontario. On obtient une réduction de 52% de la taille globale de l'échantillon quand on fixe à 2% la valeur minimale du coefficient de variation pour l'estimateur de régression généralisé du total.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022982
    Description :

    Les travaux sur les enquêtes par échantillonnage exigent souvent qu'on recoure aux estimateurs des composantes de la variance associés à l'échantillonnage, à l'intérieur des unités primaires d'échantillonnage et entre celles-ci. Dans ce genre de travail, il peut s'avérer important d'avoir une idée de la stabilité des estimateurs des composantes de la variance, bref de savoir si ces estimateurs présentent une variance relativement faible. Nous examinerons ici plusieurs façons de mesurer la stabilité des estimateurs des composantes de la variance reposant sur le plan d'échantillonnage et des quantités connexes, d'après les données. Dans le développement, on mettra en relief les méthodes applicables aux enquêtes caractérisées par un nombre moyen ou important de strates et un petit nombre d'unités primaires d'échantillonnage par strate. Nous attirons principalement l'attention sur la variance intrinséque d'un estimateur de la variance intra-UPÉ et sur deux termes connexes se rapportant aux degés de liberté. Une méthode de simulation permet d'établir si la stabilité observée est cohérente avec les hypothèses types sur la stabilité de l'estimateur de la variance. Nous présentons aussi deux séries de mesures de stabilité pour les estimateurs des composantes de la variance inter-UPÉ reposant sur le plan d'échantillonnage et le ratio de la variance globale avec la variance intra-UPÉ. Les méthodes proposées sont appliquées aux données venant des interviews et des examens de la U.S. Third National Health and Nutrition Examination Survey (NHANES III). Les résultats montrent que les propriétés de la stabilité véritable peuvent changer sensiblement d'une variable à l'autre. Par ailleurs, pour certaines variables, les estimateurs de la variance intra-UPÉ semblent considérablement moins stables qu'on aurait pu s'y attendre consécutivement à un simple dénombrement des unités secondaires de chaque strate.

    Date de diffusion : 1997-01-30

Données (1)

Données (1) (1 result)

  • Tableau : 62-010-X19970023422
    Description :

    La période de base officielle de l'indice des prix à la consommation (IPC) est actuellement 1986=100. Cette période de base a été utilisée pour la première fois au moment de la diffusion des données de l'IPC pour juin 1990. Statistique Canada s'apprête à convertir toutes les séries des indices de prix à la période de base 1992=100. Par conséquent, toutes les séries en dollars constants seront aussi converties en dollars de 1992. L'IPC adoptera la nouvelle période de base lorsque paraîtront les données de l'indice pour janvier 1998 dès le 27 février 1998.

    Date de diffusion : 1997-11-17

Analyses (22)

Analyses (22) (22 of 22 results)

  • Articles et rapports : 91F0015M1997004
    Description :

    L'estimation des effectifs de population par âge, sexe, état matrimonial par provinces, est une entreprise difficile surtout à cause des migrations. En effet, on ne peut caractériser le migrant que par ses déclarations au recensement. Jusqu'en 1991, le recensement ne comportait que la question sur le lieu de résidence cinq ans auparavant. Ainsi, l'individu qui avait cinq ans auparavant une résidence différente était considéré comme un migrant et en tant que tel on lui attribuait au moment de sa migration les caractéristiques qu'il déclarait au recensement. Or, il avait eu cinq ans pour en changer, en particulier son état matrimonial.

    Depuis 1991, le recensement pose la question sur la résidence un an auparavant. La même démarche fait attribuer au migrant, au moment de sa migration, des caractéristiques qui selon toute vraisemblance risque davantage d'être les mêmes que celles qu'il déclare. Il n'a eu qu'une seule année pour en changer.L'article décrit en détail les méthodes utilisées maintenant par Statistique Canada pour estimer les caractéristiques des migrants et mesure les avantages par rapport à l'utilisation de la mobilité sur cinq ans.

    Date de diffusion : 1997-12-23

  • Articles et rapports : 91F0015M1997003
    Description :

    Pour des raisons historiques, les tables de mortalité les plus connues et fréquemment utilisées sont les tables du moment. Elles sont construites avec les taux de mortalité par âge observés sur une courte période (souvent l'année) et ont pour but de renseigner sur l'état de la mortalité à cette période. Les survivants et les décès qui figurent dans leurs colonnes sont en quelque sorte davantage des abstractions que des réalités. Il est donc fautif de croire que la table de mortalité d'une année (1995 par exemple) a une quelconque valeur prédictive de la cadence à laquelle disparaîtront ceux qui naissent cette année-là et par extension de la durée moyenne de la vie qu'ils commencent. À de rares exceptions la moyenne des années vécues par les individus a toujours été plus longue que l'espérance de vie de la table de mortalité de l'année de leur naissance. Cela vient de ce que l'incessante lutte contre la mort réduit année après année ces risques de décès à chaque âge et les individus, en avançant dans la vie bénéficient de ces gains successifs.

    Pour reconstituer (ou envisager) la cadence à laquelle les membres d'une génération ont réellement disparu (ou disparaîtront), il faut disposer de très longues séries de taux de mortalité par âge et d'indications fiables sur ceux qui manquent pour les agencer de manière à constituer le cheminement réel d'une génération. Construites exactement de la même manière que celles du moment ces tables portent tout naturellement le nom de tables de génération mais l'observation comparative de leurs paramètres livre des enseignements d'une grande richesse.

    Date de diffusion : 1997-10-01

  • Articles et rapports : 12-001-X19970013108
    Description :

    L'auteur explique comment recourir au calcul matriciel pour simplifier la dérivation de l'estimateur du coefficient de régression et de l'estimateur de régression par linéarisation.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013107
    Description :

    Aux États-Unis, les enquêtes démographiques polyvalentes comptent souvent parmi leurs principaux objectifs la production d'estimations de petites sous-populations définies, par example, selon la race, l'origine ethnique et le revenu. Le suréchantillonnage géographique est l'une des techniques fréquemment envisagées pour accroître la fiabilité des statistiques sur ces petites sous-populations (ou domaines), dans la mesure où l'information sur les îlots ou les groupes d'îlots du Bureau of the Census permet d'identifier les régions où se concentrent les sous-pupulations auxquelles on s'interesse. Les auteurs ménages en vue d'améliorer la précision des estimations sur les petits domaines. Ils présentent les résultats d'une évaluation empirique de la réduction de la variance obtenue par suréchantillonnage géographique et évaluent la robustesse de l'efficacité de l'échantillonnage dans le temps, à mesure que les données servant à la stratification perdent de leur actualité. L'article aborde aussi la question du suréchantillonnage simultané de plusieurs petites sous-populations.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013104
    Description :

    Les mesures de l'inégalité et de la polarisation du revenu sont essentielles à l'étude de nombreux dossiers économiques et sociaux. La plupart de ces mesures étant des fonctions non linéaires de la fonction de distribution et (ou) des qualtiles, on ne peut exprimer leur variance au moyen d'une formule simple et on doit recourir aux méthodes à l'estimation de la variance de six mesures particulières de l'inégalité et de la polarisation du revenu et on étudie empiriquement leur performance grâce à une étude en simulation fondée sur l'Enquête canadienne sur les finances des consommateurs. Les résultats indiquent que, pour les mesures étudiées, la méthode bootstrap et celle des équations d'estimation donnent de nettement meilleurs résultats que les autres.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013101
    Description :

    Dans le travail ordinaire en statistique, l'échantillonnage est souvent exécuté en fonction d'un processus qui choisit des variables aléatoires telles sont indépendantes et distribuées de façon identique (IDI), de sorte qu'il faut avoir recours à des rajustements pour les utiliser dans le contexte d'une enquête complexe. Toutefois, au lieu de rajuster l'analyse, les auteurs ont adopté une formulation qui a ceci de nouveau qu'elle prélève un second échantillon dans l'échantillon original. Dans ce second échantillon, le premier ensemble de sélections est inversé de façon à fournir à terme un échantillon aléatoire simple. Bien entendu, il serait inefficace d'utiliser ce processus en deux étapes pour tirer un échantillon aléatoire simple unique d'une enquête complexe normalement beaucoup plus grande, et c'est pourquoi des échantillons aléatoires simples multiples sont prélevés, les auteurs ayant élaboré une façon de fonder sur eux des inférences. Les échantillons originaux ne peuvent pas tous être inversés, mais les auteurs abordent de nombreux cas spéciaux qui couvrent tout un éventail de possibilités.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013103
    Description :

    Les auteurs décrivent certaines méthodes diagnostiques simples utilisées pour guider la construction de cellules de correction pour la non-réponse. S'inspirant des travaux de Little (1986), ils étudient la construction de cellules de correction par regroupement d'unités d'échantillonnage selon la probabilité estimée de réponse ou selon la réponse estimée aux questions de l'enquête. Ils examinent plus particulièrement l'évaluation de la sensibilité des estimations corrigées de la moyenne à la variation de k, c'est-à-dire le nombre de cellules utilisées, le dépistage de cellules particulières qui nécessitent une mise au point supplémentaire, la comparaison des estimations corrigées et non corrigées de la moyenne et la comparaison des estimations obtenues au moyen des cellules fondées sur la probabilité estimée de réponse, d'une part, et sur la réponse estimée aux questions, d'autre part. Les auteurs justifient les méthodes proposées et les illustrent par une application à l'estimation du revenu moyen des unités de la U.S. Consumer Expenditure Survey.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013100
    Description :

    Les auteurs présentent un système de procédures qui peut servir à automatiser les calculs algébriques complexes que l'on retrouve souvent en théorie des enquêtes par échantillonnage. Ils montrent que trois techniques de base en théorie de l'échantillonnage dépendent de l'application répétée de règles donnant lieu à des partitions: le calcul des valeurs espérées dans un plan d'échantillonnage quelconque à un dégré, la détermination d'estimateurs non biaisés ou convergents dans le cadre de ces plans et le développement en séries de Taylor. La méthode est appliquée ici à des calculs de moments de la moyenne de l'échantillon, de l'estimateur de quotients et de l'estimateur de la régression dans le cas spécial d'un sondage aléatoire simple sans remise. L'innovation présentée ici est que les calculs peuvent désormais être exécutés instantanément par ordinateur sans erreur et sans recours à des formules existantes possiblement longues et complexes. Un autre avantage immédiat est que les calculs peuvent être exécutés là où il n'existe actuellement aucune formule. Le code machine élaboré en vue de la mise en œuvre de cette méthode est accessible par FTP anonyme au fisher.stats.uwo.ca.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013102
    Description :

    Les auteurs examinent la sélection des variables auxiliaires pour l'estimation par régression des paramètres des populations finies dans le cas d'un plan de sondage aléatoire simple. Ce problème fondamental que posent les méthodes d'échantillonnage fondé sur un modèle ou assisté par un modèle prend une importance d'ordre pratique quand le nombre de variables disponibles est grand. Les auteurs élaborent une méthode consistant à minimiser un estimateur de l'erreur quadratique moyenne, puis, la comparent à d'autres en utilisant un ensemble fixe de variables auxiliaires, un test de signification classique, une méthode de réduction du nombre de conditions et une méthode de régression ridge. Selon les résultats de l'étude, la méthode proposée est efficace. Les auteurs soulignent que la méthode de sélection des variables influe sur les propriétés des estimateurs types de la variance, ce qui entraîne par conséquent un problème d'estimation de la variance.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013106
    Description :

    La méthode utilisée pour estimer l'erreur-type des données des recensements décennaux des États-Unis de 1970 à 1990 donne des résultats disparates. Ainsi, on obtient des erreurs-types différentes pour les réponses "oui" et "non" à la même variable binomiale, alors que les deux estimations devraient être identiques. Quand la plupart des personnes répondent d'une façon à une question binomiale et quelques autres donnent la réponse contraire, l'erreur-type est beaucoup plus élevée pour la personne la plus fréquente. D'autre part, lorsque les personnes interrogées fournissent toutes la même réponse, l'erreur-type n'est pas égale à zéro et reste fort élevée. Signaler les effets moyens du plan d'échantillonnage pondérés selon le nombre de répondants qui présentent des caractéristiques particulières ne fait qu'aggraver le problème. L'auteur propose une solution de rechange à la méthode d'estimation de l'erreur-type des groupes aléatoires utilisée dans le cadre du recensement des États-Unis.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013105
    Description :

    Les auteurs étudient le problème qui consiste à estimer les taux de transition au moyen des données d'une enquête longitudinale, lorsqu'il existe des erreurs de classification. Ils examinent les approches faisant appel à des données auxiliaires sur les taux de classification erronée et ainsi que d'autres approches pour modéliser l'erreur de mesure. À partir de variables instrumentales nominales, ils suggèrent comment identifier et estimer les modèles qui comprennent des variables de ce genre en considérant un modèle à structure latente restreinte. Enfin, ils étudient les propriétés numériques des estimateurs implicites des variables instrumentales pour les taux des flux grâce aux données de l'étude par panel sur la dynamique de revenu.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 11F0019M1997099
    Description :

    Contexte : Le poumon est depuis plusieurs années le principal siège de cancer causant le décès pour les hommes et il est devenu depuis 1994 également laprincipale cause de décès par cancer pour les femmes au Canada. Il est donc important d'évaluer les ressources nécessaires à son diagnostic et à son traitement. Cetarticle présente, à partir d'un modèle de micro-simulation, une estimation des coûts médicaux directs associés au diagnostic et au traitement du cancer du poumon. L'incidence de 1992 est choisie comme référence alors que les coûts sont évalués selon les tarifs de 1993.Méthodes : Un module consacré au cancer du poumon a été incorporé au Modèle sur la santé de la population (POHEM). Les paramètres du module proviennent,entre autre, du régistre canadien des cancers (RCC) de Statistique Canada qui a fourni de l'information sur l'incidence et la classification histologique des cas decancer du poumon au Canada. Les registres de deux provinces ont permis d'estimer la distribution des stades du cancer au moment du diagnostic. Une équiped'oncologues a dérivé des méthodes de traitements «types» reflétant la pratique actuelle ainsi que les coûts directs associés. L'intégration de ces informations ainsique des courbes de survie appropriées au modèle POHEM permet, par simulation Monte Carlo, d'estimer les coûts globaux de traitement. Résultats : Nous avons estimé que les coûts médicaux directs de diagnostic et de traitement du cancer du poumon s'élevaient globalement à un peu plus de 528millions de dollars. Le coût par année de vie gagnée grâce au traitement de la maladie était d'environ 19,450 $. Pour la première fois au Canada, on a pu estimer lescoûts pour chacune des cinq années postérieures au diagnostic ainsi que pour chacun des stades au moment du diagnostic. Finalement, le coût par année de viegagnée supplémentaire pour trois traitements alternatifs du cancer du poumon non à petite cellule (CPNPC) a pu être estimé. Une analyse de sensibilité a montré queces coûts variaient entre 1,867 $ et 6,850 $ par année de vie gagnée supplémentaire, ce qui se compare avantageusement aux coûts que peuvent entraîner letraitement d'autres maladies.Conclusions : Contrairement à certains avis répandus, il semble que le traitement du cancer du poumon soit efficace d'un point de vue économique. En outre,l'utilisation d'un modèle de micro-simulation comme POHEM permet non seulement l'intégration cohérente d'information de sources diverses mais offre aussi lapossibilité d'estimer l'effet d'interventions médicales alternatives du point de vue des pressions financières sur le système de soins de santé.

    Date de diffusion : 1997-04-22

  • Articles et rapports : 12-001-X19960022980
    Description :

    Dans le présent article, nous présentons une méthode qui permet d'estimer l'intervalle de confiance de la moyenne d'une population finie quand on dispose de certaines données auxiliaires. Comme l'ont montré Royall et Cumberland grâce à une série d'études empiriques, l'application naïve des méthodes existantes de construction des intervalles de confiance de la moyenne d'une population aboutit parfois à de très médiocres probabilités conditionnelles de couverture subordonnées à la moyenne d'échantillon de la covariable. Le cas échéant, nous proposons de transformer les données pour améliorer la précision de l'approximation normale. Puis, d'après les données transformées, nous faisons une inférence quant à la moyenne de la population originale et intégrons les données auxiliaires à l'inférence soit directement, soit par calage au moyen d'une fonction empirique de vraisemblance. Nous appliquons notre méthode, qui est basée sur le plan de sondage, à six populations réelles et constatons que, dans les cas où la transformation est nécessaire, elle donne de bons résultats comparativement à la méthode de régression habituelle.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022985
    Description :

    La couverture des sondages téléphoniques effectués aux États-Unis est biaisée, car environ 6% des ménages sont privés de téléphone à un moment ou à un autre dans le temps. Le biais attribuable au sous-dénombrement peut être important. En effet, les ménages sans téléphone sont généralement plus démunis que les autres et leurs caractéristiques différent de celles de la population d'abonnés. La stratification a posteriori et les autres méthodes d'ajustement habituelles permettent rarement de compenser pareil biais en totalité. La présente recherche porte sur une méthode servant à ajuster les estimations de l'enquête. Cette méthode repose sur l'observation que certains ménages n'ont le téléphone qu'une partie de l'année, souvent à cause de difficultés économiques. En recueillant des données sur les interruptions du service téléphonique durant l'année antérieure, on peut procéder à un ajustement statistique des estimations et réduire le biais, mais parallèlement la variance augmente en raison de la plus grande variabilité des poids. Nous examinerons ici une méthode d'ajustement articulée sur les données recueillies lors d'une sondage téléphonique mené à l'échelle nationale. La réduction du biais et l'effet sur l'erreur quadratique moyenne des estimations ont été évalués pour diverses statistiques. Les résultats indiquent que lorsque les estimations tirées de l'enquête sont étroitement liées à la situation économique, la méthode d'ajustement fondée sur les interruptions du service téléphonique peut améliorer l'erreur quadratique moyenne des résultats.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022979
    Description :

    Dans cet article, les auteurs comparent empiriquement trois méthodes d'estimation - par régression, par régression restreinte au moyen de la méthode dite de la personne principale - utilisées dans une enquête-ménage sur les dépenses de consommation. Les trois méthodes sont appliquées à la stratification a posteriori, qui est importante dans de nombreuses enquêtes-ménages afin de corriger le sous-dénombrement de la population cible. Dans les recensements externes, on dispose habituellement de chiffres de population pour des strates a posteriori pour les personnes, mais non pour les ménages. Si on a besoin d'estimations par ménage, on doit assigner un facteur de pondération unique à chaque ménage, tout en utilisant le nombre de personnes pour la stratification a posteriori. On y parvient facilement en employant des estimateurs de régression pour les totaux ou les moyennes, et en utilisant le nombre de personnes dans les données auxiliaires de chaque ménage. L'estimation par régression restreinte permet de mieux calculer les facteurs de pondération, car on contrôle les valeurs extrêmes et l'on peut obtenir des estimateurs présentant une variance moindre que les estimateurs de Horvitz-Thompson, tout en respectant les totaux de contrôle de la population. Les méthodes de régression permettent également d'utiliser des contrôles pour les chiffres au niveau des personnes et des ménages et pour les données auxiliaires quantitatives. Avec la méthode dite de la personne principale, les personnes sont classées dans les strates a posteriori, et les facteurs de pondération pour les personnes font l'objet d'un rajustement par quotient afin d'obtenir des totaux de contrôle de la population. De la sorte, chaque personne dans un ménage peut se voir attribuer un facteur de pondération différent. Le facteur de pondération associé à la "personne principale" est alors choisi comme facteur de pondération pour le ménage. Nous comparerons les moyennes calculées à partir des trois méthodes, ainsi que leurs erreurs-types estimées, pour un certain nombre de dépenses tirées de l'enquête sur les dépenses de consommation parrainée par le Bureau of Labor Statistics.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022973
    Description :

    Il existe des méthodes bien connues dues à Deville et Sárndal (1992) qui permettent de corriger les poids d'échantillonnage de façon à respecter les contraintes d'étalonnage et les restrictions applicables à la fourchette de valeurs. Les estimateurs qui en résultent s'appellent estimateurs de calage. Il existe également une méthode antérieure, peut-être moins bien connue, due à Huang et Fuller (1978). De plus, d'autres méthodes ont été élaborées par Singh (1993), qui a montré que, comme les résultats de Deville-Sárndal l'indiquent, toutes ces méthodes sont asymptotiquement équivalentes à la méthode de régression. Le présent article comporte trois objectifs: i) fournir une justification heuristique simple pour tous les estimateurs de calage, y compris ceux qui sont bien connus et moins bien connus, en adoptant une stratégie non traditionnelle; il s'agit d'abord de choisir un modèle (au lieu de la fonction de distance) pour le coefficient de correction des poids, et, ensuite, de montrer qu'une méthode appropriée d'ajustement des modèles correspond à la solution de minimisation de la distance; ii) offrir aux praticiens des algorithmes de calcul rapide; iii) comparer différentes méthodes du point de vue de la distribution des coefficients de correction des poids, des estimations ponctuelles, de la précision estimée et du nombre de calculs à effectuer en citant des exemples numériques fondés sur un ensemble de données réelles. Il est possible de formuler des observations intéressantes à l'aide d'une analyse descriptive de résultats numériques indiquant que, même si toutes les méthodes de calage ressemblent à la méthode de régression en ce qui concerne les limites larges, elles comportent des différences pour ce qui est des limites étroites.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022978
    Description :

    L'utilisation de données auxiliaires dans les méthodes d'estimation des enquêtes complexes, notamment l'Enquête sur la population active de Statistique Canada, ne cesse de se perfectionner. L'estimation par régression et l'estimation par itération du quotient étaient naguère les méthodes les plus courantes pour intégrer les données auxiliaires à l'estimation. Il arrivait toutefois que les poids associés à l'estimateur soient négatifs ou hautement positifs. Les progrès théoriques réalisés récemment par Deville et Sárndal (1992) en vue de la construction de poids "restrictifs" que l'on peut assujettir à une valeur positive et à un plafond nous ont incités à étudier les propriétés des estimateurs en résultant. Nous examinons ici les propriétés de diverses méthodes servant à engendrer des poids de ce genre et la variance estimative correspondante. Nous nous intéresserons en particulier à deux méthodes d'estimation de la variance en recourant à une simulation de Monte Carlo articulée sur les données de l'Enquête sur la population active. Il s'agit en l'occurrence des méthodes du jackknife et de la linéarisation de Taylor. On en conclut que les estimateurs ponctuels et les estimateurs de la variance n'entraînent qu'un biais minime, même avec l'application de sérieuses "restrictions" aux poids finals.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022984
    Description :

    Dans le présent article, nous décrivons deux applications du lissage spatial en utilisant des données recueillies dans le cadre d'une enquête économique à grande échelle portant sur les exploitations agricoles australiennes: la première pour les petites régions et la seconde pour les grandes. Dans le premier cas, (petites régions), nous décrivons comment le lissage spatial des poids de l'échantillon peut permettre d'améliorer les estimations. Dans le second cas (grandes régions), nous proposons une méthode de lissage spatial et une méthode de cartographie des données lissées. La méthode standard de pondération utilisée pour l'enquête est une variante de la pondération à régression linéaire. Pour les petites régions, cette méthode est modifiée par l'introduction d'une contrainte sur la variabilité spatiale des poids. Les résultats d'une étude empirique à petite échelle laissent constater que cette méthode réduit comme prévu la variance des estimateurs des petites régions, mais au coût d'une augmentation de leur biais. Pour l'application aux grandes régions, nous décrivons la méthode de régression non paramétrique utilisée pour le lissage spatial des données d'enquête, ainsi que les techniques de cartographie de ces données lissées fondées sur un système d'information géographique (SIG). Nous présentons en outre les résultats d'une étude de de simulation réalisée afin de déterminer la méthode et le degré de lissage les plus appropriés pour l'utilisation avec les cartes.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022983
    Description :

    Nous proposons une approximation des probabilités d'inclusion d'ordre deux pour le plan de Chao (1982) en vue d'obtenir un estimateur de variance approché pour l'estimateur de Horvitz et Thompson. Ensuite, nous comparerons cette variance à d'autres approximations données pour le plan systématique randomisé (Hartley et Rao 1962), le plan réjectif (Hájek 1964) et le plan de Rao-Sampford (Rao 1965 et Sampford 1967). Nous conclurons que ces approximations sont équivalentes si les probabilités d'inclusion d'ordre un sont petites et si taille de l'échantillon est grande.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022981
    Description :

    Les résultats des études du panel partiel de la Current Population Survey révèlent que l'interview téléphonique assistée par ordinateur centralisée (ITAOC) a un effet sur l'estimation de la population active. Une hypothèse est que l'ITAOC accroît la probabilité que le répondant modifie sa déclaration au sujet de sa situation vis-à-vis de l'activité. Le test de McNemar à double échantillon permet de tester cette hypothèse: celle qui nous intéresse est que les changements marginaux relevés dans les tableaux des deux échantillons indépendants sont égaux. Les auteurs présentent deux variantes du test adaptées aux données d'enquêtes complexes, ainsi que leur application aux données du panel partiel de l'enquête parallèle à la Current Population Survey et à celles du projet d'intégration de l'ITAOC à la Current Population Survey.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022986
    Description :

    On présente une méthode combinée, élaborée dans le cadre d'un remaniement d'enquête, permettant de déterminer la taille minimale de l'échantillon requise pour appliquer l'estimateur de régression généralisé à une population à distribution asymétrique (p.ex., entreprises, institutions, entreprises agricoles). Pour être efficace, la stratégie de remaniement du plan d'échantillonnage doit comprendre trois éléments, à savoir: i) la partition efficace de la population en un groupe "à tirage complet" et un groupe "échantillon", ii) la définition d'une méthode efficace de sélection de l'échantillon et iii) la détermination de la taille minimale de l'échantillon requise pour satisfaire la ou les contraintes de précision imposées. On conçoit un mécanisme, bâptisé "algorithme de transfert", pour résoudre la première question (Pandher 1995) et on l'intègre aux deux autres éléments pour aboutir à une méthode itérative combinée qui converge vers une taille globalement minimale d'échantillon et une partition de la population qui satisfont les contraintes de précision imposés. Parallèlement, on obtient une solution équivalente de l'algorithme de transfert qu'on peut exprimer au moyen de quantités simples calculables directement à partir des données auxiliaires sur la population. Enfin, on présente les résultats de l'application de la méthode proposée de remaniement de l'échantillon à l'Enquête sur les finances des administrations locales en Ontario. On obtient une réduction de 52% de la taille globale de l'échantillon quand on fixe à 2% la valeur minimale du coefficient de variation pour l'estimateur de régression généralisé du total.

    Date de diffusion : 1997-01-30

  • Articles et rapports : 12-001-X19960022982
    Description :

    Les travaux sur les enquêtes par échantillonnage exigent souvent qu'on recoure aux estimateurs des composantes de la variance associés à l'échantillonnage, à l'intérieur des unités primaires d'échantillonnage et entre celles-ci. Dans ce genre de travail, il peut s'avérer important d'avoir une idée de la stabilité des estimateurs des composantes de la variance, bref de savoir si ces estimateurs présentent une variance relativement faible. Nous examinerons ici plusieurs façons de mesurer la stabilité des estimateurs des composantes de la variance reposant sur le plan d'échantillonnage et des quantités connexes, d'après les données. Dans le développement, on mettra en relief les méthodes applicables aux enquêtes caractérisées par un nombre moyen ou important de strates et un petit nombre d'unités primaires d'échantillonnage par strate. Nous attirons principalement l'attention sur la variance intrinséque d'un estimateur de la variance intra-UPÉ et sur deux termes connexes se rapportant aux degés de liberté. Une méthode de simulation permet d'établir si la stabilité observée est cohérente avec les hypothèses types sur la stabilité de l'estimateur de la variance. Nous présentons aussi deux séries de mesures de stabilité pour les estimateurs des composantes de la variance inter-UPÉ reposant sur le plan d'échantillonnage et le ratio de la variance globale avec la variance intra-UPÉ. Les méthodes proposées sont appliquées aux données venant des interviews et des examens de la U.S. Third National Health and Nutrition Examination Survey (NHANES III). Les résultats montrent que les propriétés de la stabilité véritable peuvent changer sensiblement d'une variable à l'autre. Par ailleurs, pour certaines variables, les estimateurs de la variance intra-UPÉ semblent considérablement moins stables qu'on aurait pu s'y attendre consécutivement à un simple dénombrement des unités secondaires de chaque strate.

    Date de diffusion : 1997-01-30

Références (1)

Références (1) (1 result)

  • Index et guides : 92-125-G
    Description :

    Le présent guide de consultation marque le début du processus de consultation sur le contenu du recensement de 2001 et du processus de mise à l'essai du contenu. On demandera à un large éventail d'utilisateurs de données (représentants de tous les paliers de gouvernement, associations nationales, organisations non gouvernementales, groupes communautaires, entreprises et secteur privé, universités et grand public) d'apporter leurs commentaires sur les questions du recensement et sur leurs besoins futurs en matière de données et de signaler les lacunes statistiques.

    Date de diffusion : 1997-10-31

Date de modification :