Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (20)

Tout (20) (20 of 20 results)

  • Articles et rapports : 12-001-X199400214423
    Description :

    La plupart des enquêtes souffrent du problème de données manquantes attribuable à la non-réponse. Pour traiter ce problème, on a souvent recours à l’imputation afin de créer un « ensemble de données complet », c’est-à-dire, un ensemble de données composé d’observations réelles (pour les répondants) et d’imputations (pour les non-répondants). Habituellement, on effectue l’imputation en supposant un mécanisme de réponse non-confondu. Quand cette hypothèse se révèle fausse, un biais est introduit dans l’estimateur ordinaire de la moyenne de population calculé à partir de l’ensemble de données complet. Dans le présent article, nous étudions l’idée d’employer des facteurs de correction simples pour régler le problème du biais dans le cas où l’on a recours à l’imputation par quotient. Nous évaluons l’efficacité des facteurs de correction à l’aide d’une simulation de Monte Carlo dans laquelle nous utilisons des ensembles de données produits artificiellement qui représentent divers taux de non-réponse et mécanismes de non-réponse et diverses superpopulations et corrélations entre la variable étudiée et la variable auxiliaire. Nous constatons que ces facteurs de correction sont efficaces, particulièrement lorsque la population suit le modèle sous-jacent l’imputation par quotient. Nous traitons aussi d’une option pour estimer la variance des estimations ponctuelles corrigées.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214426
    Description :

    Dans le projet MARS (Monitoring Agriculture with Remote Sensing ou surveillance de l’agriculture par télédétection) de la CE (Communauté européenne), on utilise des bases aréolaires définies à l’aide d’une grille carrée pour estimer les superficies au moyen d’enquêtes sur le terrain et d’images-satellites à haute résolution. Quoique coûteuses, ces images-satellites sont utiles pour l’estimation des superficies; leur utilisation pour l’estimation du rendement n’est pas encore opérationnelle. Pour combler cette lacune, on emploie aussi les éléments de l’échantillon (segments) de l’enquête aréolaire pour échantillonner les exploitations agricoles à l’aide d’un gabarit de points superposé au segment. Le plus souvent, on utilise un nombre fixe de points par segment. On demande aux exploitants agricoles de fournir des données globales pour leur exploitation et on calcule les estimations à l’aide d’une approche de type Horvitz-Thompson. Les principaux problèmes sont la difficulté de repérer les exploitants et la vérification des cas où les instructions ont été mal comprises. On obtient de bons résultats pour la superficie et pour la production des cultures principales. Les bases aréolaires doivent être complétées par des listes (bases de sondage multiples) pour donner des estimations fiables dans le cas des animaux d’élevage.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214417
    Description :

    L’échantillonnage sans remise à partir d’une liste avec probabilité proportionnelle à une mesure de taille est peu utilisé en foresterie à cause des difficultés d’application de cette méthode, qu’on appelle d’ailleurs « plan \pi pt » pour distinguer l’échantillonnage sans remise du plan bien connu de l’échantillonnage PPT avec remise. Dans cet article, nous étudions un plan \pi pt authentique (variante 2 de Sunter), un plan \pi pt approximatif (variante 1 de Sunter) ainsi que la méthode des groupes aléatoires de Rao-Hartley-Cochran et nous calculons la variance des estimateurs correspondants du volume total de fût pour quatre populations d’arbres. Les résultats montrent que, par rapport à la méthode de Rao-Hartley-Cochran, la variante 1 de Sunter produit en général des estimations plus précises lorsque la relation entre l’information supplémentaire, x_k, et le caractère étudié, y_k, est modérée mais sensible au mode de classement des éléments de la base de sondage, alors que la méthode de Rao-Hartley-Cochran ne nécessite pas de classement particulier pour les éléments de la base de sondage et semble plus efficace que la variante 1 lorsqu’il existe une forte relation linéaire entre x_k et y_k.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214418
    Description :

    Nous traitons le problème de non-réponse en s’inspirant du modèle de sélection en phases proposé par Särndal et Swenson (1987). Pour estimer les probabilités de réponse, nous recourons à l’approche d’estimation non-paramétrique initiée par Giommi (1987). Nous définissons des estimateurs sous le modèle d’estimation non-paramétrique (ENP) et étudions empiriquement leurs propriétés générales. L’inférence est basée sur la notion de quasi-randomisation (Oh et Scheuren 1983). L’accent est mis sur l’estimation de la variance et la construction des intervalles de confiance. Nous constatons, par une étude de Monte Carlo, qu’il est possible d’améliorer la qualité des estimateurs considérés en utilisant une variante de l’approche d’ENP. Elle permet également de confirmer la performance des estimateurs par régression en termes d’estimation de la variance.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214419
    Description :

    L’objet de cette étude était d’évaluer divers estimateurs pour petites régions dans le but de produire des estimations de niveau pour des domaines non planifiés tirés de l’Enquête sur la population active Italienne. Dans notre étude, les petites régions sont les régions des services de santé, qui sont des domaines territoriaux infrarégionaux non planifiés, qui n’ont pas été isolés au moment de l’établissement du plan d’échantillonnage et qui chevauchent donc les limites des strates du plan d’échantillonnage. Nous considérons les estimateurs suivants : l’estimateur par quotient de stratification a posteriori, l’estimateur synthétique, l’estimateur composite exprimé sous forme d’une combinaison linéaire de l’estimateur synthétique et de l’estimateur par quotient de stratification a posteriori et l’estimateur dépendant de la taille de l’échantillon. Pour tous les estimateurs considérés ici, les biais relatifs moyens en pourcentage et la moyenne des erreurs quadratiques moyennes relatives ont été obtenus par une étude de Monte Carlo dans laquelle le plan d’échantillonnage a été simulé à l’aide de données provenant du recensement de l’Italie de 1981.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214425
    Description :

    Nous présentons une solution formelle, fondée sur un modèle, au problème de l’estimation de la taille de bases de sondage (listes), au moyen d’un échantillonnage avec saisie-ressaisie; cette solution a été largement utilisée pour estimer des populations d’animaux et pour le redressement des chiffres du recensement des États-Unis. Lorsqu’on dispose de deux listes incomplètes, il est facile d’estimer la taille totale de la base, en utilisant l’estimateur de Lincoln-Petersen. Il s’agit d’un estimateur fondé sur un modèle, qui repose sur l’hypothèse clé que les deux listes sont indépendantes. Dès qu’on dispose d’une estimation de la taille de la population (base de sondage), on peut estimer un total de population pour une caractéristique quelconque si cette caractéristique est mesurée auprès d’un échantillon de la population. Une analyse des propriétés de l’estimateur de Lincoln-Petersen est présentée. Nous examinons un exemple dans lequel les établissements sont des bateaux de pêche en activité au large de la côte Atlantique des États-Unis. L’estimation de la taille de la base de sondage, puis de totaux de population, à l’aide d’un modèle de saisie-ressaisie devrait avoir de vastes applications dans les enquêtes auprès des établissements, vu son côté pratique et les économies qu’elle procure. Toutefois, la possibilité que des biais soient introduits par suite du non-respect de certaines hypothèses doit être prise en considération.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214420
    Description :

    De nombreuses méthodes de protection du caractère confidentiel des microdonnées sont décrites dans les ouvrages de statistique. Cependant, l’usage qu’en font les organismes statistiques et la compréhension qu’on a de leurs propriétés et de leurs effets sont limités. Afin de favoriser la recherche sur ces méthodes ainsi que leur usage et pour faciliter leur évaluation et l’assurance de la qualité, il est souhaitable de formuler ces méthodes selon une seule approche. Dans cet article, nous présentons une approche appelée masquage de matrice - qui repose sur le calcul matriciel ordinaire - et nous formulons des masques de matrice pour les principales méthodes de protection du caractère confidentiel de microdonnées actuellement en usage, ce qui permettra aux organismes statistiques et aux autres spécialistes du domaine d’avoir une meilleure compréhension de ces méthodes et de les mettre en application.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214421
    Description :

    L’objet de cet article est de tester une hypothèse concernant des coefficients de régression linéaire en se fondant sur des données d’enquête. L’article montre que si l’on utilise l’estimateur de variance par linéarisation fondé sur un plan pour un coefficient de régression, il faut modifier cet estimateur pour en réduire le faible biais de modèle et faire une estimation de type Satterthwaite du nombre effectif de ses degrés de liberté. Un aspect particulier très important de cette analyse est son application aux moyennes de domaine.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214427
    Description :

    Dans cet article, nous déterminons un estimateur par régression généralisé pour domaines ainsi qu’un estimateur approximatif de la variance correspondante suivant un plan d’échantillonnage à deux phases pour stratification avec échantillonnage de Poisson à chaque phase. Ces estimateurs sont une application du modèle général d’estimation par régression pour l’échantillonnage à deux phases élaboré dans Särndal et Swensson (1987) et par Särndal, Swensson et Wretman (1992). Nous étudions l’efficacité empirique de l’estimateur par régression généralisé à l’aide de données de l’échantillon à deux phases de dossiers fiscaux de Statistique Canada, formé annuellement. Enfin, nous comparons à l’estimateur de Horvitz-Thompson trois cas particuliers de l’estimateur par régression généralisé, soit deux estimateurs par régression et un estimateur de stratification a posteriori.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214422
    Description :

    Depuis 1950, le Bureau of the Census des É.-U. a recours à l’estimation de système dual (ESD) pour mesurer le taux de couverture du recensement décennal. Selon cette méthode, on combine des données d’un échantillon avec des données du recensement pour estimer le sous-dénombrement et le surdénombrement dans le recensement. L’ESD repose sur l’hypothèse d’un appariement parfait des unités du recensement et de celles de l’échantillon. Or, les erreurs d’appariement et les fausses non-concordances, qui sont inévitables, ont pour effet de réduire la précision de cette méthode d’estimation. Dans cet article, nous reconsidérons l’ESD en assouplissant l’hypothèse de l’appariement parfait et nous proposons des modèles qui décrivent deux types d’erreur d’appariement : l’appariement de cas qui ne sont pas appariables et le non-appariement de cas qui sont appariables. En outre, nous présentons des méthodes pour estimer le total d’une population et le sous-dénombrement dans le recensement et nous en illustrons l’application au moyen de données du recensement d’essai de 1986 à Los Angeles et du recensement décennal de 1990.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214424
    Description :

    Cet article donne un aperçu de considérations importantes qui doivent entrer en ligne de compte dans l’élaboration et la conception des questionnaires d’enquêtes-entreprises. Ces considérations sont la détermination des objectifs et des besoins en données, la consultation des utilisateurs des données et des répondants et les méthodes à utiliser pour faire l’essai des questionnaires. Pour l’élaboration et de la conception d’un questionnaire d’enquête-entreprise, les groupes de discussion et les méthodes de recherche cognitive aident le chercheur à découvrir des sources possibles d’erreur de mesure et à comprendre le processus de réponse suivi par le répondant qui doit remplir le questionnaire. Cet article donne également des exemples d’utilisation de groupes de discussion et de travaux de recherche cognitive à Statistique Canada.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400114430
    Description :

    Rao et Nigam (1990, 1992) ont montré comment une classe de plans à échantillonnage contrôlé peut être produite par programmation linéaire. Dans cet article, leur méthode est appliquée à la stratification multidimensionnelle. L’examen des plans de sondage produits dans des applications particulières, ainsi que l’évaluation des erreurs quadratiques moyennes, permettent d’établir une comparaison avec les méthodes existantes. La méthode proposée est d’utilisation relativement simple et semble avoir une performance raisonnable sur le plan des erreurs quadratiques moyennes. Les calculs nécessaires peuvent toutefois augmenter rapidement, à mesure que s’accroît le nombre de cellules dans la classification multidimensionnelle. L’estimation de la variance est également examinée.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114435
    Description :

    L’estimation de totaux et de moyennes pour un domaine à l’aide de données d’échantillon est un problème courant. Lorsque le domaine est grand, l’échantillon observé est généralement suffisamment grand pour que des estimateurs directs, fondés sur un plan, soient assez précis. Mais lorsque le domaine est petit, la taille de l’échantillon observé est faible et les estimateurs directs ne conviennent plus. L’estimation pour petite région est un cas typique et des solutions de rechange comme l’estimation synthétique et l’estimation fondée sur un modèle ont été élaborées pour contourner le problème. Ces deux méthodes ont ceci de caractéristique, que de l’information est « empruntée » à d’autres petits domaines (ou petites régions) de manière à obtenir des estimateurs de paramètres plus précis, lesquels sont ensuite combinés avec de l’information supplémentaire, comme des moyennes ou des totaux pour population, tirée de chaque petite région afin d’établir une estimation plus précise de la moyenne ou du total pour un domaine (ou une région). Dans cet article, nous étudions un cas d’échantillonnage avec probabilités inégales où il n’existe pas d’information supplémentaire et où l’emprunt d’information n’est pas permis; pourtant, des estimateurs simples fondés sur un modèle sont élaborés dans ces conditions et semblent offrir des gains d’efficacité appréciables. L’exemple que nous utilisons ici est une étude de marché mais les domaines d’application de ces méthodes sont nombreux.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114428
    Description :

    Depuis quelques temps, on consacre beaucoup d’effort pour dénombrer les sans-abri et en définir les caractéristiques. Cependant, on s’est concentré jusqu’à maintenant sur les sans-abri des régions urbaines. Dans cet article, nous décrivons les efforts qui ont été faits en vue d’estimer le taux de sans-abri dans les comtés non urbains de l’Ohio. Les méthodes qui servent à repérer les sans-abri et même la définition de la clochardise sont différentes dans les régions rurales, où les institutions qui accueillent les sans-abri sont moins nombreuses. De plus, l’emploi d’estimateurs ordinaires basés sur des échantillons d’enquête peut poser des difficultés dans une analyse axée sur les régions rurales, étant donné que ces estimateurs exigent généralement de grandes populations, de grands échantillons et de faibles fractions de sondage. Nous décrivons l’enquête qui a été faite dans les régions non urbaines de l’Ohio pour dénombrer les sans-abri et nous présentons l’étude de simulation qui a été effectuée dans le but d’évaluer l’utilité des estimateurs ordinaires de la proportion d’une population basés sur un échantillon en grappes stratifié.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114429
    Description :

    Les auteurs appliquent une méthode de production de poids de régression à la Nationwide Food Consumption Survey réalisée en 1987-1988 par le Département de l’agriculture des États-Unis. Ils ont eu recours à l’estimation par régression à cause du taux de non-réponse élevé dans l’enquête. Les poids de régression sont des poids établis par la méthode des moindres carrés généralisés, modifiés de telle manière qu’ils soient tous positifs et que les plus élevés d’entre eux soient plus petits que les poids établis par les moindres carrés. Les auteurs montrent qu’en situation de non-réponse l’estimateur par régression peut avoir une erreur quadratique moyenne beaucoup moins élevée que l’estimateur direct ordinaire.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114434
    Description :

    Lorsqu’on effectue des estimations pour petites régions, il est courant de renforcer les estimations en « empruntant » de l’information à d’autres petites régions, car les estimations directes tirées de l’enquête présentent souvent une variabilité d’échantillonnage élevée. Il existe, pour résoudre ce problème de forte variabilité, un ensemble de méthodes, dites d’estimation composite, qui utilisent la combinaison linéaire d’un estimateur direct et d’un estimateur synthétique. La composante synthétique se fonde sur un modèle qui relie les moyennes des petites régions transversalement (entre les régions) et/ou par rapport au temps. Le meilleur prédicteur linéaire sans biais empirique (MPLSE) transversal est un estimateur composite fondé sur un modèle de régression linéaire comportant des effets de petite région. Dans cet article, nous examinons trois modèles qui généralisent le MPLSE transversal et permettent d’utiliser les données de plusieurs points dans le temps. Dans le premier modèle, les paramètres de régression sont aléatoires et présentent une dépendance sériale, mais les effets de petite région sont supposés indépendants dans le temps. Dans le deuxième modèle, les paramètres de régression ne sont pas aléatoires et peuvent prendre des valeurs communes dans le temps, mais il y a une dépendance sériale dans les effets de petite région. Le troisième modèle est plus général en ce sens qu’on suppose une dépendance sériale dans les paramètres de régression et dans les effets de petite région. Les estimateurs résultants, ainsi que certains estimateurs transversaux, sont évalués à l’aide des données bisannuelles de l’Enquête nationale sur les fermes et de l’Enquête sur les fermes de janvier de Statistique Canada.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114433
    Description :

    L’imputation est une méthode dont se servent couramment les organismes d’enquête afin de corriger le problème posé par la non-réponse à des questions particulières. Bien que dans la plupart des cas, les ensembles de données ainsi complétés offrent de bonnes estimations des moyennes et des totaux, les variances correspondantes, souvent, sont largement sous-estimées. Plusieurs méthodes permettent de remédier à ce problème, mais la plupart dépendent du plan d’échantillonnage et de la méthode d’imputation. Récemment, Rao (1992) et Rao et Shao (1992) ont proposé une méthode jackknife unifiée pour l’estimation de la variance d’ensembles de données ayant fait l’objet d’une imputation. Le présent article évalue cette technique de manière empirique, au moyen d’une population réelle d’entreprises, et selon un plan d’échantillonnage aléatoire simple et un mécanisme de non-réponse uniforme. La possibilité d’étendre cette méthode à des plans d’échantillonnage stratifié à plusieurs degrés est examinée, et l’on se penche brièvement sur la performance de l’estimateur de la variance proposé dans le cas de mécanismes de réponse qui ne sont pas uniformes.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114432
    Description :

    Singh (1988) propose deux méthodes d’échantillonnage en vue d’estimer la moyenne d’une population en grappes chevauchantes lorsque la taille de la population est connue. Dans cet article, nous étudions des estimateurs par quotient appliqués dans ces deux méthodes en supposant que la taille réelle de la population est inconnue, ce qui est plus conforme à la réalité des enquêtes par sondage. Nous comparons l’efficacité des estimateurs appliqués dans l’une et l’autre méthodes et nous donnons un exemple numérique.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114436
    Description :

    Dans cet article, nous discutons de questions techniques relatives à la fourniture de données régionales tirées de recensements, de fichiers administratifs et d’enquêtes. Bien qu’il s’agisse de questions d’ordre général, nous les analysons en relation avec des programmes de Statistique Canada. Nous faisons ressortir la nécessité d’élaborer une approche globale pour les estimations d’enquête et nous soulignons, dans la perspective du remaniement d’une enquête-ménages, les aspects de la conception de plans de sondage qui ont une incidence sur les données régionales. Enfin, nous faisons un survol des méthodes d’estimation en faisant ressortir leurs avantages et leurs inconvénients.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114431
    Description :

    La « méthode des groupes aléatoires » pour un échantillonnage avec probabilité proportionnelle à la taille (PPT) est étendue à un échantillonnage effectué en deux occasions. Nous utilisons de l’information sur une variable d’étude observée à la première occasion pour prélever la portion appariée de l’échantillon à la deuxième occasion. Nous examinons deux ensembles de données réels en vue d’une illustration numérique et d’une comparaison avec d’autres méthodes existantes.

    Date de diffusion : 1994-06-15

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (20)

Analyses (20) (20 of 20 results)

  • Articles et rapports : 12-001-X199400214423
    Description :

    La plupart des enquêtes souffrent du problème de données manquantes attribuable à la non-réponse. Pour traiter ce problème, on a souvent recours à l’imputation afin de créer un « ensemble de données complet », c’est-à-dire, un ensemble de données composé d’observations réelles (pour les répondants) et d’imputations (pour les non-répondants). Habituellement, on effectue l’imputation en supposant un mécanisme de réponse non-confondu. Quand cette hypothèse se révèle fausse, un biais est introduit dans l’estimateur ordinaire de la moyenne de population calculé à partir de l’ensemble de données complet. Dans le présent article, nous étudions l’idée d’employer des facteurs de correction simples pour régler le problème du biais dans le cas où l’on a recours à l’imputation par quotient. Nous évaluons l’efficacité des facteurs de correction à l’aide d’une simulation de Monte Carlo dans laquelle nous utilisons des ensembles de données produits artificiellement qui représentent divers taux de non-réponse et mécanismes de non-réponse et diverses superpopulations et corrélations entre la variable étudiée et la variable auxiliaire. Nous constatons que ces facteurs de correction sont efficaces, particulièrement lorsque la population suit le modèle sous-jacent l’imputation par quotient. Nous traitons aussi d’une option pour estimer la variance des estimations ponctuelles corrigées.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214426
    Description :

    Dans le projet MARS (Monitoring Agriculture with Remote Sensing ou surveillance de l’agriculture par télédétection) de la CE (Communauté européenne), on utilise des bases aréolaires définies à l’aide d’une grille carrée pour estimer les superficies au moyen d’enquêtes sur le terrain et d’images-satellites à haute résolution. Quoique coûteuses, ces images-satellites sont utiles pour l’estimation des superficies; leur utilisation pour l’estimation du rendement n’est pas encore opérationnelle. Pour combler cette lacune, on emploie aussi les éléments de l’échantillon (segments) de l’enquête aréolaire pour échantillonner les exploitations agricoles à l’aide d’un gabarit de points superposé au segment. Le plus souvent, on utilise un nombre fixe de points par segment. On demande aux exploitants agricoles de fournir des données globales pour leur exploitation et on calcule les estimations à l’aide d’une approche de type Horvitz-Thompson. Les principaux problèmes sont la difficulté de repérer les exploitants et la vérification des cas où les instructions ont été mal comprises. On obtient de bons résultats pour la superficie et pour la production des cultures principales. Les bases aréolaires doivent être complétées par des listes (bases de sondage multiples) pour donner des estimations fiables dans le cas des animaux d’élevage.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214417
    Description :

    L’échantillonnage sans remise à partir d’une liste avec probabilité proportionnelle à une mesure de taille est peu utilisé en foresterie à cause des difficultés d’application de cette méthode, qu’on appelle d’ailleurs « plan \pi pt » pour distinguer l’échantillonnage sans remise du plan bien connu de l’échantillonnage PPT avec remise. Dans cet article, nous étudions un plan \pi pt authentique (variante 2 de Sunter), un plan \pi pt approximatif (variante 1 de Sunter) ainsi que la méthode des groupes aléatoires de Rao-Hartley-Cochran et nous calculons la variance des estimateurs correspondants du volume total de fût pour quatre populations d’arbres. Les résultats montrent que, par rapport à la méthode de Rao-Hartley-Cochran, la variante 1 de Sunter produit en général des estimations plus précises lorsque la relation entre l’information supplémentaire, x_k, et le caractère étudié, y_k, est modérée mais sensible au mode de classement des éléments de la base de sondage, alors que la méthode de Rao-Hartley-Cochran ne nécessite pas de classement particulier pour les éléments de la base de sondage et semble plus efficace que la variante 1 lorsqu’il existe une forte relation linéaire entre x_k et y_k.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214418
    Description :

    Nous traitons le problème de non-réponse en s’inspirant du modèle de sélection en phases proposé par Särndal et Swenson (1987). Pour estimer les probabilités de réponse, nous recourons à l’approche d’estimation non-paramétrique initiée par Giommi (1987). Nous définissons des estimateurs sous le modèle d’estimation non-paramétrique (ENP) et étudions empiriquement leurs propriétés générales. L’inférence est basée sur la notion de quasi-randomisation (Oh et Scheuren 1983). L’accent est mis sur l’estimation de la variance et la construction des intervalles de confiance. Nous constatons, par une étude de Monte Carlo, qu’il est possible d’améliorer la qualité des estimateurs considérés en utilisant une variante de l’approche d’ENP. Elle permet également de confirmer la performance des estimateurs par régression en termes d’estimation de la variance.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214419
    Description :

    L’objet de cette étude était d’évaluer divers estimateurs pour petites régions dans le but de produire des estimations de niveau pour des domaines non planifiés tirés de l’Enquête sur la population active Italienne. Dans notre étude, les petites régions sont les régions des services de santé, qui sont des domaines territoriaux infrarégionaux non planifiés, qui n’ont pas été isolés au moment de l’établissement du plan d’échantillonnage et qui chevauchent donc les limites des strates du plan d’échantillonnage. Nous considérons les estimateurs suivants : l’estimateur par quotient de stratification a posteriori, l’estimateur synthétique, l’estimateur composite exprimé sous forme d’une combinaison linéaire de l’estimateur synthétique et de l’estimateur par quotient de stratification a posteriori et l’estimateur dépendant de la taille de l’échantillon. Pour tous les estimateurs considérés ici, les biais relatifs moyens en pourcentage et la moyenne des erreurs quadratiques moyennes relatives ont été obtenus par une étude de Monte Carlo dans laquelle le plan d’échantillonnage a été simulé à l’aide de données provenant du recensement de l’Italie de 1981.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214425
    Description :

    Nous présentons une solution formelle, fondée sur un modèle, au problème de l’estimation de la taille de bases de sondage (listes), au moyen d’un échantillonnage avec saisie-ressaisie; cette solution a été largement utilisée pour estimer des populations d’animaux et pour le redressement des chiffres du recensement des États-Unis. Lorsqu’on dispose de deux listes incomplètes, il est facile d’estimer la taille totale de la base, en utilisant l’estimateur de Lincoln-Petersen. Il s’agit d’un estimateur fondé sur un modèle, qui repose sur l’hypothèse clé que les deux listes sont indépendantes. Dès qu’on dispose d’une estimation de la taille de la population (base de sondage), on peut estimer un total de population pour une caractéristique quelconque si cette caractéristique est mesurée auprès d’un échantillon de la population. Une analyse des propriétés de l’estimateur de Lincoln-Petersen est présentée. Nous examinons un exemple dans lequel les établissements sont des bateaux de pêche en activité au large de la côte Atlantique des États-Unis. L’estimation de la taille de la base de sondage, puis de totaux de population, à l’aide d’un modèle de saisie-ressaisie devrait avoir de vastes applications dans les enquêtes auprès des établissements, vu son côté pratique et les économies qu’elle procure. Toutefois, la possibilité que des biais soient introduits par suite du non-respect de certaines hypothèses doit être prise en considération.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214420
    Description :

    De nombreuses méthodes de protection du caractère confidentiel des microdonnées sont décrites dans les ouvrages de statistique. Cependant, l’usage qu’en font les organismes statistiques et la compréhension qu’on a de leurs propriétés et de leurs effets sont limités. Afin de favoriser la recherche sur ces méthodes ainsi que leur usage et pour faciliter leur évaluation et l’assurance de la qualité, il est souhaitable de formuler ces méthodes selon une seule approche. Dans cet article, nous présentons une approche appelée masquage de matrice - qui repose sur le calcul matriciel ordinaire - et nous formulons des masques de matrice pour les principales méthodes de protection du caractère confidentiel de microdonnées actuellement en usage, ce qui permettra aux organismes statistiques et aux autres spécialistes du domaine d’avoir une meilleure compréhension de ces méthodes et de les mettre en application.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214421
    Description :

    L’objet de cet article est de tester une hypothèse concernant des coefficients de régression linéaire en se fondant sur des données d’enquête. L’article montre que si l’on utilise l’estimateur de variance par linéarisation fondé sur un plan pour un coefficient de régression, il faut modifier cet estimateur pour en réduire le faible biais de modèle et faire une estimation de type Satterthwaite du nombre effectif de ses degrés de liberté. Un aspect particulier très important de cette analyse est son application aux moyennes de domaine.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214427
    Description :

    Dans cet article, nous déterminons un estimateur par régression généralisé pour domaines ainsi qu’un estimateur approximatif de la variance correspondante suivant un plan d’échantillonnage à deux phases pour stratification avec échantillonnage de Poisson à chaque phase. Ces estimateurs sont une application du modèle général d’estimation par régression pour l’échantillonnage à deux phases élaboré dans Särndal et Swensson (1987) et par Särndal, Swensson et Wretman (1992). Nous étudions l’efficacité empirique de l’estimateur par régression généralisé à l’aide de données de l’échantillon à deux phases de dossiers fiscaux de Statistique Canada, formé annuellement. Enfin, nous comparons à l’estimateur de Horvitz-Thompson trois cas particuliers de l’estimateur par régression généralisé, soit deux estimateurs par régression et un estimateur de stratification a posteriori.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214422
    Description :

    Depuis 1950, le Bureau of the Census des É.-U. a recours à l’estimation de système dual (ESD) pour mesurer le taux de couverture du recensement décennal. Selon cette méthode, on combine des données d’un échantillon avec des données du recensement pour estimer le sous-dénombrement et le surdénombrement dans le recensement. L’ESD repose sur l’hypothèse d’un appariement parfait des unités du recensement et de celles de l’échantillon. Or, les erreurs d’appariement et les fausses non-concordances, qui sont inévitables, ont pour effet de réduire la précision de cette méthode d’estimation. Dans cet article, nous reconsidérons l’ESD en assouplissant l’hypothèse de l’appariement parfait et nous proposons des modèles qui décrivent deux types d’erreur d’appariement : l’appariement de cas qui ne sont pas appariables et le non-appariement de cas qui sont appariables. En outre, nous présentons des méthodes pour estimer le total d’une population et le sous-dénombrement dans le recensement et nous en illustrons l’application au moyen de données du recensement d’essai de 1986 à Los Angeles et du recensement décennal de 1990.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214424
    Description :

    Cet article donne un aperçu de considérations importantes qui doivent entrer en ligne de compte dans l’élaboration et la conception des questionnaires d’enquêtes-entreprises. Ces considérations sont la détermination des objectifs et des besoins en données, la consultation des utilisateurs des données et des répondants et les méthodes à utiliser pour faire l’essai des questionnaires. Pour l’élaboration et de la conception d’un questionnaire d’enquête-entreprise, les groupes de discussion et les méthodes de recherche cognitive aident le chercheur à découvrir des sources possibles d’erreur de mesure et à comprendre le processus de réponse suivi par le répondant qui doit remplir le questionnaire. Cet article donne également des exemples d’utilisation de groupes de discussion et de travaux de recherche cognitive à Statistique Canada.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400114430
    Description :

    Rao et Nigam (1990, 1992) ont montré comment une classe de plans à échantillonnage contrôlé peut être produite par programmation linéaire. Dans cet article, leur méthode est appliquée à la stratification multidimensionnelle. L’examen des plans de sondage produits dans des applications particulières, ainsi que l’évaluation des erreurs quadratiques moyennes, permettent d’établir une comparaison avec les méthodes existantes. La méthode proposée est d’utilisation relativement simple et semble avoir une performance raisonnable sur le plan des erreurs quadratiques moyennes. Les calculs nécessaires peuvent toutefois augmenter rapidement, à mesure que s’accroît le nombre de cellules dans la classification multidimensionnelle. L’estimation de la variance est également examinée.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114435
    Description :

    L’estimation de totaux et de moyennes pour un domaine à l’aide de données d’échantillon est un problème courant. Lorsque le domaine est grand, l’échantillon observé est généralement suffisamment grand pour que des estimateurs directs, fondés sur un plan, soient assez précis. Mais lorsque le domaine est petit, la taille de l’échantillon observé est faible et les estimateurs directs ne conviennent plus. L’estimation pour petite région est un cas typique et des solutions de rechange comme l’estimation synthétique et l’estimation fondée sur un modèle ont été élaborées pour contourner le problème. Ces deux méthodes ont ceci de caractéristique, que de l’information est « empruntée » à d’autres petits domaines (ou petites régions) de manière à obtenir des estimateurs de paramètres plus précis, lesquels sont ensuite combinés avec de l’information supplémentaire, comme des moyennes ou des totaux pour population, tirée de chaque petite région afin d’établir une estimation plus précise de la moyenne ou du total pour un domaine (ou une région). Dans cet article, nous étudions un cas d’échantillonnage avec probabilités inégales où il n’existe pas d’information supplémentaire et où l’emprunt d’information n’est pas permis; pourtant, des estimateurs simples fondés sur un modèle sont élaborés dans ces conditions et semblent offrir des gains d’efficacité appréciables. L’exemple que nous utilisons ici est une étude de marché mais les domaines d’application de ces méthodes sont nombreux.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114428
    Description :

    Depuis quelques temps, on consacre beaucoup d’effort pour dénombrer les sans-abri et en définir les caractéristiques. Cependant, on s’est concentré jusqu’à maintenant sur les sans-abri des régions urbaines. Dans cet article, nous décrivons les efforts qui ont été faits en vue d’estimer le taux de sans-abri dans les comtés non urbains de l’Ohio. Les méthodes qui servent à repérer les sans-abri et même la définition de la clochardise sont différentes dans les régions rurales, où les institutions qui accueillent les sans-abri sont moins nombreuses. De plus, l’emploi d’estimateurs ordinaires basés sur des échantillons d’enquête peut poser des difficultés dans une analyse axée sur les régions rurales, étant donné que ces estimateurs exigent généralement de grandes populations, de grands échantillons et de faibles fractions de sondage. Nous décrivons l’enquête qui a été faite dans les régions non urbaines de l’Ohio pour dénombrer les sans-abri et nous présentons l’étude de simulation qui a été effectuée dans le but d’évaluer l’utilité des estimateurs ordinaires de la proportion d’une population basés sur un échantillon en grappes stratifié.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114429
    Description :

    Les auteurs appliquent une méthode de production de poids de régression à la Nationwide Food Consumption Survey réalisée en 1987-1988 par le Département de l’agriculture des États-Unis. Ils ont eu recours à l’estimation par régression à cause du taux de non-réponse élevé dans l’enquête. Les poids de régression sont des poids établis par la méthode des moindres carrés généralisés, modifiés de telle manière qu’ils soient tous positifs et que les plus élevés d’entre eux soient plus petits que les poids établis par les moindres carrés. Les auteurs montrent qu’en situation de non-réponse l’estimateur par régression peut avoir une erreur quadratique moyenne beaucoup moins élevée que l’estimateur direct ordinaire.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114434
    Description :

    Lorsqu’on effectue des estimations pour petites régions, il est courant de renforcer les estimations en « empruntant » de l’information à d’autres petites régions, car les estimations directes tirées de l’enquête présentent souvent une variabilité d’échantillonnage élevée. Il existe, pour résoudre ce problème de forte variabilité, un ensemble de méthodes, dites d’estimation composite, qui utilisent la combinaison linéaire d’un estimateur direct et d’un estimateur synthétique. La composante synthétique se fonde sur un modèle qui relie les moyennes des petites régions transversalement (entre les régions) et/ou par rapport au temps. Le meilleur prédicteur linéaire sans biais empirique (MPLSE) transversal est un estimateur composite fondé sur un modèle de régression linéaire comportant des effets de petite région. Dans cet article, nous examinons trois modèles qui généralisent le MPLSE transversal et permettent d’utiliser les données de plusieurs points dans le temps. Dans le premier modèle, les paramètres de régression sont aléatoires et présentent une dépendance sériale, mais les effets de petite région sont supposés indépendants dans le temps. Dans le deuxième modèle, les paramètres de régression ne sont pas aléatoires et peuvent prendre des valeurs communes dans le temps, mais il y a une dépendance sériale dans les effets de petite région. Le troisième modèle est plus général en ce sens qu’on suppose une dépendance sériale dans les paramètres de régression et dans les effets de petite région. Les estimateurs résultants, ainsi que certains estimateurs transversaux, sont évalués à l’aide des données bisannuelles de l’Enquête nationale sur les fermes et de l’Enquête sur les fermes de janvier de Statistique Canada.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114433
    Description :

    L’imputation est une méthode dont se servent couramment les organismes d’enquête afin de corriger le problème posé par la non-réponse à des questions particulières. Bien que dans la plupart des cas, les ensembles de données ainsi complétés offrent de bonnes estimations des moyennes et des totaux, les variances correspondantes, souvent, sont largement sous-estimées. Plusieurs méthodes permettent de remédier à ce problème, mais la plupart dépendent du plan d’échantillonnage et de la méthode d’imputation. Récemment, Rao (1992) et Rao et Shao (1992) ont proposé une méthode jackknife unifiée pour l’estimation de la variance d’ensembles de données ayant fait l’objet d’une imputation. Le présent article évalue cette technique de manière empirique, au moyen d’une population réelle d’entreprises, et selon un plan d’échantillonnage aléatoire simple et un mécanisme de non-réponse uniforme. La possibilité d’étendre cette méthode à des plans d’échantillonnage stratifié à plusieurs degrés est examinée, et l’on se penche brièvement sur la performance de l’estimateur de la variance proposé dans le cas de mécanismes de réponse qui ne sont pas uniformes.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114432
    Description :

    Singh (1988) propose deux méthodes d’échantillonnage en vue d’estimer la moyenne d’une population en grappes chevauchantes lorsque la taille de la population est connue. Dans cet article, nous étudions des estimateurs par quotient appliqués dans ces deux méthodes en supposant que la taille réelle de la population est inconnue, ce qui est plus conforme à la réalité des enquêtes par sondage. Nous comparons l’efficacité des estimateurs appliqués dans l’une et l’autre méthodes et nous donnons un exemple numérique.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114436
    Description :

    Dans cet article, nous discutons de questions techniques relatives à la fourniture de données régionales tirées de recensements, de fichiers administratifs et d’enquêtes. Bien qu’il s’agisse de questions d’ordre général, nous les analysons en relation avec des programmes de Statistique Canada. Nous faisons ressortir la nécessité d’élaborer une approche globale pour les estimations d’enquête et nous soulignons, dans la perspective du remaniement d’une enquête-ménages, les aspects de la conception de plans de sondage qui ont une incidence sur les données régionales. Enfin, nous faisons un survol des méthodes d’estimation en faisant ressortir leurs avantages et leurs inconvénients.

    Date de diffusion : 1994-06-15

  • Articles et rapports : 12-001-X199400114431
    Description :

    La « méthode des groupes aléatoires » pour un échantillonnage avec probabilité proportionnelle à la taille (PPT) est étendue à un échantillonnage effectué en deux occasions. Nous utilisons de l’information sur une variable d’étude observée à la première occasion pour prélever la portion appariée de l’échantillon à la deuxième occasion. Nous examinons deux ensembles de données réels en vue d’une illustration numérique et d’une comparaison avec d’autres méthodes existantes.

    Date de diffusion : 1994-06-15

Références (0)

Références (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Date de modification :