Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

1 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (17)

Tout (17) (17 of 17 results)

  • Articles et rapports : 12-001-X199300214455
    Description :

    La stratification a posteriori est une technique courante d’amélioration de la précision des estimateurs, qui consiste à utiliser des éléments d’information qui n’étaient pas disponibles au moment de la préparation du plan de l’enquête. Pour des échantillons vastes et complexes, le vecteur des estimateurs de Horvitz-Thompson des variables d’intérêt de l’enquête et des tailles de la population des strates a posteriori suivra approximativement, dans des conditions appropriées, une distribution normale multidimensionnelle. Cette normalité pour de grands échantillons amène à définir un nouvel estimateur de régression fondé sur une stratification a posteriori, analogue à l’estimateur de régression linéaire dans le cas de l’échantillonnage aléatoire simple. Nous calculons, pour de grands échantillons, le biais et les erreurs quadratiques moyennes selon le plan de ce nouvel estimateur, de l’estimateur de stratification a posteriori courant, de l’estimateur de Horvitz-Thompson et d’un estimateur par quotient. Nous utilisons des populations réelles et une population artificielle pour étudier empiriquement les propriétés conditionnelles et non conditionnelles des estimateurs en vertu d’un échantillonnage à plusieurs degrés.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214457
    Description :

    Nous considérons le cas de l’estimation d’un modèle d’étalonnage non linéaire par la méthode du maximum de vraisemblance, tel que le présentent Laniel et Fyfe (1989; 1990). Ce modèle tient compte des biais et des erreurs d’échantillonnage rattachés à la série originale. Comme on ne peut exprimer les estimateurs du maximum de vraisemblance des paramètres du modèle sous une forme analytique fermée, nous examinons deux méthodes itératives permettant de calculer les estimations du maximum de vraisemblance. Nous donnons aussi les expressions en forme analytique fermée pour les variances et les covariances asymptotiques des séries étalonnées et des valeurs ajustées. Pour illustrer les méthodes, nous nous servons de données publiées sur le commerce de détail au Canada.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214456
    Description :

    Cette étude est basée sur l’utilisation de modèles de superpopulation pour anticiper la variance d’une mesure par sondage de ratios avant l’enquête. On arrive, en utilisant des modèles simples qu’on voudrait néanmoins assez réalistes, à des expressions plus ou moins complexes qu’on parvient à optimiser, parfois rigoureusement, quelquefois de façon approximative. La solution du dernier des problèmes évoqués fait apparaître un facteur assez peu étudié en matière d’optimisation de plan de sondage : le coût lié à la mobilisation d’une information individuelle.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214459
    Description :

    On appelle couplage d’enregistrements l’appariement d’enregistrements contenant des données sur des particuliers, des entreprises ou des logements quand on ne dispose pas d’un identificateur unique. Les méthodes utilisées, en pratique, comportent la classification de paires d’enregistrements, comme constituant des liens ou des non-liens, à l’aide d’une procédure automatisée basée sur le modèle théorique présenté par Fellegi et Sunter (1969). L’estimation des taux d’erreur de classification constitue un problème important. Fellegi et Sunter présentent une méthode, afin de calculer des estimations des taux d’erreur de classification, qui découle directement du couplage. Ces estimations faites à l’aide de modèles sont plus faciles à produire que celles obtenues par appariement manuel d’échantillons, méthode généralement utilisée en pratique. Les propriétés des estimations du taux d’erreur de classification fondées sur un modèle, obtenues au moyen de trois estimateurs de paramètre de modèle, sont comparées.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214460
    Description :

    Les méthodes qui servent à estimer le biais de réponse dans les enquêtes requièrent des mesures répétées « non biaisées » pour à tout le moins un sous-échantillon d’observations. L’estimateur habituel du biais de réponse est la différence entre la moyenne des observations originales et la moyenne des observations non biaisées. Dans cet article, nous étudions divers estimateurs du biais de réponse tirés de la prédiction modéliste. Nous supposons comme plan de sondage un échantillonnage à deux phases stratifié, avec échantillonnage aléatoire simple dans chaque phase. Nous supposons que la caractéristique y est observée pour chaque unité échantillonnée dans la phase 1, tandis que la valeur vraie de la caractéristique, \mu, est observée pour chaque unité du sous-échantillon prélevée dans la phase 2. Nous supposons en outre qu’une variable auxiliaire x est connue pour chaque unité de l’échantillon de la phase 1 et que le chiffre de population de x est connu. On suppose un certain nombre de modèles qui mettent en relation y, \mu et x; de ces modèles découlent divers estimateurs de E (y - \mu), le biais de réponse. Les estimateurs sont calculés à l’aide d’une méthode d’auto-amorçage destinée à l’estimation de la variance, du biais et de l’erreur quadratique moyenne. La méthode que nous utilisons est en fait la méthode de Bickel-Freedman à une phase, étendue à un plan à deux phases stratifié. À des fins d’illustration, nous appliquons la méthode étudiée à des données du programme de réinterview du National Agricultural Statistics Service. Nous montrons par ces données que l’estimateur fondé sur un modèle de Särndal, Swensson et Wretman (1991) est supérieur à l’estimateur de différence habituel, ce qui prouve qu’il est possible d’améliorer les estimateurs classiques au moyen de la prédiction modéliste.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214452
    Description :

    Les enquêtes qui consistent à recueillir des données dans le temps peuvent viser de nombreux objectifs. Dans la première moitié du présent article, nous examinons diverses options de plans d’enquête - enquêtes à passages répétés, enquêtes par panel, enquêtes par panel avec renouvellement et enquêtes à panel fractionné - pouvant permettre d’atteindre ces objectifs. La deuxième moitié est axée sur les enquêtes par panel. Nous y traitons des décisions qui doivent être prises au moment de la conception d’une enquête par panel, des problèmes posés par la non-réponse aux différentes vagues, du biais de conditionnement et de l’effet de lisière, ainsi que de certaines méthodes permettant l’analyse longitudinale des données d’enquête par panel.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214454
    Description :

    Dans cette étude, nous nous intéressons à des bases de sondage imparfaites desquelles on n’a retiré aucune unité de population mais dans lesquelles un nombre indéterminé d’unités peuvent avoir été ajoutées un nombre indéterminé de fois sous des identités différentes. Lorsqu’on ne pose pas l’hypothèse de l’existence d’information supplémentaire concernant des unités de la base imparfaite, il est établi qu’en ce qui a trait à l’estimation d’un ratio ou d’une moyenne de population, l’erreur quadratique moyenne des estimateurs fondés sur la base imparfaite est inférieure à celle des estimateurs fondés sur la base parfaite pour l’échantillonnage aléatoire simple, lorsque les fractions de sondage des deux bases sont les mêmes. Cependant, cette relation n’est pas toujours vraie en ce qui concerne l’estimation d’un total de population. Il peut aussi arriver que l’estimateur d’un ratio, d’une moyenne ou d’un total ait une erreur quadratique moyenne moins élevée même si la fraction de sondage est plus faible dans la base imparfaite que celle utiliser dans la base parfaite.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214453
    Description :

    Un concept généralisé est présenté pour toutes les méthodes couramment utilisées d’échantillonnage des forêts. Selon ce concept, la forêt est perçue comme une image bidimensionnelle découpée en pièces comme un casse-tête, les pièces étant définies par les probabilités de sélection individuelles des arbres de la forêt. Ce concept produit un nombre fini d’unités d’échantillonnage sélectionnées de façon indépendante, contrairement à tous les autres concepts généralisés d’échantillonnage des forêts présentés jusqu’à maintenant.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300114473
    Description :

    L’échantillonnage double est fréquemment utilisé en remplacement de l’échantillonnage aléatoire simple lorsqu’un échantillonnage stratifié apparaît comme avantageux, mais que les unités ne peuvent être attribuées à des strates avant l’échantillonnage. Il est supposé, tout au long de l’article, que l’enquête a pour but d’estimer la moyenne d’une population finie. Nous comparons l’échantillonnage aléatoire simple et trois méthodes de répartition pour l’échantillonnage double : (a) répartition proportionnelle, (b) répartition de Rao (Rao 1973a, b) et (c) répartition optimale. Nous examinons également l’effet, sur le choix des tailles d’échantillon, d’une erreur de détermination d’un important paramètre du plan.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114478
    Description :

    Le couplage d’enregistrements désigne une technique algorithmique qui sert à identifier des paires d’enregistrements ayant trait au même individu dans des fichiers distincts. Dans cet article, nous étudions un modèle destiné à évaluer les sources de variation dans le couplage d’enregistrements en comparant ce procédé à une « boîte noire » qui reçoit des données d’entrée et restitue un produit (un ensemble de concordances désignées, c.-à-d. de paires dont les éléments représentent la même entité) qui a certaines caractéristiques. Nous illustrons nos propos au moyen d’une expérience factorielle dans laquelle nous nous servons de données du recensement et d’enquêtes postcensitaires afin d’évaluer l’influence de divers facteurs qui sont réputés pour réduire la fiabilité du procédé. Avec ce cadre expérimental, l’évaluation du couplage d’enregistrements devient un problème statistique comme les autres. L’étude permet de répondre à plusieurs questions de recherche et nous prétendons qu’il est essentiel de recourir à des méthodes expérimentales comme celle proposée ici si l’on veut mieux comprendre les sources d’erreur qui interviennent dans les techniques de couplage d’enregistrements.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114477
    Description :

    Dans un processus de couplage d’enregistrements, des enregistrements provenant de deux fichiers sont réunis en paires, formées d’un enregistrement de chacun des fichiers, à des fins de comparaison. Chaque enregistrement représente un individu. Une paire ainsi formée est une « concordance » si les deux enregistrements représentent le même individu. Une paire est une « non-concordance » si les deux enregistrements ne représentent pas le même individu. Le processus de couplage d’enregistrements repose sur un processus probabiliste. Une règle de couplage déduit l’état (concordance ou non) de chaque paire d’enregistrements d’après la valeur de la comparaison. La paire est déclarée un « lien » si une concordance est déduite, et un « non-lien » si une non-concordance est déduite. Le pouvoir discriminant d’une règle de couplage est la capacité de la règle de désigner un nombre maximum de concordances comme des liens, tout en gardant au minimum le taux de non-concordances désignées comme des liens. En général, pour construire une règle de couplage discriminante, il faut faire certaines hypothèses quant à la structure du processus probabiliste sous-jacent. Dans la majorité de la documentation existante, il est supposé que le processus probabiliste sous-jacent est une manifestation du modèle à classes latentes avec indépendance conditionnelle. Toutefois, dans bien des situations, cette hypothèse est fausse. En fait, de nombreux processus probabilistes sous-jacents n’affichent pas les caractéristiques clés associées aux modèles à classes latentes avec indépendance conditionnelle. Cette communication présente des modèles plus généraux. En particulier des modèles à classes latentes avec liens de dépendance sont étudiés, et nous montrons comment ils peuvent améliorer le pouvoir discriminant de règles de couplage particulières.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114472
    Description :

    Aux États-Unis, l’échantillonnage des numéros de téléphone de ménages s’appuie abondamment sur les méthodes de composition (téléphonique) aléatoire à deux degrés conçues par Mitofsky et ensuite élaborées par Waksberg. Par rapport à ces dernières, les autres méthodes courantes sont lacunaires au plan de la couverture et à celui des coûts. On remédie à ces lacunes par des plans d’échantillonnage qui, à partir de l’information sur les numéros inscrits, améliorent le rapport coût-efficacité de la composition aléatoire. La base de sondage, composée des numéros de téléphone, est divisée en deux strates, dont l’une comprend les numéros publiés pour lesquels l’information existe au niveau de la banque de 100, et l’autre, les numéros pour lesquels cette information n’existe pas. L’efficacité de divers modèles d’échantillonnage joints au plan stratifié est comparée à la composition aléatoire simple (simplement aléatoire) et à la technique de Mitofsky-Waksberg. On constate des gains d’efficacité dans le cas de presque tous ces modèles. Les hypothèses simplificatrices relatives aux valeurs des paramètres de la population de chaque strate se révèlent n’avoir que peu de répercussions globales sur l’efficacité estimée.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114471
    Description :

    Les plans d’échantillonnage binomial-Poisson et Poisson-Poisson sont présentés en vue d’une utilisation dans le domaine des échantillonnages effectués en forêt. Plusieurs estimateurs du total de la population sont examinés pour ces plans. Des comparaisons (par simulation) des propriétés de ces estimateurs ont été faites pour trois petites populations forestières. Une modification de l’estimateur courant utilisé pour l’échantillonnage de Poisson, ainsi qu’un nouvel estimateur appelé estimateur de Srivastava modifié, semblent être les plus efficaces. Le dernier estimateur affiche malheureusement un biais prononcé pour les trois populations.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114479
    Description :

    Les études épidémiologiques qui visent à étudier le rapport entre les risques environnementaux et l’état de santé comptent beaucoup sur l’appariement d’enregistrements de bases de données administratives différentes. Par des algorithmes complexes de couplage d’enregistrements appliqués à de grandes bases de données, on peut évaluer la possibilité d’un appariement de deux enregistrements particuliers en se fondant sur la comparaison d’une ou de plusieurs variables d’identification dans ces enregistrements. Puisque les erreurs d’appariement sont inévitables, il faut pouvoir tenir compte de leur effet sur les inférences statistiques faites à partir des fichiers couplés. Cet article donne un aperçu de la méthodologie utilisée pour le couplage d’enregistrements et traite les questions statistiques qui se rattachent aux erreurs de couplage.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114476
    Description :

    Le présent article s’intéresse à la façon de traiter les erreurs de couplage d’enregistrements lorsqu’on effectue une analyse de régression. Des travaux récents de Rubin et Belin (1991) et de Winkler et Thibaudeau (1991) fournissent la théorie, les algorithmes de calcul et le logiciel nécessaires à l’estimation des probabilités de concordance. Ces progrès nous permettent de mettre à jour les travaux de Neter, Maynes et Ramanathan (1965). Des méthodes de redressement sont présentées, et certaines simulations fructueuses sont décrites. Nos résultats sont préliminaires et visent en grande partie à susciter d’autres travaux.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114474
    Description :

    Nous traiterons de la nécessité d’établir des normes en matière de collecte et de communication de renseignements sur les non-réponses aux enquêtes effectuées par un organisme de statistique, puis nous décrirons les normes adoptées par Statistique Canada. Nous présenterons ensuite les mesures prises à différentes étapes de la conception des enquêtes à Statistique Canada dans le but de réduire la non-réponse. Nous illustrerons ces points en examinant les taux de non-réponse pour deux grandes enquêtes de Statistique Canada.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114475
    Description :

    Lorsqu’on crée des bases de données de microsimulation, souvent utilisées dans la planification et l’analyse des politiques, on combine plusieurs fichiers de données par des techniques d’appariement statistique afin d’enrichir le fichier receveur. Or, pour effectuer cette opération, il faut poser l’hypothèse de l’indépendance conditionnelle (HIC), ce qui peut fausser sérieusement les relations conjointes entre les variables. On peut éviter de poser cette hypothèse en utilisant des informations supplémentaires appropriées. Dans cet article, nous examinons des méthodes d’appariement statistique qui correspondent à trois méthodes d’imputation - par régression, hot-deck et log-linéaire - appliquées suivant deux scénarios : avec et sans information supplémentaire. La méthode d’imputation log-linéaire consiste essentiellement à introduire des contraintes nominales dans la méthode par régression ou la méthode hot-deck. À partir d’une vaste étude de simulation faite avec des données fictives, nous exécutons des analyses de sensibilité lorsque l’on s’éloigne de l’HIC et nous étudions les gains qui peuvent découler de l’utilisation d’informations supplémentaires. À l’aide de données fictives, nous créons différents scénarios relatifs à la distribution et aux relations des variables pertinentes, par exemple distribution symétrique vs. distribution asymétrique et données supplémentaires substitutives vs. données supplémentaires non substitutives. Nous faisons aussi quelques recommandations sur l’utilisation des méthodes d’appariement statistique. Notre étude confirme particulièrement que l’HIC peut représenter une contrainte sérieuse, que l’on peut éliminer en utilisant des informations supplémentaires appropriées. L’étude montre aussi que les méthodes hot-deck sont généralement préférables aux méthodes de régression. De plus, lorsqu’on dispose d’informations supplémentaires, les contraintes nominales log-linéaires peuvent accroître l’efficacité des méthodes hot-deck. L’idée de cette étude est née des préoccupations que l’on avait sur l’utilisation de l’HIC dans la construction de la Base de données de simulation des politiques sociales à Statistique Canada.

    Date de diffusion : 1993-06-15

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (17)

Analyses (17) (17 of 17 results)

  • Articles et rapports : 12-001-X199300214455
    Description :

    La stratification a posteriori est une technique courante d’amélioration de la précision des estimateurs, qui consiste à utiliser des éléments d’information qui n’étaient pas disponibles au moment de la préparation du plan de l’enquête. Pour des échantillons vastes et complexes, le vecteur des estimateurs de Horvitz-Thompson des variables d’intérêt de l’enquête et des tailles de la population des strates a posteriori suivra approximativement, dans des conditions appropriées, une distribution normale multidimensionnelle. Cette normalité pour de grands échantillons amène à définir un nouvel estimateur de régression fondé sur une stratification a posteriori, analogue à l’estimateur de régression linéaire dans le cas de l’échantillonnage aléatoire simple. Nous calculons, pour de grands échantillons, le biais et les erreurs quadratiques moyennes selon le plan de ce nouvel estimateur, de l’estimateur de stratification a posteriori courant, de l’estimateur de Horvitz-Thompson et d’un estimateur par quotient. Nous utilisons des populations réelles et une population artificielle pour étudier empiriquement les propriétés conditionnelles et non conditionnelles des estimateurs en vertu d’un échantillonnage à plusieurs degrés.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214457
    Description :

    Nous considérons le cas de l’estimation d’un modèle d’étalonnage non linéaire par la méthode du maximum de vraisemblance, tel que le présentent Laniel et Fyfe (1989; 1990). Ce modèle tient compte des biais et des erreurs d’échantillonnage rattachés à la série originale. Comme on ne peut exprimer les estimateurs du maximum de vraisemblance des paramètres du modèle sous une forme analytique fermée, nous examinons deux méthodes itératives permettant de calculer les estimations du maximum de vraisemblance. Nous donnons aussi les expressions en forme analytique fermée pour les variances et les covariances asymptotiques des séries étalonnées et des valeurs ajustées. Pour illustrer les méthodes, nous nous servons de données publiées sur le commerce de détail au Canada.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214456
    Description :

    Cette étude est basée sur l’utilisation de modèles de superpopulation pour anticiper la variance d’une mesure par sondage de ratios avant l’enquête. On arrive, en utilisant des modèles simples qu’on voudrait néanmoins assez réalistes, à des expressions plus ou moins complexes qu’on parvient à optimiser, parfois rigoureusement, quelquefois de façon approximative. La solution du dernier des problèmes évoqués fait apparaître un facteur assez peu étudié en matière d’optimisation de plan de sondage : le coût lié à la mobilisation d’une information individuelle.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214459
    Description :

    On appelle couplage d’enregistrements l’appariement d’enregistrements contenant des données sur des particuliers, des entreprises ou des logements quand on ne dispose pas d’un identificateur unique. Les méthodes utilisées, en pratique, comportent la classification de paires d’enregistrements, comme constituant des liens ou des non-liens, à l’aide d’une procédure automatisée basée sur le modèle théorique présenté par Fellegi et Sunter (1969). L’estimation des taux d’erreur de classification constitue un problème important. Fellegi et Sunter présentent une méthode, afin de calculer des estimations des taux d’erreur de classification, qui découle directement du couplage. Ces estimations faites à l’aide de modèles sont plus faciles à produire que celles obtenues par appariement manuel d’échantillons, méthode généralement utilisée en pratique. Les propriétés des estimations du taux d’erreur de classification fondées sur un modèle, obtenues au moyen de trois estimateurs de paramètre de modèle, sont comparées.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214460
    Description :

    Les méthodes qui servent à estimer le biais de réponse dans les enquêtes requièrent des mesures répétées « non biaisées » pour à tout le moins un sous-échantillon d’observations. L’estimateur habituel du biais de réponse est la différence entre la moyenne des observations originales et la moyenne des observations non biaisées. Dans cet article, nous étudions divers estimateurs du biais de réponse tirés de la prédiction modéliste. Nous supposons comme plan de sondage un échantillonnage à deux phases stratifié, avec échantillonnage aléatoire simple dans chaque phase. Nous supposons que la caractéristique y est observée pour chaque unité échantillonnée dans la phase 1, tandis que la valeur vraie de la caractéristique, \mu, est observée pour chaque unité du sous-échantillon prélevée dans la phase 2. Nous supposons en outre qu’une variable auxiliaire x est connue pour chaque unité de l’échantillon de la phase 1 et que le chiffre de population de x est connu. On suppose un certain nombre de modèles qui mettent en relation y, \mu et x; de ces modèles découlent divers estimateurs de E (y - \mu), le biais de réponse. Les estimateurs sont calculés à l’aide d’une méthode d’auto-amorçage destinée à l’estimation de la variance, du biais et de l’erreur quadratique moyenne. La méthode que nous utilisons est en fait la méthode de Bickel-Freedman à une phase, étendue à un plan à deux phases stratifié. À des fins d’illustration, nous appliquons la méthode étudiée à des données du programme de réinterview du National Agricultural Statistics Service. Nous montrons par ces données que l’estimateur fondé sur un modèle de Särndal, Swensson et Wretman (1991) est supérieur à l’estimateur de différence habituel, ce qui prouve qu’il est possible d’améliorer les estimateurs classiques au moyen de la prédiction modéliste.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214452
    Description :

    Les enquêtes qui consistent à recueillir des données dans le temps peuvent viser de nombreux objectifs. Dans la première moitié du présent article, nous examinons diverses options de plans d’enquête - enquêtes à passages répétés, enquêtes par panel, enquêtes par panel avec renouvellement et enquêtes à panel fractionné - pouvant permettre d’atteindre ces objectifs. La deuxième moitié est axée sur les enquêtes par panel. Nous y traitons des décisions qui doivent être prises au moment de la conception d’une enquête par panel, des problèmes posés par la non-réponse aux différentes vagues, du biais de conditionnement et de l’effet de lisière, ainsi que de certaines méthodes permettant l’analyse longitudinale des données d’enquête par panel.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214454
    Description :

    Dans cette étude, nous nous intéressons à des bases de sondage imparfaites desquelles on n’a retiré aucune unité de population mais dans lesquelles un nombre indéterminé d’unités peuvent avoir été ajoutées un nombre indéterminé de fois sous des identités différentes. Lorsqu’on ne pose pas l’hypothèse de l’existence d’information supplémentaire concernant des unités de la base imparfaite, il est établi qu’en ce qui a trait à l’estimation d’un ratio ou d’une moyenne de population, l’erreur quadratique moyenne des estimateurs fondés sur la base imparfaite est inférieure à celle des estimateurs fondés sur la base parfaite pour l’échantillonnage aléatoire simple, lorsque les fractions de sondage des deux bases sont les mêmes. Cependant, cette relation n’est pas toujours vraie en ce qui concerne l’estimation d’un total de population. Il peut aussi arriver que l’estimateur d’un ratio, d’une moyenne ou d’un total ait une erreur quadratique moyenne moins élevée même si la fraction de sondage est plus faible dans la base imparfaite que celle utiliser dans la base parfaite.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214453
    Description :

    Un concept généralisé est présenté pour toutes les méthodes couramment utilisées d’échantillonnage des forêts. Selon ce concept, la forêt est perçue comme une image bidimensionnelle découpée en pièces comme un casse-tête, les pièces étant définies par les probabilités de sélection individuelles des arbres de la forêt. Ce concept produit un nombre fini d’unités d’échantillonnage sélectionnées de façon indépendante, contrairement à tous les autres concepts généralisés d’échantillonnage des forêts présentés jusqu’à maintenant.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300114473
    Description :

    L’échantillonnage double est fréquemment utilisé en remplacement de l’échantillonnage aléatoire simple lorsqu’un échantillonnage stratifié apparaît comme avantageux, mais que les unités ne peuvent être attribuées à des strates avant l’échantillonnage. Il est supposé, tout au long de l’article, que l’enquête a pour but d’estimer la moyenne d’une population finie. Nous comparons l’échantillonnage aléatoire simple et trois méthodes de répartition pour l’échantillonnage double : (a) répartition proportionnelle, (b) répartition de Rao (Rao 1973a, b) et (c) répartition optimale. Nous examinons également l’effet, sur le choix des tailles d’échantillon, d’une erreur de détermination d’un important paramètre du plan.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114478
    Description :

    Le couplage d’enregistrements désigne une technique algorithmique qui sert à identifier des paires d’enregistrements ayant trait au même individu dans des fichiers distincts. Dans cet article, nous étudions un modèle destiné à évaluer les sources de variation dans le couplage d’enregistrements en comparant ce procédé à une « boîte noire » qui reçoit des données d’entrée et restitue un produit (un ensemble de concordances désignées, c.-à-d. de paires dont les éléments représentent la même entité) qui a certaines caractéristiques. Nous illustrons nos propos au moyen d’une expérience factorielle dans laquelle nous nous servons de données du recensement et d’enquêtes postcensitaires afin d’évaluer l’influence de divers facteurs qui sont réputés pour réduire la fiabilité du procédé. Avec ce cadre expérimental, l’évaluation du couplage d’enregistrements devient un problème statistique comme les autres. L’étude permet de répondre à plusieurs questions de recherche et nous prétendons qu’il est essentiel de recourir à des méthodes expérimentales comme celle proposée ici si l’on veut mieux comprendre les sources d’erreur qui interviennent dans les techniques de couplage d’enregistrements.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114477
    Description :

    Dans un processus de couplage d’enregistrements, des enregistrements provenant de deux fichiers sont réunis en paires, formées d’un enregistrement de chacun des fichiers, à des fins de comparaison. Chaque enregistrement représente un individu. Une paire ainsi formée est une « concordance » si les deux enregistrements représentent le même individu. Une paire est une « non-concordance » si les deux enregistrements ne représentent pas le même individu. Le processus de couplage d’enregistrements repose sur un processus probabiliste. Une règle de couplage déduit l’état (concordance ou non) de chaque paire d’enregistrements d’après la valeur de la comparaison. La paire est déclarée un « lien » si une concordance est déduite, et un « non-lien » si une non-concordance est déduite. Le pouvoir discriminant d’une règle de couplage est la capacité de la règle de désigner un nombre maximum de concordances comme des liens, tout en gardant au minimum le taux de non-concordances désignées comme des liens. En général, pour construire une règle de couplage discriminante, il faut faire certaines hypothèses quant à la structure du processus probabiliste sous-jacent. Dans la majorité de la documentation existante, il est supposé que le processus probabiliste sous-jacent est une manifestation du modèle à classes latentes avec indépendance conditionnelle. Toutefois, dans bien des situations, cette hypothèse est fausse. En fait, de nombreux processus probabilistes sous-jacents n’affichent pas les caractéristiques clés associées aux modèles à classes latentes avec indépendance conditionnelle. Cette communication présente des modèles plus généraux. En particulier des modèles à classes latentes avec liens de dépendance sont étudiés, et nous montrons comment ils peuvent améliorer le pouvoir discriminant de règles de couplage particulières.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114472
    Description :

    Aux États-Unis, l’échantillonnage des numéros de téléphone de ménages s’appuie abondamment sur les méthodes de composition (téléphonique) aléatoire à deux degrés conçues par Mitofsky et ensuite élaborées par Waksberg. Par rapport à ces dernières, les autres méthodes courantes sont lacunaires au plan de la couverture et à celui des coûts. On remédie à ces lacunes par des plans d’échantillonnage qui, à partir de l’information sur les numéros inscrits, améliorent le rapport coût-efficacité de la composition aléatoire. La base de sondage, composée des numéros de téléphone, est divisée en deux strates, dont l’une comprend les numéros publiés pour lesquels l’information existe au niveau de la banque de 100, et l’autre, les numéros pour lesquels cette information n’existe pas. L’efficacité de divers modèles d’échantillonnage joints au plan stratifié est comparée à la composition aléatoire simple (simplement aléatoire) et à la technique de Mitofsky-Waksberg. On constate des gains d’efficacité dans le cas de presque tous ces modèles. Les hypothèses simplificatrices relatives aux valeurs des paramètres de la population de chaque strate se révèlent n’avoir que peu de répercussions globales sur l’efficacité estimée.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114471
    Description :

    Les plans d’échantillonnage binomial-Poisson et Poisson-Poisson sont présentés en vue d’une utilisation dans le domaine des échantillonnages effectués en forêt. Plusieurs estimateurs du total de la population sont examinés pour ces plans. Des comparaisons (par simulation) des propriétés de ces estimateurs ont été faites pour trois petites populations forestières. Une modification de l’estimateur courant utilisé pour l’échantillonnage de Poisson, ainsi qu’un nouvel estimateur appelé estimateur de Srivastava modifié, semblent être les plus efficaces. Le dernier estimateur affiche malheureusement un biais prononcé pour les trois populations.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114479
    Description :

    Les études épidémiologiques qui visent à étudier le rapport entre les risques environnementaux et l’état de santé comptent beaucoup sur l’appariement d’enregistrements de bases de données administratives différentes. Par des algorithmes complexes de couplage d’enregistrements appliqués à de grandes bases de données, on peut évaluer la possibilité d’un appariement de deux enregistrements particuliers en se fondant sur la comparaison d’une ou de plusieurs variables d’identification dans ces enregistrements. Puisque les erreurs d’appariement sont inévitables, il faut pouvoir tenir compte de leur effet sur les inférences statistiques faites à partir des fichiers couplés. Cet article donne un aperçu de la méthodologie utilisée pour le couplage d’enregistrements et traite les questions statistiques qui se rattachent aux erreurs de couplage.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114476
    Description :

    Le présent article s’intéresse à la façon de traiter les erreurs de couplage d’enregistrements lorsqu’on effectue une analyse de régression. Des travaux récents de Rubin et Belin (1991) et de Winkler et Thibaudeau (1991) fournissent la théorie, les algorithmes de calcul et le logiciel nécessaires à l’estimation des probabilités de concordance. Ces progrès nous permettent de mettre à jour les travaux de Neter, Maynes et Ramanathan (1965). Des méthodes de redressement sont présentées, et certaines simulations fructueuses sont décrites. Nos résultats sont préliminaires et visent en grande partie à susciter d’autres travaux.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114474
    Description :

    Nous traiterons de la nécessité d’établir des normes en matière de collecte et de communication de renseignements sur les non-réponses aux enquêtes effectuées par un organisme de statistique, puis nous décrirons les normes adoptées par Statistique Canada. Nous présenterons ensuite les mesures prises à différentes étapes de la conception des enquêtes à Statistique Canada dans le but de réduire la non-réponse. Nous illustrerons ces points en examinant les taux de non-réponse pour deux grandes enquêtes de Statistique Canada.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199300114475
    Description :

    Lorsqu’on crée des bases de données de microsimulation, souvent utilisées dans la planification et l’analyse des politiques, on combine plusieurs fichiers de données par des techniques d’appariement statistique afin d’enrichir le fichier receveur. Or, pour effectuer cette opération, il faut poser l’hypothèse de l’indépendance conditionnelle (HIC), ce qui peut fausser sérieusement les relations conjointes entre les variables. On peut éviter de poser cette hypothèse en utilisant des informations supplémentaires appropriées. Dans cet article, nous examinons des méthodes d’appariement statistique qui correspondent à trois méthodes d’imputation - par régression, hot-deck et log-linéaire - appliquées suivant deux scénarios : avec et sans information supplémentaire. La méthode d’imputation log-linéaire consiste essentiellement à introduire des contraintes nominales dans la méthode par régression ou la méthode hot-deck. À partir d’une vaste étude de simulation faite avec des données fictives, nous exécutons des analyses de sensibilité lorsque l’on s’éloigne de l’HIC et nous étudions les gains qui peuvent découler de l’utilisation d’informations supplémentaires. À l’aide de données fictives, nous créons différents scénarios relatifs à la distribution et aux relations des variables pertinentes, par exemple distribution symétrique vs. distribution asymétrique et données supplémentaires substitutives vs. données supplémentaires non substitutives. Nous faisons aussi quelques recommandations sur l’utilisation des méthodes d’appariement statistique. Notre étude confirme particulièrement que l’HIC peut représenter une contrainte sérieuse, que l’on peut éliminer en utilisant des informations supplémentaires appropriées. L’étude montre aussi que les méthodes hot-deck sont généralement préférables aux méthodes de régression. De plus, lorsqu’on dispose d’informations supplémentaires, les contraintes nominales log-linéaires peuvent accroître l’efficacité des méthodes hot-deck. L’idée de cette étude est née des préoccupations que l’on avait sur l’utilisation de l’HIC dans la construction de la Base de données de simulation des politiques sociales à Statistique Canada.

    Date de diffusion : 1993-06-15

Références (0)

Références (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Date de modification :