Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (14)

Tout (14) (0 à 10 de 14 résultats)

  • Articles et rapports : 12-001-X202200100010
    Description :

    La présente étude combine le recuit simulé avec l’évaluation delta pour résoudre le problème de stratification et de répartition simultanée de l’échantillon. Dans ce problème particulier, les strates atomiques sont divisées en strates mutuellement exclusives et collectivement exhaustives. Chaque partition de strates atomiques est une solution possible au problème de stratification, dont la qualité est mesurée par son coût. Le nombre de Bell de solutions possibles est énorme, même pour un nombre modéré de strates atomiques, et une couche supplémentaire de complexité s’ajoute avec le temps d’évaluation de chaque solution. De nombreux problèmes d’optimisation combinatoire à grande échelle ne peuvent être résolus de manière optimale, car la recherche d’une solution optimale exige un temps de calcul prohibitif. Un certain nombre d’algorithmes heuristiques de recherche locale ont été conçus pour résoudre problème, mais ils peuvent rester coincés dans des minima locaux, ce qui empêche toute amélioration ultérieure. Nous ajoutons, à la suite existante d’algorithmes de recherche locale, un algorithme du recuit simulé qui permet de s’échapper des minima locaux et s’appuie sur l’évaluation delta pour exploiter la similarité entre des solutions consécutives, et ainsi réduire le temps d’évaluation. Nous avons comparé l’algorithme du recuit simulé avec deux algorithmes récents. Dans les deux cas, l’algorithme du recuit simulé a permis d’obtenir une solution de qualité comparable en beaucoup moins de temps de calcul.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X202000200001
    Description :

    Le présent article construit un échantillon d’ensembles ordonnés avec probabilité proportionnelle à la taille (PPT) à partir d’une population stratifiée. Un échantillon d’ensembles ordonnés PPT partitionne les unités d’un échantillon PPT en groupes d’observations semblables. La construction de groupes semblables repose sur des positions relatives (rangs) d’unités dans de petits ensembles de comparaison. Ainsi, les rangs induisent plus de structure (stratification) dans l’échantillon en plus de la structure de données créée par des probabilités de sélection inégales dans un échantillon PPT. La structure de données ajoutée rend l’échantillon d’ensembles ordonnés PPT plus informatif qu’un échantillon PPT. On construit l’échantillon d’ensembles ordonnés PPT stratifié en sélectionnant un échantillon d’ensembles ordonnés PPT à partir de chaque strate de la population. L’article construit des estimateurs sans biais pour la moyenne de la population, le total de la population et leurs variances. On applique le nouveau plan d’échantillonnage à des données sur la production de pommes pour estimer la production totale de pommes en Turquie.

    Date de diffusion : 2020-12-15

  • Articles et rapports : 12-001-X201900300007
    Description :

    Lorsque la base de sondage est importante, il est difficile d’optimiser la stratification et la taille de l’échantillon dans un plan de sondage univarié ou multivarié. Il existe diverses façons de modéliser et de résoudre ce problème. Un des moyens les plus naturels est l’algorithme génétique (AG) combiné à l’algorithme d’évaluation de Bethel-Chromy. Un AG recherche itérativement la taille minimale d’échantillon permettant de respecter les contraintes de précision lorsqu’il s’agit de partitionner les strates atomiques formées par le produit cartésien de variables auxiliaires. Nous signalons un inconvénient avec les AG classiques appliqués à un problème de regroupement et proposons un nouvel algorithme génétique de « regroupement » avec des opérateurs génétiques au lieu des opérateurs classiques. Des expériences indiquent qu’on se trouve ainsi à améliorer nettement la qualité de solution pour un même effort de calcul.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201800154925
    Description :

    Le présent article traite de l’inférence statistique sous un modèle de superpopulation en population finie quand on utilise des échantillons obtenus par échantillonnage d’ensembles ordonnés (EEO). Les échantillons sont construits sans remise. Nous montrons que la moyenne d’échantillon sous EEO est sans biais par rapport au modèle et présente une plus petite erreur de prédiction quadratique moyenne (EPQM) que la moyenne sous échantillonnage aléatoire simple (EAS). Partant d’un estimateur sans biais de l’EPQM, nous construisons aussi un intervalle de confiance de prédiction pour la moyenne de population. Une étude en simulation à petite échelle montre que cet estimateur est aussi bon qu’un estimateur sur échantillon aléatoire simple (EAS) quand l’information pour le classement est de qualité médiocre. Par ailleurs, cet estimateur est plus efficace que l’estimateur EAS quand la qualité de l’information de classement est bonne et que le ratio des coûts de l’obtention d’une unité sous EEO et sous EAS n’est pas très élevé. L’étude en simulation indique aussi que les probabilités de couverture des intervalles de prédiction sont très proches des probabilités de couverture nominales. La procédure d’inférence proposée est appliquée à un ensemble de données réel.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201100211610
    Description :

    Dans cet article, l'auteur présente une discussion sur chacun des trois articles de la compilation spéciale du US Census Bureau.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 75F0002M2010002
    Description :

    Le présent document vise à comparer les estimations du revenu agrégé publiées par quatre programmes statistiques. Le Système de comptabilité nationale dresse un portrait de l'activité économique au niveau macro-économique. Les trois autres programmes produisent des données au niveau micro-économique : deux d'entre eux sont fondés sur des enquêtes (le Recensement de la population et l'Enquête sur la dynamique du travail et du revenu) et le troisième produit tous ses résultats à partir de données administratives (Estimations annuelles relatives aux familles de recensement et aux particuliers). Un survol des différences conceptuelles entre les sources étudiées est suivi d'une discussion des enjeux de couverture et des différences de traitement qui pourraient influencer les estimations. Des estimations de revenu agrégées avec des ajustements pour tenir compte des différences conceptuelles connues sont comparées. Même en tenant compte de la variabilité statistique, des problèmes de rapprochement se posent toujours. Ils s'expliquent parfois par l'utilisation de méthodes ou d'outils de collecte différents, mais ils restent parfois inexpliqués.

    Date de diffusion : 2010-04-06

  • Articles et rapports : 11-536-X200900110810
    Description :

    La post-stratification est souvent utilisée pour améliorer la précision des estimateurs d'enquêtes lorsqu'on dispose d'information auxiliaire catégorique de sources à l'extérieur de l'enquête. Dans les enquêtes sur les ressources naturelles, de tels renseignements sont souvent obtenus des données de télédétection, classés en catégories et affichés sous forme de tables de pixels. Ces tables peuvent être construites en fonction des modèles de classification adaptés aux données-échantillons. La post-stratification des données-échantillons fondée sur les catégories dérivées des données-échantillons (« post-stratification endogène ») contrevient à plusieurs hypothèses de la post-stratification standard, et est généralement considérée comme non valide en tant que méthode d'estimation fondée sur le plan. Dans la présentation, les propriétés de l'estimateur de post-stratification endogène sont dérivées dans le cas d'un modèle linéaire généralisé adapté à l'échantillon. La cohérence du plan de l'estimateur de post-stratification endogène est établie conformément à certaines conditions modérées. On établit la cohérence et la normalité asymptotique de l'estimateur de post-stratification endogène dans le cadre d'un modèle de superpopulation. Des exercices de simulation démontrent que l'effet pratique de l'adaptation d'un modèle aux données d'enquête avant la post-stratification est faible, même dans le cas des échantillons relativement petits.

    Date de diffusion : 2009-08-11

  • Articles et rapports : 11-522-X200600110441
    Description :

    Comment estime t on efficacement la taille de l'échantillon tout en établissant un consensus entre de nombreux chercheurs pour des projets polyvalents? Nous présentons un modèle s'appuyant sur un tableur ordinaire pour produire des estimations de la puissance analytique, de la précision et des coûts financiers selon divers scénarios d'échantillonnage, tel qu'il a été utilisé lors de l'élaboration de l'Enquête sur le tabagisme en Ontario. En plus des estimations des coûts, des formules complexes de calcul de la taille d'échantillon ont été imbriquées dans un tableur pour déterminer la puissance et la précision des analyses, en tenant compte des effets de plan et des cas perdus de vue au suivi définis par l'utilisateur. Un tableur ordinaire peut être combiné à des formules complexes afin de faciliter l'échange de connaissances entre les méthodologistes et les intervenants, et en fait, de démystifier la "boîte noire de la taille d'échantillon".

    Date de diffusion : 2008-03-17

  • Articles et rapports : 12-001-X20000025538
    Description :

    Cochran (1977, p.374) a proposé certains estimateurs par quotient ou par régression de la moyenne de population fondés sur la méthode de Hansen et Hurwitz (1946) consistant à sous-échantillonner les non-répondants en supposant que l'on connaît la moyenne de population de la variable auxiliaire. Le présent article décrit certains estimateurs par quotient ou par régression axés sur un échantillonnage double (à deux phases) applicables aux cas où l'on ne connaît pas la moyenne de population de la variable auxiliaire. On y compare aussi la performance de ces estimateurs à celle de l'estimateur proposé par Hansen et Hurwitz (1946).

    Date de diffusion : 2001-02-28

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015017
    Description :

    Les études longitudinales avec observations répétées sur des individus permettent de mieux caractériser les changements et de mieux évaluer les facteurs de risque éventuels. On possède toutefois peu d'expérience sur l'application de modèles perfectionnés à des données longitudinales avec plan d'échantillonnage complexe. Nous présentons ici les résultats d'une comparaison de différentes méthodes d'estimation de la variance applicables à des modèles à effets aléatoires évaluant l'évolution de la fonction cognitive chez les personnes âgées. Le plan d'échantillonnage consiste en un échantillon stratifié de personnes âgées de 65 ans et plus, prélevé dans le cadre d'une étude communautaire visant à examiner les facteurs de risque de la démence. Le modèle résume l'hétérogénéité de la population, en ce qui a trait au niveau global et au taux d'évolution de la fonction cognitive, en utilisant des effets aléatoires comme coordonnée à l'origine et comme pente. Nous discutons d'une méthode de régression non pondérée avec covariables représentant les variables de stratification, d'une méthode de régression pondérée et de la méthode bootstrap; nous présentons également quelques travaux préliminaires sur la méthode de répétition équilibrée et celle du jackknife.

    Date de diffusion : 1999-10-22
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (13)

Analyses (13) (0 à 10 de 13 résultats)

  • Articles et rapports : 12-001-X202200100010
    Description :

    La présente étude combine le recuit simulé avec l’évaluation delta pour résoudre le problème de stratification et de répartition simultanée de l’échantillon. Dans ce problème particulier, les strates atomiques sont divisées en strates mutuellement exclusives et collectivement exhaustives. Chaque partition de strates atomiques est une solution possible au problème de stratification, dont la qualité est mesurée par son coût. Le nombre de Bell de solutions possibles est énorme, même pour un nombre modéré de strates atomiques, et une couche supplémentaire de complexité s’ajoute avec le temps d’évaluation de chaque solution. De nombreux problèmes d’optimisation combinatoire à grande échelle ne peuvent être résolus de manière optimale, car la recherche d’une solution optimale exige un temps de calcul prohibitif. Un certain nombre d’algorithmes heuristiques de recherche locale ont été conçus pour résoudre problème, mais ils peuvent rester coincés dans des minima locaux, ce qui empêche toute amélioration ultérieure. Nous ajoutons, à la suite existante d’algorithmes de recherche locale, un algorithme du recuit simulé qui permet de s’échapper des minima locaux et s’appuie sur l’évaluation delta pour exploiter la similarité entre des solutions consécutives, et ainsi réduire le temps d’évaluation. Nous avons comparé l’algorithme du recuit simulé avec deux algorithmes récents. Dans les deux cas, l’algorithme du recuit simulé a permis d’obtenir une solution de qualité comparable en beaucoup moins de temps de calcul.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X202000200001
    Description :

    Le présent article construit un échantillon d’ensembles ordonnés avec probabilité proportionnelle à la taille (PPT) à partir d’une population stratifiée. Un échantillon d’ensembles ordonnés PPT partitionne les unités d’un échantillon PPT en groupes d’observations semblables. La construction de groupes semblables repose sur des positions relatives (rangs) d’unités dans de petits ensembles de comparaison. Ainsi, les rangs induisent plus de structure (stratification) dans l’échantillon en plus de la structure de données créée par des probabilités de sélection inégales dans un échantillon PPT. La structure de données ajoutée rend l’échantillon d’ensembles ordonnés PPT plus informatif qu’un échantillon PPT. On construit l’échantillon d’ensembles ordonnés PPT stratifié en sélectionnant un échantillon d’ensembles ordonnés PPT à partir de chaque strate de la population. L’article construit des estimateurs sans biais pour la moyenne de la population, le total de la population et leurs variances. On applique le nouveau plan d’échantillonnage à des données sur la production de pommes pour estimer la production totale de pommes en Turquie.

    Date de diffusion : 2020-12-15

  • Articles et rapports : 12-001-X201900300007
    Description :

    Lorsque la base de sondage est importante, il est difficile d’optimiser la stratification et la taille de l’échantillon dans un plan de sondage univarié ou multivarié. Il existe diverses façons de modéliser et de résoudre ce problème. Un des moyens les plus naturels est l’algorithme génétique (AG) combiné à l’algorithme d’évaluation de Bethel-Chromy. Un AG recherche itérativement la taille minimale d’échantillon permettant de respecter les contraintes de précision lorsqu’il s’agit de partitionner les strates atomiques formées par le produit cartésien de variables auxiliaires. Nous signalons un inconvénient avec les AG classiques appliqués à un problème de regroupement et proposons un nouvel algorithme génétique de « regroupement » avec des opérateurs génétiques au lieu des opérateurs classiques. Des expériences indiquent qu’on se trouve ainsi à améliorer nettement la qualité de solution pour un même effort de calcul.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201800154925
    Description :

    Le présent article traite de l’inférence statistique sous un modèle de superpopulation en population finie quand on utilise des échantillons obtenus par échantillonnage d’ensembles ordonnés (EEO). Les échantillons sont construits sans remise. Nous montrons que la moyenne d’échantillon sous EEO est sans biais par rapport au modèle et présente une plus petite erreur de prédiction quadratique moyenne (EPQM) que la moyenne sous échantillonnage aléatoire simple (EAS). Partant d’un estimateur sans biais de l’EPQM, nous construisons aussi un intervalle de confiance de prédiction pour la moyenne de population. Une étude en simulation à petite échelle montre que cet estimateur est aussi bon qu’un estimateur sur échantillon aléatoire simple (EAS) quand l’information pour le classement est de qualité médiocre. Par ailleurs, cet estimateur est plus efficace que l’estimateur EAS quand la qualité de l’information de classement est bonne et que le ratio des coûts de l’obtention d’une unité sous EEO et sous EAS n’est pas très élevé. L’étude en simulation indique aussi que les probabilités de couverture des intervalles de prédiction sont très proches des probabilités de couverture nominales. La procédure d’inférence proposée est appliquée à un ensemble de données réel.

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201100211610
    Description :

    Dans cet article, l'auteur présente une discussion sur chacun des trois articles de la compilation spéciale du US Census Bureau.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 75F0002M2010002
    Description :

    Le présent document vise à comparer les estimations du revenu agrégé publiées par quatre programmes statistiques. Le Système de comptabilité nationale dresse un portrait de l'activité économique au niveau macro-économique. Les trois autres programmes produisent des données au niveau micro-économique : deux d'entre eux sont fondés sur des enquêtes (le Recensement de la population et l'Enquête sur la dynamique du travail et du revenu) et le troisième produit tous ses résultats à partir de données administratives (Estimations annuelles relatives aux familles de recensement et aux particuliers). Un survol des différences conceptuelles entre les sources étudiées est suivi d'une discussion des enjeux de couverture et des différences de traitement qui pourraient influencer les estimations. Des estimations de revenu agrégées avec des ajustements pour tenir compte des différences conceptuelles connues sont comparées. Même en tenant compte de la variabilité statistique, des problèmes de rapprochement se posent toujours. Ils s'expliquent parfois par l'utilisation de méthodes ou d'outils de collecte différents, mais ils restent parfois inexpliqués.

    Date de diffusion : 2010-04-06

  • Articles et rapports : 11-536-X200900110810
    Description :

    La post-stratification est souvent utilisée pour améliorer la précision des estimateurs d'enquêtes lorsqu'on dispose d'information auxiliaire catégorique de sources à l'extérieur de l'enquête. Dans les enquêtes sur les ressources naturelles, de tels renseignements sont souvent obtenus des données de télédétection, classés en catégories et affichés sous forme de tables de pixels. Ces tables peuvent être construites en fonction des modèles de classification adaptés aux données-échantillons. La post-stratification des données-échantillons fondée sur les catégories dérivées des données-échantillons (« post-stratification endogène ») contrevient à plusieurs hypothèses de la post-stratification standard, et est généralement considérée comme non valide en tant que méthode d'estimation fondée sur le plan. Dans la présentation, les propriétés de l'estimateur de post-stratification endogène sont dérivées dans le cas d'un modèle linéaire généralisé adapté à l'échantillon. La cohérence du plan de l'estimateur de post-stratification endogène est établie conformément à certaines conditions modérées. On établit la cohérence et la normalité asymptotique de l'estimateur de post-stratification endogène dans le cadre d'un modèle de superpopulation. Des exercices de simulation démontrent que l'effet pratique de l'adaptation d'un modèle aux données d'enquête avant la post-stratification est faible, même dans le cas des échantillons relativement petits.

    Date de diffusion : 2009-08-11

  • Articles et rapports : 11-522-X200600110441
    Description :

    Comment estime t on efficacement la taille de l'échantillon tout en établissant un consensus entre de nombreux chercheurs pour des projets polyvalents? Nous présentons un modèle s'appuyant sur un tableur ordinaire pour produire des estimations de la puissance analytique, de la précision et des coûts financiers selon divers scénarios d'échantillonnage, tel qu'il a été utilisé lors de l'élaboration de l'Enquête sur le tabagisme en Ontario. En plus des estimations des coûts, des formules complexes de calcul de la taille d'échantillon ont été imbriquées dans un tableur pour déterminer la puissance et la précision des analyses, en tenant compte des effets de plan et des cas perdus de vue au suivi définis par l'utilisateur. Un tableur ordinaire peut être combiné à des formules complexes afin de faciliter l'échange de connaissances entre les méthodologistes et les intervenants, et en fait, de démystifier la "boîte noire de la taille d'échantillon".

    Date de diffusion : 2008-03-17

  • Articles et rapports : 12-001-X20000025538
    Description :

    Cochran (1977, p.374) a proposé certains estimateurs par quotient ou par régression de la moyenne de population fondés sur la méthode de Hansen et Hurwitz (1946) consistant à sous-échantillonner les non-répondants en supposant que l'on connaît la moyenne de population de la variable auxiliaire. Le présent article décrit certains estimateurs par quotient ou par régression axés sur un échantillonnage double (à deux phases) applicables aux cas où l'on ne connaît pas la moyenne de population de la variable auxiliaire. On y compare aussi la performance de ces estimateurs à celle de l'estimateur proposé par Hansen et Hurwitz (1946).

    Date de diffusion : 2001-02-28

  • Articles et rapports : 12-001-X19990014710
    Description :

    La plupart des bureaux de la statistique utilisent des techniques non probabilistes pour choisir l'échantillon de produits dont les prix permettent de calculer les indices des prix à la consommation. Aux Pays-Bas, comme dans beacoup d'autres pays, ce genre de sondage raisonné se rapproche en quelque sorte de la sélection par seuil d'inclusion, une bonne partie de la population (normalement les produits suscitant le moins de dépenses) étant délibérément exclue des observations. Bien sûr, cette méthode donne lieu à des chiffres biaisés pour l'indice des prix. On peut se demander si un échangillonnage probabiliste donnerait de meilleurs résultats quant à l'erreur quadratique moyenne. Les auteurs ont considéré l'échantillonnage aléatoire simple, l'échantillonnage stratifié et l'échantillonnage systématique proportionnel aux dépenses. Ils ont mené des simulations de Monte Carlo à l'aide de données de lecture optique pour le café, les couches de bébés et le paper hygiénique afin d'évaluer le rendement des quatre plans d'échantillonnage. Il est assez surprenant de constater que la sélection par seuil d'inclusion est une bonne stratégie d'échantillonnage des produits pour l'indice des prix à la consommation.

    Date de diffusion : 1999-10-08
Références (1)

Références (1) ((1 résultat))

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015017
    Description :

    Les études longitudinales avec observations répétées sur des individus permettent de mieux caractériser les changements et de mieux évaluer les facteurs de risque éventuels. On possède toutefois peu d'expérience sur l'application de modèles perfectionnés à des données longitudinales avec plan d'échantillonnage complexe. Nous présentons ici les résultats d'une comparaison de différentes méthodes d'estimation de la variance applicables à des modèles à effets aléatoires évaluant l'évolution de la fonction cognitive chez les personnes âgées. Le plan d'échantillonnage consiste en un échantillon stratifié de personnes âgées de 65 ans et plus, prélevé dans le cadre d'une étude communautaire visant à examiner les facteurs de risque de la démence. Le modèle résume l'hétérogénéité de la population, en ce qui a trait au niveau global et au taux d'évolution de la fonction cognitive, en utilisant des effets aléatoires comme coordonnée à l'origine et comme pente. Nous discutons d'une méthode de régression non pondérée avec covariables représentant les variables de stratification, d'une méthode de régression pondérée et de la méthode bootstrap; nous présentons également quelques travaux préliminaires sur la méthode de répétition équilibrée et celle du jackknife.

    Date de diffusion : 1999-10-22
Date de modification :