Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

1 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (39)

Tout (39) (0 à 10 de 39 résultats)

  • Articles et rapports : 12-001-X202300100009
    Description : Le présent article présente des méthodes d’échantillonnage adaptatif proportionnel à la taille, avec et sans remise. Des estimateurs sans biais y sont élaborés pour ces méthodes et leurs propriétés sont étudiées. Dans les deux versions, les probabilités de tirage sont adaptées pendant le processus d’échantillonnage à partir des observations déjà sélectionnées. À cette fin, dans la méthode avec remise, après chaque tirage et chaque observation de la variable d’intérêt, le vecteur de la variable auxiliaire sera mis à jour au moyen des valeurs observées de la variable d’intérêt pour que soit estimée la probabilité de sélection exacte proportionnelle à la taille. Dans la méthode sans remise, tout d’abord, à l’aide d’un échantillon initial, nous modélisons la relation entre la variable d’intérêt et la variable auxiliaire. Puis, en utilisant cette relation, nous estimons les unités de population inconnues (non observées). Enfin, à partir de ces unités de population estimées, nous sélectionnons un nouvel échantillon proportionnel à la taille sans remise. Ces méthodes peuvent améliorer considérablement l’efficacité des plans, non seulement dans le cas d’une relation linéaire positive, mais aussi dans le cas d’une relation non linéaire ou d’une relation linéaire négative entre variables. Nous étudions l’efficacité des plans au moyen de simulations et d’études de cas réels sur les plantes médicinales ainsi qu’au moyen de données sociales et économiques.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202200100010
    Description :

    La présente étude combine le recuit simulé avec l’évaluation delta pour résoudre le problème de stratification et de répartition simultanée de l’échantillon. Dans ce problème particulier, les strates atomiques sont divisées en strates mutuellement exclusives et collectivement exhaustives. Chaque partition de strates atomiques est une solution possible au problème de stratification, dont la qualité est mesurée par son coût. Le nombre de Bell de solutions possibles est énorme, même pour un nombre modéré de strates atomiques, et une couche supplémentaire de complexité s’ajoute avec le temps d’évaluation de chaque solution. De nombreux problèmes d’optimisation combinatoire à grande échelle ne peuvent être résolus de manière optimale, car la recherche d’une solution optimale exige un temps de calcul prohibitif. Un certain nombre d’algorithmes heuristiques de recherche locale ont été conçus pour résoudre problème, mais ils peuvent rester coincés dans des minima locaux, ce qui empêche toute amélioration ultérieure. Nous ajoutons, à la suite existante d’algorithmes de recherche locale, un algorithme du recuit simulé qui permet de s’échapper des minima locaux et s’appuie sur l’évaluation delta pour exploiter la similarité entre des solutions consécutives, et ainsi réduire le temps d’évaluation. Nous avons comparé l’algorithme du recuit simulé avec deux algorithmes récents. Dans les deux cas, l’algorithme du recuit simulé a permis d’obtenir une solution de qualité comparable en beaucoup moins de temps de calcul.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X201900300007
    Description :

    Lorsque la base de sondage est importante, il est difficile d’optimiser la stratification et la taille de l’échantillon dans un plan de sondage univarié ou multivarié. Il existe diverses façons de modéliser et de résoudre ce problème. Un des moyens les plus naturels est l’algorithme génétique (AG) combiné à l’algorithme d’évaluation de Bethel-Chromy. Un AG recherche itérativement la taille minimale d’échantillon permettant de respecter les contraintes de précision lorsqu’il s’agit de partitionner les strates atomiques formées par le produit cartésien de variables auxiliaires. Nous signalons un inconvénient avec les AG classiques appliqués à un problème de regroupement et proposons un nouvel algorithme génétique de « regroupement » avec des opérateurs génétiques au lieu des opérateurs classiques. Des expériences indiquent qu’on se trouve ainsi à améliorer nettement la qualité de solution pour un même effort de calcul.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201800154929
    Description :

    Le U.S. Census Bureau étudie des stratégies de sous-échantillonnage des non-répondants en prévision de l’Economic Census de 2017. Les contraintes imposées au plan de sondage comprennent une borne inférieure obligatoire pour le taux de réponse totale, ainsi que des taux de réponse cibles par industrie. Le présent article expose la recherche sur les procédures de répartition de l’échantillon pour le sous-échantillonnage des non-répondants conditionnellement à ce que ce sous-échantillonnage soit systématique. Nous considérons deux approches, à savoir 1) l’échantillonnage avec probabilités égales et 2) la répartition optimisée avec contraintes sur les taux de réponse totale et la taille d’échantillon, avec pour objectif la sélection de plus grands échantillons dans les industries qui, au départ, affichent des taux de réponse plus faibles. Nous présentons une étude en simulation qui examine le biais relatif et l’erreur quadratique moyenne pour les répartitions proposées, en évaluant la sensibilité de chaque procédure à la taille du sous-échantillon, aux propensions à répondre et à la procédure d’estimation

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201600214660
    Description :

    Dans le cadre d’une enquête économique auprès d’un échantillon d’entreprises, on sélectionne au hasard des professions dans une liste jusqu’à ce que l’on identifie un nombre r de professions présentes dans une unité locale. Il s’agit d’un problème d’échantillonnage inverse pour lequel nous proposons quelques solutions. Les plans simples avec et sans remise se traitent au moyen des distributions binomiale négative et hypergéométrique négative. On propose également des estimateurs pour le cas où les unités sont sélectionnées à probabilités inégales avec ou sans remise.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201400214090
    Description :

    Lorsqu'on s'intéresse à une population finie, il arrive qu'il soit nécessaire de tirer des échantillons dans plusieurs bases de sondage pour représenter l'ensemble des individus. Nous nous intéressons ici au cas de deux échantillons sélectionnés selon un plan à deux degrés, avec un premier degré de tirage commun. Nous appliquons les méthodes de Hartley (1962), Bankier (1986), et Kalton et Anderson (1986), et nous montrons que ces méthodes peuvent être appliquées conditionnellement au premier degré de tirage. Nous comparons également la performance de plusieurs estimateurs dans le cadre d'une étude par simulations. Nos résultats suggèrent que le choix d'un estimateur en présence de bases de sondage multiples se fasse de façon prudente, et qu'un estimateur simple est parfois préférable même s'il n'utilise qu'une partie de l'information collectée.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201100211607
    Description :

    Le présent article décrit les progrès récents dans le domaine des stratégies d'échantillonnage adaptatif et présente de nouvelles variantes de ces stratégies. Les progrès récents comprennent les plans d'échantillonnage à marche aléatoire ciblée et l'échantillonnage adaptatif « en toile ». Ces plans conviennent particulièrement bien pour l'échantillonnage par réseau; par exemple pour obtenir un échantillon de personnes appartenant à une population humaine cachée en suivant les liens sociaux partant d'un groupe de personnes échantillonnées pour trouver d'autres membres de la population cachée à ajouter à l'échantillon. Chacun de ces plans peut également être transposé à des conditions spatiales pour produire de nouvelles stratégies d'échantillonnage adaptatif spatial souples, applicables à des populations réparties non uniformément. Les variantes de ces stratégies d'échantillonnage comprennent celles où les liens du réseau ou les liens spatiaux ont des poids inégaux et sont suivis avec des probabilités inégales.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100211609
    Description :

    Le présent article propose un examen et une évaluation de l'échantillonnage équilibré par la méthode du cube. Il débute par une définition de la notion d'échantillon équilibré et d'échantillonnage équilibré, suivie par un court historique du concept d'équilibrage. Après un exposé succinct de la théorie de la méthode du cube, l'accent est mis sur les aspects pratiques de l'échantillonnage équilibré, c'est-à-dire l'intérêt de la méthode comparativement à d'autres méthodes d'échantillonnage et au calage, le domaine d'application, la précision de l'équilibrage, le choix des variables auxiliaires et les moyens de mettre la méthode en oeuvre.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201000211385
    Description :

    Dans cette note brève, nous montrons que l'échantillonnage aléatoire sans remise et l'échantillonnage de Bernoulli ont à peu près la même entropie quand la taille de la population est grande. Nous donnons un exemple empirique en guise d'illustration.

    Date de diffusion : 2010-12-21
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (37)

Analyses (37) (0 à 10 de 37 résultats)

  • Articles et rapports : 12-001-X202300100009
    Description : Le présent article présente des méthodes d’échantillonnage adaptatif proportionnel à la taille, avec et sans remise. Des estimateurs sans biais y sont élaborés pour ces méthodes et leurs propriétés sont étudiées. Dans les deux versions, les probabilités de tirage sont adaptées pendant le processus d’échantillonnage à partir des observations déjà sélectionnées. À cette fin, dans la méthode avec remise, après chaque tirage et chaque observation de la variable d’intérêt, le vecteur de la variable auxiliaire sera mis à jour au moyen des valeurs observées de la variable d’intérêt pour que soit estimée la probabilité de sélection exacte proportionnelle à la taille. Dans la méthode sans remise, tout d’abord, à l’aide d’un échantillon initial, nous modélisons la relation entre la variable d’intérêt et la variable auxiliaire. Puis, en utilisant cette relation, nous estimons les unités de population inconnues (non observées). Enfin, à partir de ces unités de population estimées, nous sélectionnons un nouvel échantillon proportionnel à la taille sans remise. Ces méthodes peuvent améliorer considérablement l’efficacité des plans, non seulement dans le cas d’une relation linéaire positive, mais aussi dans le cas d’une relation non linéaire ou d’une relation linéaire négative entre variables. Nous étudions l’efficacité des plans au moyen de simulations et d’études de cas réels sur les plantes médicinales ainsi qu’au moyen de données sociales et économiques.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202200100010
    Description :

    La présente étude combine le recuit simulé avec l’évaluation delta pour résoudre le problème de stratification et de répartition simultanée de l’échantillon. Dans ce problème particulier, les strates atomiques sont divisées en strates mutuellement exclusives et collectivement exhaustives. Chaque partition de strates atomiques est une solution possible au problème de stratification, dont la qualité est mesurée par son coût. Le nombre de Bell de solutions possibles est énorme, même pour un nombre modéré de strates atomiques, et une couche supplémentaire de complexité s’ajoute avec le temps d’évaluation de chaque solution. De nombreux problèmes d’optimisation combinatoire à grande échelle ne peuvent être résolus de manière optimale, car la recherche d’une solution optimale exige un temps de calcul prohibitif. Un certain nombre d’algorithmes heuristiques de recherche locale ont été conçus pour résoudre problème, mais ils peuvent rester coincés dans des minima locaux, ce qui empêche toute amélioration ultérieure. Nous ajoutons, à la suite existante d’algorithmes de recherche locale, un algorithme du recuit simulé qui permet de s’échapper des minima locaux et s’appuie sur l’évaluation delta pour exploiter la similarité entre des solutions consécutives, et ainsi réduire le temps d’évaluation. Nous avons comparé l’algorithme du recuit simulé avec deux algorithmes récents. Dans les deux cas, l’algorithme du recuit simulé a permis d’obtenir une solution de qualité comparable en beaucoup moins de temps de calcul.

    Date de diffusion : 2022-06-21

  • Articles et rapports : 12-001-X201900300007
    Description :

    Lorsque la base de sondage est importante, il est difficile d’optimiser la stratification et la taille de l’échantillon dans un plan de sondage univarié ou multivarié. Il existe diverses façons de modéliser et de résoudre ce problème. Un des moyens les plus naturels est l’algorithme génétique (AG) combiné à l’algorithme d’évaluation de Bethel-Chromy. Un AG recherche itérativement la taille minimale d’échantillon permettant de respecter les contraintes de précision lorsqu’il s’agit de partitionner les strates atomiques formées par le produit cartésien de variables auxiliaires. Nous signalons un inconvénient avec les AG classiques appliqués à un problème de regroupement et proposons un nouvel algorithme génétique de « regroupement » avec des opérateurs génétiques au lieu des opérateurs classiques. Des expériences indiquent qu’on se trouve ainsi à améliorer nettement la qualité de solution pour un même effort de calcul.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201800154929
    Description :

    Le U.S. Census Bureau étudie des stratégies de sous-échantillonnage des non-répondants en prévision de l’Economic Census de 2017. Les contraintes imposées au plan de sondage comprennent une borne inférieure obligatoire pour le taux de réponse totale, ainsi que des taux de réponse cibles par industrie. Le présent article expose la recherche sur les procédures de répartition de l’échantillon pour le sous-échantillonnage des non-répondants conditionnellement à ce que ce sous-échantillonnage soit systématique. Nous considérons deux approches, à savoir 1) l’échantillonnage avec probabilités égales et 2) la répartition optimisée avec contraintes sur les taux de réponse totale et la taille d’échantillon, avec pour objectif la sélection de plus grands échantillons dans les industries qui, au départ, affichent des taux de réponse plus faibles. Nous présentons une étude en simulation qui examine le biais relatif et l’erreur quadratique moyenne pour les répartitions proposées, en évaluant la sensibilité de chaque procédure à la taille du sous-échantillon, aux propensions à répondre et à la procédure d’estimation

    Date de diffusion : 2018-06-21

  • Articles et rapports : 12-001-X201600214660
    Description :

    Dans le cadre d’une enquête économique auprès d’un échantillon d’entreprises, on sélectionne au hasard des professions dans une liste jusqu’à ce que l’on identifie un nombre r de professions présentes dans une unité locale. Il s’agit d’un problème d’échantillonnage inverse pour lequel nous proposons quelques solutions. Les plans simples avec et sans remise se traitent au moyen des distributions binomiale négative et hypergéométrique négative. On propose également des estimateurs pour le cas où les unités sont sélectionnées à probabilités inégales avec ou sans remise.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201400214090
    Description :

    Lorsqu'on s'intéresse à une population finie, il arrive qu'il soit nécessaire de tirer des échantillons dans plusieurs bases de sondage pour représenter l'ensemble des individus. Nous nous intéressons ici au cas de deux échantillons sélectionnés selon un plan à deux degrés, avec un premier degré de tirage commun. Nous appliquons les méthodes de Hartley (1962), Bankier (1986), et Kalton et Anderson (1986), et nous montrons que ces méthodes peuvent être appliquées conditionnellement au premier degré de tirage. Nous comparons également la performance de plusieurs estimateurs dans le cadre d'une étude par simulations. Nos résultats suggèrent que le choix d'un estimateur en présence de bases de sondage multiples se fasse de façon prudente, et qu'un estimateur simple est parfois préférable même s'il n'utilise qu'une partie de l'information collectée.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201100211607
    Description :

    Le présent article décrit les progrès récents dans le domaine des stratégies d'échantillonnage adaptatif et présente de nouvelles variantes de ces stratégies. Les progrès récents comprennent les plans d'échantillonnage à marche aléatoire ciblée et l'échantillonnage adaptatif « en toile ». Ces plans conviennent particulièrement bien pour l'échantillonnage par réseau; par exemple pour obtenir un échantillon de personnes appartenant à une population humaine cachée en suivant les liens sociaux partant d'un groupe de personnes échantillonnées pour trouver d'autres membres de la population cachée à ajouter à l'échantillon. Chacun de ces plans peut également être transposé à des conditions spatiales pour produire de nouvelles stratégies d'échantillonnage adaptatif spatial souples, applicables à des populations réparties non uniformément. Les variantes de ces stratégies d'échantillonnage comprennent celles où les liens du réseau ou les liens spatiaux ont des poids inégaux et sont suivis avec des probabilités inégales.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100211609
    Description :

    Le présent article propose un examen et une évaluation de l'échantillonnage équilibré par la méthode du cube. Il débute par une définition de la notion d'échantillon équilibré et d'échantillonnage équilibré, suivie par un court historique du concept d'équilibrage. Après un exposé succinct de la théorie de la méthode du cube, l'accent est mis sur les aspects pratiques de l'échantillonnage équilibré, c'est-à-dire l'intérêt de la méthode comparativement à d'autres méthodes d'échantillonnage et au calage, le domaine d'application, la précision de l'équilibrage, le choix des variables auxiliaires et les moyens de mettre la méthode en oeuvre.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201000211385
    Description :

    Dans cette note brève, nous montrons que l'échantillonnage aléatoire sans remise et l'échantillonnage de Bernoulli ont à peu près la même entropie quand la taille de la population est grande. Nous donnons un exemple empirique en guise d'illustration.

    Date de diffusion : 2010-12-21
Références (2)

Références (2) ((2 résultats))

  • Enquêtes et programmes statistiques — Documentation : 89-631-X
    Description :

    Le présent document expose les faits nouveaux et les principes qui sous-tendent l'élaboration des cycles récents de l'Enquête sociale générale (ESG). Nous effectuons d'abord un survol des objectifs de l'ESG et des thèmes des cycles précédents, puis nous examinons plus particulièrement deux cycles récents concernant la famille au Canada : les transitions familiales (2006) et la famille, le soutien social et la retraite (2007). Pour terminer, nous présentons sommairement l'ESG de 2008, qui portera sur les réseaux sociaux, et nous décrivons un projet spécial qui marquera le vingtième anniversaire de l'ESG.

    L'enquête recueille des données sur une période de 12 mois auprès de la population des ménages privés des 10 provinces. À l'exception des cycles 16 et 21, qui ne ciblaient que des personnes de 45 ans et plus, l'enquête s'adresse à des répondants de 15 ans et plus.

    Le cycle 20 de l'ESG de 2006 est le quatrième cycle consacré à la collecte de données sur la famille (les trois premiers ont eu lieu en 1990, 1995 et 2001). Le cycle 20 aborde la plupart des mêmes thèmes que les cycles précédents sur la famille, mais quelques sections ont été revues et élaborées davantage. Les données recueillies permettent aux analystes d'étudier des variables associées à l'histoire conjugale et l'historique de la fécondité (chronologie des mariages, unions libres et enfants), les origines familiales, le départ des enfants du domicile familial, les intentions de fécondité, la garde d'enfants l'histoire professionnelle et d'autres caractéristiques socioéconomiques. Des questions portant sur les accords ou ententes de soutien financier (pour les enfants et l'ex-conjoint ou ex-partenaire) entre les familles divorcées ou séparées ont été modifiées, alors que des sections sur la participation sociale, le bien-être et les caractéristiques de la résidence ont été ajoutées.

    Date de diffusion : 2008-05-27

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015022
    Description :

    La présente communication élargit et développe la méthode proposée par Pfeffermann, Skinner et Humphreys (1998) pour l'estimation de mouvements bruts en présence d'erreurs de classification. L'élément principal de la méthode en question est l'utilisation de renseignements complémentaires au niveau des individus, ce qui permet d'éviter de recourir à des données de validation pour l'estimation des taux d'erreur de classification. Les développements contenus dans la présente communication sont l'établissement de conditions permettant l'identification de modèles, une étude des caracéristiques de la qualité de l'ajustement d'un modèle et des modifications à la vraisemblance de l'échantillon afin de tenir compte des données manquantes et de l'échantillonnage informatif. Ces développements sont illustrés par une petite simulation fondée sur la méthode de Monte Carlo.

    Date de diffusion : 1999-10-22
Date de modification :