Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Géographie

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (57)

Tout (57) (0 à 10 de 57 résultats)

  • Articles et rapports : 12-001-X202300200010
    Description : Les méthodes de coordination d’échantillons visent à augmenter (dans une coordination positive) ou à diminuer (dans une coordination négative) la taille du chevauchement entre les échantillons. Les échantillons pris en compte peuvent être tirés à différentes périodes d’une enquête répétée ou de différentes enquêtes portant sur une population commune. La coordination négative est utilisée pour contrôler le fardeau de réponse au cours d’une période donnée, car certaines unités ne répondent pas aux questionnaires d’enquête si elles sont sélectionnées dans de nombreux échantillons. Habituellement, les méthodes de coordination d’échantillons ne tiennent pas compte des mesures du fardeau de réponse qu’une unité a déjà supporté pour répondre à des enquêtes précédentes. Nous ajoutons une telle mesure dans une nouvelle méthode en adaptant un schéma d’échantillonnage spatialement équilibré basé sur une généralisation de l’échantillonnage de Poisson, de concert avec une méthode de coordination négative. Le but est de créer un double contrôle du fardeau pour ces unités : en utilisant une mesure du fardeau pendant le processus d’échantillonnage et en utilisant une méthode de coordination négative. Nous évaluons l’approche au moyen d’une simulation de Monte Carlo et examinons son utilisation aux fins de contrôle pour la sélection de « points chauds » dans les enquêtes-entreprises à Statistique Pays-Bas.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 11-633-X2022006
    Description :

    La présente étude vise à comparer la façon dont le mode d’enquête, le contexte thématique de l’enquête et le plan d’échantillonnage contribuent à la variation des réponses aux questions semblables sur la discrimination raciale autoperçue entre les cycles de 2013, de 2014, de 2019 et de 2020 de l’Enquête sociale générale (ESG).

    Date de diffusion : 2022-08-09

  • Articles et rapports : 12-001-X202000100002
    Description :

    On a besoin de méthodes par modèle pour estimer des paramètres d’intérêt de petit domaine, comme les totaux et les moyennes, là où les méthodes classiques d’estimation directe ne peuvent garantir une précision suffisante. Les modèles au niveau des unités et au niveau des domaines sont les plus répandus dans la pratique. S’il s’agit d’un modèle au niveau des unités, il est possible d’obtenir des estimateurs efficaces par modèle si le plan de sondage est tel que les modèles d’échantillon et de population coïncident, c’est-à-dire que le plan d’échantillonnage n’est pas informatif pour le modèle en question. Si en revanche le plan de sondage est informatif pour le modèle, les probabilités de sélection seront liées à la variable d’intérêt même après conditionnement par les données auxiliaires disponibles, d’où l’implication que le modèle de la population ne vaut plus pour l’échantillon. Pfeffermann et Sverchkov (2007) se sont reportés aux relations entre les distributions de population et d’échantillon de la variable étudiée pour obtenir des prédicteurs semi-paramétriques approximativement sans biais des moyennes de domaine dans des plans d’échantillonnage informatifs. La procédure qu’ils ont employée est applicable aux domaines avec et sans échantillon. Verret, Rao et Hidiroglou (2015) ont étudié d’autres méthodes utilisant une fonction appropriée des probabilités de sélection d’unités comme variable auxiliaire supplémentaire. Leur technique a donné des estimateurs Empirical Best Linear Unbiased Prediction (EBLUP) approximativement sans biais pour les moyennes de petit domaine. Dans le présent exposé, nous étendons la méthode de Verret et coll. (2015) en ne formant aucune hypothèse au sujet des probabilités d’inclusion. Nous nous contentons d’intégrer ces dernières au modèle au niveau des unités en utilisant une fonction lisse des probabilités d’inclusion. C’est une fonction que nous estimons par une approximation locale donnant un estimateur polynomial local. Nous proposons une méthode bootstrap conditionnelle pour l’estimation de l’erreur quadratique moyenne (EQM) des estimateurs polynomiaux locaux et des estimateurs EBLUP. Nous examinons par simulation le biais et les propriétés d’efficacité de l’estimateur polynomial local. Nous présentons enfin les résultats de l’estimateur bootstrap de l’EQM.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201900200003
    Description :

    Dans divers domaines, il est de plus en plus important de fusionner les sources d’information disponibles pour améliorer les estimations des caractéristiques de la population. En présence de plusieurs échantillons probabilistes indépendants d’une population finie, nous examinons plusieurs solutions d’estimateur combiné du total de la population, basé soit sur une combinaison linéaire d’estimateurs distincts, soit sur une méthode par échantillon combiné. L’estimateur en combinaison linéaire fondé sur des variances estimées est susceptible d’être biaisé, car les estimateurs distincts du total de la population peuvent être fortement corrélés à leurs estimateurs de la variance respectifs. Nous illustrons la possibilité d’utiliser un échantillon combiné pour estimer les variances des estimateurs distincts, ce qui donne des estimateurs de la variance groupés généraux. Ces estimateurs de la variance groupés utilisent tous les renseignements disponibles et peuvent réduire considérablement le biais d’une combinaison linéaire d’estimateurs distincts.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 11-522-X201700014745
    Description :

    Au moment de la conception des enquêtes, un certain nombre de paramètres, comme la propension à la prise de contact, la propension à la participation et les coûts par unité d’échantillonnage, jouent un rôle décisif. Dans le cas des enquêtes permanentes, ces paramètres de conception d’enquête sont habituellement estimés à partir de l’expérience antérieure et mis à jour graduellement, au fur et à mesure des nouvelles expériences. Dans les nouvelles enquêtes, ces paramètres sont estimés à partir de l’opinion des experts et de l’expérience acquise dans des enquêtes similaires. Même si les instituts de sondage ont une expertise et une expérience relativement bonnes, l’énoncé, l’estimation et la mise à jour des paramètres de conception d’enquête se font rarement de façon systématique. Dans la présentation, nous proposons un cadre bayésien qui permet de prendre en compte et de mettre à jour les connaissances acquises et les opinions des experts concernant les paramètres. Ce cadre est établi dans le contexte de plans de collecte adaptatifs, dans lesquels les différentes unités de population peuvent être traitées différemment compte tenu des objectifs de qualité et de coût. Pour ce type d’enquête, l’exactitude des paramètres de conception devient encore plus cruciale pour prendre des décisions efficaces. Le cadre permet une analyse bayésienne du rendement d’une enquête pendant la collecte des données et entre les vagues. Nous démontrons l’analyse bayésienne au moyen d’une étude de simulation réaliste.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 12-001-X201500214229
    Description :

    L’estimation autopondérée au moyen de méthodes d’échantillonnage avec probabilités égales (epsem pour equal probability selection methods) est souhaitable pour des raisons d’efficacité relativement à la variance. Habituellement, pour obtenir la propriété epsem pour des plans de sondage à deux degrés (et à une phase) en vue d’estimer des paramètres au niveau de la population, on utilise le chiffre de population de chaque unité primaire d’échantillonnage (UPE) comme mesure de taille pour la sélection des UPE, ainsi que l’attribution d’une taille d’échantillon égale aux UPE sous échantillonnage aléatoire simple (EAS) des unités élémentaires. Cependant, si l’on souhaite des estimations autopondérées pour les paramètres correspondant à de multiples domaines sous une répartition préétablie de l’échantillon entre les domaines, Folsom, Potter et Williams (1987) ont montré que l’on peut utiliser une mesure composite de taille pour sélectionner les UPE afin d’obtenir des plans epsem quand on suppose qu’outre les chiffres de population des UPE au niveau des domaines (c’est à dire la répartition de la population entre les domaines dans les UPE), les identificateurs de domaines pour les unités élémentaires sont également disponibles dans la base de sondage. Le terme depsem-A sera utilisé pour désigner ce genre de plan de sondage à deux degrés (et à une phase) pour obtenir l’estimation epsem au niveau du domaine. Folsom et coll. ont également considéré des plans d’échantillonnage à deux phases et à deux degrés quand les chiffres de population des UPE au niveau des domaines sont inconnus, mais que les dénombrements d’UPE entières sont connus. Pour ces plans (que nous désignerons depsem-B) avec les UPE sélectionnées avec probabilité proportionnelle à la mesure de taille habituelle (c’est à dire la population totale de l’UPE) au premier degré, toutes les unités élémentaires dans chaque UPE sélectionnée font d’abord l’objet d’une présélection en vue de les classer par domaine à la première phase de collecte des données, avant la sélection par EAS au deuxième degré d’échantillonnage. Des échantillons stratifiés par domaine sont ensuite sélectionnés dans les UPE en appliquant des taux d’échantillonnage de domaine choisis de manière appropriée pour que les tailles d’échantillon de domaine obtenues soient celles souhaitées et que le plan d’échantillonnage résultant soit autopondéré. Dans le présent article, nous commençons par donner une justification simple des mesures composites de taille pour le plan depsem-A et des taux d’échantillonnage de domaine pour le plan depsem-B. Puis, pour les plans depsem-A et -B, nous proposons des généralisations, premièrement aux cas pour lesquels les identificateurs de domaine pour les unités élémentaires ne sont pas disponibles dans la base de sondage et les chiffres de population des UPE au niveau des domaines ne sont connus qu’approximativement à partir d’autres sources, et deuxièmement, aux cas pour lesquels les mesures de taille des UPE sont préétablies en se basant sur d’autres considérations pratiques et souhaitables de suréchantillonnage ou de sous-échantillonnage de certains domaines. Nous présentons aussi une généralisation supplémentaire en présence de sous-échantillonnage des unités élémentaires et de non-réponse dans certaines UPE à la première phase, avant la sélection des unités élémentaires de deuxième phase dans les domaines à l’intérieur de chaque UPE sélectionnée. Cette dernière généralisation du plan depsem-B est illustrée pour un échantillon aréolaire de logements.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201400214119
    Description :

    Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201300111824
    Description :

    Dans la plupart des enquêtes, le même traitement est réservé à toutes les unités échantillonnées et les mêmes caractéristiques de plan de collecte des données s'appliquent à toutes les personnes et à tous les ménages sélectionnés. Le présent article explique comment les plans de collecte des données peuvent être adaptés en vue d'optimiser la qualité, étant donné des contraintes de coûts. Ces types de plans sont appelés plans de collecte adaptatifs. Les éléments fondamentaux de ce genre de plans sont présentés, discutés et illustrés au moyen de divers exemples.

    Date de diffusion : 2013-06-28
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (53)

Analyses (53) (0 à 10 de 53 résultats)

  • Articles et rapports : 12-001-X202300200010
    Description : Les méthodes de coordination d’échantillons visent à augmenter (dans une coordination positive) ou à diminuer (dans une coordination négative) la taille du chevauchement entre les échantillons. Les échantillons pris en compte peuvent être tirés à différentes périodes d’une enquête répétée ou de différentes enquêtes portant sur une population commune. La coordination négative est utilisée pour contrôler le fardeau de réponse au cours d’une période donnée, car certaines unités ne répondent pas aux questionnaires d’enquête si elles sont sélectionnées dans de nombreux échantillons. Habituellement, les méthodes de coordination d’échantillons ne tiennent pas compte des mesures du fardeau de réponse qu’une unité a déjà supporté pour répondre à des enquêtes précédentes. Nous ajoutons une telle mesure dans une nouvelle méthode en adaptant un schéma d’échantillonnage spatialement équilibré basé sur une généralisation de l’échantillonnage de Poisson, de concert avec une méthode de coordination négative. Le but est de créer un double contrôle du fardeau pour ces unités : en utilisant une mesure du fardeau pendant le processus d’échantillonnage et en utilisant une méthode de coordination négative. Nous évaluons l’approche au moyen d’une simulation de Monte Carlo et examinons son utilisation aux fins de contrôle pour la sélection de « points chauds » dans les enquêtes-entreprises à Statistique Pays-Bas.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 11-633-X2022006
    Description :

    La présente étude vise à comparer la façon dont le mode d’enquête, le contexte thématique de l’enquête et le plan d’échantillonnage contribuent à la variation des réponses aux questions semblables sur la discrimination raciale autoperçue entre les cycles de 2013, de 2014, de 2019 et de 2020 de l’Enquête sociale générale (ESG).

    Date de diffusion : 2022-08-09

  • Articles et rapports : 12-001-X202000100002
    Description :

    On a besoin de méthodes par modèle pour estimer des paramètres d’intérêt de petit domaine, comme les totaux et les moyennes, là où les méthodes classiques d’estimation directe ne peuvent garantir une précision suffisante. Les modèles au niveau des unités et au niveau des domaines sont les plus répandus dans la pratique. S’il s’agit d’un modèle au niveau des unités, il est possible d’obtenir des estimateurs efficaces par modèle si le plan de sondage est tel que les modèles d’échantillon et de population coïncident, c’est-à-dire que le plan d’échantillonnage n’est pas informatif pour le modèle en question. Si en revanche le plan de sondage est informatif pour le modèle, les probabilités de sélection seront liées à la variable d’intérêt même après conditionnement par les données auxiliaires disponibles, d’où l’implication que le modèle de la population ne vaut plus pour l’échantillon. Pfeffermann et Sverchkov (2007) se sont reportés aux relations entre les distributions de population et d’échantillon de la variable étudiée pour obtenir des prédicteurs semi-paramétriques approximativement sans biais des moyennes de domaine dans des plans d’échantillonnage informatifs. La procédure qu’ils ont employée est applicable aux domaines avec et sans échantillon. Verret, Rao et Hidiroglou (2015) ont étudié d’autres méthodes utilisant une fonction appropriée des probabilités de sélection d’unités comme variable auxiliaire supplémentaire. Leur technique a donné des estimateurs Empirical Best Linear Unbiased Prediction (EBLUP) approximativement sans biais pour les moyennes de petit domaine. Dans le présent exposé, nous étendons la méthode de Verret et coll. (2015) en ne formant aucune hypothèse au sujet des probabilités d’inclusion. Nous nous contentons d’intégrer ces dernières au modèle au niveau des unités en utilisant une fonction lisse des probabilités d’inclusion. C’est une fonction que nous estimons par une approximation locale donnant un estimateur polynomial local. Nous proposons une méthode bootstrap conditionnelle pour l’estimation de l’erreur quadratique moyenne (EQM) des estimateurs polynomiaux locaux et des estimateurs EBLUP. Nous examinons par simulation le biais et les propriétés d’efficacité de l’estimateur polynomial local. Nous présentons enfin les résultats de l’estimateur bootstrap de l’EQM.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201900200003
    Description :

    Dans divers domaines, il est de plus en plus important de fusionner les sources d’information disponibles pour améliorer les estimations des caractéristiques de la population. En présence de plusieurs échantillons probabilistes indépendants d’une population finie, nous examinons plusieurs solutions d’estimateur combiné du total de la population, basé soit sur une combinaison linéaire d’estimateurs distincts, soit sur une méthode par échantillon combiné. L’estimateur en combinaison linéaire fondé sur des variances estimées est susceptible d’être biaisé, car les estimateurs distincts du total de la population peuvent être fortement corrélés à leurs estimateurs de la variance respectifs. Nous illustrons la possibilité d’utiliser un échantillon combiné pour estimer les variances des estimateurs distincts, ce qui donne des estimateurs de la variance groupés généraux. Ces estimateurs de la variance groupés utilisent tous les renseignements disponibles et peuvent réduire considérablement le biais d’une combinaison linéaire d’estimateurs distincts.

    Date de diffusion : 2019-06-27

  • Articles et rapports : 11-522-X201700014745
    Description :

    Au moment de la conception des enquêtes, un certain nombre de paramètres, comme la propension à la prise de contact, la propension à la participation et les coûts par unité d’échantillonnage, jouent un rôle décisif. Dans le cas des enquêtes permanentes, ces paramètres de conception d’enquête sont habituellement estimés à partir de l’expérience antérieure et mis à jour graduellement, au fur et à mesure des nouvelles expériences. Dans les nouvelles enquêtes, ces paramètres sont estimés à partir de l’opinion des experts et de l’expérience acquise dans des enquêtes similaires. Même si les instituts de sondage ont une expertise et une expérience relativement bonnes, l’énoncé, l’estimation et la mise à jour des paramètres de conception d’enquête se font rarement de façon systématique. Dans la présentation, nous proposons un cadre bayésien qui permet de prendre en compte et de mettre à jour les connaissances acquises et les opinions des experts concernant les paramètres. Ce cadre est établi dans le contexte de plans de collecte adaptatifs, dans lesquels les différentes unités de population peuvent être traitées différemment compte tenu des objectifs de qualité et de coût. Pour ce type d’enquête, l’exactitude des paramètres de conception devient encore plus cruciale pour prendre des décisions efficaces. Le cadre permet une analyse bayésienne du rendement d’une enquête pendant la collecte des données et entre les vagues. Nous démontrons l’analyse bayésienne au moyen d’une étude de simulation réaliste.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 12-001-X201500214229
    Description :

    L’estimation autopondérée au moyen de méthodes d’échantillonnage avec probabilités égales (epsem pour equal probability selection methods) est souhaitable pour des raisons d’efficacité relativement à la variance. Habituellement, pour obtenir la propriété epsem pour des plans de sondage à deux degrés (et à une phase) en vue d’estimer des paramètres au niveau de la population, on utilise le chiffre de population de chaque unité primaire d’échantillonnage (UPE) comme mesure de taille pour la sélection des UPE, ainsi que l’attribution d’une taille d’échantillon égale aux UPE sous échantillonnage aléatoire simple (EAS) des unités élémentaires. Cependant, si l’on souhaite des estimations autopondérées pour les paramètres correspondant à de multiples domaines sous une répartition préétablie de l’échantillon entre les domaines, Folsom, Potter et Williams (1987) ont montré que l’on peut utiliser une mesure composite de taille pour sélectionner les UPE afin d’obtenir des plans epsem quand on suppose qu’outre les chiffres de population des UPE au niveau des domaines (c’est à dire la répartition de la population entre les domaines dans les UPE), les identificateurs de domaines pour les unités élémentaires sont également disponibles dans la base de sondage. Le terme depsem-A sera utilisé pour désigner ce genre de plan de sondage à deux degrés (et à une phase) pour obtenir l’estimation epsem au niveau du domaine. Folsom et coll. ont également considéré des plans d’échantillonnage à deux phases et à deux degrés quand les chiffres de population des UPE au niveau des domaines sont inconnus, mais que les dénombrements d’UPE entières sont connus. Pour ces plans (que nous désignerons depsem-B) avec les UPE sélectionnées avec probabilité proportionnelle à la mesure de taille habituelle (c’est à dire la population totale de l’UPE) au premier degré, toutes les unités élémentaires dans chaque UPE sélectionnée font d’abord l’objet d’une présélection en vue de les classer par domaine à la première phase de collecte des données, avant la sélection par EAS au deuxième degré d’échantillonnage. Des échantillons stratifiés par domaine sont ensuite sélectionnés dans les UPE en appliquant des taux d’échantillonnage de domaine choisis de manière appropriée pour que les tailles d’échantillon de domaine obtenues soient celles souhaitées et que le plan d’échantillonnage résultant soit autopondéré. Dans le présent article, nous commençons par donner une justification simple des mesures composites de taille pour le plan depsem-A et des taux d’échantillonnage de domaine pour le plan depsem-B. Puis, pour les plans depsem-A et -B, nous proposons des généralisations, premièrement aux cas pour lesquels les identificateurs de domaine pour les unités élémentaires ne sont pas disponibles dans la base de sondage et les chiffres de population des UPE au niveau des domaines ne sont connus qu’approximativement à partir d’autres sources, et deuxièmement, aux cas pour lesquels les mesures de taille des UPE sont préétablies en se basant sur d’autres considérations pratiques et souhaitables de suréchantillonnage ou de sous-échantillonnage de certains domaines. Nous présentons aussi une généralisation supplémentaire en présence de sous-échantillonnage des unités élémentaires et de non-réponse dans certaines UPE à la première phase, avant la sélection des unités élémentaires de deuxième phase dans les domaines à l’intérieur de chaque UPE sélectionnée. Cette dernière généralisation du plan depsem-B est illustrée pour un échantillon aréolaire de logements.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214237
    Description :

    La bonne conception d’une enquête téléphonique par composition aléatoire (CA) à partir d’une base de sondage double requiert de choisir entre de nombreuses options, en faisant la part des différences de coût, de précision, et de couverture, afin d’optimiser la réalisation des objectifs de l’étude. L’un des éléments à prendre en considération est celui de savoir s’il faut présélectionner les ménages équipés de téléphones mobiles et n’interroger que ceux utilisant exclusivement des téléphones mobiles (ménages EXM), donc écarter ceux qui se servent d’un téléphone fixe ainsi que d’un téléphone mobile (ménages F-et-M), ou s’il faut, au contraire, interroger toutes les unités de l’échantillon de ménages équipés de téléphones mobiles. Nous présentons un cadre pour comparer les avantages et les inconvénients de ces deux options, ainsi qu’une méthode pour sélectionner le plan de sondage optimal. Nous établissons la répartition optimale de la taille de l’échantillon entre les deux bases de sondage et en discutons, et nous abordons le choix de la valeur optimale du paramètre de composition p pour le domaine des usagers d’un téléphone fixe ainsi que d’un téléphone mobile (F-et-M). Nous illustrons nos méthodes en les appliquant à la National Immunization Survey commanditée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201500214249
    Description :

    Le problème de la répartition optimale des échantillons dans les enquêtes basées sur un plan d’échantillonnage stratifié a été abordé pour la première fois par Neyman en 1934. Depuis, de nombreux chercheurs ont étudié le problème de la répartition des échantillons dans les enquêtes à plusieurs variables, et plusieurs méthodes ont été proposées. Ces méthodes se divisent essentiellement en deux catégories. La première catégorie englobe les méthodes de répartition qui réduisent les coûts des enquêtes tout en maintenant les coefficients de variation des estimateurs de totaux sous des seuils spécifiés pour toutes les variables d’enquête d’intérêt. La seconde catégorie de méthodes vise à minimiser une moyenne pondérée des variances relatives des estimateurs des totaux étant donné une taille globale maximale d’échantillon ou un coût maximum. Cet article propose une nouvelle approche d’optimisation pour régler le problème de la répartition des échantillons dans les enquêtes à plusieurs variables. Cette approche se fonde sur une formulation de la programmation en nombres entiers binaires. Plusieurs expériences numériques ont démontré que l’approche proposée offre des solutions efficaces à ce problème, qui permettent d’améliorer un « algorithme classique » et peuvent être plus efficaces que l’algorithme de Bethel (1985, 1989).

    Date de diffusion : 2015-12-17

  • Articles et rapports : 12-001-X201400214119
    Description :

    Lorsqu’on envisage la stratification d’un échantillon en fonction de plusieurs variables, on se trouve souvent dans la situation où le nombre prévu d’unités de l’échantillon qui doivent être sélectionnées dans chaque strate est très petit et où le nombre total d’unités à sélectionner est plus petit que le nombre total de strates. Ces plans de sondage stratifiés sont représentés spécifiquement par des tableaux contenant des nombres réels, appelés problèmes de sélection contrôlée, et ne peuvent pas être résolus par les méthodes classiques de répartition. Depuis une soixantaine d’années, de nombreux algorithmes ont été examinés pour résoudre ces problèmes, à commencer par celui de Goodman et Kish (1950). Ceux qui ont été élaborés plus récemment sont particulièrement exigeants du point de vue informatique et trouvent toujours les solutions. Cependant, la question qui demeure sans réponse est celle de savoir dans quel sens les solutions d’un problème de sélection contrôlée obtenues au moyen de ces algorithmes sont optimales. Nous introduisons le concept général des solutions optimales, et nous proposons un nouvel algorithme de sélection contrôlée fondé sur des fonctions de distance type pour obtenir ces solutions. Cet algorithme peut être exécuté facilement par un nouveau logiciel basé sur SAS. La présente étude porte sur les plans de sondage avec stratification à deux dimensions. Les solutions de sélection contrôlée issues du nouvel algorithme sont comparées à celles obtenues au moyen des algorithmes existants, en se fondant sur plusieurs exemples. Le nouvel algorithme arrive à fournir des solutions robustes aux problèmes de sélection contrôlée à deux dimensions qui satisfont aux critères d’optimalité.

    Date de diffusion : 2014-12-19

  • Articles et rapports : 12-001-X201300111824
    Description :

    Dans la plupart des enquêtes, le même traitement est réservé à toutes les unités échantillonnées et les mêmes caractéristiques de plan de collecte des données s'appliquent à toutes les personnes et à tous les ménages sélectionnés. Le présent article explique comment les plans de collecte des données peuvent être adaptés en vue d'optimiser la qualité, étant donné des contraintes de coûts. Ces types de plans sont appelés plans de collecte adaptatifs. Les éléments fondamentaux de ce genre de plans sont présentés, discutés et illustrés au moyen de divers exemples.

    Date de diffusion : 2013-06-28
Références (4)

Références (4) ((4 résultats))

  • Enquêtes et programmes statistiques — Documentation : 81-595-M2003009
    Géographie : Canada
    Description :

    Dans ce rapport, on examine l'utilisation de l'Enquête sur l'éducation et sur la formation des adultes (EEFA) au Canada en tant qu'outil permettant d'analyser la participation des adultes aux activités d'éducation et de formation ainsi que l'incidence de ces activités sur ces personnes.

    Date de diffusion : 2003-10-15

  • Enquêtes et programmes statistiques — Documentation : 75F0002M2000012
    Description :

    Dans ce document, on présente les renseignements de la nouvelle composante Entrée-sortie de l'interview sur le revenu de l'Enquête sur la dynamique du travail et du revenu (EDTR).

    Date de diffusion : 2001-03-27

  • Avis et consultations : 13F0026M1999001
    Description :

    Les objectifs principaux d'une nouvelle enquête canadienne sur les biens et les dettes des familles et des particuliers seront de mettre à jour les données existantes sur le patrimoine qui remontent à plus de 10 ans; de produire des estimations plus fiables du patrimoine; et, de servir d'outil principal pour l'analyse de nombreux dossiers publics importants ayant trait à la distribution des avoirs et des dettes, aux possibilités de consommation future et à l'épargne, dossiers auxquels s'intéressent les administrations publiques, les entreprises et les collectivités.

    Ce document est la pierre angulaire qui a servi au développement de la nouvelle enquête sur les avoirs et les dettes, renommée depuis l'Enquête sur la sécurité financière. Il examine le cadre conceptuel de l'enquête, y compris l'unité de mesure appropriée (famille, ménage ou particulier) et traite de la question concernant les mesures comme la création d'un cadre comptable pour les avoirs et les dettes. Il fait aussi état des variables susceptibles d'être incluses dans l'enquête. Ce rapport soumet plusieurs questions aux lecteurs et cherche à obtenir des commentaires et de la rétroaction.

    Date de diffusion : 1999-03-23

  • Enquêtes et programmes statistiques — Documentation : 75F0002M1994001
    Description :

    Dans ce document, on présente les règles de suivi de l'Enquête sur la dynamique du travail et du revenu (EDTR), c'est-à-dire les règles selon lesquelles on détermine quelles personnes doivent faire l'objet d'un dépistage et lesquelles doivent être interviewées. On décrit également le fondement conceptuel sur lequel reposent ces règles.

    Date de diffusion : 1995-12-30
Date de modification :