Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Enquête ou programme statistique

1 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (30)

Tout (30) (0 à 10 de 30 résultats)

  • Articles et rapports : 12-001-X201900300004
    Description :

    Dans les études sociales ou économiques, il faut souvent adopter une vue d’ensemble de la société. Dans les études en agriculture par exemple, on peut établir un lien entre les caractéristiques des exploitations et les activités sociales des particuliers. On devrait donc étudier un phénomène en considérant les variables d’intérêt et en se reportant à cette fin à diverses populations cibles liées entre elles. Pour se renseigner sur un phénomène, on se doit de faire des observations en toute intégration, les unités d’une population devant être observées conjointement avec les unités liées d’une autre. Dans l’exemple de l’agriculture, cela veut dire qu’on devrait prélever un échantillon de ménages ruraux qui serait lié de quelque manière à l’échantillon d’exploitations à utiliser aux fins de l’étude. Il existe plusieurs façons de prélever des échantillons intégrés. Nous analysons ici le problème de la définition d’une stratégie optimale d’échantillonnage dans cette optique. La solution proposée doit réduire le coût d’échantillonnage au minimum et satisfaire une précision préétablie de l’estimation des variables d’intérêt (dans l’une et/ou l’autre des populations) décrivant le phénomène. L’échantillonnage indirect dresse un cadre naturel pour un tel réglage, car les unités appartenant à une population peuvent être porteuses d’une information sur l’autre population visée par l’enquête. Nous étudions ce problème selon divers contextes caractérisant l’information sur les liens disponibles à l’étape du plan de sondage, que les liens entre les unités soient connus à ce stade ou que l’information dont nous disposons sur ces mêmes liens laisse très nettement à désirer. Nous présentons ici une étude empirique de données agricoles pour un pays en développement. On peut y voir combien il est efficace de prendre en compte les probabilités d’inclusion au stade du plan de sondage à l’aide de l’information disponible (sur les liens en l’occurrence) et à quel point on peut ainsi nettement réduire les erreurs des estimations pour la population indirectement observée. Nous démontrons enfin la nécessité de disposer de bons modèles pour la prédiction des variables ou des liens inconnus.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201800254954
    Description :

    Ces dernières années, les techniques d’échantillonnage équilibré ont suscité un regain d’intérêt. Ces techniques contraignent les estimateurs d’Horvitz-Thompson des totaux des variables auxiliaires a égaler, du moins approximativement, les totaux vrais correspondants, pour éviter la présence de mauvais échantillons. Plusieurs procédures existent pour exécuter l’échantillonnage équilibré, dont la méthode du cube, élaborée par Deville et Tillé (2004), et l’algorithme réjectif, introduit par Hájek (1964). Après un bref examen de ces méthodes d’échantillonnage, motivé par la planification d’une enquête auprès des pêcheurs sportifs, nous étudions par simulations Monte Carlo les plans de sondage produits par ces deux algorithmes d’échantillonnage.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254959
    Description :

    Cet article propose un critère de calcul du paramètre de compromis dans les répartitions dites « mixtes », c’est-à-dire qui mélangent deux répartitions classiques en théorie des sondages. Dans les enquêtes auprès des entreprises de l’Insee (Institut National de la Statistique et des Études Économiques), il est courant d’utiliser la moyenne arithmétique d’une répartition proportionnelle et d’une répartition de Neyman (correspondant à un paramètre de compromis de 0,5). Il est possible d’obtenir une valeur du paramètre de compromis aboutissant à de meilleures propriétés pour les estimateurs. Cette valeur appartient à une région qui est obtenue en résolvant un programme d’optimisation. Différentes méthodes de calcul de ce paramètre seront présentées. Une application sur des enquêtes auprès des entreprises est présentée, avec comparaison avec d’autres répartitions de compromis usuelles.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 18-001-X2016001
    Description :

    Bien que le couplage d’enregistrements des données d’entreprises ne soit pas un sujet complètement nouveau, il n’en demeure pas moins que le grand public et de nombreux utilisateurs de données en méconnaissent les programmes et méthodes générales mises en œuvre par les agences de la statistique à travers le monde.

    Ce rapport fait un rapide tour d’horizon des principaux programmes, pratiques d’usages et enjeux sur le couplage d’enregistrements des agences de la statistique à travers le monde ayant répondu à un mini-sondage sur ce sujet. Le document montre que les pratiques d’appariements sont similaires entre agences de la statistique, mais que les principales différences résident dans les processus d’accès aux données et dans les politiques règlementaires qui encadrent les autorisations de couplage d’enregistrements ainsi que leur diffusion.

    Date de diffusion : 2016-10-27

  • Articles et rapports : 11-522-X201300014286
    Description :

    L’Etude Longitudinale Française depuis l’Enfance (Elfe), démarrée en 2011, compte plus de 18 300 nourrissons dont les parents ont consenti à leur inclusion en maternité. Cette cohorte, consacrée au suivi des enfants, de la naissance à l’âge adulte, aborde les multiples aspects de la vie de l’enfant sous l’angle des sciences sociales, de la santé et de la santé-environnement. Dans chacune des maternités tirées aléatoirement, tous les nourrissons de la population cible, nés durant l’un des 25 jours répartis parmi les quatre saisons, ont été sélectionnés. Cet échantillon est le résultat d’un plan de sondage non standard que nous appellons échantillonnage produit. Il se présente pour cette enquête sous la forme du croisement de deux échantillonnages indépendants: celui des maternités et celui des jours. Si l’on peut facilement imaginer un effet grappe dû à l’échantillonnage de maternités, on peut symétriquement imaginer un effet grappe dû à l’échantillonnage des jours. La dimension temporelle du plan ne pourra alors être négligée si les estimations recherchées sont susceptibles de variations journalières ou saisonnières. Si ce plan non standard peut être vu comme un plan à deux phases bien particulier, il s’avère nécessaire de le définir dans un cadre plus adapté. Après une comparaison entre le plan produit et un plan classique à deux degrés, seront proposés des estimateurs de variance adaptés à ce plan de sondage. Une étude par simulations illustrera nos propos.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 12-002-X201400111901
    Description :

    Ce document est destiné aux analystes/chercheurs qui envisagent d'effectuer de la recherche avec des données issues d'une enquête pour lesquelles des poids d'enquête et des poids bootstrap sont fournis dans les fichiers de données. Ce document donne, pour certains progiciels choisis, des instructions sur la façon d'utiliser des poids d'enquête et des poids bootstrap pour effectuer une analyse de données d'enquête. Nous donnons de brèves instructions sur la façon d'obtenir des estimations fondées sur des enquêtes pondérées, des estimations de la variance bootstrap (ainsi que d'autres erreurs de quantités souhaitées) et quelques tests statistiques classiques pour chaque progiciel. Même si ces directives sont seulement fournies pour les exemples choisis, nous donnons des renseignements sur l'étendue des analyses pondérées utilisant les poids bootstrap qui peuvent être effectuées par chaque logiciel.

    Date de diffusion : 2014-08-07

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201200111682
    Description :

    Les questions concernant la répartition de l'échantillon sont étudiées dans le contexte de l'estimation des moyennes de sous-population (strate ou domaine), ainsi que de la moyenne de population agrégée sous-échantillonnage aléatoire simple stratifié. Une méthode de programmation non linéaire est utilisée pour obtenir la répartition « optimale » de l'échantillon entre les strates qui minimise la taille totale d'échantillon sous la contrainte des tolérances spécifiées pour les coefficients de variation des estimateurs des moyennes de strate et de la moyenne de population. La taille totale d'échantillon résultante est alors utilisée pour déterminer les répartitions de l'échantillon par les méthodes de Costa, Satorra et Ventura (2004) s'appuyant sur une répartition intermédiaire ou de compromis et de Longford (2006) fondée sur des « priorités inférencielles » spécifiées. En outre, nous étudions la répartition de l'échantillon entre les strates quand sont également spécifiées des exigences de fiabilité pour des domaines qui recoupent les strates. Les propriétés des trois méthodes sont étudiées au moyen de données provenant de l'Enquête mensuelle sur le commerce de détail (EMCD) menée par Statistique Canada auprès d'établissements uniques.

    Date de diffusion : 2012-06-27

  • Articles et rapports : 12-001-X201100111447
    Description :

    Ce document présente un programme R pour la stratification d'une population d'enquête à l'aide d'une variable unidimensionnelle X et pour le calcul de tailles d'échantillon dans les strates. Nous y employons des méthodes non itératives pour délimiter les strates, comme la méthode de la fonction cumulative de la racine carrée des fréquences et la méthode géométrique. Nous pouvons élaborer des plans optimaux où les bornes de strates minimisent soit le CV de l'estimateur simple par dilatation pour une taille fixe d'échantillon n, soit la valeur n pour un CV fixe. Nous disposons de deux algorithmes itératifs pour le calcul des bornes optimales. Le plan peut comporter des strates à tirage obligatoire qui sont définies par l'utilisateur et dont toutes les unités sont échantillonnées. Il est également possible d'inclure dans le plan stratifié des strates à tirage complet et à tirage nul qui permettent souvent de réduire les tailles d'échantillon. Les calculs de taille d'échantillon sont fondés sur les moments anticipés de la variable d'enquête Y étant donné la variable de stratification X. Le programme traite les distributions conditionnelles de Y étant donné X qui sont soit un modèle linéaire hétéroscédastique soit un modèle loglinéaire. Nous pouvons tenir compte de la non-réponse par strate dans l'élaboration du plan d'échantillonnage et dans les calculs de taille d'échantillon.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 12-001-X201000111243
    Description :

    La National Assessment of Adult Literacy (NAAL) de 2003 et l'Enquête internationale sur la littératie et les compétences des adultes (ELCA) comportaient chacune un plan d'échantillonnage aréolaire stratifié à plusieurs degrés. Le dernier degré consistait à dresser la liste des membres du ménage, à déterminer la situation d'admissibilité de chaque individu et à appeler la procédure de sélection pour sélectionner aléatoirement une ou deux personnes admissibles dans le ménage. L'objectif du présent article est d'évaluer les règles de sélection dans les ménages sous un plan d'échantillonnage à plusieurs degrés en vue d'améliorer la procédure dans de futures enquêtes sur la littératie. L'analyse est fondée sur la distribution courante des ménages américains selon leur taille et sur les coefficients de corrélation intra-grappe en utilisant les données sur la littératie des adultes. Nous étudions plusieurs règles de sélection dans les ménages, en prenant en considération les effets de la mise en grappes, des taux d'échantillonnage différentiels, du coût par interview et du fardeau de réponse au niveau du ménage. Dans ce contexte, nous étendons une évaluation de l'échantillonnage dans les ménages sous un plan à deux degrés à un plan à quatre degrés et nous procédons à certaines généralisations aux échantillons à plusieurs degrés pour divers rapports de coûts.

    Date de diffusion : 2010-06-29
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (28)

Analyses (28) (0 à 10 de 28 résultats)

  • Articles et rapports : 12-001-X201900300004
    Description :

    Dans les études sociales ou économiques, il faut souvent adopter une vue d’ensemble de la société. Dans les études en agriculture par exemple, on peut établir un lien entre les caractéristiques des exploitations et les activités sociales des particuliers. On devrait donc étudier un phénomène en considérant les variables d’intérêt et en se reportant à cette fin à diverses populations cibles liées entre elles. Pour se renseigner sur un phénomène, on se doit de faire des observations en toute intégration, les unités d’une population devant être observées conjointement avec les unités liées d’une autre. Dans l’exemple de l’agriculture, cela veut dire qu’on devrait prélever un échantillon de ménages ruraux qui serait lié de quelque manière à l’échantillon d’exploitations à utiliser aux fins de l’étude. Il existe plusieurs façons de prélever des échantillons intégrés. Nous analysons ici le problème de la définition d’une stratégie optimale d’échantillonnage dans cette optique. La solution proposée doit réduire le coût d’échantillonnage au minimum et satisfaire une précision préétablie de l’estimation des variables d’intérêt (dans l’une et/ou l’autre des populations) décrivant le phénomène. L’échantillonnage indirect dresse un cadre naturel pour un tel réglage, car les unités appartenant à une population peuvent être porteuses d’une information sur l’autre population visée par l’enquête. Nous étudions ce problème selon divers contextes caractérisant l’information sur les liens disponibles à l’étape du plan de sondage, que les liens entre les unités soient connus à ce stade ou que l’information dont nous disposons sur ces mêmes liens laisse très nettement à désirer. Nous présentons ici une étude empirique de données agricoles pour un pays en développement. On peut y voir combien il est efficace de prendre en compte les probabilités d’inclusion au stade du plan de sondage à l’aide de l’information disponible (sur les liens en l’occurrence) et à quel point on peut ainsi nettement réduire les erreurs des estimations pour la population indirectement observée. Nous démontrons enfin la nécessité de disposer de bons modèles pour la prédiction des variables ou des liens inconnus.

    Date de diffusion : 2019-12-17

  • Articles et rapports : 12-001-X201800254954
    Description :

    Ces dernières années, les techniques d’échantillonnage équilibré ont suscité un regain d’intérêt. Ces techniques contraignent les estimateurs d’Horvitz-Thompson des totaux des variables auxiliaires a égaler, du moins approximativement, les totaux vrais correspondants, pour éviter la présence de mauvais échantillons. Plusieurs procédures existent pour exécuter l’échantillonnage équilibré, dont la méthode du cube, élaborée par Deville et Tillé (2004), et l’algorithme réjectif, introduit par Hájek (1964). Après un bref examen de ces méthodes d’échantillonnage, motivé par la planification d’une enquête auprès des pêcheurs sportifs, nous étudions par simulations Monte Carlo les plans de sondage produits par ces deux algorithmes d’échantillonnage.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 12-001-X201800254959
    Description :

    Cet article propose un critère de calcul du paramètre de compromis dans les répartitions dites « mixtes », c’est-à-dire qui mélangent deux répartitions classiques en théorie des sondages. Dans les enquêtes auprès des entreprises de l’Insee (Institut National de la Statistique et des Études Économiques), il est courant d’utiliser la moyenne arithmétique d’une répartition proportionnelle et d’une répartition de Neyman (correspondant à un paramètre de compromis de 0,5). Il est possible d’obtenir une valeur du paramètre de compromis aboutissant à de meilleures propriétés pour les estimateurs. Cette valeur appartient à une région qui est obtenue en résolvant un programme d’optimisation. Différentes méthodes de calcul de ce paramètre seront présentées. Une application sur des enquêtes auprès des entreprises est présentée, avec comparaison avec d’autres répartitions de compromis usuelles.

    Date de diffusion : 2018-12-20

  • Articles et rapports : 18-001-X2016001
    Description :

    Bien que le couplage d’enregistrements des données d’entreprises ne soit pas un sujet complètement nouveau, il n’en demeure pas moins que le grand public et de nombreux utilisateurs de données en méconnaissent les programmes et méthodes générales mises en œuvre par les agences de la statistique à travers le monde.

    Ce rapport fait un rapide tour d’horizon des principaux programmes, pratiques d’usages et enjeux sur le couplage d’enregistrements des agences de la statistique à travers le monde ayant répondu à un mini-sondage sur ce sujet. Le document montre que les pratiques d’appariements sont similaires entre agences de la statistique, mais que les principales différences résident dans les processus d’accès aux données et dans les politiques règlementaires qui encadrent les autorisations de couplage d’enregistrements ainsi que leur diffusion.

    Date de diffusion : 2016-10-27

  • Articles et rapports : 11-522-X201300014286
    Description :

    L’Etude Longitudinale Française depuis l’Enfance (Elfe), démarrée en 2011, compte plus de 18 300 nourrissons dont les parents ont consenti à leur inclusion en maternité. Cette cohorte, consacrée au suivi des enfants, de la naissance à l’âge adulte, aborde les multiples aspects de la vie de l’enfant sous l’angle des sciences sociales, de la santé et de la santé-environnement. Dans chacune des maternités tirées aléatoirement, tous les nourrissons de la population cible, nés durant l’un des 25 jours répartis parmi les quatre saisons, ont été sélectionnés. Cet échantillon est le résultat d’un plan de sondage non standard que nous appellons échantillonnage produit. Il se présente pour cette enquête sous la forme du croisement de deux échantillonnages indépendants: celui des maternités et celui des jours. Si l’on peut facilement imaginer un effet grappe dû à l’échantillonnage de maternités, on peut symétriquement imaginer un effet grappe dû à l’échantillonnage des jours. La dimension temporelle du plan ne pourra alors être négligée si les estimations recherchées sont susceptibles de variations journalières ou saisonnières. Si ce plan non standard peut être vu comme un plan à deux phases bien particulier, il s’avère nécessaire de le définir dans un cadre plus adapté. Après une comparaison entre le plan produit et un plan classique à deux degrés, seront proposés des estimateurs de variance adaptés à ce plan de sondage. Une étude par simulations illustrera nos propos.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 12-002-X201400111901
    Description :

    Ce document est destiné aux analystes/chercheurs qui envisagent d'effectuer de la recherche avec des données issues d'une enquête pour lesquelles des poids d'enquête et des poids bootstrap sont fournis dans les fichiers de données. Ce document donne, pour certains progiciels choisis, des instructions sur la façon d'utiliser des poids d'enquête et des poids bootstrap pour effectuer une analyse de données d'enquête. Nous donnons de brèves instructions sur la façon d'obtenir des estimations fondées sur des enquêtes pondérées, des estimations de la variance bootstrap (ainsi que d'autres erreurs de quantités souhaitées) et quelques tests statistiques classiques pour chaque progiciel. Même si ces directives sont seulement fournies pour les exemples choisis, nous donnons des renseignements sur l'étendue des analyses pondérées utilisant les poids bootstrap qui peuvent être effectuées par chaque logiciel.

    Date de diffusion : 2014-08-07

  • Articles et rapports : 12-001-X201400114003
    Description :

    Dans la littérature n’ayant pas trait aux sondages, il est fréquent de supposer que l’échantillonnage est effectué selon un processus aléatoire simple qui produit des échantillons indépendants et identiquement distribués (IID). De nombreuses méthodes statistiques sont élaborées en grande partie dans cet univers IID. Or, l’application de ces méthodes aux données provenant de sondages complexes en omettant de tenir compte des caractéristiques du plan de sondage peut donner lieu à des inférences erronées. Donc, beaucoup de temps et d’effort ont été consacrés à l’élaboration de méthodes statistiques permettant d’analyser les données d’enquêtes complexes en tenant compte du plan de sondage. Ce problème est particulièrement important lorsqu’on génère des populations synthétiques en faisant appel à l’inférence bayésienne en population finie, comme cela se fait souvent dans un contexte de données manquantes ou de risque de divulgation, ou lorsqu’on combine des données provenant de plusieurs enquêtes. En étendant les travaux antérieurs décrits dans la littérature sur le bootstrap bayésien en population finie, nous proposons une méthode pour produire des populations synthétiques à partir d’une loi prédictive a posteriori d’une façon qui inverse les caractéristiques du plan de sondage complexe et génère des échantillons aléatoires simples dans une optique de superpopulation, en ajustant les données complexes afin qu’elles puissent être analysées comme des échantillons aléatoires simples. Nous considérons une étude par simulation sous un plan de sondage en grappes stratifié avec probabilités inégales de sélection, et nous appliquons la méthode non paramétrique proposée pour produire des populations synthétiques pour la National Health Interview Survey (NHIS) et la Medical Expenditure Panel Survey (MEPS) de 2006, qui sont des enquêtes à plan de sondage en grappes stratifié avec probabilités inégales de sélection.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201200111682
    Description :

    Les questions concernant la répartition de l'échantillon sont étudiées dans le contexte de l'estimation des moyennes de sous-population (strate ou domaine), ainsi que de la moyenne de population agrégée sous-échantillonnage aléatoire simple stratifié. Une méthode de programmation non linéaire est utilisée pour obtenir la répartition « optimale » de l'échantillon entre les strates qui minimise la taille totale d'échantillon sous la contrainte des tolérances spécifiées pour les coefficients de variation des estimateurs des moyennes de strate et de la moyenne de population. La taille totale d'échantillon résultante est alors utilisée pour déterminer les répartitions de l'échantillon par les méthodes de Costa, Satorra et Ventura (2004) s'appuyant sur une répartition intermédiaire ou de compromis et de Longford (2006) fondée sur des « priorités inférencielles » spécifiées. En outre, nous étudions la répartition de l'échantillon entre les strates quand sont également spécifiées des exigences de fiabilité pour des domaines qui recoupent les strates. Les propriétés des trois méthodes sont étudiées au moyen de données provenant de l'Enquête mensuelle sur le commerce de détail (EMCD) menée par Statistique Canada auprès d'établissements uniques.

    Date de diffusion : 2012-06-27

  • Articles et rapports : 12-001-X201100111447
    Description :

    Ce document présente un programme R pour la stratification d'une population d'enquête à l'aide d'une variable unidimensionnelle X et pour le calcul de tailles d'échantillon dans les strates. Nous y employons des méthodes non itératives pour délimiter les strates, comme la méthode de la fonction cumulative de la racine carrée des fréquences et la méthode géométrique. Nous pouvons élaborer des plans optimaux où les bornes de strates minimisent soit le CV de l'estimateur simple par dilatation pour une taille fixe d'échantillon n, soit la valeur n pour un CV fixe. Nous disposons de deux algorithmes itératifs pour le calcul des bornes optimales. Le plan peut comporter des strates à tirage obligatoire qui sont définies par l'utilisateur et dont toutes les unités sont échantillonnées. Il est également possible d'inclure dans le plan stratifié des strates à tirage complet et à tirage nul qui permettent souvent de réduire les tailles d'échantillon. Les calculs de taille d'échantillon sont fondés sur les moments anticipés de la variable d'enquête Y étant donné la variable de stratification X. Le programme traite les distributions conditionnelles de Y étant donné X qui sont soit un modèle linéaire hétéroscédastique soit un modèle loglinéaire. Nous pouvons tenir compte de la non-réponse par strate dans l'élaboration du plan d'échantillonnage et dans les calculs de taille d'échantillon.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 12-001-X201000111243
    Description :

    La National Assessment of Adult Literacy (NAAL) de 2003 et l'Enquête internationale sur la littératie et les compétences des adultes (ELCA) comportaient chacune un plan d'échantillonnage aréolaire stratifié à plusieurs degrés. Le dernier degré consistait à dresser la liste des membres du ménage, à déterminer la situation d'admissibilité de chaque individu et à appeler la procédure de sélection pour sélectionner aléatoirement une ou deux personnes admissibles dans le ménage. L'objectif du présent article est d'évaluer les règles de sélection dans les ménages sous un plan d'échantillonnage à plusieurs degrés en vue d'améliorer la procédure dans de futures enquêtes sur la littératie. L'analyse est fondée sur la distribution courante des ménages américains selon leur taille et sur les coefficients de corrélation intra-grappe en utilisant les données sur la littératie des adultes. Nous étudions plusieurs règles de sélection dans les ménages, en prenant en considération les effets de la mise en grappes, des taux d'échantillonnage différentiels, du coût par interview et du fardeau de réponse au niveau du ménage. Dans ce contexte, nous étendons une évaluation de l'échantillonnage dans les ménages sous un plan à deux degrés à un plan à quatre degrés et nous procédons à certaines généralisations aux échantillons à plusieurs degrés pour divers rapports de coûts.

    Date de diffusion : 2010-06-29
Références (2)

Références (2) ((2 résultats))

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015027
    Description :

    La diffusion des résultats des enquêtes annuelles d'entreprise comporte immanquablement des statistiques en évolution. Comme l'univers économique est de plus en plus mouvant, une simple différence d'agrégats entre n-l et n ne suffit plus à décrire synthétiquement ce qui s'est passé. Le module de calcul d'évolution de la nouvelle génération d'EAE divise l'évolution en diverses composantes (naissances, cessations, changements de secteur), et détermine une évolution à champ constant en accordant une importance particulière aux restructurations. Les difficultés essentielles résident dans la détermination des sous-échantillons, la repondération, le recalage sur des évolutions calculables, et la prise en compte des restructurations.

    Date de diffusion : 1999-10-22

  • Enquêtes et programmes statistiques — Documentation : 11-522-X19980015029
    Description :

    Dans le cas des enquêtes longitudinales, les sujets qui font partie de l'échantillon sont observés pendant plusieurs périodes. En général, cette caractéristique produit des observations dépendantes sur le même sujet, plus des corrélations ordinaires entre sujets résultant du plan d'échantillonnage. Nombre des travaux décrits dans la littérature portent surtout sur la modélisation de la moyenne marginale d'une réponse en fonction de covariables. Liang et Zeger (1986) se sont servis d'équations d'estimation généralisées nécessitant uniquement la spécification correcte de la moyenne marginale et ont obtenu les erreurs-types des estimations des paramètres de régression et les critères connexes du test de Wald, en supposant que les mesures répétées effectuées sur un sujet de l'échantillon présentent une structure de corrélation provisoire. Rotnitzky et Jewell (1990) ont développé des tests de quasi-résultat et des corrections de Rao-Scott aux tests de quasi-résultat provisoire dans le cadre de modèles marginaux. Ces méthodes sont asymptotiquement robustes en regard de la spécification erronée de la structure des corrélations propre à un sujet, mais supposent que les sujets de l'échantillon sont indépendants, ce qui n'est pas toujours vrai dans le cas de donneées d'enquêtes longitudinales complexes fondées sur un échantillonnage stratifié à plusieurs degrés. Nous proposons des tests de Wald et des tests de quasi-score asymptotiquement valides pour les données d'enquêtes longitudinales, fondés sur la méthode de linéarisation de Taylor et sur la méthode jackknife. Nous élaborons aussi d'autres tests, fondés sur les corrections apportées par Rao-Scott à des tests naïfs qui ne tiennent pas compte des caractéristiques du plan de sondage et sur les t de Bonferroni. Ces tests sont particulièrement utiles quand le nombre réel de degrés de liberté, ordinairement considéré comme égal au nombre total d'unités primaires dans l'échantillon (grappes) moins le nombre de strates, est petit.

    Date de diffusion : 1999-10-22
Date de modification :