Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (28)

Tout (28) (25 of 28 results)

  • Articles et rapports : 12-001-X201000211383
    Description :

    La collecte de données en vue d'évaluer la pauvreté en Afrique prend du temps, est coûteuse et peut présenter de nombreux obstacles. Dans le présent article, nous décrivons une procédure de collecte des données auprès de ménages vivant de la pêche continentale artisanale, ainsi que d'activités agricoles. Un plan d'échantillonnage a été établi afin de tenir compte de l'hétérogénéité des conditions écologiques et de la saisonnalité des moyens de subsistance possibles. Ce plan d'échantillonnage comprend une enquête par panel en trois points auprès de 300 ménages. Les répondants appartiennent à quatre groupes ethniques distincts sélectionnés aléatoirement parmi trois strates, chacune représentant une zone écologique différente. La première partie de l'article donne des renseignements contextuels sur les objectifs de la recherche, le lieu de l'étude et le plan de sondage, qui ont orienté le processus de collecte des données. La deuxième partie de l'article offre une discussion des obstacles qui entravent habituellement les travaux empiriques en Afrique subsaharienne et montre comment divers problèmes ont été résolus. Ces leçons pourraient aider les chercheurs à concevoir des enquêtes socioéconomiques appropriées dans des conditions comparables.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211379
    Description :

    Le nombre de recrues dans les entreprises des zones locales de marché du travail est un important indicateur de la réorganisation des processus de production locaux. En Italie, ce paramètre peut être estimé au moyen des données de l'Enquête Excelsior, bien que celle-ci ne fournisse pas d'estimations fiables pour les domaines d'intérêt. Dans le présent article, nous proposons une méthode d'estimation sur petits domaines multivariée appliquée à des données de comptage et basée sur la loi multivariée Poisson-Log-normale. Cette méthode servira à estimer le nombre de personnes recrutées par les entreprises pour remplacer les employés qui quittent ainsi que pour doter de nouveaux postes. Dans le cadre de l'estimation sur petits domaines, on suppose habituellement que les variances et les covariances d'échantillonnage sont connues. Cependant, ces dernières, de même que les estimations ponctuelles directes, sont instables. Étant donné la rareté du phénomène que nous analysons, les dénombrements dans certains domaines sont nuls, ce qui produit des estimations nulles des covariances des erreurs d'échantillonnage. Afin de tenir compte de la variabilité supplémentaire due à la matrice de covariance d'échantillonnage estimée et de résoudre le problème des variances et covariances insensées dans certains domaines, nous proposons une approche « intégrée » suivant laquelle nous modélisons conjointement les paramètres d'intérêt et les matrices de covariance des erreurs d'échantillonnage. Nous suggérons une solution de nouveau fondée sur la loi Poisson-Log-normale pour lisser les variances et les covariances. Les résultats que nous obtenons sont encourageants : le modèle d'estimation sur petits domaines proposé donne de meilleurs résultats que le modèle d'estimation sur petits domaines fondé sur la loi multivariée normale-normale (MNN) et il rend possible une augmentation non négligeable de l'efficacité.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211375
    Description :

    L'article explore et évalue les approches qu'adoptent les bureaux de la statistique pour s'assurer que l'appui méthodologique dont bénéficient leurs activités statistiques soit efficace. La tension qui existe entre les notions d'indépendance et de pertinence est un thème fréquent : en général, les méthodologistes doivent travailler en étroite collaboration avec le reste de l'organisme statistique pour que leurs travaux soient pertinents, mais ils doivent aussi jouir d'un certain degré d'indépendance leur permettant de mettre en question l'utilisation des méthodes existantes et d'en introduire de nouvelles au besoin. Naturellement, il faut aussi établir un programme de recherche efficace qui, d'une part, possède l'indépendance dont a besoin tout programme de recherche et qui, d'autre part, est suffisamment relié aux activités courantes du bureau de la statistique pour que ses travaux soient motivés par ces activités et y soient intégrés en retour. Les thèmes abordés dans l'article sont les divers modes d'organisation, le leadership, la planification et le financement, le rôle des équipes de projet, le perfectionnement professionnel, les comités consultatifs externes, l'interaction avec le monde universitaire et la recherche.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211385
    Description :

    Dans cette note brève, nous montrons que l'échantillonnage aléatoire sans remise et l'échantillonnage de Bernoulli ont à peu près la même entropie quand la taille de la population est grande. Nous donnons un exemple empirique en guise d'illustration.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211376
    Description :

    Le présent article décrit l'élaboration d'outils de calcul, appelés indicateurs, qui permettent de juger de l'efficacité de l'information auxiliaire utilisée pour contrôler le biais de non-réponse dans les estimations par sondage, obtenues ici par calage. L'étude est motivée par le contexte dans lequel sont réalisés les sondages dans plusieurs pays, surtout en Europe du Nord, où de nombreuses variables auxiliaires possibles concernant les ménages et les particuliers sont tirées de registres administratifs fiables. Un grand nombre de vecteurs auxiliaires pouvant donc être composés, il est nécessaire de les comparer afin de déterminer dans quelle mesure ils peuvent réduire le biais. Les indicateurs décrits dans le présent article sont conçus pour répondre à ce besoin. Ils sont utilisés dans les enquêtes réalisées par Statistics Sweden. Nous considérons des conditions générales d'enquête où un échantillon probabiliste est tiré de la population finie selon un plan d'échantillonnage arbitraire et où des cas de non réponse se produisent. La probabilité d'inclusion dans l'échantillon est connue pour chaque unité de la population ; la probabilité de réponse est inconnue, ce qui cause un biais. La variable étudiée (variable y) n'est observée que pour l'ensemble de répondants. Quel que soit le vecteur auxiliaire utilisé dans un estimateur par calage (ou dans toute autre méthode d'estimation), un biais résiduel persiste systématiquement. Le choix du vecteur auxiliaire (le meilleur possible) est guidé par les indicateurs proposés dans le présent article. Dans les premières sections, nous décrivons le contexte de leur élaboration et leurs caractéristiques de calcul, puis nous exposons leur contexte théorique. Les dernières sections sont consacrées aux études empiriques. L'une de ces études illustre la sélection des variables auxiliaires dans une enquête réalisée par Statistics Sweden. Une deuxième illustration empirique consiste en une simulation à partir d'une population finie synthétique ; un certain nombre de vecteurs auxiliaires possibles sont classés par ordre de préférence à l'aide des indicateurs.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211382
    Description :

    Aux États-Unis, la taille de la population dotée d'un téléphone mobile seulement a augmenté rapidement ces dernières années et, par conséquent, les chercheurs ont commencé à expérimenter l'échantillonnage et l'interview des abonnés à la téléphonie mobile. Nous discutons des problèmes statistiques que posent les étapes de l'établissement du plan d'échantillonnage et de l'estimation des études par téléphone mobile. Les travaux sont exposés principalement dans le contexte d'une enquête à deux bases de sondage non chevauchantes dans laquelle une base et un échantillon sont employés pour la population possédant un téléphone fixe et une deuxième base de sondage et un deuxième échantillon, pour la population possédant seulement un téléphone mobile. Nous discutons également des aspects supplémentaires dont il faut tenir compte dans le cas d'une enquête à deux bases de sondage chevauchantes (où la base de sondage et l'échantillon pour la téléphonie mobile comprennent certains membres de la population dotée d'un téléphone fixe). Pour illustrer les méthodes, nous utilisons le plan de sondage de la National Immunization Survey (NIS) conçue pour surveiller les taux de vaccination chez les enfants de 19 à 35 mois et les adolescents de 13 à 17 ans. La NIS est une enquête téléphonique nationale, suivie d'une vérification des dossiers des fournisseurs de service, réalisée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211378
    Description :

    L'une des clés de la réduction ou de l'éradication de la pauvreté dans le tiers monde est l'obtention d'information fiable sur les pauvres et sur leur emplacement, afin que les interventions et l'aide soient dirigées vers les personnes les plus nécessiteuses. L'estimation sur petits domaines est une méthode statistique utilisée pour surveiller la pauvreté et décider de la répartition de l'aide de façon à réaliser les Objectifs du millénaire pour le développement. Elbers, Lanjouw et Lanjouw (ELL) (2003) ont proposé, pour produire des mesures de la pauvreté fondées sur le revenu ou sur les dépenses, une méthode d'estimation sur petits domaines qui est mise en oeuvre par la Banque mondiale dans ses projets de cartographie de la pauvreté grâce à la participation des organismes statistiques centraux de nombreux pays du tiers monde, dont le Cambodge, le Laos, les Philippines, la Thaïlande et le Vietnam, et qui est intégrée dans le logiciel PovMap de la Banque mondiale. Dans le présent article, nous présentons la méthode ELL, qui consiste à modéliser d'abord les données d'enquête, puis à appliquer le modèle obtenu à des données de recensement, en nous penchant surtout sur la première phase, c'est-à-dire l'ajustement des modèles de régression, ainsi que sur les erreurs-types estimées à la deuxième phase. Nous présentons d'autres méthodes d'ajustement de modèles de régression, telles que la régression généralisée sur données d'enquête (RGE) (décrite dans Lohr (1999), chapitre 11) et celles utilisées dans les méthodes existantes d'estimations sur petits domaines, à savoir la méthode du meilleur prédicteur linéaire sans biais pseudo-empirique (pseudo-MPLSB) (You et Rao 2002) et la méthode itérative à équations d'estimation pondérées (IEEP) (You, Rao et Kovacevic 2003), et nous les comparons à la stratégie de modélisation de ELL. La différence la plus importante entre la méthode ELL et les autres techniques tient au fondement théorique de la méthode d'ajustement du modèle proposée par ELL. Nous nous servons d'un exemple fondé sur la Family Income and Expenses Survey des Philippines pour illustrer les différences entre les estimations des paramètres et leurs erreurs-types correspondantes, ainsi qu'entre les composantes de la variance générées par les diverses méthodes et nous étendons la discussion à l'effet de ces différences sur l'exactitude estimée des estimations sur petits domaines finales. Nous mettons l'accent sur la nécessité de produire de bonnes estimations des composantes de la variance, ainsi que des coefficients de régression et de leurs erreurs-types aux fins de l'estimation sur petits domaines de la pauvreté.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211380
    Description :

    Diverses formes d'estimateurs de variance par linéarisation pour les estimateurs par calage généralisé sont définies en choisissant différents poids à appliquer a) aux résidus et b) aux coefficients de régression estimés utilisés dans le calcul des résidus. Des éléments de théorie sont présentés pour trois formes de l'estimateur par calage généralisé, à savoir l'estimateur par ratissage croisé classique, l'estimateur par calage basé sur le « maximum de vraisemblance » et l'estimateur par la régression généralisée, ainsi que pour les estimateurs de variance par linéarisation connexes. Une étude par simulation est effectuée en se servant des données d'une enquête sur la population active et d'une enquête sur les revenus et dépenses. Les propriétés des estimateurs sont évaluées en fonction de l'échantillonnage ainsi que de la non-réponse. L'étude révèle peu de différences entre les propriétés des divers estimateurs par calage pour un plan d'échantillonnage et un modèle de non-réponse donnés. En ce qui concerne les estimateurs de variance, l'approche consistant à pondérer les résidus par les poids de sondage peut être fortement biaisée en présence de non-réponse. L'approche de pondération des résidus par les poids calés a tendance à produire un biais nettement plus faible. Le choix de différents types de poids pour produire les coefficients de régression a peu d'incidence.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211384
    Description :

    Le ralentissement économique aux États-Unis pourrait rendre incertain le maintien de stratégies coûteuses dans les opérations des enquêtes. Dans le Behavioral Risk Factor Surveillance System (BRFSS), une période de collecte de données mensuelle de 31 jours seulement pourrait être une solution de rechange moins coûteuse. Toutefois, elle pourrait exclure une partie des interviews menées après 31 jours (répondants tardifs) et les caractéristiques de ces répondants pourraient être différentes à de nombreux égards de celles des répondants qui ont participé à l'enquête dans les 31 jours (répondants hâtifs). Nous avons tâché de déterminer s'il existe entre les répondants hâtifs et les répondants tardifs des différences d'ordre démographique ou en ce qui a trait à la couverture des soins de santé, à l'état de santé général, aux comportements posant un risque pour la santé et aux maladies ou problèmes de santé chroniques. Nous avons utilisé les données du BRFSS 2007, où un échantillon représentatif de la population adulte aux États-Unis ne vivant pas en établissement a été sélectionné au moyen d'une méthode de composition aléatoire. Les répondants tardifs étaient significativement plus susceptibles d'être de sexe masculin ; de déclarer leur race ou origine ethnique comme étant hispanique ; d'avoir un revenu annuel de plus de 50 000 $ ; d'avoir moins de 45 ans ; d'avoir un niveau de scolarité inférieur au diplôme d'études secondaires ; de bénéficier d'une couverture des soins de santé ; d'être significativement plus susceptibles de déclarer être en bonne santé ; d'être significativement moins susceptibles de déclarer faire de l'hypertension, souffrir de diabète ou être obèses. Les différences observées entre les répondants hâtifs et les répondants tardifs dans les estimations d'enquête pourraient influer à peine sur les estimations nationales et au niveau de l'État. Étant donné que la proportion de répondants tardifs pourrait augmenter à l'avenir, il y a lieu d'examiner son incidence sur les estimations découlant de la surveillance avant de l'exclure de l'analyse. Dans l'analyse portant sur les répondants tardifs, il devrait suffire de combiner plusieurs années de données pour produire des estimations fiables.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211377
    Description :

    Nous considérons le problème de l'estimation des paramètres au moyen d'information auxiliaire, quand celle-ci prend la forme de moments connus. L'estimation par calage est un exemple type de l'utilisation des conditions des moments dans les enquêtes par sondage. Étant donné la forme paramétrique de la distribution originale des observations de l'échantillon, nous utilisons l'échantillonnage préférentiel avec distribution d'échantillonnage estimée de Henmi, Yoshida et Eguchi (2007) pour obtenir un estimateur amélioré. Si nous nous servons de la densité normale pour calculer les poids d'échantillonnage préférentiel, l'estimateur résultant prend la forme d'un estimateur par inclinaison exponentielle en une étape. Nous montrons que l'estimateur par inclinaison exponentielle proposé est asymptotiquement équivalent à l'estimateur par la régression, mais qu'il permet d'éviter les poids extrêmes et offre des avantages du point de vue des calculs par rapport à l'estimateur de la vraisemblance empirique. Nous discutons également de l'estimation de la variance et présentons les résultats d'une étude par simulation limitée.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211381
    Description :

    Les méthodes de linéarisation de Taylor sont souvent utilisées pour obtenir des estimateurs de la variance d'estimateurs par calage de totaux et de paramètres de population finie (ou de recensement) non linéaires, tels que des ratios ou des coefficients de régression et de corrélation, qui peuvent être exprimés sous forme de fonctions lisses de totaux. La linéarisation de Taylor s'applique généralement à tout plan d'échantillonnage, mais elle peut produire de multiples estimateurs de la variance qui sont asymptotiquement sans biais par rapport au plan en cas d'échantillonnage répété. Le choix parmi les estimateurs de variance doit donc s'appuyer sur d'autres critères, tels que i) l'absence approximative de biais dans la variance par rapport au modèle de l'estimateur obtenu sous un modèle hypothétique et ii) la validité sous échantillonnage répété conditionnel. Demnati et Rao (2004) ont proposé une méthode unifiée de calcul des estimateurs de variance par linéarisation de Taylor produisant directement un estimateur de variance unique qui satisfait aux critères susmentionnés pour des plans de sondage généraux. Dans l'analyse des données d'enquête, on suppose généralement que les populations finies sont générées au moyen de modèles de superpopulation et l'on s'intéresse aux inférences analytiques concernant les paramètres de ces modèles. Si les fractions d'échantillonnage sont faibles, la variance d'échantillonnage reflète presque toute la variation due aux processus aléatoires liés au plan de sondage et au modèle. Par contre, si les fractions d'échantillonnage ne sont pas négligeables, il faut tenir compte de la variance du modèle pour construire des inférences valides concernant les paramètres du modèle sous le processus combiné de génération de la population finie à partir du modèle hypothétique de superpopulation et de sélection de l'échantillon conformément au plan de l'échantillonnage spécifié. Dans le présent article, nous obtenons un estimateur de la variance totale selon l'approche de Demnati-Rao en supposant que les caractéristiques d'intérêt sont des variables aléatoires générées au moyen d'un modèle de superpopulation. Nous illustrons la méthode à l'aide d'estimateurs par le ratio et d'estimateurs définis comme des solutions d'équations d'estimation pondérées par calage. Nous présentons aussi les résultats de simulations en vue de déterminer la performance de l'estimateur de variance proposé pour les paramètres du modèle.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 11-010-X201001111370
    Description :

    Un aperçu de la manière dont ces différentes mesures sont liées les unes aux autres, du moment auquel elles devraient être utilisées et des raisons pour lesquelles les agences statistiques ont élaboré des mesures plus sophistiquées pour les données en volume.

    Date de diffusion : 2010-11-12

  • Produits techniques : 12-587-X
    Description :

    Cette publication montre comment concevoir et mener un recensement ou une enquête par sondage. Le lecteur y trouvera une explication des concepts fondamentaux des enquêtes et des façons de concevoir des sondages efficaces et de qualité. Cette publication s'adresse à ceux qui planifient, mènent, ou gèrent une enquête et aux étudiants des cours de conception d'enquête.

    Le livre fournit de l'information concernant:

    -la planification et la gestion d'une enquête ;-la formulation des objectifs d'enquête et la conception de questionnaire; -les différents paramètres qui gouvernent la conception d'une enquête (par échantillon ou par recensement, la population visée par l'enquête, la base de sondage, les sources possible d'erreur); -le choix de la méthode de collecte (autodénombrement, interview sur place ou téléphonique, interview assistée par ordinateur ou au moyen d'un questionnaire papier);-l'organisation et la gestion de la collecte de données; -le calcul de la taille d'échantillon, la répartition de l'échantillon aux strates et le tirage de l'échantillon; -les méthodes d'estimation ponctuelle et d'estimation de la variance, et l'analyse des données; -l'utilisation des données administratives durant la conception ou l'estimation; -le traitement des données (ce qui se passe entre la collecte et l'estimation), de même que différentes méthodes de contrôle et d'assurance de la qualité visant à réduire les erreurs durant les différentes étapes de l'enquête;-la diffusion des données et le contrôle de la divulgation.

    Cette publication comporte également une étude de cas pour illustrer les diverses étapes de la mise en place d'une enquête auprès de ménages, en utilisant les méthodes et les principes présentés dans le livre. Auparavant, cette publication était seulement offerte en format imprimé et Publiée pour la première fois en octobre 2003.

    Date de diffusion : 2010-09-27

  • Articles et rapports : 12-001-X201000111247
    Description :

    Dans le présent article, le problème de l'estimation de la variance de divers estimateurs de la moyenne de population sous échantillonnage à deux phases est traité par application de la méthode du jackknife aux poids calés en deux phases de Hidiroglou et Särndal (1995, 1998). Nous montrons que plusieurs estimateurs de la moyenne de population décrits dans la littérature sont des cas particuliers de la méthode élaborée ici, y compris ceux proposés par Rao et Sitter (1995) et par Sitter (1997). En nous inspirant de Raj (1965) et de Srivenkataramana et Tracy (1989), nous introduisons de nouveaux estimateurs de la moyenne de population et nous estimons leur variance par la méthode du jackknife proposée. Nous estimons également la variance des estimateurs en chaîne par le ratio et par la régression dus à Chand (1975) en utilisant le jackknife. Une étude par simulations nous permet d'évaluer l'efficacité des estimateurs jackknife proposés comparativement aux estimateurs de variance usuels.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111244
    Description :

    Nous étudions le problème de la sélection de modèles non paramétriques pour l'estimation sur petits domaines, auquel beaucoup d'attention a été accordée récemment. Nous élaborons une méthode fondée sur le concept de la méthode de l'enclos (fence method) de Jiang, Rao, Gu et Nguyen (2008) pour sélectionner la fonction moyenne pour les petits domaines parmi une classe de splines d'approximation. Les études par simulations montrent que la nouvelle méthode donne des résultats impressionnants, même si le nombre de petits domaines est assez faible. Nous appliquons la méthode à un ensemble de données hospitalières sur les échecs de greffe pour choisir un modèle non paramétrique de type Fay­Herriot.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111245
    Description :

    La connaissance des causes des erreurs de mesure dans les enquêtes auprès des entreprises est limitée, même si ces erreurs peuvent compromettre l'exactitude des microdonnées et des indicateurs économiques qui en découlent. Le présent article, qui est fondé sur une étude empirique axée sur le point de vue des entreprises, présente de nouveaux résultats de recherche sur le processus de réponse aux enquêtes auprès des entreprises. Il propose le modèle multidimensionnel intégral de réponse aux enquêtes auprès des entreprises (MMIREE) comme outil pour examiner le processus de réponse et expliquer ses résultats, et comme base d'une stratégie visant à réduire et à prévenir les erreurs de mesure.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111252
    Description :

    Le biais dû à la non-réponse est un problème examiné de longue date dans le domaine de la recherche sur les enquêtes (Brehm 1993 ; Dillman, Eltinge, Groves et Little 2002), et de nombreuses études ont eu pour objectif de préciser les facteurs qui ont une influence sur la non-réponse partielle ainsi que totale. Dans le but de contribuer à la réalisation de l'objectif plus général consistant à réduire au minimum la non-réponse aux enquêtes, nous examinons dans la présente étude plusieurs facteurs pouvant avoir une incidence sur cette non-réponse, en utilisant les données de l'Animal Welfare Survey de 2007 réalisée en Ohio, aux États-Unis. En particulier, nous examinons la mesure dans laquelle l'intérêt du sujet et les primes d'incitation influent sur la participation aux enquêtes et sur la non-réponse partielle, en nous inspirant de la théorie du levier et de la saillance (leverage-saliency theory) (Groves, Singer et Corning 2000). Nous constatons que la participation à une enquête est influencée par le contexte du sujet (car celui-ci exerce un effet de levier positif ou négatif sur les unités échantillonnées) et par les primes d'incitation prépayées, ce qui est en harmonie avec la théorie du levier et de la saillance. La constatation que la non-réponse partielle, notre mesure indirecte de la qualité de la réponse, varie en fonction de la proximité par rapport à l'agriculture et l'environnement (lieu de résidence, connaissances sur la production des aliments et opinions quant à l'importance du bien être des animaux) confirme aussi nos attentes. Cependant, les données laissent entendre que la non-réponse partielle ne varie pas selon qu'un répondant reçoit ou non une prime d'incitation.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111243
    Description :

    La National Assessment of Adult Literacy (NAAL) de 2003 et l'Enquête internationale sur la littératie et les compétences des adultes (ELCA) comportaient chacune un plan d'échantillonnage aréolaire stratifié à plusieurs degrés. Le dernier degré consistait à dresser la liste des membres du ménage, à déterminer la situation d'admissibilité de chaque individu et à appeler la procédure de sélection pour sélectionner aléatoirement une ou deux personnes admissibles dans le ménage. L'objectif du présent article est d'évaluer les règles de sélection dans les ménages sous un plan d'échantillonnage à plusieurs degrés en vue d'améliorer la procédure dans de futures enquêtes sur la littératie. L'analyse est fondée sur la distribution courante des ménages américains selon leur taille et sur les coefficients de corrélation intra-grappe en utilisant les données sur la littératie des adultes. Nous étudions plusieurs règles de sélection dans les ménages, en prenant en considération les effets de la mise en grappes, des taux d'échantillonnage différentiels, du coût par interview et du fardeau de réponse au niveau du ménage. Dans ce contexte, nous étendons une évaluation de l'échantillonnage dans les ménages sous un plan à deux degrés à un plan à quatre degrés et nous procédons à certaines généralisations aux échantillons à plusieurs degrés pour divers rapports de coûts.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111251
    Description :

    Les méthodes de calage, telles que la poststratification, s'appuient sur de l'information auxiliaire pour accroître l'efficacité des estimations par sondage. L'hypothèse est que les totaux de contrôle, en fonction desquels les poids de sondage sont poststratifiés (ou calés), sont les valeurs de population. Toutefois, les totaux de contrôle sont souvent estimés d'après d'autres enquêtes. De nombreux chercheurs appliquent les estimateurs classiques d'estimation de la variance par poststratification à des situations où les totaux de contrôle sont estimés, supposant donc que toute variance d'échantillonnage supplémentaire associée à ces totaux estimés est négligeable. Le but de l'étude présentée ici est d'évaluer des estimateurs de la variance pour des plans de sondage stratifiés à plusieurs degrés, sous une poststratification en fonction de totaux de contrôle estimés (CE) en utilisant des valeurs de contrôle sans biais par rapport au plan. Nous comparons les propriétés théoriques et empiriques des estimateurs de variance par linéarisation et par le jackknife pour un estimateur poststratifié d'un total de population. Nous donnons des exemples des effets qu'ont sur les variances divers niveaux de précision des totaux de contrôle estimés. Notre étude donne à penser que i) les estimateurs de variance classiques peuvent sous-estimer considérablement la variance théorique et que ii) deux estimateurs de variance par poststratification CE peuvent atténuer le biais négatif.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111248
    Description :

    Les flux bruts sont souvent utilisés pour étudier les transitions concernant la situation d'emploi ou d'autres variables catégoriques chez les individus formant une population. Dans les enquêtes longitudinales à base de sondage double, pour lesquelles des échantillons indépendants sont tirés de deux bases de sondage afin de réduire les coûts d'enquête ou d'améliorer la couverture, l'estimation efficace et cohérente des flux bruts peut poser des défis, à cause des plans de sondage complexes et des données manquantes dans l'un ou l'autre échantillon, ou les deux. Nous proposons des estimateurs des flux bruts dans les enquêtes à base de sondage double et examinons leurs propriétés asymptotiques. Puis, nous estimons les transitions entre les situations d'emploi en utilisant des données provenant de la Current Population Survey et de la Survey of Income and Program Participation.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111246
    Description :

    Dans le cas de nombreux sondages, des procédures d'ajustement des poids sont utilisées pour réduire le biais de non-réponse. Ces ajustements s'appuient sur les données auxiliaires disponibles. Le présent article traite de l'estimation de la variance par la méthode du jackknife pour les estimateurs qui ont été corrigés de la non-réponse. En suivant l'approche inversée d'estimation de la variance proposée par Fay (1991), ainsi que par Shao et Steel (1999), nous étudions l'effet dû au fait de ne pas recalculer l'ajustement des poids pour la non-réponse dans chaque réplique jackknife. Nous montrons que l'estimateur de variance jackknife « simplifié » résultant a tendance à surestimer la variance réelle des estimateurs ponctuels dans le cas de plusieurs procédures d'ajustement des poids utilisées en pratique. Ces résultats théoriques sont confirmés au moyen d'une étude par simulation dans laquelle nous comparons l'estimateur de variance jackknife simplifié à l'estimateur de variance jackknife complet obtenu en recalculant l'ajustement des poids pour la non-réponse dans chaque réplique jackknife.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111250
    Description :

    Nous proposons un estimateur de prédiction bayésien avec splines pénalisées (PBSP pour Bayesian Penalized Spline Predictive) pour une proportion de population finie sous échantillonnage avec probabilités inégales. Cette nouvelle méthode permet d'intégrer directement les probabilités d'inclusion dans l'estimation d'une proportion de population, en effectuant une régression probit du résultat binaire sur la fonction spline pénalisée des probabilités d'inclusion. La loi prédictive a posteriori de la proportion de population est obtenue en utilisant l'échantillonnage de Gibbs. Nous démontrons les avantages de l'estimateur PBSP comparativement à l'estimateur de Hájek (HK), à l'estimateur par la régression généralisée (RG) et aux estimateurs de prédiction fondés sur un modèle paramétrique au moyen d'études en simulation et d'un exemple réel de vérification fiscale. Les études en simulation montrent que l'estimateur PBSP est plus efficace et donne un intervalle de crédibilité à 95 % dont la probabilité de couverture est meilleure et dont la largeur moyenne est plus étroite que les estimateurs HK et RG, surtout quand la proportion de population est proche de zéro ou de un, ou que l'échantillon est petit. Comparativement aux estimateurs de prédiction fondés sur un modèle linéaire, les estimateurs PBSP sont robustes à l'erreur de spécification du modèle et à la présence d'observations influentes dans l'échantillon.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111249
    Description :

    Dans le cas de nombreux plans de sondage, la probabilité de sélectionner un échantillon qui produira de mauvaises estimations pour des quantités connues n'est pas nulle. L'échantillonnage aléatoire stratifié permet de réduire l'ensemble de ces échantillons éventuels en fixant la taille de l'échantillon dans chaque strate. Cependant, l'obtention d'échantillons indésirables demeure possible après la stratification. L'échantillonnage réjectif permet d'éliminer les échantillons donnant de mauvais résultats en ne retenant un échantillon que si des fonctions spécifiées des estimations sont comprises entre des limites de tolérance par rapport aux valeurs connues. Les échantillons résultant sont souvent dits équilibrés sur la fonction des variables utilisées dans la méthode de rejet. Nous présentons des modifications de la méthode de rejet de Fuller (2009a) qui donnent plus de souplesse aux règles de rejet. Au moyen de simulations, nous comparons les propriétés des estimations obtenues en suivant une méthode d'échantillonnage réjectif, d'une part, et une procédure d'échantillonnage par la méthode du cube, d'autre part.

    Date de diffusion : 2010-06-29

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2010003
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2006. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2010-04-26

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2010002
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2005. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2010-04-26

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (23)

Analyses (23) (23 of 23 results)

  • Articles et rapports : 12-001-X201000211383
    Description :

    La collecte de données en vue d'évaluer la pauvreté en Afrique prend du temps, est coûteuse et peut présenter de nombreux obstacles. Dans le présent article, nous décrivons une procédure de collecte des données auprès de ménages vivant de la pêche continentale artisanale, ainsi que d'activités agricoles. Un plan d'échantillonnage a été établi afin de tenir compte de l'hétérogénéité des conditions écologiques et de la saisonnalité des moyens de subsistance possibles. Ce plan d'échantillonnage comprend une enquête par panel en trois points auprès de 300 ménages. Les répondants appartiennent à quatre groupes ethniques distincts sélectionnés aléatoirement parmi trois strates, chacune représentant une zone écologique différente. La première partie de l'article donne des renseignements contextuels sur les objectifs de la recherche, le lieu de l'étude et le plan de sondage, qui ont orienté le processus de collecte des données. La deuxième partie de l'article offre une discussion des obstacles qui entravent habituellement les travaux empiriques en Afrique subsaharienne et montre comment divers problèmes ont été résolus. Ces leçons pourraient aider les chercheurs à concevoir des enquêtes socioéconomiques appropriées dans des conditions comparables.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211379
    Description :

    Le nombre de recrues dans les entreprises des zones locales de marché du travail est un important indicateur de la réorganisation des processus de production locaux. En Italie, ce paramètre peut être estimé au moyen des données de l'Enquête Excelsior, bien que celle-ci ne fournisse pas d'estimations fiables pour les domaines d'intérêt. Dans le présent article, nous proposons une méthode d'estimation sur petits domaines multivariée appliquée à des données de comptage et basée sur la loi multivariée Poisson-Log-normale. Cette méthode servira à estimer le nombre de personnes recrutées par les entreprises pour remplacer les employés qui quittent ainsi que pour doter de nouveaux postes. Dans le cadre de l'estimation sur petits domaines, on suppose habituellement que les variances et les covariances d'échantillonnage sont connues. Cependant, ces dernières, de même que les estimations ponctuelles directes, sont instables. Étant donné la rareté du phénomène que nous analysons, les dénombrements dans certains domaines sont nuls, ce qui produit des estimations nulles des covariances des erreurs d'échantillonnage. Afin de tenir compte de la variabilité supplémentaire due à la matrice de covariance d'échantillonnage estimée et de résoudre le problème des variances et covariances insensées dans certains domaines, nous proposons une approche « intégrée » suivant laquelle nous modélisons conjointement les paramètres d'intérêt et les matrices de covariance des erreurs d'échantillonnage. Nous suggérons une solution de nouveau fondée sur la loi Poisson-Log-normale pour lisser les variances et les covariances. Les résultats que nous obtenons sont encourageants : le modèle d'estimation sur petits domaines proposé donne de meilleurs résultats que le modèle d'estimation sur petits domaines fondé sur la loi multivariée normale-normale (MNN) et il rend possible une augmentation non négligeable de l'efficacité.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211375
    Description :

    L'article explore et évalue les approches qu'adoptent les bureaux de la statistique pour s'assurer que l'appui méthodologique dont bénéficient leurs activités statistiques soit efficace. La tension qui existe entre les notions d'indépendance et de pertinence est un thème fréquent : en général, les méthodologistes doivent travailler en étroite collaboration avec le reste de l'organisme statistique pour que leurs travaux soient pertinents, mais ils doivent aussi jouir d'un certain degré d'indépendance leur permettant de mettre en question l'utilisation des méthodes existantes et d'en introduire de nouvelles au besoin. Naturellement, il faut aussi établir un programme de recherche efficace qui, d'une part, possède l'indépendance dont a besoin tout programme de recherche et qui, d'autre part, est suffisamment relié aux activités courantes du bureau de la statistique pour que ses travaux soient motivés par ces activités et y soient intégrés en retour. Les thèmes abordés dans l'article sont les divers modes d'organisation, le leadership, la planification et le financement, le rôle des équipes de projet, le perfectionnement professionnel, les comités consultatifs externes, l'interaction avec le monde universitaire et la recherche.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211385
    Description :

    Dans cette note brève, nous montrons que l'échantillonnage aléatoire sans remise et l'échantillonnage de Bernoulli ont à peu près la même entropie quand la taille de la population est grande. Nous donnons un exemple empirique en guise d'illustration.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211376
    Description :

    Le présent article décrit l'élaboration d'outils de calcul, appelés indicateurs, qui permettent de juger de l'efficacité de l'information auxiliaire utilisée pour contrôler le biais de non-réponse dans les estimations par sondage, obtenues ici par calage. L'étude est motivée par le contexte dans lequel sont réalisés les sondages dans plusieurs pays, surtout en Europe du Nord, où de nombreuses variables auxiliaires possibles concernant les ménages et les particuliers sont tirées de registres administratifs fiables. Un grand nombre de vecteurs auxiliaires pouvant donc être composés, il est nécessaire de les comparer afin de déterminer dans quelle mesure ils peuvent réduire le biais. Les indicateurs décrits dans le présent article sont conçus pour répondre à ce besoin. Ils sont utilisés dans les enquêtes réalisées par Statistics Sweden. Nous considérons des conditions générales d'enquête où un échantillon probabiliste est tiré de la population finie selon un plan d'échantillonnage arbitraire et où des cas de non réponse se produisent. La probabilité d'inclusion dans l'échantillon est connue pour chaque unité de la population ; la probabilité de réponse est inconnue, ce qui cause un biais. La variable étudiée (variable y) n'est observée que pour l'ensemble de répondants. Quel que soit le vecteur auxiliaire utilisé dans un estimateur par calage (ou dans toute autre méthode d'estimation), un biais résiduel persiste systématiquement. Le choix du vecteur auxiliaire (le meilleur possible) est guidé par les indicateurs proposés dans le présent article. Dans les premières sections, nous décrivons le contexte de leur élaboration et leurs caractéristiques de calcul, puis nous exposons leur contexte théorique. Les dernières sections sont consacrées aux études empiriques. L'une de ces études illustre la sélection des variables auxiliaires dans une enquête réalisée par Statistics Sweden. Une deuxième illustration empirique consiste en une simulation à partir d'une population finie synthétique ; un certain nombre de vecteurs auxiliaires possibles sont classés par ordre de préférence à l'aide des indicateurs.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211382
    Description :

    Aux États-Unis, la taille de la population dotée d'un téléphone mobile seulement a augmenté rapidement ces dernières années et, par conséquent, les chercheurs ont commencé à expérimenter l'échantillonnage et l'interview des abonnés à la téléphonie mobile. Nous discutons des problèmes statistiques que posent les étapes de l'établissement du plan d'échantillonnage et de l'estimation des études par téléphone mobile. Les travaux sont exposés principalement dans le contexte d'une enquête à deux bases de sondage non chevauchantes dans laquelle une base et un échantillon sont employés pour la population possédant un téléphone fixe et une deuxième base de sondage et un deuxième échantillon, pour la population possédant seulement un téléphone mobile. Nous discutons également des aspects supplémentaires dont il faut tenir compte dans le cas d'une enquête à deux bases de sondage chevauchantes (où la base de sondage et l'échantillon pour la téléphonie mobile comprennent certains membres de la population dotée d'un téléphone fixe). Pour illustrer les méthodes, nous utilisons le plan de sondage de la National Immunization Survey (NIS) conçue pour surveiller les taux de vaccination chez les enfants de 19 à 35 mois et les adolescents de 13 à 17 ans. La NIS est une enquête téléphonique nationale, suivie d'une vérification des dossiers des fournisseurs de service, réalisée par les Centers for Disease Control and Prevention.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211378
    Description :

    L'une des clés de la réduction ou de l'éradication de la pauvreté dans le tiers monde est l'obtention d'information fiable sur les pauvres et sur leur emplacement, afin que les interventions et l'aide soient dirigées vers les personnes les plus nécessiteuses. L'estimation sur petits domaines est une méthode statistique utilisée pour surveiller la pauvreté et décider de la répartition de l'aide de façon à réaliser les Objectifs du millénaire pour le développement. Elbers, Lanjouw et Lanjouw (ELL) (2003) ont proposé, pour produire des mesures de la pauvreté fondées sur le revenu ou sur les dépenses, une méthode d'estimation sur petits domaines qui est mise en oeuvre par la Banque mondiale dans ses projets de cartographie de la pauvreté grâce à la participation des organismes statistiques centraux de nombreux pays du tiers monde, dont le Cambodge, le Laos, les Philippines, la Thaïlande et le Vietnam, et qui est intégrée dans le logiciel PovMap de la Banque mondiale. Dans le présent article, nous présentons la méthode ELL, qui consiste à modéliser d'abord les données d'enquête, puis à appliquer le modèle obtenu à des données de recensement, en nous penchant surtout sur la première phase, c'est-à-dire l'ajustement des modèles de régression, ainsi que sur les erreurs-types estimées à la deuxième phase. Nous présentons d'autres méthodes d'ajustement de modèles de régression, telles que la régression généralisée sur données d'enquête (RGE) (décrite dans Lohr (1999), chapitre 11) et celles utilisées dans les méthodes existantes d'estimations sur petits domaines, à savoir la méthode du meilleur prédicteur linéaire sans biais pseudo-empirique (pseudo-MPLSB) (You et Rao 2002) et la méthode itérative à équations d'estimation pondérées (IEEP) (You, Rao et Kovacevic 2003), et nous les comparons à la stratégie de modélisation de ELL. La différence la plus importante entre la méthode ELL et les autres techniques tient au fondement théorique de la méthode d'ajustement du modèle proposée par ELL. Nous nous servons d'un exemple fondé sur la Family Income and Expenses Survey des Philippines pour illustrer les différences entre les estimations des paramètres et leurs erreurs-types correspondantes, ainsi qu'entre les composantes de la variance générées par les diverses méthodes et nous étendons la discussion à l'effet de ces différences sur l'exactitude estimée des estimations sur petits domaines finales. Nous mettons l'accent sur la nécessité de produire de bonnes estimations des composantes de la variance, ainsi que des coefficients de régression et de leurs erreurs-types aux fins de l'estimation sur petits domaines de la pauvreté.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211380
    Description :

    Diverses formes d'estimateurs de variance par linéarisation pour les estimateurs par calage généralisé sont définies en choisissant différents poids à appliquer a) aux résidus et b) aux coefficients de régression estimés utilisés dans le calcul des résidus. Des éléments de théorie sont présentés pour trois formes de l'estimateur par calage généralisé, à savoir l'estimateur par ratissage croisé classique, l'estimateur par calage basé sur le « maximum de vraisemblance » et l'estimateur par la régression généralisée, ainsi que pour les estimateurs de variance par linéarisation connexes. Une étude par simulation est effectuée en se servant des données d'une enquête sur la population active et d'une enquête sur les revenus et dépenses. Les propriétés des estimateurs sont évaluées en fonction de l'échantillonnage ainsi que de la non-réponse. L'étude révèle peu de différences entre les propriétés des divers estimateurs par calage pour un plan d'échantillonnage et un modèle de non-réponse donnés. En ce qui concerne les estimateurs de variance, l'approche consistant à pondérer les résidus par les poids de sondage peut être fortement biaisée en présence de non-réponse. L'approche de pondération des résidus par les poids calés a tendance à produire un biais nettement plus faible. Le choix de différents types de poids pour produire les coefficients de régression a peu d'incidence.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211384
    Description :

    Le ralentissement économique aux États-Unis pourrait rendre incertain le maintien de stratégies coûteuses dans les opérations des enquêtes. Dans le Behavioral Risk Factor Surveillance System (BRFSS), une période de collecte de données mensuelle de 31 jours seulement pourrait être une solution de rechange moins coûteuse. Toutefois, elle pourrait exclure une partie des interviews menées après 31 jours (répondants tardifs) et les caractéristiques de ces répondants pourraient être différentes à de nombreux égards de celles des répondants qui ont participé à l'enquête dans les 31 jours (répondants hâtifs). Nous avons tâché de déterminer s'il existe entre les répondants hâtifs et les répondants tardifs des différences d'ordre démographique ou en ce qui a trait à la couverture des soins de santé, à l'état de santé général, aux comportements posant un risque pour la santé et aux maladies ou problèmes de santé chroniques. Nous avons utilisé les données du BRFSS 2007, où un échantillon représentatif de la population adulte aux États-Unis ne vivant pas en établissement a été sélectionné au moyen d'une méthode de composition aléatoire. Les répondants tardifs étaient significativement plus susceptibles d'être de sexe masculin ; de déclarer leur race ou origine ethnique comme étant hispanique ; d'avoir un revenu annuel de plus de 50 000 $ ; d'avoir moins de 45 ans ; d'avoir un niveau de scolarité inférieur au diplôme d'études secondaires ; de bénéficier d'une couverture des soins de santé ; d'être significativement plus susceptibles de déclarer être en bonne santé ; d'être significativement moins susceptibles de déclarer faire de l'hypertension, souffrir de diabète ou être obèses. Les différences observées entre les répondants hâtifs et les répondants tardifs dans les estimations d'enquête pourraient influer à peine sur les estimations nationales et au niveau de l'État. Étant donné que la proportion de répondants tardifs pourrait augmenter à l'avenir, il y a lieu d'examiner son incidence sur les estimations découlant de la surveillance avant de l'exclure de l'analyse. Dans l'analyse portant sur les répondants tardifs, il devrait suffire de combiner plusieurs années de données pour produire des estimations fiables.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211377
    Description :

    Nous considérons le problème de l'estimation des paramètres au moyen d'information auxiliaire, quand celle-ci prend la forme de moments connus. L'estimation par calage est un exemple type de l'utilisation des conditions des moments dans les enquêtes par sondage. Étant donné la forme paramétrique de la distribution originale des observations de l'échantillon, nous utilisons l'échantillonnage préférentiel avec distribution d'échantillonnage estimée de Henmi, Yoshida et Eguchi (2007) pour obtenir un estimateur amélioré. Si nous nous servons de la densité normale pour calculer les poids d'échantillonnage préférentiel, l'estimateur résultant prend la forme d'un estimateur par inclinaison exponentielle en une étape. Nous montrons que l'estimateur par inclinaison exponentielle proposé est asymptotiquement équivalent à l'estimateur par la régression, mais qu'il permet d'éviter les poids extrêmes et offre des avantages du point de vue des calculs par rapport à l'estimateur de la vraisemblance empirique. Nous discutons également de l'estimation de la variance et présentons les résultats d'une étude par simulation limitée.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 12-001-X201000211381
    Description :

    Les méthodes de linéarisation de Taylor sont souvent utilisées pour obtenir des estimateurs de la variance d'estimateurs par calage de totaux et de paramètres de population finie (ou de recensement) non linéaires, tels que des ratios ou des coefficients de régression et de corrélation, qui peuvent être exprimés sous forme de fonctions lisses de totaux. La linéarisation de Taylor s'applique généralement à tout plan d'échantillonnage, mais elle peut produire de multiples estimateurs de la variance qui sont asymptotiquement sans biais par rapport au plan en cas d'échantillonnage répété. Le choix parmi les estimateurs de variance doit donc s'appuyer sur d'autres critères, tels que i) l'absence approximative de biais dans la variance par rapport au modèle de l'estimateur obtenu sous un modèle hypothétique et ii) la validité sous échantillonnage répété conditionnel. Demnati et Rao (2004) ont proposé une méthode unifiée de calcul des estimateurs de variance par linéarisation de Taylor produisant directement un estimateur de variance unique qui satisfait aux critères susmentionnés pour des plans de sondage généraux. Dans l'analyse des données d'enquête, on suppose généralement que les populations finies sont générées au moyen de modèles de superpopulation et l'on s'intéresse aux inférences analytiques concernant les paramètres de ces modèles. Si les fractions d'échantillonnage sont faibles, la variance d'échantillonnage reflète presque toute la variation due aux processus aléatoires liés au plan de sondage et au modèle. Par contre, si les fractions d'échantillonnage ne sont pas négligeables, il faut tenir compte de la variance du modèle pour construire des inférences valides concernant les paramètres du modèle sous le processus combiné de génération de la population finie à partir du modèle hypothétique de superpopulation et de sélection de l'échantillon conformément au plan de l'échantillonnage spécifié. Dans le présent article, nous obtenons un estimateur de la variance totale selon l'approche de Demnati-Rao en supposant que les caractéristiques d'intérêt sont des variables aléatoires générées au moyen d'un modèle de superpopulation. Nous illustrons la méthode à l'aide d'estimateurs par le ratio et d'estimateurs définis comme des solutions d'équations d'estimation pondérées par calage. Nous présentons aussi les résultats de simulations en vue de déterminer la performance de l'estimateur de variance proposé pour les paramètres du modèle.

    Date de diffusion : 2010-12-21

  • Articles et rapports : 11-010-X201001111370
    Description :

    Un aperçu de la manière dont ces différentes mesures sont liées les unes aux autres, du moment auquel elles devraient être utilisées et des raisons pour lesquelles les agences statistiques ont élaboré des mesures plus sophistiquées pour les données en volume.

    Date de diffusion : 2010-11-12

  • Articles et rapports : 12-001-X201000111247
    Description :

    Dans le présent article, le problème de l'estimation de la variance de divers estimateurs de la moyenne de population sous échantillonnage à deux phases est traité par application de la méthode du jackknife aux poids calés en deux phases de Hidiroglou et Särndal (1995, 1998). Nous montrons que plusieurs estimateurs de la moyenne de population décrits dans la littérature sont des cas particuliers de la méthode élaborée ici, y compris ceux proposés par Rao et Sitter (1995) et par Sitter (1997). En nous inspirant de Raj (1965) et de Srivenkataramana et Tracy (1989), nous introduisons de nouveaux estimateurs de la moyenne de population et nous estimons leur variance par la méthode du jackknife proposée. Nous estimons également la variance des estimateurs en chaîne par le ratio et par la régression dus à Chand (1975) en utilisant le jackknife. Une étude par simulations nous permet d'évaluer l'efficacité des estimateurs jackknife proposés comparativement aux estimateurs de variance usuels.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111244
    Description :

    Nous étudions le problème de la sélection de modèles non paramétriques pour l'estimation sur petits domaines, auquel beaucoup d'attention a été accordée récemment. Nous élaborons une méthode fondée sur le concept de la méthode de l'enclos (fence method) de Jiang, Rao, Gu et Nguyen (2008) pour sélectionner la fonction moyenne pour les petits domaines parmi une classe de splines d'approximation. Les études par simulations montrent que la nouvelle méthode donne des résultats impressionnants, même si le nombre de petits domaines est assez faible. Nous appliquons la méthode à un ensemble de données hospitalières sur les échecs de greffe pour choisir un modèle non paramétrique de type Fay­Herriot.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111245
    Description :

    La connaissance des causes des erreurs de mesure dans les enquêtes auprès des entreprises est limitée, même si ces erreurs peuvent compromettre l'exactitude des microdonnées et des indicateurs économiques qui en découlent. Le présent article, qui est fondé sur une étude empirique axée sur le point de vue des entreprises, présente de nouveaux résultats de recherche sur le processus de réponse aux enquêtes auprès des entreprises. Il propose le modèle multidimensionnel intégral de réponse aux enquêtes auprès des entreprises (MMIREE) comme outil pour examiner le processus de réponse et expliquer ses résultats, et comme base d'une stratégie visant à réduire et à prévenir les erreurs de mesure.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111252
    Description :

    Le biais dû à la non-réponse est un problème examiné de longue date dans le domaine de la recherche sur les enquêtes (Brehm 1993 ; Dillman, Eltinge, Groves et Little 2002), et de nombreuses études ont eu pour objectif de préciser les facteurs qui ont une influence sur la non-réponse partielle ainsi que totale. Dans le but de contribuer à la réalisation de l'objectif plus général consistant à réduire au minimum la non-réponse aux enquêtes, nous examinons dans la présente étude plusieurs facteurs pouvant avoir une incidence sur cette non-réponse, en utilisant les données de l'Animal Welfare Survey de 2007 réalisée en Ohio, aux États-Unis. En particulier, nous examinons la mesure dans laquelle l'intérêt du sujet et les primes d'incitation influent sur la participation aux enquêtes et sur la non-réponse partielle, en nous inspirant de la théorie du levier et de la saillance (leverage-saliency theory) (Groves, Singer et Corning 2000). Nous constatons que la participation à une enquête est influencée par le contexte du sujet (car celui-ci exerce un effet de levier positif ou négatif sur les unités échantillonnées) et par les primes d'incitation prépayées, ce qui est en harmonie avec la théorie du levier et de la saillance. La constatation que la non-réponse partielle, notre mesure indirecte de la qualité de la réponse, varie en fonction de la proximité par rapport à l'agriculture et l'environnement (lieu de résidence, connaissances sur la production des aliments et opinions quant à l'importance du bien être des animaux) confirme aussi nos attentes. Cependant, les données laissent entendre que la non-réponse partielle ne varie pas selon qu'un répondant reçoit ou non une prime d'incitation.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111243
    Description :

    La National Assessment of Adult Literacy (NAAL) de 2003 et l'Enquête internationale sur la littératie et les compétences des adultes (ELCA) comportaient chacune un plan d'échantillonnage aréolaire stratifié à plusieurs degrés. Le dernier degré consistait à dresser la liste des membres du ménage, à déterminer la situation d'admissibilité de chaque individu et à appeler la procédure de sélection pour sélectionner aléatoirement une ou deux personnes admissibles dans le ménage. L'objectif du présent article est d'évaluer les règles de sélection dans les ménages sous un plan d'échantillonnage à plusieurs degrés en vue d'améliorer la procédure dans de futures enquêtes sur la littératie. L'analyse est fondée sur la distribution courante des ménages américains selon leur taille et sur les coefficients de corrélation intra-grappe en utilisant les données sur la littératie des adultes. Nous étudions plusieurs règles de sélection dans les ménages, en prenant en considération les effets de la mise en grappes, des taux d'échantillonnage différentiels, du coût par interview et du fardeau de réponse au niveau du ménage. Dans ce contexte, nous étendons une évaluation de l'échantillonnage dans les ménages sous un plan à deux degrés à un plan à quatre degrés et nous procédons à certaines généralisations aux échantillons à plusieurs degrés pour divers rapports de coûts.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111251
    Description :

    Les méthodes de calage, telles que la poststratification, s'appuient sur de l'information auxiliaire pour accroître l'efficacité des estimations par sondage. L'hypothèse est que les totaux de contrôle, en fonction desquels les poids de sondage sont poststratifiés (ou calés), sont les valeurs de population. Toutefois, les totaux de contrôle sont souvent estimés d'après d'autres enquêtes. De nombreux chercheurs appliquent les estimateurs classiques d'estimation de la variance par poststratification à des situations où les totaux de contrôle sont estimés, supposant donc que toute variance d'échantillonnage supplémentaire associée à ces totaux estimés est négligeable. Le but de l'étude présentée ici est d'évaluer des estimateurs de la variance pour des plans de sondage stratifiés à plusieurs degrés, sous une poststratification en fonction de totaux de contrôle estimés (CE) en utilisant des valeurs de contrôle sans biais par rapport au plan. Nous comparons les propriétés théoriques et empiriques des estimateurs de variance par linéarisation et par le jackknife pour un estimateur poststratifié d'un total de population. Nous donnons des exemples des effets qu'ont sur les variances divers niveaux de précision des totaux de contrôle estimés. Notre étude donne à penser que i) les estimateurs de variance classiques peuvent sous-estimer considérablement la variance théorique et que ii) deux estimateurs de variance par poststratification CE peuvent atténuer le biais négatif.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111248
    Description :

    Les flux bruts sont souvent utilisés pour étudier les transitions concernant la situation d'emploi ou d'autres variables catégoriques chez les individus formant une population. Dans les enquêtes longitudinales à base de sondage double, pour lesquelles des échantillons indépendants sont tirés de deux bases de sondage afin de réduire les coûts d'enquête ou d'améliorer la couverture, l'estimation efficace et cohérente des flux bruts peut poser des défis, à cause des plans de sondage complexes et des données manquantes dans l'un ou l'autre échantillon, ou les deux. Nous proposons des estimateurs des flux bruts dans les enquêtes à base de sondage double et examinons leurs propriétés asymptotiques. Puis, nous estimons les transitions entre les situations d'emploi en utilisant des données provenant de la Current Population Survey et de la Survey of Income and Program Participation.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111246
    Description :

    Dans le cas de nombreux sondages, des procédures d'ajustement des poids sont utilisées pour réduire le biais de non-réponse. Ces ajustements s'appuient sur les données auxiliaires disponibles. Le présent article traite de l'estimation de la variance par la méthode du jackknife pour les estimateurs qui ont été corrigés de la non-réponse. En suivant l'approche inversée d'estimation de la variance proposée par Fay (1991), ainsi que par Shao et Steel (1999), nous étudions l'effet dû au fait de ne pas recalculer l'ajustement des poids pour la non-réponse dans chaque réplique jackknife. Nous montrons que l'estimateur de variance jackknife « simplifié » résultant a tendance à surestimer la variance réelle des estimateurs ponctuels dans le cas de plusieurs procédures d'ajustement des poids utilisées en pratique. Ces résultats théoriques sont confirmés au moyen d'une étude par simulation dans laquelle nous comparons l'estimateur de variance jackknife simplifié à l'estimateur de variance jackknife complet obtenu en recalculant l'ajustement des poids pour la non-réponse dans chaque réplique jackknife.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111250
    Description :

    Nous proposons un estimateur de prédiction bayésien avec splines pénalisées (PBSP pour Bayesian Penalized Spline Predictive) pour une proportion de population finie sous échantillonnage avec probabilités inégales. Cette nouvelle méthode permet d'intégrer directement les probabilités d'inclusion dans l'estimation d'une proportion de population, en effectuant une régression probit du résultat binaire sur la fonction spline pénalisée des probabilités d'inclusion. La loi prédictive a posteriori de la proportion de population est obtenue en utilisant l'échantillonnage de Gibbs. Nous démontrons les avantages de l'estimateur PBSP comparativement à l'estimateur de Hájek (HK), à l'estimateur par la régression généralisée (RG) et aux estimateurs de prédiction fondés sur un modèle paramétrique au moyen d'études en simulation et d'un exemple réel de vérification fiscale. Les études en simulation montrent que l'estimateur PBSP est plus efficace et donne un intervalle de crédibilité à 95 % dont la probabilité de couverture est meilleure et dont la largeur moyenne est plus étroite que les estimateurs HK et RG, surtout quand la proportion de population est proche de zéro ou de un, ou que l'échantillon est petit. Comparativement aux estimateurs de prédiction fondés sur un modèle linéaire, les estimateurs PBSP sont robustes à l'erreur de spécification du modèle et à la présence d'observations influentes dans l'échantillon.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X201000111249
    Description :

    Dans le cas de nombreux plans de sondage, la probabilité de sélectionner un échantillon qui produira de mauvaises estimations pour des quantités connues n'est pas nulle. L'échantillonnage aléatoire stratifié permet de réduire l'ensemble de ces échantillons éventuels en fixant la taille de l'échantillon dans chaque strate. Cependant, l'obtention d'échantillons indésirables demeure possible après la stratification. L'échantillonnage réjectif permet d'éliminer les échantillons donnant de mauvais résultats en ne retenant un échantillon que si des fonctions spécifiées des estimations sont comprises entre des limites de tolérance par rapport aux valeurs connues. Les échantillons résultant sont souvent dits équilibrés sur la fonction des variables utilisées dans la méthode de rejet. Nous présentons des modifications de la méthode de rejet de Fuller (2009a) qui donnent plus de souplesse aux règles de rejet. Au moyen de simulations, nous comparons les propriétés des estimations obtenues en suivant une méthode d'échantillonnage réjectif, d'une part, et une procédure d'échantillonnage par la méthode du cube, d'autre part.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 11-010-X201000311141
    Description :

    Un examen de la désaisonnalisation et de la manière dont elle peut aider les analystes à se concentrer sur les mouvements récents de la tendance sous-jacente des données économiques.

    Date de diffusion : 2010-03-18

Références (5)

Références (5) (5 of 5 results)

  • Produits techniques : 12-587-X
    Description :

    Cette publication montre comment concevoir et mener un recensement ou une enquête par sondage. Le lecteur y trouvera une explication des concepts fondamentaux des enquêtes et des façons de concevoir des sondages efficaces et de qualité. Cette publication s'adresse à ceux qui planifient, mènent, ou gèrent une enquête et aux étudiants des cours de conception d'enquête.

    Le livre fournit de l'information concernant:

    -la planification et la gestion d'une enquête ;-la formulation des objectifs d'enquête et la conception de questionnaire; -les différents paramètres qui gouvernent la conception d'une enquête (par échantillon ou par recensement, la population visée par l'enquête, la base de sondage, les sources possible d'erreur); -le choix de la méthode de collecte (autodénombrement, interview sur place ou téléphonique, interview assistée par ordinateur ou au moyen d'un questionnaire papier);-l'organisation et la gestion de la collecte de données; -le calcul de la taille d'échantillon, la répartition de l'échantillon aux strates et le tirage de l'échantillon; -les méthodes d'estimation ponctuelle et d'estimation de la variance, et l'analyse des données; -l'utilisation des données administratives durant la conception ou l'estimation; -le traitement des données (ce qui se passe entre la collecte et l'estimation), de même que différentes méthodes de contrôle et d'assurance de la qualité visant à réduire les erreurs durant les différentes étapes de l'enquête;-la diffusion des données et le contrôle de la divulgation.

    Cette publication comporte également une étude de cas pour illustrer les diverses étapes de la mise en place d'une enquête auprès de ménages, en utilisant les méthodes et les principes présentés dans le livre. Auparavant, cette publication était seulement offerte en format imprimé et Publiée pour la première fois en octobre 2003.

    Date de diffusion : 2010-09-27

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2010003
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2006. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2010-04-26

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2010002
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2005. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2010-04-26

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2010001
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2004. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2010-04-26

  • Produits techniques : 92-567-X
    Description :

    Le Rapport technique sur la couverture présentera l'erreur incluse dans les données du recensement provenant des personnes manquées par le Recensement de 2006 ou des personnes dénombrées par erreur. Les erreurs de couverture de la population sont parmi les types d'erreurs les plus importants car ils ont incidence, non seulement sur l'exactitude des chiffres de population, mais également sur l'exactitude de tous les résultats des données du recensement décrivant les caractéristiques de l'univers de la population.

    Date de diffusion : 2010-03-25

Date de modification :