Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Enquête ou programme statistique

1 facettes affichées. 0 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (118)

Tout (118) (25 of 118 results)

  • Articles et rapports : 12-001-X200900211045
    Description :

    Dans l'analyse de données d'enquête, on se sert souvent du nombre de degrés de liberté pour évaluer la stabilité des estimateurs de variance fondé sur le plan de sondage. Par exemple, ce nombre de degrés de liberté est utilisé pour construire les intervalles de confiances fondés sur des approximations de la loi t, ainsi que des tests t connexes. En outre, un petit nombre de degrés de liberté donne une idée qualitative des limites possibles d'un estimateur de variance particulier dans une application. Parfois, le calcul du nombre de degrés de liberté s'appuie sur des formes de l'approximation de Satterthwaite. Ces calculs fondés sur l'approche de Satterthwaite dépendent principalement des grandeurs relatives des variances au niveau de la strate. Cependant, pour des plans de sondage comportant la sélection d'un petit nombre d'unités primaires par strate, les estimateurs de variance au niveau de la strate classiques ne fournissent que des renseignements limités sur les variances réelles de strate. Le cas échéant, les calculs habituels fondés sur l'approche de Satterthwaite peuvent poser des problèmes, surtout dans les analyses portant sur des sous-populations concentrées dans un nombre relativement faible de strates. Pour résoudre ce problème, nous utilisons dans le présent article les estimations des variances à l'intérieur des unités primaires d'échantillonnage (variances intra-UPE) pour fournir de l'information auxiliaire sur les grandeurs relatives des variances globales au niveau de la strate. Les résultats des analyses indiquent que l'estimateur du nombre de degrés de liberté résultant est meilleur que les estimateurs de type Satterthwaite modifiés, à condition que : a) les variances globales au niveau de la strate soient approximativement proportionnelles aux variances intra-strate correspondantes et b) les variances des estimateurs de variance intra-UPE soient relativement faibles. En outre, nous élaborons des méthodes à erreurs sur les variables qui permettent de vérifier empiriquement les conditions a) et b). Pour ces vérifications de modèle, nous établissons des distributions de référence fondées sur des simulations qui diffèrent considérablement des distributions de référence fondées sur les approximations normales en grand échantillon habituelles. Nous appliquons les méthodes proposées à quatre variables de la troisième National Health and Nutrition Examination Survey (NHANES III) réalisée aux États-Unis.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211043
    Description :

    Les enquêtes-entreprises sont souvent réalisées selon un plan d'échantillonnage aléatoire simple stratifié à un degré sans remise comportant certaines strates à tirage complet. Bien que l'on recoure habituellement à l'ajustement de la pondération pour traiter la non-réponse totale, la variabilité due à la non-réponse est parfois omise en pratique quand on estime les variances. Cette situation pose surtout problème lorsqu'il existe des strates à tirage complet. Nous élaborons des estimateurs de variance qui sont convergents quand le nombre d'unités échantillonnées est grand dans chaque classe de pondération, en utilisant les méthodes du jackknife, de la linéarisation et du jackknife modifié. Nous commençons par appliquer les estimateurs ainsi obtenus à des données empiriques provenant de l'Annual Capital Expenditures Survey réalisé par le U.S. Census Bureau, puis nous examinons leur performance dans une étude en simulation.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211046
    Description :

    Nous élaborons un modèle de régression semiparamétrique pour les enquêtes complexes. Dans ce modèle, les variables explicatives sont représentées séparément sous forme d'une partie non paramétrique et d'une partie linéaire paramétrique. Les méthodes d'estimation combinent l'estimation par la régression polynomiale locale non paramétrique et l'estimation par les moindres carrés. Nous élaborons également des résultats asymptotiques, tels que la convergence et la normalité des estimateurs des coefficients de régression et des fonctions de régression. Nous recourrons à la simulation et à des exemples empiriques tirés de l'Enquête sur la santé en Ontario de 1990 pour illustrer la performance de la méthode et les propriétés des estimations.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211040
    Description :

    L'article décrit un modèle de séries chronologiques structurel multivarié qui tient compte du plan de sondage avec renouvellement de panel de l'Enquête sur la population active des Pays-Bas et qui est appliqué pour estimer les taux mensuels de chômage. Comparativement à l'estimateur par la régression généralisée, cette approche accroît considérablement la précision des estimations, grâce à la réduction de l'erreur-type et à la modélisation explicite du biais entre les vagues subséquentes de l'enquête.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211056
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211038
    Description :

    Nous cherchons à corriger la surestimation causée par la non-réponse de lien dans l'échantillonnage indirect lorsque l'on utilise la méthode généralisée de partage des poids (MGPP). Nous avons élaboré quelques méthodes de correction pour tenir compte de la non-réponse de lien dans la MGPP applicables lorsque l'on dispose ou non de variables auxiliaires. Nous présentons une étude par simulation de certaines de ces méthodes de correction fondée sur des données d'enquête longitudinale. Les résultats des simulations révèlent que les corrections proposées de la MGPP réduisent bien le biais et la variance d'estimation. L'accroissement de la réduction du biais est significatif.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211037
    Description :

    Les stratégies fondées sur la réponse aléatoire, qui ont été élaborées au départ à titre de méthodes statistiques destinées à réduire la non-réponse ainsi que la réponse mensongère, peuvent aussi être appliquées dans le domaine du contrôle de la divulgation statistique dans les fichiers de microdonnées à grande diffusion. Le présent article décrit une standardisation des méthodes de réponse aléatoire en vue d'estimer des proportions pour des attributs identificatoires ou sensibles. Les propriétés statistiques de l'estimateur standardisé sont établies dans le cas de l'échantillonnage probabiliste général. Afin d'analyser l'effet du choix des « paramètres de plan » implicites de la méthode sur la performance de l'estimateur, nous incluons dans l'étude des mesures de la protection de la vie privée. Nous obtenons ainsi des paramètres de plan qui optimisent la variance, sachant le niveau de protection de la vie privée. Pour cela, les variables doivent être classées dans diverses catégories de sensibilité. Un exemple fondé sur des données réelles illustre l'application de la méthode à une enquête sur la tricherie chez les étudiants.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211036
    Description :

    Souvent, les enquêtes doivent permettre de produire des estimations pour une ou plusieurs sous-populations en plus de l'ensemble de la population. Lorsque l'appartenance à une sous-population (ou domaine) rare peut être déterminée d'après l'information contenue dans la base de sondage, le choix de la taille de l'échantillon du domaine est relativement simple. Le principal problème consiste alors à déterminer l'ampleur requise du suréchantillonnage quand des estimations doivent être produites pour plusieurs domaines ainsi que pour l'ensemble de la population. En revanche, l'échantillonnage et le suréchantillonnage de domaines rares dont les membres ne peuvent pas être identifiés d'avance posent un défi important. Diverses méthodes ont été utilisées dans cette situation. En plus de la présélection à grande échelle, elles comptent l'échantillonnage stratifié disproportionné, l'échantillonnage à deux phases, l'utilisation de plusieurs bases de sondage, l'échantillonnage par réseaux, les enquêtes par panel et les enquêtes polyvalentes. Le présent article décrit l'application de ces méthodes à une gamme d'enquêtes sociales.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211042
    Description :

    Le présent article décrit une méthode de prédiction pour petits domaines fondée sur des données tirées d'enquêtes périodiques et de recensements. Nous appliquons cette méthode pour obtenir des prédictions démographiques pour les municipalités non échantillonnées dans l'enquête annuelle sur les ménages du Brésil (PNAD), ainsi que pour accroître la précision des estimations fondées sur le plan de sondage obtenues pour les municipalités échantillonnées. En plus des données fournies par la PNAD, nous utilisons des données démographiques provenant des recensements de 1991 et de 2000, ainsi que d'un dénombrement complet de la population effectué en 1996. Nous proposons et comparons des modèles de croissance hiérarchiquement non structurés et spatialement structurés qui gagnent en puissance en s'appuyant sur toutes les municipalités échantillonnées.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211039
    Description :

    La pondération par la propension à répondre est une méthode de rajustement pour tenir compte de la non-réponse totale dans les enquêtes. Une forme de mise en oeuvre de cette méthode consiste à diviser les poids d'échantillonnage par les estimations de la probabilité que les unités échantillonnées répondent à l'enquête. Habituellement, ces estimations sont obtenues par ajustement de modèles paramétriques, tels qu'une régression logistique. Les estimateurs corrigés résultants peuvent devenir biaisés si les modèles paramétriques sont spécifiés incorrectement. Afin d'éviter les erreurs de spécification du modèle, nous considérons l'estimation non paramétrique des probabilités de réponse par la régression par polynômes locaux. Nous étudions les propriétés asymptotiques de l'estimateur résultant sous quasi randomisation. Nous évaluons en pratique le comportement de la méthode proposée de correction de la non-réponse en nous servant de données de la NHANES.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211041
    Description :

    L'estimation de la composition sur petits domaines peut poser un problème de données manquantes informatives, si la probabilité que les données manquent varie d'une catégorie d'intérêt à l'autre, ainsi que d'un petit domaine à l'autre. Nous élaborons une approche de modélisation mixte double qui combine un modèle mixte à effets aléatoires pour les données complètes sous-jacentes et un modèle mixte à effets aléatoires du mécanisme de création différentielle de données manquantes. L'effet du plan d'échantillonnage peut être intégré au moyen d'un modèle d'échantillonnage sous quasi-vraisemblance. L'erreur quadratique moyenne conditionnelle de prédiction associée est approximée sous forme d'une décomposition en trois parties, correspondant à une variance de prédiction naïve, une correction positive qui tient compte de l'incertitude hypothétique de l'estimation des paramètres basée sur les données complètes latentes et une autre correction positive pour la variation supplémentaire due aux données manquantes. Nous illustrons notre approche en l'appliquant à l'estimation de la composition des ménages des municipalités au moyen des données sur les ménages tirées des registres norvégiens, qui présentent un sous-enregistrement informatif du numéro d'identification du logement.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211044
    Description :

    Dans les enquêtes par sondage de grande portée, il est fréquent d'employer des plans de sondage stratifiés à plusieurs degrés où les unités sont sélectionnées par échantillonnage aléatoire simple sans remise à chaque degré. L'exécution de l'estimation de la variance sous ce genre de plan peut être assez fastidieuse, particulièrement pour les estimateurs non linéaires. Diverses méthodes bootstrap d'estimation de la variance ont été proposées, mais la plupart sont limitées à des plans à un seul degré ou à des plans en grappes à deux degrés. Nous proposons une extension de la méthode du bootstrap rééchelonné (Rao et Wu 1988) aux plans stratifiés à plusieurs degrés qui peut être adaptée facilement à n'importe quel nombre de degrés. Cette méthode convient pour une grande gamme de méthodes de repondération, y compris la classe générale des estimateurs par calage. Nous avons réalisé une étude par simulation Monte Carlo pour examiner la performance de l'estimateur de variance bootstrap rééchelonné à plusieurs degrés.

    Date de diffusion : 2009-12-23

  • Produits techniques : 11-522-X2008000
    Description :

    Depuis 1984, une série de conférences annuelles a été parrainé par Statistique Canada. Le recueil de la conférence est disponible depuis 1987. Le Symposium 2008 a été le vingt-quatrième d'une série de colloques internationaux organisés par Statistique Canada sur des questions de méthodologie. Chaque année le symposium traite d'un thème particulier. Celui de 2008 était : « Collecte des données : défis, réalisations et nouvelles orientations ».

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010952
    Description :

    Dans une enquête où les résultats ont été estimés par des moyennes simples, nous comparons les incidences qu'ont sur les résultats un suivi des cas de non-réponse et une pondération fondée sur les derniers dix pour cent de répondants. Les données utilisées proviennent de l'Enquête sur les conditions de vie des immigrants en Norvège qui a été réalisée en 2006.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011010
    Description :

    L'Enquête sur l'emploi, la rémunération et les heures de travail (EERH) est une enquête mensuelle qui utilise deux sources de données : un recensement des formulaires de retenues sur la paye (PD7) (données administratives) et une enquête auprès des établissements. Le présent document est axé sur le traitement des données administratives, de la réception hebdomadaire des données de l'Agence du revenu du Canada à la production d'estimations mensuelles par les responsables de l'EERH.

    Les méthodes de contrôle et d'imputation utilisées pour traiter les données administratives ont été révisées au cours des dernières années. Les objectifs de ce remaniement étaient principalement d'améliorer la qualité des données et l'uniformité avec une autre source de données administratives (T4), qui constitue une mesure repère pour les responsables du Système de comptabilité nationale de Statistique Canada. On visait en outre à s'assurer que le nouveau processus serait plus facile à comprendre et à modifier, au besoin. Par conséquent, un nouveau module de traitement a été élaboré pour contrôler et imputer les formulaires PD7, avant l'agrégation des données au niveau mensuel.

    Le présent document comporte un aperçu des processus actuel et nouveau, y compris une description des défis auxquels nous avons fait face pendant l'élaboration. L'amélioration de la qualité est démontrée à la fois au niveau conceptuel (grâce à des exemples de formulaires PD7 et à leur traitement au moyen de l'ancien et du nouveau systèmes) et quantitativement (en comparaison avec les données T4).

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010969
    Description :

    Dans le cadre d'un projet auquel ont participé plusieurs divisions du Census Bureau des États-Unis, un système hautement perfectionné et novateur a été mis au point pour faire la saisie, le suivi et le balayage optique des données des répondants. Ce système met en oeuvre la reconnaissance intelligente de caractères (RIC), la reconnaissance optique de caractères (ROC), la reconnaissance optique de marques (ROM) et une technologie de saisie clavier fortement axée sur la détection et le contrôle des erreurs. Appelé integrated Computer Assisted Data Entry (iCADE) System, il fournit des images numériques des questionnaires remplis par les répondants qui sont ensuite traitées par une combinaison d'algorithmes d'imagerie, envoyées à l'application de reconnaissance optique de marques (ROM) qui recueille les données sous forme de cases cochées, recueille automatiquement et envoie uniquement les champs à réponse écrite aux clavistes qui procèdent à la saisie des données. Ces capacités ont accru considérablement l'efficacité du processus de saisie des données et abouti à une approche nouvelle et efficace des activités postérieures à la collecte.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010971
    Description :

    Discours principal

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011001
    Description :

    Présentement en cours, l'Enquête québécoise sur la santé de la population (EQSP), dont la collecte se terminera en février 2009, offre l'opportunité, de par l'envergure de son échantillon, d'évaluer l'impact de l'envoi de lettres d'information aux répondants sur le taux de réponse, et ce, dans un environnement contrôlé. En effet, avec plus de 38 000 répondants attendus, une partie de l'échantillon de cette enquête téléphonique à portée régionale a pu être utilisée pour permettre cette étude, sans toutefois avoir un impact trop important sur le taux de réponse global de l'enquête. Dans les enquêtes à génération aléatoire de numéro de téléphone (GANT), telle que l'EQSP, un des principaux défis de l'envoi d'une lettre d'information est l'atteinte de l'unité enquêtée. Or, cette réussite dépend en grande partie de notre capacité à associer une adresse aux unités échantillonnées et de la qualité de celle-ci.

    Cet article décrit l'étude contrôlée mise de l'avant par l'Institut de la statistique du Québec pour mesurer l'incidence de l'envoi de lettres d'information aux répondants sur le taux de réponse de l'enquête.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010948
    Description :

    Les anciens instruments d'enquête, qu'il s'agisse de questionnaires imprimés ou de scénarios téléphoniques, constituaient leur propre documentation. Ce contexte est celui dans lequel la banque de questions de l'ESRC a été créée, en vue d'offrir l'accès gratuit aux questionnaires publiés sur Internet et de permettre aux chercheurs de réutiliser les questions, leur évitant ainsi certaines difficultés tout en améliorant la comparabilité de leurs données avec celles recueillies par d'autres. Cependant aujourd'hui, alors que la technologie des enquêtes et les programmes informatiques sont devenus plus perfectionnés, il semble plus difficile de comprendre exactement les questionnaires les plus récents, particulièrement quand chaque équipe d'enquête utilise ses propres conventions pour fournir des renseignements sur les questions complexes dans les rapports techniques. Le présent article a pour but d'illustrer ces problèmes et de proposer des normes provisoires de présentation à utiliser jusqu'à ce que le processus soit automatisé.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011011
    Description :

    Le Système de rapports sur la qualité de vie (SRQDV) de la Fédération canadienne des municipalités (FCM) offre un moyen de mesurer et de surveiller la qualité de vie dans les municipalités canadiennes et d'en rendre compte. Pour relever le défi que représente la collecte de données administratives auprès des diverses municipalités membres, l'équipe technique du SRQDV a collaboré au développement de l'Outil de collecte de données municipales (OCDM) qui est devenu une composante clé de la méthodologie d'acquisition de données du SRQDV. Soumis en tant qu'étude de cas de la collecte des données administratives, le présent article soutient que le lancement récent de l'OCDM a permis à la FCM d'avoir accès à des données administratives municipales pancanadiennes fiables pour le SRQDV.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010981
    Description :

    L'une des caractéristiques principales du recensement de la population de l'Espagne de 2001 a été l'utilisation des données d'un registre de population administratif (El Padrón) pour la préimpression des questionnaires, ainsi que des dossiers des recenseurs sur les secteurs de recensement. Dans le présent article, nous décrivons les grandes caractéristiques du lien entre le registre de la population et le recensement de la population, ainsi que les principaux changements qu'il est prévu d'apporter au prochain recensement qui aura lieu en 2011.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010954
    Description :

    Au cours de la dernière année, Statistique Canada a conçu et mis à l'essai un nouveau moyen d'évaluer le rendement des intervieweurs qui procèdent aux interviews sur place assistées par ordinateur (IPAO). Un processus officiel existe déjà pour la surveillance des interviews téléphoniques centralisées. Les surveillants écoutent les interviews téléphoniques pendant qu'elles ont lieu pour évaluer l'exécution des tâches par l'intervieweur en fonction de critères préétablis et faire des commentaires à ce dernier pour lui indiquer ce qu'il a bien fait et ce qu'il doit améliorer. Pour les programmes d'IPAO, nous avons élaboré et mettons à l'essai une méthode pilote par laquelle des interviews sont enregistrées de façon numérique puis le surveillant écoute ces enregistrements afin d'évaluer le rendement de l'intervieweur sur le terrain et de lui fournir de la rétroaction qui aidera la qualité des données. Dans le présent article, nous donnons un aperçu du projet de surveillance de l'IPAO à Statistique Canada en décrivant la méthodologie de surveillance de l'IPAO et les plans de mise en oeuvre.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011009
    Description :

    Le Système national d'acheminement est une initiative intergouvernementale dont le but est d'améliorer la collecte et la validation de l'information sur les naissances et les décès provenant des registres provinciaux de l'état civil. Au lieu d'envoyer des fichiers d'enregistrements par lot à divers moments de l'année, les provinces envoient un enregistrement individuel chaque fois qu'un événement démographique est enregistré. L'actualité des données est encore améliorée grâce à l'adoption de normes de données et de normes techniques. Les utilisateurs des données ne doivent plus manipuler divers formats de données et supports de transfert lorsqu'ils compilent des données provenant de sources multiples. De même, les fournisseurs de données ne doivent transformer leurs données qu'une seule fois pour répondre aux exigences de clients multiples.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011016
    Description :

    Alors que prennent fin une journée d'ateliers et trois journées bien remplies de séances, j'ai l'immense plaisir de vous livrer le mot de la fin et, surtout, de souligner les efforts déployés par ceux qui ont contribué au succès du Symposium de cette année. J'admets avec force qu'il s'agit d'une réussite.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010991
    Description :

    Dans le processus d'évaluation des plans d'enquête prospectifs, les organismes statistiques doivent généralement tenir compte d'un grand nombre de facteurs pouvant avoir une incidence considérable sur le coût de l'enquête et la qualité des données. Or, les compromis entre le coût et la qualité sont souvent compliqués par les limites relatives à la quantité d'information disponible au regard des coûts fixes et des coûts marginaux liés au remaniement des instruments et à leur mise à l'essai sur le terrain, au nombre d'unités d'échantillonnage du premier degré et d'éléments compris dans l'échantillon, à l'affectation de sections d'instrument et aux modes de collecte appropriés pour des éléments d'échantillon précis ainsi qu'au nombre d'interviews et à leur périodicité (dans le cas des enquêtes longitudinales). D'autre part, les concepteurs disposent souvent de renseignements limités sur l'incidence de ces facteurs sur la qualité des données.

    Les auteurs appliquent des méthodes normalisées d'optimisation de la conception pour neutraliser l'incertitude entourant les composantes susmentionnées liées au coût et à la qualité. Une attention particulière est portée au niveau de précision requis des renseignements sur le coût et la qualité pour que ceux-ci soient d'une quelconque utilité dans le processus de conception, à la nature délicate des compromis coût-qualité relativement aux changements dans les hypothèses concernant les formes fonctionnelles ainsi qu'aux répercussions des travaux préliminaires au regard de la collecte de renseignements sur le coût et la qualité. De plus, la communication examine les différences entre le coût et la qualité dans la mise à l'essai sur le terrain et le travail de production, l'intégration des renseignements sur le coût et la qualité sur le plan de la production à l'adaptation de la conception de même que les coûts et les risques opérationnels découlant de la collecte de données détaillées sur le coût et la qualité pendant la phase de production. Les méthodes proposées sont motivées par le travail avec le remaniement cloisonné de l'interview et les composantes liées au journal de la Consumer Expenditure Survey des États-Unis.

    Date de diffusion : 2009-12-03

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (24)

Analyses (24) (24 of 24 results)

  • Articles et rapports : 12-001-X200900211045
    Description :

    Dans l'analyse de données d'enquête, on se sert souvent du nombre de degrés de liberté pour évaluer la stabilité des estimateurs de variance fondé sur le plan de sondage. Par exemple, ce nombre de degrés de liberté est utilisé pour construire les intervalles de confiances fondés sur des approximations de la loi t, ainsi que des tests t connexes. En outre, un petit nombre de degrés de liberté donne une idée qualitative des limites possibles d'un estimateur de variance particulier dans une application. Parfois, le calcul du nombre de degrés de liberté s'appuie sur des formes de l'approximation de Satterthwaite. Ces calculs fondés sur l'approche de Satterthwaite dépendent principalement des grandeurs relatives des variances au niveau de la strate. Cependant, pour des plans de sondage comportant la sélection d'un petit nombre d'unités primaires par strate, les estimateurs de variance au niveau de la strate classiques ne fournissent que des renseignements limités sur les variances réelles de strate. Le cas échéant, les calculs habituels fondés sur l'approche de Satterthwaite peuvent poser des problèmes, surtout dans les analyses portant sur des sous-populations concentrées dans un nombre relativement faible de strates. Pour résoudre ce problème, nous utilisons dans le présent article les estimations des variances à l'intérieur des unités primaires d'échantillonnage (variances intra-UPE) pour fournir de l'information auxiliaire sur les grandeurs relatives des variances globales au niveau de la strate. Les résultats des analyses indiquent que l'estimateur du nombre de degrés de liberté résultant est meilleur que les estimateurs de type Satterthwaite modifiés, à condition que : a) les variances globales au niveau de la strate soient approximativement proportionnelles aux variances intra-strate correspondantes et b) les variances des estimateurs de variance intra-UPE soient relativement faibles. En outre, nous élaborons des méthodes à erreurs sur les variables qui permettent de vérifier empiriquement les conditions a) et b). Pour ces vérifications de modèle, nous établissons des distributions de référence fondées sur des simulations qui diffèrent considérablement des distributions de référence fondées sur les approximations normales en grand échantillon habituelles. Nous appliquons les méthodes proposées à quatre variables de la troisième National Health and Nutrition Examination Survey (NHANES III) réalisée aux États-Unis.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211043
    Description :

    Les enquêtes-entreprises sont souvent réalisées selon un plan d'échantillonnage aléatoire simple stratifié à un degré sans remise comportant certaines strates à tirage complet. Bien que l'on recoure habituellement à l'ajustement de la pondération pour traiter la non-réponse totale, la variabilité due à la non-réponse est parfois omise en pratique quand on estime les variances. Cette situation pose surtout problème lorsqu'il existe des strates à tirage complet. Nous élaborons des estimateurs de variance qui sont convergents quand le nombre d'unités échantillonnées est grand dans chaque classe de pondération, en utilisant les méthodes du jackknife, de la linéarisation et du jackknife modifié. Nous commençons par appliquer les estimateurs ainsi obtenus à des données empiriques provenant de l'Annual Capital Expenditures Survey réalisé par le U.S. Census Bureau, puis nous examinons leur performance dans une étude en simulation.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211046
    Description :

    Nous élaborons un modèle de régression semiparamétrique pour les enquêtes complexes. Dans ce modèle, les variables explicatives sont représentées séparément sous forme d'une partie non paramétrique et d'une partie linéaire paramétrique. Les méthodes d'estimation combinent l'estimation par la régression polynomiale locale non paramétrique et l'estimation par les moindres carrés. Nous élaborons également des résultats asymptotiques, tels que la convergence et la normalité des estimateurs des coefficients de régression et des fonctions de régression. Nous recourrons à la simulation et à des exemples empiriques tirés de l'Enquête sur la santé en Ontario de 1990 pour illustrer la performance de la méthode et les propriétés des estimations.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211040
    Description :

    L'article décrit un modèle de séries chronologiques structurel multivarié qui tient compte du plan de sondage avec renouvellement de panel de l'Enquête sur la population active des Pays-Bas et qui est appliqué pour estimer les taux mensuels de chômage. Comparativement à l'estimateur par la régression généralisée, cette approche accroît considérablement la précision des estimations, grâce à la réduction de l'erreur-type et à la modélisation explicite du biais entre les vagues subséquentes de l'enquête.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211056
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211038
    Description :

    Nous cherchons à corriger la surestimation causée par la non-réponse de lien dans l'échantillonnage indirect lorsque l'on utilise la méthode généralisée de partage des poids (MGPP). Nous avons élaboré quelques méthodes de correction pour tenir compte de la non-réponse de lien dans la MGPP applicables lorsque l'on dispose ou non de variables auxiliaires. Nous présentons une étude par simulation de certaines de ces méthodes de correction fondée sur des données d'enquête longitudinale. Les résultats des simulations révèlent que les corrections proposées de la MGPP réduisent bien le biais et la variance d'estimation. L'accroissement de la réduction du biais est significatif.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211037
    Description :

    Les stratégies fondées sur la réponse aléatoire, qui ont été élaborées au départ à titre de méthodes statistiques destinées à réduire la non-réponse ainsi que la réponse mensongère, peuvent aussi être appliquées dans le domaine du contrôle de la divulgation statistique dans les fichiers de microdonnées à grande diffusion. Le présent article décrit une standardisation des méthodes de réponse aléatoire en vue d'estimer des proportions pour des attributs identificatoires ou sensibles. Les propriétés statistiques de l'estimateur standardisé sont établies dans le cas de l'échantillonnage probabiliste général. Afin d'analyser l'effet du choix des « paramètres de plan » implicites de la méthode sur la performance de l'estimateur, nous incluons dans l'étude des mesures de la protection de la vie privée. Nous obtenons ainsi des paramètres de plan qui optimisent la variance, sachant le niveau de protection de la vie privée. Pour cela, les variables doivent être classées dans diverses catégories de sensibilité. Un exemple fondé sur des données réelles illustre l'application de la méthode à une enquête sur la tricherie chez les étudiants.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211036
    Description :

    Souvent, les enquêtes doivent permettre de produire des estimations pour une ou plusieurs sous-populations en plus de l'ensemble de la population. Lorsque l'appartenance à une sous-population (ou domaine) rare peut être déterminée d'après l'information contenue dans la base de sondage, le choix de la taille de l'échantillon du domaine est relativement simple. Le principal problème consiste alors à déterminer l'ampleur requise du suréchantillonnage quand des estimations doivent être produites pour plusieurs domaines ainsi que pour l'ensemble de la population. En revanche, l'échantillonnage et le suréchantillonnage de domaines rares dont les membres ne peuvent pas être identifiés d'avance posent un défi important. Diverses méthodes ont été utilisées dans cette situation. En plus de la présélection à grande échelle, elles comptent l'échantillonnage stratifié disproportionné, l'échantillonnage à deux phases, l'utilisation de plusieurs bases de sondage, l'échantillonnage par réseaux, les enquêtes par panel et les enquêtes polyvalentes. Le présent article décrit l'application de ces méthodes à une gamme d'enquêtes sociales.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211042
    Description :

    Le présent article décrit une méthode de prédiction pour petits domaines fondée sur des données tirées d'enquêtes périodiques et de recensements. Nous appliquons cette méthode pour obtenir des prédictions démographiques pour les municipalités non échantillonnées dans l'enquête annuelle sur les ménages du Brésil (PNAD), ainsi que pour accroître la précision des estimations fondées sur le plan de sondage obtenues pour les municipalités échantillonnées. En plus des données fournies par la PNAD, nous utilisons des données démographiques provenant des recensements de 1991 et de 2000, ainsi que d'un dénombrement complet de la population effectué en 1996. Nous proposons et comparons des modèles de croissance hiérarchiquement non structurés et spatialement structurés qui gagnent en puissance en s'appuyant sur toutes les municipalités échantillonnées.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211039
    Description :

    La pondération par la propension à répondre est une méthode de rajustement pour tenir compte de la non-réponse totale dans les enquêtes. Une forme de mise en oeuvre de cette méthode consiste à diviser les poids d'échantillonnage par les estimations de la probabilité que les unités échantillonnées répondent à l'enquête. Habituellement, ces estimations sont obtenues par ajustement de modèles paramétriques, tels qu'une régression logistique. Les estimateurs corrigés résultants peuvent devenir biaisés si les modèles paramétriques sont spécifiés incorrectement. Afin d'éviter les erreurs de spécification du modèle, nous considérons l'estimation non paramétrique des probabilités de réponse par la régression par polynômes locaux. Nous étudions les propriétés asymptotiques de l'estimateur résultant sous quasi randomisation. Nous évaluons en pratique le comportement de la méthode proposée de correction de la non-réponse en nous servant de données de la NHANES.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211041
    Description :

    L'estimation de la composition sur petits domaines peut poser un problème de données manquantes informatives, si la probabilité que les données manquent varie d'une catégorie d'intérêt à l'autre, ainsi que d'un petit domaine à l'autre. Nous élaborons une approche de modélisation mixte double qui combine un modèle mixte à effets aléatoires pour les données complètes sous-jacentes et un modèle mixte à effets aléatoires du mécanisme de création différentielle de données manquantes. L'effet du plan d'échantillonnage peut être intégré au moyen d'un modèle d'échantillonnage sous quasi-vraisemblance. L'erreur quadratique moyenne conditionnelle de prédiction associée est approximée sous forme d'une décomposition en trois parties, correspondant à une variance de prédiction naïve, une correction positive qui tient compte de l'incertitude hypothétique de l'estimation des paramètres basée sur les données complètes latentes et une autre correction positive pour la variation supplémentaire due aux données manquantes. Nous illustrons notre approche en l'appliquant à l'estimation de la composition des ménages des municipalités au moyen des données sur les ménages tirées des registres norvégiens, qui présentent un sous-enregistrement informatif du numéro d'identification du logement.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211044
    Description :

    Dans les enquêtes par sondage de grande portée, il est fréquent d'employer des plans de sondage stratifiés à plusieurs degrés où les unités sont sélectionnées par échantillonnage aléatoire simple sans remise à chaque degré. L'exécution de l'estimation de la variance sous ce genre de plan peut être assez fastidieuse, particulièrement pour les estimateurs non linéaires. Diverses méthodes bootstrap d'estimation de la variance ont été proposées, mais la plupart sont limitées à des plans à un seul degré ou à des plans en grappes à deux degrés. Nous proposons une extension de la méthode du bootstrap rééchelonné (Rao et Wu 1988) aux plans stratifiés à plusieurs degrés qui peut être adaptée facilement à n'importe quel nombre de degrés. Cette méthode convient pour une grande gamme de méthodes de repondération, y compris la classe générale des estimateurs par calage. Nous avons réalisé une étude par simulation Monte Carlo pour examiner la performance de l'estimateur de variance bootstrap rééchelonné à plusieurs degrés.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900110888
    Description :

    Lors de la sélection d'un échantillon, une pratique courante consiste à définir un plan de sondage stratifié sur des sous-populations. La variance de l'estimateur de Horvitz-Thompson est alors réduite par rapport à un tirage direct si les strates sont bien homogènes au regard de la variable d'intérêt. Si des variables auxiliaires sont disponibles pour chaque individu, l'échantillonnage peut être amélioré par tirage équilibré au sein de chaque strate et l'estimateur de Horvitz-Thompson sera plus précis si les variables auxiliaires sont bien corrélées à la variable d'intérêt. Cependant, si la répartition d'échantillon est faible dans certaines strates, l'équilibrage ne sera respecté que de façon très approximative. Nous proposons ici une méthode de tirage permettant de sélectionner un échantillon équilibré sur l'ensemble de la population, en respectant une allocation fixée au sein de chaque strate. Nous montrons que dans le cas particulier important d'un tirage de taille 2 dans chaque strate, la précision de l'estimateur de Horvitz-Thompson est améliorée si la variable d'intérêt est bien expliquée par les variables d'équilibrage sur l'ensemble de la population. Une application au cas d'un échantillonnage rotatif est également proposée.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110882
    Description :

    Le recours à la méthode bootstrap est de plus en plus répandu dans le contexte des enquêtes par sondage réalisées par les organismes statistiques nationaux. Dans la plupart des applications, plusieurs ensembles de poids bootstrap sont fournis aux analystes avec le fichier de microdonnées d'enquête. Jusqu'à présent, l'utilisation de la méthode en pratique semble avoir été limitée principalement aux problèmes d'estimation de la variance. Dans le présent article, nous proposons une méthode bootstrap pour les tests d'hypothèses au sujet d'un vecteur de paramètres inconnus d'un modèle quand l'échantillon a été tiré d'une population finie. Le plan d'échantillonnage probabiliste utilisé pour sélectionner l'échantillon peut être informatif ou non. Notre méthode s'appuie sur des statistiques de test fondées sur un modèle dans lesquelles sont intégrés les poids de sondage. Ces statistiques sont habituellement faciles à calculer en se servant de progiciels statistiques classiques. Nous approximons la distribution sous l'hypothèse nulle de ces statistiques pondérées fondées sur un modèle en utilisant des poids bootstrap. L'un des avantages de notre méthode bootstrap par rapport aux méthodes existantes de test d'hypothèses à partir des données d'enquête est qu'après avoir reçu les ensembles de poids bootstrap, les analystes peuvent l'appliquer très facilement, même s'ils ne disposent pas de logiciels spécialisés pour le traitement des données d'enquêtes complexes. En outre, nos résultats de simulation laissent entendre que, dans l'ensemble, la méthode donne des résultats comparables à ceux de la méthode de Rao Scott et meilleurs que ceux des méthodes de Wald et de Bonferroni quand on teste des hypothèses au sujet d'un vecteur de paramètres d'un modèle de régression linéaire.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110880
    Description :

    Le présent article décrit un cadre pour l'estimation par calage sous les plans d'échantillonnage à deux phases. Les travaux présentés découlent de la poursuite du développement de logiciels généralisés d'estimation à Statistique Canada. Un objectif important de ce développement est d'offrir une grande gamme d'options en vue d'utiliser efficacement l'information auxiliaire dans différents plans d'échantillonnage. Cet objectif est reflété dans la méthodologie générale pour les plans d'échantillonnage à deux phases exposée dans le présent article.

    Nous considérons le plan d'échantillonnage à deux phases classique. Un échantillon de première phase est tiré à partir d'une population finie, puis un échantillon de deuxième phase est tiré en tant que sous échantillon du premier. La variable étudiée, dont le total de population inconnu doit être estimé, est observée uniquement pour les unités contenues dans l'échantillon de deuxième phase. Des plans d'échantillonnage arbitraires sont permis à chaque phase de l'échantillonnage. Divers types d'information auxiliaire sont identifiés pour le calcul des poids de calage à chaque phase. Les variables auxiliaires et les variables étudiées peuvent être continues ou catégoriques.

    L'article apporte une contribution à quatre domaines importants dans le contexte général du calage pour les plans d'échantillonnage à deux phases :1) nous dégageons trois grands types d'information auxiliaire pour les plans à deux phases et les utilisons dans l'estimation. L'information est intégrée dans les poids en deux étapes : un calage de première phase et un calage de deuxième phase. Nous discutons de la composition des vecteurs auxiliaires appropriés pour chaque étape et utilisons une méthode de linéarisation pour arriver aux résidus qui déterminent la variance asymptotique de l'estimateur par calage ;2) nous examinons l'effet de divers choix de poids de départ pour le calage. Les deux choix « naturels » produisent généralement des estimateurs légèrement différents. Cependant, sous certaines conditions, ces deux estimateurs ont la même variance asymptotique ;3) nous réexaminons l'estimation de la variance pour l'estimateur par calage à deux phases. Nous proposons une nouvelle méthode qui peut représenter une amélioration considérable par rapport à la technique habituelle de conditionnement sur l'échantillon de première phase. Une simulation décrite à la section 10 sert à valider les avantages de cette nouvelle méthode ;4) nous comparons l'approche par calage à la méthode de régression assistée par modèle classique qui comporte l'ajustement d'un modèle de régression linéaire à deux niveaux. Nous montrons que l'estimateur assisté par modèle a des propriétés semblables à celles d'un estimateur par calage à deux phases.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110881
    Description :

    Les diagnostics de régression ont pour objectif de détecter des points individuels ou des groupes de points qui exercent une influence importante sur un modèle ajusté. Lorsqu'on ajuste un modèle à l'aide de données d'enquête, les sources d'influence sont la variable réponse Y, les variables explicatives X et les poids de sondage W. Le présent article traite de l'utilisation de la matrice chapeau et des effets de levier pour déceler les points qui pourraient être influents dans l'ajustement des modèles linéaires parce que les valeurs des variables explicatives ou des poids sont grandes. Nous comparons aussi les résultats qu'un analyste pourrait obtenir s'il utilisait les moindres carrés ordinaires plutôt que les moindres carrés pondérés par les poids de sondage pour déterminer quels points sont influents.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110885
    Description :

    La présence de pics dans le spectre d'un processus stationnaire signale l'existence de phénomènes périodiques stochastiques, tels que l'effet saisonnier. Nous proposons une mesure de ces pics spectraux et un test de détection de leur présence qui s'appuient sur l'évaluation de leur pente et de leur convexité agrégées. Notre méthode est élaborée de manière non paramétrique et peut donc être utile durant l'analyse préliminaire d'une série. Elle peut aussi servir à détecter la présence d'une saisonnalité résiduelle dans les données désaisonnalisées. Nous étudions le test diagnostique au moyen d'une simulation et d'une étude de cas à grande échelle portant sur des données provenant du U.S. Census Bureau et de l'Organisation de coopération et de développement économiques (OCDE).

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110892
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110886
    Description :

    La variabilité d'intervieweur est une composante importante de la variabilité des statistiques produites par sondage. Diverses stratégies liées au format et à la formulation des questions, ainsi qu'à la formation, à la charge de travail, à l'expérience et à l'affectation des intervieweurs sont employées pour essayer de réduire la variabilité d'intervieweur. La formule classique de mesure de la variabilité d'intervieweur, souvent appelée effet d'intervieweur, est donnée par ieff := deff_int = 1 + (n bar sub int - 1) rho sub int, où rho sub int et n bar sub int sont, respectivement, la corrélation intra intervieweur et la moyenne simple des charges de travail d'intervieweur. Dans le présent article, nous donnons une justification assistée par modèle de cette formule bien connue pour les méthodes d'échantillonnage avec probabilités égales (EPE) quand il n'existe pas de grappes spatiales dans l'échantillon et que les charges de travail des intervieweurs sont égales. Toutefois, les grappes spatiales ainsi que la pondération inégale sont très fréquentes dans les enquêtes à grande échelle. Dans le contexte d'un plan d'échantillonnage complexe, nous obtenons une formule appropriée de la variabilité d'intervieweur qui tient compte des probabilités inégales de sélection et des grappes spatiales. Notre formule fournit une évaluation plus exacte des effets d'intervieweur et permet donc d'affecter un budget plus raisonnable au contrôle de la variabilité d'intervieweur. Nous proposons aussi une décomposition de l'effet global en effets dus à la pondération, aux grappes spatiales et aux intervieweurs. Cette décomposition aide à comprendre différents moyens de réduire la variance totale.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110883
    Description :

    Nous appliquons une méthode bayésienne pour résoudre le problème des solutions limites de l'estimation du maximum de vraisemblance (MV) dans un tableau de contingence à double entrée incomplet en utilisant un modèle log-linéaire et des lois a priori de Dirichlet. Nous comparons cinq lois a priori de Dirichlet pour estimer les probabilités multinomiales par case sous un modèle de non réponse non ignorable. Trois de ces lois a priori ont été utilisées dans le cas d'un tableau à simple entrée incomplet et les deux autres sont deux nouvelles lois a priori proposées afin de tenir compte de la différence entre les profils de réponse des répondants et des électeurs indécis. Les estimations bayésiennes obtenues à l'aide des trois premières lois a priori n'ont pas systématiquement de meilleures propriétés que les estimations du MV, contrairement à ce qu'indiquaient des études antérieures, tandis que les deux nouvelles lois a priori donnent de meilleurs résultats que les trois lois a priori antérieures et que les estimations du MV chaque fois qu'est obtenue une solution limite. Nous utilisons quatre jeux de données provenant des sondages électoraux réalisés en 1998 dans l'État de l'Ohio pour illustrer comment il convient d'utiliser et d'interpréter les résultats des estimations pour les élections. Nous procédons à des études par simulation pour comparer les propriétés de cinq estimations bayésiennes sous un modèle de non réponse non ignorable.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110887
    Description :

    De nombreux organismes statistiques considèrent le taux de réponse comme étant l'indicateur de la qualité à utiliser en ce qui concerne l'effet du biais de non réponse. Ils prennent donc diverses mesures en vue de réduire la non réponse ou de maintenir la réponse à un niveau jugé acceptable. Cependant, à lui seul, le taux de réponse n'est pas un bon indicateur du biais de non réponse. En général, un taux de réponse élevé n'implique pas que le biais dû à la non réponse est faible. On trouve à cet égard de nombreux exemples dans la littérature (par exemple, Groves et Peytcheva 2006 ; Keeter, Miller, Kohut, Groves et Presser 2000 ; Schouten 2004).

    Nous introduisons un certain nombre de concepts et un nouvel indicateur en vue d'évaluer la similarité entre la réponse à une enquête et l'échantillon de cette enquête. Cet indicateur de la qualité, que nous appelons indicateur R, peut servir de complément aux taux de réponse et est destiné principalement à évaluer le biais de non réponse. Il peut faciliter l'analyse de la réponse aux enquêtes en fonction du temps, ou pour diverses stratégies d'enquête sur le terrain ou divers modes de collecte des données. Nous appliquons l'indicateur R à deux exemples pratiques.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110884
    Description :

    Le présent article traite de l'estimation pour petits domaines de la proportion de personnes sans assurance maladie dans divers groupes minoritaires. Les petits domaines sont définis par le croisement de l'âge, du sexe et d'autres caractéristiques démographiques. Des méthodes d'estimation bayésiennes hiérarchiques ainsi qu'empiriques sont appliquées. En outre, des approximations exactes jusqu'à l'ordre deux des erreurs quadratiques moyennes des estimateurs bayésiens empiriques et des estimateurs corrigés du biais de ces erreurs quadratiques moyennes sont fournies. La méthodologie générale est illustrée au moyen d'estimations de la proportion de personnes non assurées pour plusieurs petits domaines de la sous population asiatique.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 82-003-X200900110795
    Description :

    Cet article décrit des méthodes de combinaison des divers cycles de l'Enquête sur la santé dans les collectivités canadiennes et discute des problèmes dont il convient de tenir compte si ces données sont combinées.

    Date de diffusion : 2009-02-18

  • Articles et rapports : 91F0015M2008010
    Description :

    L'objectif de cette étude est d'examiner la faisabilité d'utiliser les nouvelles inscriptions des dossiers des régimes d'assurance-maladie provinciaux et territoriaux pour mesurer de façon indépendante la migration interprovinciale et interterritoriale. L'étude vise à mesurer les différences conceptuelles et quantifiables entre cette source de données et notre source actuelle provenant de la Prestation fiscale canadienne pour enfants de l'Agence du revenu du Canada.

    Des critères permettant de mesurer la qualité et la pertinence des fichiers de soins de santé provinciaux et territoriaux ont été établis par approximation pour les estimations de la migration : couverture, cohérence, actualité, fiabilité, niveau de détail, uniformité et exactitude.

    D'après les présentes analyses, le document conclut que ces données n'améliorent pas les estimations et ne seraient pas convenables pour mesurer la migration interprovinciale et interterritoriale en ce moment. Ces données des dossiers des régimes d'assurance-maladie sont par contre une importante source de données indépendante qui peut être utilisée aux fins d'évaluation de la qualité.

    Date de diffusion : 2009-01-13

Références (94)

Références (94) (25 of 94 results)

  • Produits techniques : 11-522-X2008000
    Description :

    Depuis 1984, une série de conférences annuelles a été parrainé par Statistique Canada. Le recueil de la conférence est disponible depuis 1987. Le Symposium 2008 a été le vingt-quatrième d'une série de colloques internationaux organisés par Statistique Canada sur des questions de méthodologie. Chaque année le symposium traite d'un thème particulier. Celui de 2008 était : « Collecte des données : défis, réalisations et nouvelles orientations ».

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010952
    Description :

    Dans une enquête où les résultats ont été estimés par des moyennes simples, nous comparons les incidences qu'ont sur les résultats un suivi des cas de non-réponse et une pondération fondée sur les derniers dix pour cent de répondants. Les données utilisées proviennent de l'Enquête sur les conditions de vie des immigrants en Norvège qui a été réalisée en 2006.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011010
    Description :

    L'Enquête sur l'emploi, la rémunération et les heures de travail (EERH) est une enquête mensuelle qui utilise deux sources de données : un recensement des formulaires de retenues sur la paye (PD7) (données administratives) et une enquête auprès des établissements. Le présent document est axé sur le traitement des données administratives, de la réception hebdomadaire des données de l'Agence du revenu du Canada à la production d'estimations mensuelles par les responsables de l'EERH.

    Les méthodes de contrôle et d'imputation utilisées pour traiter les données administratives ont été révisées au cours des dernières années. Les objectifs de ce remaniement étaient principalement d'améliorer la qualité des données et l'uniformité avec une autre source de données administratives (T4), qui constitue une mesure repère pour les responsables du Système de comptabilité nationale de Statistique Canada. On visait en outre à s'assurer que le nouveau processus serait plus facile à comprendre et à modifier, au besoin. Par conséquent, un nouveau module de traitement a été élaboré pour contrôler et imputer les formulaires PD7, avant l'agrégation des données au niveau mensuel.

    Le présent document comporte un aperçu des processus actuel et nouveau, y compris une description des défis auxquels nous avons fait face pendant l'élaboration. L'amélioration de la qualité est démontrée à la fois au niveau conceptuel (grâce à des exemples de formulaires PD7 et à leur traitement au moyen de l'ancien et du nouveau systèmes) et quantitativement (en comparaison avec les données T4).

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010969
    Description :

    Dans le cadre d'un projet auquel ont participé plusieurs divisions du Census Bureau des États-Unis, un système hautement perfectionné et novateur a été mis au point pour faire la saisie, le suivi et le balayage optique des données des répondants. Ce système met en oeuvre la reconnaissance intelligente de caractères (RIC), la reconnaissance optique de caractères (ROC), la reconnaissance optique de marques (ROM) et une technologie de saisie clavier fortement axée sur la détection et le contrôle des erreurs. Appelé integrated Computer Assisted Data Entry (iCADE) System, il fournit des images numériques des questionnaires remplis par les répondants qui sont ensuite traitées par une combinaison d'algorithmes d'imagerie, envoyées à l'application de reconnaissance optique de marques (ROM) qui recueille les données sous forme de cases cochées, recueille automatiquement et envoie uniquement les champs à réponse écrite aux clavistes qui procèdent à la saisie des données. Ces capacités ont accru considérablement l'efficacité du processus de saisie des données et abouti à une approche nouvelle et efficace des activités postérieures à la collecte.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010971
    Description :

    Discours principal

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011001
    Description :

    Présentement en cours, l'Enquête québécoise sur la santé de la population (EQSP), dont la collecte se terminera en février 2009, offre l'opportunité, de par l'envergure de son échantillon, d'évaluer l'impact de l'envoi de lettres d'information aux répondants sur le taux de réponse, et ce, dans un environnement contrôlé. En effet, avec plus de 38 000 répondants attendus, une partie de l'échantillon de cette enquête téléphonique à portée régionale a pu être utilisée pour permettre cette étude, sans toutefois avoir un impact trop important sur le taux de réponse global de l'enquête. Dans les enquêtes à génération aléatoire de numéro de téléphone (GANT), telle que l'EQSP, un des principaux défis de l'envoi d'une lettre d'information est l'atteinte de l'unité enquêtée. Or, cette réussite dépend en grande partie de notre capacité à associer une adresse aux unités échantillonnées et de la qualité de celle-ci.

    Cet article décrit l'étude contrôlée mise de l'avant par l'Institut de la statistique du Québec pour mesurer l'incidence de l'envoi de lettres d'information aux répondants sur le taux de réponse de l'enquête.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010948
    Description :

    Les anciens instruments d'enquête, qu'il s'agisse de questionnaires imprimés ou de scénarios téléphoniques, constituaient leur propre documentation. Ce contexte est celui dans lequel la banque de questions de l'ESRC a été créée, en vue d'offrir l'accès gratuit aux questionnaires publiés sur Internet et de permettre aux chercheurs de réutiliser les questions, leur évitant ainsi certaines difficultés tout en améliorant la comparabilité de leurs données avec celles recueillies par d'autres. Cependant aujourd'hui, alors que la technologie des enquêtes et les programmes informatiques sont devenus plus perfectionnés, il semble plus difficile de comprendre exactement les questionnaires les plus récents, particulièrement quand chaque équipe d'enquête utilise ses propres conventions pour fournir des renseignements sur les questions complexes dans les rapports techniques. Le présent article a pour but d'illustrer ces problèmes et de proposer des normes provisoires de présentation à utiliser jusqu'à ce que le processus soit automatisé.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011011
    Description :

    Le Système de rapports sur la qualité de vie (SRQDV) de la Fédération canadienne des municipalités (FCM) offre un moyen de mesurer et de surveiller la qualité de vie dans les municipalités canadiennes et d'en rendre compte. Pour relever le défi que représente la collecte de données administratives auprès des diverses municipalités membres, l'équipe technique du SRQDV a collaboré au développement de l'Outil de collecte de données municipales (OCDM) qui est devenu une composante clé de la méthodologie d'acquisition de données du SRQDV. Soumis en tant qu'étude de cas de la collecte des données administratives, le présent article soutient que le lancement récent de l'OCDM a permis à la FCM d'avoir accès à des données administratives municipales pancanadiennes fiables pour le SRQDV.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010981
    Description :

    L'une des caractéristiques principales du recensement de la population de l'Espagne de 2001 a été l'utilisation des données d'un registre de population administratif (El Padrón) pour la préimpression des questionnaires, ainsi que des dossiers des recenseurs sur les secteurs de recensement. Dans le présent article, nous décrivons les grandes caractéristiques du lien entre le registre de la population et le recensement de la population, ainsi que les principaux changements qu'il est prévu d'apporter au prochain recensement qui aura lieu en 2011.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010954
    Description :

    Au cours de la dernière année, Statistique Canada a conçu et mis à l'essai un nouveau moyen d'évaluer le rendement des intervieweurs qui procèdent aux interviews sur place assistées par ordinateur (IPAO). Un processus officiel existe déjà pour la surveillance des interviews téléphoniques centralisées. Les surveillants écoutent les interviews téléphoniques pendant qu'elles ont lieu pour évaluer l'exécution des tâches par l'intervieweur en fonction de critères préétablis et faire des commentaires à ce dernier pour lui indiquer ce qu'il a bien fait et ce qu'il doit améliorer. Pour les programmes d'IPAO, nous avons élaboré et mettons à l'essai une méthode pilote par laquelle des interviews sont enregistrées de façon numérique puis le surveillant écoute ces enregistrements afin d'évaluer le rendement de l'intervieweur sur le terrain et de lui fournir de la rétroaction qui aidera la qualité des données. Dans le présent article, nous donnons un aperçu du projet de surveillance de l'IPAO à Statistique Canada en décrivant la méthodologie de surveillance de l'IPAO et les plans de mise en oeuvre.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011009
    Description :

    Le Système national d'acheminement est une initiative intergouvernementale dont le but est d'améliorer la collecte et la validation de l'information sur les naissances et les décès provenant des registres provinciaux de l'état civil. Au lieu d'envoyer des fichiers d'enregistrements par lot à divers moments de l'année, les provinces envoient un enregistrement individuel chaque fois qu'un événement démographique est enregistré. L'actualité des données est encore améliorée grâce à l'adoption de normes de données et de normes techniques. Les utilisateurs des données ne doivent plus manipuler divers formats de données et supports de transfert lorsqu'ils compilent des données provenant de sources multiples. De même, les fournisseurs de données ne doivent transformer leurs données qu'une seule fois pour répondre aux exigences de clients multiples.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011016
    Description :

    Alors que prennent fin une journée d'ateliers et trois journées bien remplies de séances, j'ai l'immense plaisir de vous livrer le mot de la fin et, surtout, de souligner les efforts déployés par ceux qui ont contribué au succès du Symposium de cette année. J'admets avec force qu'il s'agit d'une réussite.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010991
    Description :

    Dans le processus d'évaluation des plans d'enquête prospectifs, les organismes statistiques doivent généralement tenir compte d'un grand nombre de facteurs pouvant avoir une incidence considérable sur le coût de l'enquête et la qualité des données. Or, les compromis entre le coût et la qualité sont souvent compliqués par les limites relatives à la quantité d'information disponible au regard des coûts fixes et des coûts marginaux liés au remaniement des instruments et à leur mise à l'essai sur le terrain, au nombre d'unités d'échantillonnage du premier degré et d'éléments compris dans l'échantillon, à l'affectation de sections d'instrument et aux modes de collecte appropriés pour des éléments d'échantillon précis ainsi qu'au nombre d'interviews et à leur périodicité (dans le cas des enquêtes longitudinales). D'autre part, les concepteurs disposent souvent de renseignements limités sur l'incidence de ces facteurs sur la qualité des données.

    Les auteurs appliquent des méthodes normalisées d'optimisation de la conception pour neutraliser l'incertitude entourant les composantes susmentionnées liées au coût et à la qualité. Une attention particulière est portée au niveau de précision requis des renseignements sur le coût et la qualité pour que ceux-ci soient d'une quelconque utilité dans le processus de conception, à la nature délicate des compromis coût-qualité relativement aux changements dans les hypothèses concernant les formes fonctionnelles ainsi qu'aux répercussions des travaux préliminaires au regard de la collecte de renseignements sur le coût et la qualité. De plus, la communication examine les différences entre le coût et la qualité dans la mise à l'essai sur le terrain et le travail de production, l'intégration des renseignements sur le coût et la qualité sur le plan de la production à l'adaptation de la conception de même que les coûts et les risques opérationnels découlant de la collecte de données détaillées sur le coût et la qualité pendant la phase de production. Les méthodes proposées sont motivées par le travail avec le remaniement cloisonné de l'interview et les composantes liées au journal de la Consumer Expenditure Survey des États-Unis.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011014
    Description :

    Dans de nombreux pays, l'amélioration des statistiques économiques est au nombre des grandes priorités du 21e siècle. L'accent est mis, d'abord et avant tout, sur la qualité des comptes nationaux, tant annuels que trimestriels. À cet égard, la qualité des données sur les entreprises les plus grandes joue un rôle essentiel. L'analyse de cohérence est un outil fort utile pour s'assurer que les données fournies par ces entreprises sont de bonne qualité. Par cohérence, nous entendons que les données provenant de diverses sources concordent et brossent un tableau logique du développement de ces entreprises. Une analyse de cohérence efficace est généralement une tâche ardue qui consiste principalement à recueillir des données de différentes sources afin de les comparer de façon structurée. Au cours des deux dernières années, de grands progrès ont été accomplis à Statistics Sweden en ce qui concerne l'amélioration des routines servant à l'analyse de cohérence. Nous avons construit un outil TI qui recueille les données sur les plus grandes entreprises auprès d'un grand nombre de sources et les présente de manière structurée et logique, et nous avons élaboré une approche systématique d'analyse trimestrielle des données destinée aux comptes nationaux. Le présent article décrit les travaux effectués dans ces deux domaines et donne un aperçu de l'outil TI et des routines retenues.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010950
    Description :

    Le prochain recensement aura lieu en mai 2011. Cette enquête d'envergure représente un défi particulier pour Statistique Canada et demande beaucoup de temps et de ressources. Une planification serrée a été mise en place afin d'atteindre tous les échéanciers. Plusieurs étapes de mise à l'essai du questionnaire ont été prévues. Ces tests portent sur le contenu du recensement mais abordent aussi la stratégie de communication prévue. Cet article a pour but de présenter un portrait global de la stratégie. De plus, l'emphase sera mise sur l'intégration des études qualitatives à l'étude quantitative faites en 2008 afin de pouvoir analyser les résultats et ainsi obtenir une meilleure évaluation des propositions.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010946
    Description :

    Au milieu des années 1990, l'Office for National Statistics (ONS) du Royaume-Uni a créé sa première unité de mise à l'essai des questions. L'objectif principal était d'élaborer et de tester les questions et le questionnaire du Recensement de 2001. Depuis, le domaine a été élargi et l'unité est devenue un centre d'expertise en Méthodologie de collecte des données (MCD) qui fait maintenant partie de la Direction générale de la méthodologie. Le centre comprend trois branches qui appuient les travaux relatifs à la MCD pour les enquêtes sociales, les enquêtes-entreprises, le recensement et les organismes externes.

    Au cours des dix dernières années, le centre MCD a eu à son actif diverses réalisations. Par exemple, il a fait participer les méthodologistes d'enquête à l'élaboration et à la mise à l'essai des questions ou questionnaires des enquêtes-entreprises, a adopté une approche basée sur une combinaison de méthodes pour l'élaboration des questions et des questionnaires, a élaboré et appliqué des normes, notamment pour le questionnaire et les cartes-guides du Recensement de 2011, et a préparé et donné des séances de formation en MCD.

    La présente communication donnera une vue d'ensemble de la méthodologie de collecte des données à l'ONS sous l'angle des réalisations et des défis. Elle portera sur des domaines tels que les méthodes, la dotation en personnel (p. ex. recrutement, perfectionnement professionnel et sécurité sur le terrain) et l'intégration dans le processus d'enquête.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010996
    Description :

    Au cours des dernières années, l'utilisation des paradonnées a pris de plus en plus d'importance dans le cadre de la gestion des activités de collecte à Statistique Canada. Une attention particulière a été accordée aux enquêtes sociales menées par téléphone, comme l'Enquête sur la dynamique du travail et du revenu (EDTR). Lors des dernières activités de collecte de l'EDTR, une limite de 40 tentatives d'appel a été instaurée. Des examens des fichiers de l'historique des transactions Blaise de l'EDTR ont été entrepris afin d'évaluer l'incidence de la limite des tentatives d'appel. Tandis que l'objectif de la première étude était de réunir les renseignements nécessaires à l'établissement de la limite des tentatives d'appel, la seconde étude portait sur la nature de la non-réponse dans le contexte de la limite de 40 tentatives.

    L'utilisation des paradonnées comme information auxiliaire pour étudier et expliquer la non-réponse a aussi été examinée. Des modèles d'ajustement pour la non-réponse utilisant différentes variables de paradonnées recueillies à l'étape de la collecte ont été comparés aux modèles actuels basés sur de l'information auxiliaire tirée de l'Enquête sur la population active.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010957
    Description :

    Les enquêtes menées auprès d'entreprises diffèrent des enquêtes menées auprès de la population ou des ménages à bien des égards. Deux des plus importantes différences sont : (a) les répondants aux enquêtes-entreprises ne répondent pas à des questions sur des caractéristiques les concernant (leurs expériences, leurs comportements, leurs attitudes et leurs sentiments), mais sur des caractéristiques de leur organisation (taille, revenu, politiques, stratégies, etc.) et (b) les répondants aux questions parlent au nom d'une organisation. Les enquêtes-entreprises théoriques diffèrent pour leur part des autres enquêtes-entreprises, comme celles des bureaux nationaux de la statistique, à bien des égards aussi. Le fait que les enquêtes-entreprises théoriques ne visent habituellement pas la production de statistiques descriptives mais plutôt la réalisation de tests d'hypothèses (relations entre variables) constitue la plus importante différence. Les taux de réponse aux enquêtes-entreprises théoriques sont très faibles, ce qui suppose un risque énorme de biais de non-réponse. Aucune tentative n'est habituellement faite pour évaluer l'importance du biais attribuable à la non-réponse, et les résultats publiés peuvent par conséquent ne pas refléter fidèlement les vraies relations au sein de la population, ce qui augmente par ricochet la probabilité que les résultats des tests soient incorrects.

    Les auteurs de la communication analysent la façon dont le risque de biais dû à la non-réponse est étudié dans les documents de recherche publiés dans les grandes revues de gestion. Ils montrent que ce biais n'est pas suffisamment évalué et que la correction du biais est difficile ou très coûteux dans la pratique, si tant est que des tentatives sont faites en ce sens. Trois façons de traiter ce problème sont examinées :(a) réunir des données par d'autres moyens que des questionnaires;(b) mener des enquêtes auprès de très petites populations;(c) mener des enquêtes avec de très petits échantillons.

    Les auteurs examinent les raisons pour lesquelles ces méthodes constituent des moyens appropriés de mise à l'essai d'hypothèses dans les populations. Les compromis concernant le choix d'une méthode sont aussi examinés.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010978
    Description :

    Les personnes chargées de l'élaboration des recensements et les chercheurs en sciences sociales en sont à une étape critique de la détermination des modes de collecte qui seront utilisés dans l'avenir. La collecte des données par Internet est techniquement possible, mais l'investissement initial en matériel et en logiciels est important. Étant donné le grand fossé qui existe entre les uns et les autres en matière de connaissances informatiques et d'accès aux ordinateurs, la collecte des données par Internet est viable pour certains, mais pas pour tous. Par conséquent, Internet ne peut pas remplacer entièrement les questionnaires imprimés existants, du moins dans un avenir proche.

    Le Canada, l'Australie et la Nouvelle-Zélande sont des pionniers en matière de collecte des données du recensement par Internet. Le présent article porte sur les quatre éléments qui dictent ce mode de collecte, à savoir 1) répondre aux attentes de la société et du public, 2) obtenir des avantages économiques à long terme, 3) améliorer la qualité des données et 4) améliorer la couverture.

    Les problèmes qu'il convient de résoudre à l'heure actuelle consistent à 1) estimer le taux d'utilisation de la réponse par Internet et maximiser les avantages sans prendre de risque exagéré, 2) concevoir un questionnaire adapté à plusieurs modes de collecte, 3) établir de multiples approches de communication avec le public et 4) obtenir une réaction favorable et la confiance du public à l'égard de l'utilisation d'Internet.

    Le présent article résume la pensée et les expériences collectives de divers pays quant aux avantages et aux limites de la collecte des données par Internet dans le contexte d'un recensement de la population et des logements. Il décrit aussi dans les grandes lignes vers où les pays s'en iront dans l'avenir en ce qui concerne la collecte des données par Internet.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010985
    Description :

    Au Canada, les entreprises complexes représentent moins de 1 % du nombre total d'entreprises, mais comptent pour plus de 45 % du revenu total. Conscient de la grande importance des données recueillies auprès de ces entreprises, Statistique Canada a adopté plusieurs initiatives afin d'en améliorer la qualité. L'une d'entre elles consiste à évaluer la cohérence des données recueillies auprès des grandes entreprises complexes. Les résultats de ces récentes analyses de la cohérence ont joué un rôle capital dans le repérage des points à améliorer. Une fois réalisées, ces améliorations auraient pour effet d'accroître la qualité des données recueillies auprès des grandes entreprises complexes tout en réduisant le fardeau de réponse qui leur est imposé.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010974
    Description :

    L'article porte sur les lignes directrices pour la conception des questionnaires des enquêtes-établissements. Plus précisément, il traite du processus de transition d'un ensemble de lignes directrices rédigées pour un public général de méthodologistes d'enquête à des lignes directrices s'adressant à un public plus restreint de gestionnaires d'enquête et d'analystes travaillant pour un organisme particulier. Ce processus a été le fruit des efforts d'une équipe constituée de divers employés de la Direction des programmes économiques du Census Bureau qui ont travaillé en étroite collaboration. Partant de lignes directrices générales, l'équipe a déterminé ce qu'il convenait d'ajouter, de modifier ou de supprimer, ainsi que la part d'information théorique et expérimentale relevée dans la littérature qu'il convenait d'inclure. Outre le processus, l'article décrit le résultat final : un ensemble de lignes directrices pour la conception de questionnaires s'adressant spécialement à la Direction des programmes économiques.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010983
    Description :

    Le U.S. Census Bureau mène des enquêtes mensuelles, trimestrielles et annuelles sur l'économie américaine, ainsi qu'un recensement quinquennal. Ces programmes imposent un effort considérable aux entreprises. Les nouvelles technologies, les nouvelles formes d'organisation et l'amenuisement des ressources influent sur la capacité des entreprises de répondre aux enquêtes. Ces changements influencent également les attentes des entreprises à l'égard du Census Bureau, les systèmes internes de l'organisme et ses relations bilatérales avec les entreprises.

    Depuis plusieurs années, le Census Bureau prend des mesures spéciales pour aider les grandes entreprises à se préparer au recensement. Dans tous nos programmes, nous avons également instauré une communication centrée sur les entreprises. Nous avons ainsi établi un modèle de relation qui met l'accent sur l'infrastructure et les pratiques opérationnelles et qui permet au Census Bureau d'être plus réceptif.

    Le présent exposé porte sur les communications et les systèmes du Census Bureau, centrés sur les entreprises. Nous décrivons des initiatives et des difficultés importantes ainsi que leur incidence sur les pratiques du Census Bureau et sur le comportement des répondants.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011012
    Description :

    Les enquêtes menées par Statistique Canada dans le domaine de la justice représentent une catégorie à part. Bien que toutes s'appuient essentiellement sur des données administratives, Statistique Canada a joué un rôle important dans la détermination du type de données recueillies, ainsi que des méthodes d'assurance de la qualité guidant la collecte de ces données dans les domaines des services de police, des tribunaux et des services correctionnels. Le Programme de déclaration uniforme de la criminalité (DUC), qui constitue la principale enquête dans ce domaine et qui a été conçu pour mesurer la fréquence des crimes dans la société canadienne et leurs caractéristiques, est l'objet du présent article. Les données de l'enquête sont recueillies par les services de police du Canada et transmises électroniquement à Statistique Canada. L'exposé débute par un aperçu du l'enquête et de ses caractéristiques distinctives, comme le recours à des intermédiaires (fournisseurs de logiciels) pour convertir les données des systèmes d'information des services de police au format du programme DUC, conformément aux exigences nationales en matière de données. Ce niveau de cohérence, qui est inhabituel pour une enquête administrative, offre diverses occasions d'améliorer la qualité globale des données et les capacités de l'enquête. Diverses méthodes, telles que la production d'indicateurs de la qualité et de rapports de rétroaction, sont utilisées régulièrement et de fréquentes communications bilatérales ont lieu avec les répondants afin de résoudre les problèmes de données existants et d'en prévenir d'autres. Nous discuterons des améliorations apportées récemment aux données proprement dites et aux méthodes de collecte en vue d'accroître la convivialité de l'enquête. Enfin, nous discuterons du développement futur de l'enquête, y compris certains défis qui se posent à l'heure actuelle, ainsi que ceux à venir.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010984
    Description :

    Le Programme de gestion de portefeuille d'entreprises (PGPE) de Statistique Canada (StatCan) a donné la preuve du bien-fondé d'une approche « holistique » de la gestion des relations que nous entretenons avec les entreprises répondantes les plus grandes et les plus complexes.

    Comprenant que le niveau d'intervention devrait varier selon le type de répondants et ayant pris conscience de la valeur de l'approche « centrée sur l'entreprise » de gestion des relations avec les fournisseurs de données complexes importantes, StatCan a adopté une stratégie de gestion de la réponse consistant à subdiviser la population d'entreprises en quatre niveaux, en fonction de leur taille, de leur complexité et de l'importance des données pour la production des estimations de l'enquête. La population étant ainsi segmentée, diverses approches de gestion de la réponse ont été élaborées en tenant compte de la contribution relative du segment. Cette stratégie permet à StatCan de diriger ses ressources vers les domaines où il est probable que le rendement de l'investissement sera le plus important. Les groupes I et II ont été définis comme essentiels à la production des estimations de l'enquête.

    Le groupe I comprend les entreprises les plus grandes et les plus complexes au Canada et est géré par l'entremise du Programme de gestion de portefeuille d'entreprises.

    Le groupe II comprend des entreprises plus petites et moins complexes que celles du groupe I, mais quand même importantes pour l'élaboration de mesures exactes des activités des industries individuelles.

    Le groupe III comprend des entreprises de taille plus moyenne, qui représentent la majeure partie des échantillons d'enquête.

    Le groupe IV comprend les entreprises les plus petites, qui sont exclues du processus de collecte des données; pour ces entreprises, StatCan s'appuie entièrement sur des données fiscales.

    Le plan de la communication sera le suivant :Ça marche! Résultats et mesures provenant des programmes qui ont mis en oeuvre la stratégie globale de gestion des réponses.Élaboration d'une approche méthodologique moins subjective pour segmenter la population des enquêtes-entreprises en vue de la gestion globale des réponses. Travaux de l'équipe de projet en vue de cerner les facteurs de complexité intrinsèquement utilisés par les employés expérimentés pour classer les répondants.Ce que les répondants « à problèmes » nous ont dit au sujet des problèmes sous-jacents à la non-réponse.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010988
    Description :

    La collecte des données en ligne a commencé en 1995. Il s'agissait alors d'une solution de rechange pour mener certains types de recherche auprès des consommateurs, mais elle a pris de l'ampleur en 2008. Cette croissance a surtout été observée dans les études qui utilisent des méthodes d'échantillonnage non probabiliste. Bien que l'échantillonnage en ligne ait acquis de la crédibilité pour ce qui est de certaines applications de recherche, de sérieuses questions demeurent concernant le bien-fondé des échantillons prélevés en ligne dans le cas des recherches exigent des mesures volumétriques précises du comportement de la population des États-Unis, notamment en ce qui a trait aux voyages. Dans le présent exposé, nous passons en revue la documentation et comparons les résultats d'études fondées sur des échantillons probabilistes et des échantillons prélevés en ligne pour comprendre les différences entre ces deux méthodes d'échantillonnage. Nous montrons aussi que les échantillons prélevés en ligne sous-estiment d'importants types de voyages, même après pondération en fonction de données démographiques et géographiques.

    Date de diffusion : 2009-12-03

Date de modification :