Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Année de publication

1 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (118)

Tout (118) (25 of 118 results)

  • Articles et rapports : 12-001-X200900211037
    Description :

    Les stratégies fondées sur la réponse aléatoire, qui ont été élaborées au départ à titre de méthodes statistiques destinées à réduire la non-réponse ainsi que la réponse mensongère, peuvent aussi être appliquées dans le domaine du contrôle de la divulgation statistique dans les fichiers de microdonnées à grande diffusion. Le présent article décrit une standardisation des méthodes de réponse aléatoire en vue d'estimer des proportions pour des attributs identificatoires ou sensibles. Les propriétés statistiques de l'estimateur standardisé sont établies dans le cas de l'échantillonnage probabiliste général. Afin d'analyser l'effet du choix des « paramètres de plan » implicites de la méthode sur la performance de l'estimateur, nous incluons dans l'étude des mesures de la protection de la vie privée. Nous obtenons ainsi des paramètres de plan qui optimisent la variance, sachant le niveau de protection de la vie privée. Pour cela, les variables doivent être classées dans diverses catégories de sensibilité. Un exemple fondé sur des données réelles illustre l'application de la méthode à une enquête sur la tricherie chez les étudiants.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211056
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211044
    Description :

    Dans les enquêtes par sondage de grande portée, il est fréquent d'employer des plans de sondage stratifiés à plusieurs degrés où les unités sont sélectionnées par échantillonnage aléatoire simple sans remise à chaque degré. L'exécution de l'estimation de la variance sous ce genre de plan peut être assez fastidieuse, particulièrement pour les estimateurs non linéaires. Diverses méthodes bootstrap d'estimation de la variance ont été proposées, mais la plupart sont limitées à des plans à un seul degré ou à des plans en grappes à deux degrés. Nous proposons une extension de la méthode du bootstrap rééchelonné (Rao et Wu 1988) aux plans stratifiés à plusieurs degrés qui peut être adaptée facilement à n'importe quel nombre de degrés. Cette méthode convient pour une grande gamme de méthodes de repondération, y compris la classe générale des estimateurs par calage. Nous avons réalisé une étude par simulation Monte Carlo pour examiner la performance de l'estimateur de variance bootstrap rééchelonné à plusieurs degrés.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211040
    Description :

    L'article décrit un modèle de séries chronologiques structurel multivarié qui tient compte du plan de sondage avec renouvellement de panel de l'Enquête sur la population active des Pays-Bas et qui est appliqué pour estimer les taux mensuels de chômage. Comparativement à l'estimateur par la régression généralisée, cette approche accroît considérablement la précision des estimations, grâce à la réduction de l'erreur-type et à la modélisation explicite du biais entre les vagues subséquentes de l'enquête.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211038
    Description :

    Nous cherchons à corriger la surestimation causée par la non-réponse de lien dans l'échantillonnage indirect lorsque l'on utilise la méthode généralisée de partage des poids (MGPP). Nous avons élaboré quelques méthodes de correction pour tenir compte de la non-réponse de lien dans la MGPP applicables lorsque l'on dispose ou non de variables auxiliaires. Nous présentons une étude par simulation de certaines de ces méthodes de correction fondée sur des données d'enquête longitudinale. Les résultats des simulations révèlent que les corrections proposées de la MGPP réduisent bien le biais et la variance d'estimation. L'accroissement de la réduction du biais est significatif.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211043
    Description :

    Les enquêtes-entreprises sont souvent réalisées selon un plan d'échantillonnage aléatoire simple stratifié à un degré sans remise comportant certaines strates à tirage complet. Bien que l'on recoure habituellement à l'ajustement de la pondération pour traiter la non-réponse totale, la variabilité due à la non-réponse est parfois omise en pratique quand on estime les variances. Cette situation pose surtout problème lorsqu'il existe des strates à tirage complet. Nous élaborons des estimateurs de variance qui sont convergents quand le nombre d'unités échantillonnées est grand dans chaque classe de pondération, en utilisant les méthodes du jackknife, de la linéarisation et du jackknife modifié. Nous commençons par appliquer les estimateurs ainsi obtenus à des données empiriques provenant de l'Annual Capital Expenditures Survey réalisé par le U.S. Census Bureau, puis nous examinons leur performance dans une étude en simulation.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211045
    Description :

    Dans l'analyse de données d'enquête, on se sert souvent du nombre de degrés de liberté pour évaluer la stabilité des estimateurs de variance fondé sur le plan de sondage. Par exemple, ce nombre de degrés de liberté est utilisé pour construire les intervalles de confiances fondés sur des approximations de la loi t, ainsi que des tests t connexes. En outre, un petit nombre de degrés de liberté donne une idée qualitative des limites possibles d'un estimateur de variance particulier dans une application. Parfois, le calcul du nombre de degrés de liberté s'appuie sur des formes de l'approximation de Satterthwaite. Ces calculs fondés sur l'approche de Satterthwaite dépendent principalement des grandeurs relatives des variances au niveau de la strate. Cependant, pour des plans de sondage comportant la sélection d'un petit nombre d'unités primaires par strate, les estimateurs de variance au niveau de la strate classiques ne fournissent que des renseignements limités sur les variances réelles de strate. Le cas échéant, les calculs habituels fondés sur l'approche de Satterthwaite peuvent poser des problèmes, surtout dans les analyses portant sur des sous-populations concentrées dans un nombre relativement faible de strates. Pour résoudre ce problème, nous utilisons dans le présent article les estimations des variances à l'intérieur des unités primaires d'échantillonnage (variances intra-UPE) pour fournir de l'information auxiliaire sur les grandeurs relatives des variances globales au niveau de la strate. Les résultats des analyses indiquent que l'estimateur du nombre de degrés de liberté résultant est meilleur que les estimateurs de type Satterthwaite modifiés, à condition que : a) les variances globales au niveau de la strate soient approximativement proportionnelles aux variances intra-strate correspondantes et b) les variances des estimateurs de variance intra-UPE soient relativement faibles. En outre, nous élaborons des méthodes à erreurs sur les variables qui permettent de vérifier empiriquement les conditions a) et b). Pour ces vérifications de modèle, nous établissons des distributions de référence fondées sur des simulations qui diffèrent considérablement des distributions de référence fondées sur les approximations normales en grand échantillon habituelles. Nous appliquons les méthodes proposées à quatre variables de la troisième National Health and Nutrition Examination Survey (NHANES III) réalisée aux États-Unis.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211036
    Description :

    Souvent, les enquêtes doivent permettre de produire des estimations pour une ou plusieurs sous-populations en plus de l'ensemble de la population. Lorsque l'appartenance à une sous-population (ou domaine) rare peut être déterminée d'après l'information contenue dans la base de sondage, le choix de la taille de l'échantillon du domaine est relativement simple. Le principal problème consiste alors à déterminer l'ampleur requise du suréchantillonnage quand des estimations doivent être produites pour plusieurs domaines ainsi que pour l'ensemble de la population. En revanche, l'échantillonnage et le suréchantillonnage de domaines rares dont les membres ne peuvent pas être identifiés d'avance posent un défi important. Diverses méthodes ont été utilisées dans cette situation. En plus de la présélection à grande échelle, elles comptent l'échantillonnage stratifié disproportionné, l'échantillonnage à deux phases, l'utilisation de plusieurs bases de sondage, l'échantillonnage par réseaux, les enquêtes par panel et les enquêtes polyvalentes. Le présent article décrit l'application de ces méthodes à une gamme d'enquêtes sociales.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211041
    Description :

    L'estimation de la composition sur petits domaines peut poser un problème de données manquantes informatives, si la probabilité que les données manquent varie d'une catégorie d'intérêt à l'autre, ainsi que d'un petit domaine à l'autre. Nous élaborons une approche de modélisation mixte double qui combine un modèle mixte à effets aléatoires pour les données complètes sous-jacentes et un modèle mixte à effets aléatoires du mécanisme de création différentielle de données manquantes. L'effet du plan d'échantillonnage peut être intégré au moyen d'un modèle d'échantillonnage sous quasi-vraisemblance. L'erreur quadratique moyenne conditionnelle de prédiction associée est approximée sous forme d'une décomposition en trois parties, correspondant à une variance de prédiction naïve, une correction positive qui tient compte de l'incertitude hypothétique de l'estimation des paramètres basée sur les données complètes latentes et une autre correction positive pour la variation supplémentaire due aux données manquantes. Nous illustrons notre approche en l'appliquant à l'estimation de la composition des ménages des municipalités au moyen des données sur les ménages tirées des registres norvégiens, qui présentent un sous-enregistrement informatif du numéro d'identification du logement.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211042
    Description :

    Le présent article décrit une méthode de prédiction pour petits domaines fondée sur des données tirées d'enquêtes périodiques et de recensements. Nous appliquons cette méthode pour obtenir des prédictions démographiques pour les municipalités non échantillonnées dans l'enquête annuelle sur les ménages du Brésil (PNAD), ainsi que pour accroître la précision des estimations fondées sur le plan de sondage obtenues pour les municipalités échantillonnées. En plus des données fournies par la PNAD, nous utilisons des données démographiques provenant des recensements de 1991 et de 2000, ainsi que d'un dénombrement complet de la population effectué en 1996. Nous proposons et comparons des modèles de croissance hiérarchiquement non structurés et spatialement structurés qui gagnent en puissance en s'appuyant sur toutes les municipalités échantillonnées.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211046
    Description :

    Nous élaborons un modèle de régression semiparamétrique pour les enquêtes complexes. Dans ce modèle, les variables explicatives sont représentées séparément sous forme d'une partie non paramétrique et d'une partie linéaire paramétrique. Les méthodes d'estimation combinent l'estimation par la régression polynomiale locale non paramétrique et l'estimation par les moindres carrés. Nous élaborons également des résultats asymptotiques, tels que la convergence et la normalité des estimateurs des coefficients de régression et des fonctions de régression. Nous recourrons à la simulation et à des exemples empiriques tirés de l'Enquête sur la santé en Ontario de 1990 pour illustrer la performance de la méthode et les propriétés des estimations.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211039
    Description :

    La pondération par la propension à répondre est une méthode de rajustement pour tenir compte de la non-réponse totale dans les enquêtes. Une forme de mise en oeuvre de cette méthode consiste à diviser les poids d'échantillonnage par les estimations de la probabilité que les unités échantillonnées répondent à l'enquête. Habituellement, ces estimations sont obtenues par ajustement de modèles paramétriques, tels qu'une régression logistique. Les estimateurs corrigés résultants peuvent devenir biaisés si les modèles paramétriques sont spécifiés incorrectement. Afin d'éviter les erreurs de spécification du modèle, nous considérons l'estimation non paramétrique des probabilités de réponse par la régression par polynômes locaux. Nous étudions les propriétés asymptotiques de l'estimateur résultant sous quasi randomisation. Nous évaluons en pratique le comportement de la méthode proposée de correction de la non-réponse en nous servant de données de la NHANES.

    Date de diffusion : 2009-12-23

  • Produits techniques : 11-522-X2008000
    Description :

    Depuis 1984, une série de conférences annuelles a été parrainé par Statistique Canada. Le recueil de la conférence est disponible depuis 1987. Le Symposium 2008 a été le vingt-quatrième d'une série de colloques internationaux organisés par Statistique Canada sur des questions de méthodologie. Chaque année le symposium traite d'un thème particulier. Celui de 2008 était : « Collecte des données : défis, réalisations et nouvelles orientations ».

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010955
    Description :

    Les gestionnaires d'enquête commencent tout juste à découvrir les nombreuses utilités de l'enregistrement audionumérique pour la surveillance et la gestion du personnel sur le terrain. Jusqu'ici, cette technique a surtout permis de garantir l'authenticité des interviews, de déceler la falsification, de fournir des exemples concrets permettant d'évaluer le rendement sur le terrain puis de renseigner les gestionnaires de la collecte des données sur les interviews menées en personne. Par ailleurs, l'interview enregistrée assistée par ordinateur (IEAO) permet d'améliorer certains aspects de la qualité des données d'enquête en corroborant ou en corrigeant les réponses codées par le personnel travaillant sur le terrain. À l'avenir, l'enregistrement sonore pourrait même remplacer ou suppléer la transcription textuelle des réponses libres, sur le terrain, d'autant plus qu'il promet de gagner en efficacité grâce aux logiciels de traduction de la voix en texte.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010983
    Description :

    Le U.S. Census Bureau mène des enquêtes mensuelles, trimestrielles et annuelles sur l'économie américaine, ainsi qu'un recensement quinquennal. Ces programmes imposent un effort considérable aux entreprises. Les nouvelles technologies, les nouvelles formes d'organisation et l'amenuisement des ressources influent sur la capacité des entreprises de répondre aux enquêtes. Ces changements influencent également les attentes des entreprises à l'égard du Census Bureau, les systèmes internes de l'organisme et ses relations bilatérales avec les entreprises.

    Depuis plusieurs années, le Census Bureau prend des mesures spéciales pour aider les grandes entreprises à se préparer au recensement. Dans tous nos programmes, nous avons également instauré une communication centrée sur les entreprises. Nous avons ainsi établi un modèle de relation qui met l'accent sur l'infrastructure et les pratiques opérationnelles et qui permet au Census Bureau d'être plus réceptif.

    Le présent exposé porte sur les communications et les systèmes du Census Bureau, centrés sur les entreprises. Nous décrivons des initiatives et des difficultés importantes ainsi que leur incidence sur les pratiques du Census Bureau et sur le comportement des répondants.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010972
    Description :

    Contexte : L'évaluation de la couverture du fichier obtenu par couplage de données administratives recueillies régulièrement par les hôpitaux et de données d'enquête est une importante étape préalable aux analyses fondées sur ce fichier couplé. Données et méthodes : Afin d'évaluer la couverture du couplage des données du cycle 1.1 de l'Enquête sur la santé dans les collectivités canadiennes (ESCC) aux données sur les hospitalisations (Information-santé orientée vers la personne, ou ISOP), le nombre de personnes admises à l'hôpital selon l'ISOP a été comparé à l'estimation pondérée obtenue pour les répondants à l'ESCC dont les données ont pu être couplées à celles de l'ISOP. Les écarts entre le chiffre selon l'ISOP et les estimations d'après les données couplées et pondérées de l'ESCC révèlent un échec du couplage ou un sous-dénombrement. Résultats : Selon l'ISOP, 1 572 343 personnes (hors Québec) âgées de 12 ans et plus ont été hospitalisées de septembre 2000 à la fin de novembre 2001. Les estimations fondées sur les données couplées de l'ESCC, rajustées pour tenir compte du consentement au couplage et de la vraisemblance du numéro d'assurance-maladie, sont inférieures de 7,7 % à ce chiffre. Les taux de couverture des hommes et des femmes sont comparables. Les taux provinciaux ne diffèrent pas de ceux observés pour le reste du Canada, mais des différences se dégagent pour les territoires. Les taux de couverture sont significativement plus faibles pour les personnes de 75 ans et plus que pour celles de 12 à 74 ans.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010940
    Description :

    Afin de permettre la collecte de données de bonne qualité, la section de la méthodologie de collecte des données (DCM pour Data Collection Methodology) offre des conseils et un appui d'expert en ce qui concerne la conception des questionnaires, les méthodes d'évaluation et l'obtention de la participation des répondants. La DCM aide ses clients à se perfectionner, entreprend des travaux de recherche et dirige des projets novateurs portant sur les méthodes de collecte des données. Toutes ces activités ont lieu dans un contexte exigeant de changement organisationnel et de ressources limitées. Le présent article décrit comment la DCM « fait affaire » avec ses clients et, plus globalement, avec le monde de la méthodologie en vue d'atteindre ses objectifs.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010969
    Description :

    Dans le cadre d'un projet auquel ont participé plusieurs divisions du Census Bureau des États-Unis, un système hautement perfectionné et novateur a été mis au point pour faire la saisie, le suivi et le balayage optique des données des répondants. Ce système met en oeuvre la reconnaissance intelligente de caractères (RIC), la reconnaissance optique de caractères (ROC), la reconnaissance optique de marques (ROM) et une technologie de saisie clavier fortement axée sur la détection et le contrôle des erreurs. Appelé integrated Computer Assisted Data Entry (iCADE) System, il fournit des images numériques des questionnaires remplis par les répondants qui sont ensuite traitées par une combinaison d'algorithmes d'imagerie, envoyées à l'application de reconnaissance optique de marques (ROM) qui recueille les données sous forme de cases cochées, recueille automatiquement et envoie uniquement les champs à réponse écrite aux clavistes qui procèdent à la saisie des données. Ces capacités ont accru considérablement l'efficacité du processus de saisie des données et abouti à une approche nouvelle et efficace des activités postérieures à la collecte.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010937
    Description :

    Le contexte de la discussion est la fréquence croissante des enquêtes internationales, dont fait partie l'International Tobacco Control (ITC) Policy Evaluation Project, qui a débuté en 2002. Les enquêtes ITC nationales, qui sont longitudinales, ont pour but d'évaluer les effets des mesures stratégiques adoptées dans divers pays en vertu de la Convention-cadre pour la lutte antitabac de l'OMS. Nous examinons et illustrons les défis que posent l'organisation, la collecte des données et l'analyse des enquêtes internationales. L'analyse est une raison qui motive de plus en plus la réalisation d'enquêtes transculturelles à grande échelle. La difficulté fondamentale de l'analyse est de discerner la réponse réelle (ou le manque de réponse) aux changements de politiques et de la séparer des effets du mode de collecte des données, de la non-réponse différentielle, des événements extérieurs, de la durée de la présence dans l'échantillon, de la culture et de la langue. Deux problèmes ayant trait à l'analyse statistique sont examinés. Le premier est celui de savoir quand et comment analyser des données regroupées provenant de plusieurs pays, afin de renforcer des conclusions qui pourraient être généralement valides. Bien que cela paraisse simple, dans certains cas les avis sont partagés quant à la mesure dans laquelle ce regroupement est possible et raisonnable. Selon certains, les modèles à effets aléatoires sont conceptuellement utiles pour les comparaisons formelles. Le deuxième problème consiste à trouver des modèles de mesure applicables à diverses cultures et à divers modes de collecte de données qui permettent l'étalonnage des réponses continues, binaires et ordinales, ainsi que la production de comparaisons dont ont été éliminés les effets extérieurs. Nous constatons que les modèles hiérarchiques offrent un moyen naturel de relâcher les exigences d'invariance du modèle entre les groupes.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010956
    Description :

    L'utilisation de l'interview enregistrée assistée par ordinateur (IEAO) comme outil pour déceler la falsification des interviews est de plus en plus fréquente dans les études par sondage (Biemer, 2000, 2003; Thissen, 2007). De même, les spécialistes de la recherche sur les enquêtes commencent à accroître l'utilité de l'IEAO en combinant les enregistrements sonores au codage pour résoudre les problèmes de qualité des données (Herget, 2001; Hansen, 2005; McGee, 2007). La communication porte sur les résultats d'une étude intégrée dans la National Home and Hospice Care Survey (NHHCS) réalisée auprès des établissements de santé par le National Center for Health Statistics, dans laquelle le codage du comportement fondé sur l'IEAO et des paradonnées particulières à l'IEAO ont été utilisés pour 1) repérer et corriger les problèmes de comportement des intervieweurs ou ceux relatifs aux questions au début de la période de collecte des données, avant qu'ils n'aient un effet négatif sur la qualité des données et 2) trouver des moyens de réduire l'erreur de mesure dans les futures exécutions de la NHHCS. Au cours des neuf premières semaines de la période de travail sur le terrain de 30 semaines, l'IEAO a été utilisée pour enregistrer chez tous les intervieweurs l'administration d'un sous-ensemble de questions de l'application de la NHHCS. Les enregistrements ont été reliés à l'application d'interview et aux données de sortie, puis codés selon l'un de deux modes, à savoir le codage par intervieweur ou le codage par question. La méthode de codage par intervieweur a permis d'examiner les problèmes particuliers à un intervieweur, ainsi que les problèmes plus généraux s'appliquant éventuellement à tous les intervieweurs. La méthode de codage par question a produit des données fournissant des éclaircissements sur l'intelligibilité des questions et d'autres problèmes de réponse. Sous ce mode, les codeurs ont codé plusieurs applications de la même question par plusieurs intervieweurs. Grâce à l'approche du codage par question, les chercheurs ont relevé des problèmes ayant trait à trois questions importantes de l'enquête durant les premières semaines de la collecte des données et ont donné aux intervieweurs des directives quant à la façon de traiter ces questions à mesure que la collecte des données s'est poursuivie. Les résultats du codage des enregistrements sonores (qui étaient reliés à l'application d'enquête et aux données de sortie) fourniront des renseignements qui permettront d'améliorer l'énoncé des questions et la formation des intervieweurs en prévision de la prochaine vague de la NHHCS et orienteront les travaux en vue de poursuivre l'amélioration de l'application d'IEAO et du système de codage.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010954
    Description :

    Au cours de la dernière année, Statistique Canada a conçu et mis à l'essai un nouveau moyen d'évaluer le rendement des intervieweurs qui procèdent aux interviews sur place assistées par ordinateur (IPAO). Un processus officiel existe déjà pour la surveillance des interviews téléphoniques centralisées. Les surveillants écoutent les interviews téléphoniques pendant qu'elles ont lieu pour évaluer l'exécution des tâches par l'intervieweur en fonction de critères préétablis et faire des commentaires à ce dernier pour lui indiquer ce qu'il a bien fait et ce qu'il doit améliorer. Pour les programmes d'IPAO, nous avons élaboré et mettons à l'essai une méthode pilote par laquelle des interviews sont enregistrées de façon numérique puis le surveillant écoute ces enregistrements afin d'évaluer le rendement de l'intervieweur sur le terrain et de lui fournir de la rétroaction qui aidera la qualité des données. Dans le présent article, nous donnons un aperçu du projet de surveillance de l'IPAO à Statistique Canada en décrivant la méthodologie de surveillance de l'IPAO et les plans de mise en oeuvre.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010920
    Description :

    Au nom de Statistique Canada, j'aimerais vous souhaiter la bienvenue à tous, amis et collègues, au Symposium 2008. Il s'agit du 24e Symposium international organisé par Statistique Canada sur les questions de méthodologie.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010988
    Description :

    La collecte des données en ligne a commencé en 1995. Il s'agissait alors d'une solution de rechange pour mener certains types de recherche auprès des consommateurs, mais elle a pris de l'ampleur en 2008. Cette croissance a surtout été observée dans les études qui utilisent des méthodes d'échantillonnage non probabiliste. Bien que l'échantillonnage en ligne ait acquis de la crédibilité pour ce qui est de certaines applications de recherche, de sérieuses questions demeurent concernant le bien-fondé des échantillons prélevés en ligne dans le cas des recherches exigent des mesures volumétriques précises du comportement de la population des États-Unis, notamment en ce qui a trait aux voyages. Dans le présent exposé, nous passons en revue la documentation et comparons les résultats d'études fondées sur des échantillons probabilistes et des échantillons prélevés en ligne pour comprendre les différences entre ces deux méthodes d'échantillonnage. Nous montrons aussi que les échantillons prélevés en ligne sous-estiment d'importants types de voyages, même après pondération en fonction de données démographiques et géographiques.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010974
    Description :

    L'article porte sur les lignes directrices pour la conception des questionnaires des enquêtes-établissements. Plus précisément, il traite du processus de transition d'un ensemble de lignes directrices rédigées pour un public général de méthodologistes d'enquête à des lignes directrices s'adressant à un public plus restreint de gestionnaires d'enquête et d'analystes travaillant pour un organisme particulier. Ce processus a été le fruit des efforts d'une équipe constituée de divers employés de la Direction des programmes économiques du Census Bureau qui ont travaillé en étroite collaboration. Partant de lignes directrices générales, l'équipe a déterminé ce qu'il convenait d'ajouter, de modifier ou de supprimer, ainsi que la part d'information théorique et expérimentale relevée dans la littérature qu'il convenait d'inclure. Outre le processus, l'article décrit le résultat final : un ensemble de lignes directrices pour la conception de questionnaires s'adressant spécialement à la Direction des programmes économiques.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011001
    Description :

    Présentement en cours, l'Enquête québécoise sur la santé de la population (EQSP), dont la collecte se terminera en février 2009, offre l'opportunité, de par l'envergure de son échantillon, d'évaluer l'impact de l'envoi de lettres d'information aux répondants sur le taux de réponse, et ce, dans un environnement contrôlé. En effet, avec plus de 38 000 répondants attendus, une partie de l'échantillon de cette enquête téléphonique à portée régionale a pu être utilisée pour permettre cette étude, sans toutefois avoir un impact trop important sur le taux de réponse global de l'enquête. Dans les enquêtes à génération aléatoire de numéro de téléphone (GANT), telle que l'EQSP, un des principaux défis de l'envoi d'une lettre d'information est l'atteinte de l'unité enquêtée. Or, cette réussite dépend en grande partie de notre capacité à associer une adresse aux unités échantillonnées et de la qualité de celle-ci.

    Cet article décrit l'étude contrôlée mise de l'avant par l'Institut de la statistique du Québec pour mesurer l'incidence de l'envoi de lettres d'information aux répondants sur le taux de réponse de l'enquête.

    Date de diffusion : 2009-12-03

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (24)

Analyses (24) (24 of 24 results)

  • Articles et rapports : 12-001-X200900211037
    Description :

    Les stratégies fondées sur la réponse aléatoire, qui ont été élaborées au départ à titre de méthodes statistiques destinées à réduire la non-réponse ainsi que la réponse mensongère, peuvent aussi être appliquées dans le domaine du contrôle de la divulgation statistique dans les fichiers de microdonnées à grande diffusion. Le présent article décrit une standardisation des méthodes de réponse aléatoire en vue d'estimer des proportions pour des attributs identificatoires ou sensibles. Les propriétés statistiques de l'estimateur standardisé sont établies dans le cas de l'échantillonnage probabiliste général. Afin d'analyser l'effet du choix des « paramètres de plan » implicites de la méthode sur la performance de l'estimateur, nous incluons dans l'étude des mesures de la protection de la vie privée. Nous obtenons ainsi des paramètres de plan qui optimisent la variance, sachant le niveau de protection de la vie privée. Pour cela, les variables doivent être classées dans diverses catégories de sensibilité. Un exemple fondé sur des données réelles illustre l'application de la méthode à une enquête sur la tricherie chez les étudiants.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211056
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211044
    Description :

    Dans les enquêtes par sondage de grande portée, il est fréquent d'employer des plans de sondage stratifiés à plusieurs degrés où les unités sont sélectionnées par échantillonnage aléatoire simple sans remise à chaque degré. L'exécution de l'estimation de la variance sous ce genre de plan peut être assez fastidieuse, particulièrement pour les estimateurs non linéaires. Diverses méthodes bootstrap d'estimation de la variance ont été proposées, mais la plupart sont limitées à des plans à un seul degré ou à des plans en grappes à deux degrés. Nous proposons une extension de la méthode du bootstrap rééchelonné (Rao et Wu 1988) aux plans stratifiés à plusieurs degrés qui peut être adaptée facilement à n'importe quel nombre de degrés. Cette méthode convient pour une grande gamme de méthodes de repondération, y compris la classe générale des estimateurs par calage. Nous avons réalisé une étude par simulation Monte Carlo pour examiner la performance de l'estimateur de variance bootstrap rééchelonné à plusieurs degrés.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211040
    Description :

    L'article décrit un modèle de séries chronologiques structurel multivarié qui tient compte du plan de sondage avec renouvellement de panel de l'Enquête sur la population active des Pays-Bas et qui est appliqué pour estimer les taux mensuels de chômage. Comparativement à l'estimateur par la régression généralisée, cette approche accroît considérablement la précision des estimations, grâce à la réduction de l'erreur-type et à la modélisation explicite du biais entre les vagues subséquentes de l'enquête.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211038
    Description :

    Nous cherchons à corriger la surestimation causée par la non-réponse de lien dans l'échantillonnage indirect lorsque l'on utilise la méthode généralisée de partage des poids (MGPP). Nous avons élaboré quelques méthodes de correction pour tenir compte de la non-réponse de lien dans la MGPP applicables lorsque l'on dispose ou non de variables auxiliaires. Nous présentons une étude par simulation de certaines de ces méthodes de correction fondée sur des données d'enquête longitudinale. Les résultats des simulations révèlent que les corrections proposées de la MGPP réduisent bien le biais et la variance d'estimation. L'accroissement de la réduction du biais est significatif.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211043
    Description :

    Les enquêtes-entreprises sont souvent réalisées selon un plan d'échantillonnage aléatoire simple stratifié à un degré sans remise comportant certaines strates à tirage complet. Bien que l'on recoure habituellement à l'ajustement de la pondération pour traiter la non-réponse totale, la variabilité due à la non-réponse est parfois omise en pratique quand on estime les variances. Cette situation pose surtout problème lorsqu'il existe des strates à tirage complet. Nous élaborons des estimateurs de variance qui sont convergents quand le nombre d'unités échantillonnées est grand dans chaque classe de pondération, en utilisant les méthodes du jackknife, de la linéarisation et du jackknife modifié. Nous commençons par appliquer les estimateurs ainsi obtenus à des données empiriques provenant de l'Annual Capital Expenditures Survey réalisé par le U.S. Census Bureau, puis nous examinons leur performance dans une étude en simulation.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211045
    Description :

    Dans l'analyse de données d'enquête, on se sert souvent du nombre de degrés de liberté pour évaluer la stabilité des estimateurs de variance fondé sur le plan de sondage. Par exemple, ce nombre de degrés de liberté est utilisé pour construire les intervalles de confiances fondés sur des approximations de la loi t, ainsi que des tests t connexes. En outre, un petit nombre de degrés de liberté donne une idée qualitative des limites possibles d'un estimateur de variance particulier dans une application. Parfois, le calcul du nombre de degrés de liberté s'appuie sur des formes de l'approximation de Satterthwaite. Ces calculs fondés sur l'approche de Satterthwaite dépendent principalement des grandeurs relatives des variances au niveau de la strate. Cependant, pour des plans de sondage comportant la sélection d'un petit nombre d'unités primaires par strate, les estimateurs de variance au niveau de la strate classiques ne fournissent que des renseignements limités sur les variances réelles de strate. Le cas échéant, les calculs habituels fondés sur l'approche de Satterthwaite peuvent poser des problèmes, surtout dans les analyses portant sur des sous-populations concentrées dans un nombre relativement faible de strates. Pour résoudre ce problème, nous utilisons dans le présent article les estimations des variances à l'intérieur des unités primaires d'échantillonnage (variances intra-UPE) pour fournir de l'information auxiliaire sur les grandeurs relatives des variances globales au niveau de la strate. Les résultats des analyses indiquent que l'estimateur du nombre de degrés de liberté résultant est meilleur que les estimateurs de type Satterthwaite modifiés, à condition que : a) les variances globales au niveau de la strate soient approximativement proportionnelles aux variances intra-strate correspondantes et b) les variances des estimateurs de variance intra-UPE soient relativement faibles. En outre, nous élaborons des méthodes à erreurs sur les variables qui permettent de vérifier empiriquement les conditions a) et b). Pour ces vérifications de modèle, nous établissons des distributions de référence fondées sur des simulations qui diffèrent considérablement des distributions de référence fondées sur les approximations normales en grand échantillon habituelles. Nous appliquons les méthodes proposées à quatre variables de la troisième National Health and Nutrition Examination Survey (NHANES III) réalisée aux États-Unis.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211036
    Description :

    Souvent, les enquêtes doivent permettre de produire des estimations pour une ou plusieurs sous-populations en plus de l'ensemble de la population. Lorsque l'appartenance à une sous-population (ou domaine) rare peut être déterminée d'après l'information contenue dans la base de sondage, le choix de la taille de l'échantillon du domaine est relativement simple. Le principal problème consiste alors à déterminer l'ampleur requise du suréchantillonnage quand des estimations doivent être produites pour plusieurs domaines ainsi que pour l'ensemble de la population. En revanche, l'échantillonnage et le suréchantillonnage de domaines rares dont les membres ne peuvent pas être identifiés d'avance posent un défi important. Diverses méthodes ont été utilisées dans cette situation. En plus de la présélection à grande échelle, elles comptent l'échantillonnage stratifié disproportionné, l'échantillonnage à deux phases, l'utilisation de plusieurs bases de sondage, l'échantillonnage par réseaux, les enquêtes par panel et les enquêtes polyvalentes. Le présent article décrit l'application de ces méthodes à une gamme d'enquêtes sociales.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211041
    Description :

    L'estimation de la composition sur petits domaines peut poser un problème de données manquantes informatives, si la probabilité que les données manquent varie d'une catégorie d'intérêt à l'autre, ainsi que d'un petit domaine à l'autre. Nous élaborons une approche de modélisation mixte double qui combine un modèle mixte à effets aléatoires pour les données complètes sous-jacentes et un modèle mixte à effets aléatoires du mécanisme de création différentielle de données manquantes. L'effet du plan d'échantillonnage peut être intégré au moyen d'un modèle d'échantillonnage sous quasi-vraisemblance. L'erreur quadratique moyenne conditionnelle de prédiction associée est approximée sous forme d'une décomposition en trois parties, correspondant à une variance de prédiction naïve, une correction positive qui tient compte de l'incertitude hypothétique de l'estimation des paramètres basée sur les données complètes latentes et une autre correction positive pour la variation supplémentaire due aux données manquantes. Nous illustrons notre approche en l'appliquant à l'estimation de la composition des ménages des municipalités au moyen des données sur les ménages tirées des registres norvégiens, qui présentent un sous-enregistrement informatif du numéro d'identification du logement.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211042
    Description :

    Le présent article décrit une méthode de prédiction pour petits domaines fondée sur des données tirées d'enquêtes périodiques et de recensements. Nous appliquons cette méthode pour obtenir des prédictions démographiques pour les municipalités non échantillonnées dans l'enquête annuelle sur les ménages du Brésil (PNAD), ainsi que pour accroître la précision des estimations fondées sur le plan de sondage obtenues pour les municipalités échantillonnées. En plus des données fournies par la PNAD, nous utilisons des données démographiques provenant des recensements de 1991 et de 2000, ainsi que d'un dénombrement complet de la population effectué en 1996. Nous proposons et comparons des modèles de croissance hiérarchiquement non structurés et spatialement structurés qui gagnent en puissance en s'appuyant sur toutes les municipalités échantillonnées.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211046
    Description :

    Nous élaborons un modèle de régression semiparamétrique pour les enquêtes complexes. Dans ce modèle, les variables explicatives sont représentées séparément sous forme d'une partie non paramétrique et d'une partie linéaire paramétrique. Les méthodes d'estimation combinent l'estimation par la régression polynomiale locale non paramétrique et l'estimation par les moindres carrés. Nous élaborons également des résultats asymptotiques, tels que la convergence et la normalité des estimateurs des coefficients de régression et des fonctions de régression. Nous recourrons à la simulation et à des exemples empiriques tirés de l'Enquête sur la santé en Ontario de 1990 pour illustrer la performance de la méthode et les propriétés des estimations.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900211039
    Description :

    La pondération par la propension à répondre est une méthode de rajustement pour tenir compte de la non-réponse totale dans les enquêtes. Une forme de mise en oeuvre de cette méthode consiste à diviser les poids d'échantillonnage par les estimations de la probabilité que les unités échantillonnées répondent à l'enquête. Habituellement, ces estimations sont obtenues par ajustement de modèles paramétriques, tels qu'une régression logistique. Les estimateurs corrigés résultants peuvent devenir biaisés si les modèles paramétriques sont spécifiés incorrectement. Afin d'éviter les erreurs de spécification du modèle, nous considérons l'estimation non paramétrique des probabilités de réponse par la régression par polynômes locaux. Nous étudions les propriétés asymptotiques de l'estimateur résultant sous quasi randomisation. Nous évaluons en pratique le comportement de la méthode proposée de correction de la non-réponse en nous servant de données de la NHANES.

    Date de diffusion : 2009-12-23

  • Articles et rapports : 12-001-X200900110892
    Description :

    La rubrique Dans ce numéro contient une brève présentation par le rédacteur en chef de chacun des articles contenus dans le présent numéro de Techniques d'enquête. Aussi, on y trouve parfois quelques commentaires sur des changements dans la structure ou la gestion de la revue.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110880
    Description :

    Le présent article décrit un cadre pour l'estimation par calage sous les plans d'échantillonnage à deux phases. Les travaux présentés découlent de la poursuite du développement de logiciels généralisés d'estimation à Statistique Canada. Un objectif important de ce développement est d'offrir une grande gamme d'options en vue d'utiliser efficacement l'information auxiliaire dans différents plans d'échantillonnage. Cet objectif est reflété dans la méthodologie générale pour les plans d'échantillonnage à deux phases exposée dans le présent article.

    Nous considérons le plan d'échantillonnage à deux phases classique. Un échantillon de première phase est tiré à partir d'une population finie, puis un échantillon de deuxième phase est tiré en tant que sous échantillon du premier. La variable étudiée, dont le total de population inconnu doit être estimé, est observée uniquement pour les unités contenues dans l'échantillon de deuxième phase. Des plans d'échantillonnage arbitraires sont permis à chaque phase de l'échantillonnage. Divers types d'information auxiliaire sont identifiés pour le calcul des poids de calage à chaque phase. Les variables auxiliaires et les variables étudiées peuvent être continues ou catégoriques.

    L'article apporte une contribution à quatre domaines importants dans le contexte général du calage pour les plans d'échantillonnage à deux phases :1) nous dégageons trois grands types d'information auxiliaire pour les plans à deux phases et les utilisons dans l'estimation. L'information est intégrée dans les poids en deux étapes : un calage de première phase et un calage de deuxième phase. Nous discutons de la composition des vecteurs auxiliaires appropriés pour chaque étape et utilisons une méthode de linéarisation pour arriver aux résidus qui déterminent la variance asymptotique de l'estimateur par calage ;2) nous examinons l'effet de divers choix de poids de départ pour le calage. Les deux choix « naturels » produisent généralement des estimateurs légèrement différents. Cependant, sous certaines conditions, ces deux estimateurs ont la même variance asymptotique ;3) nous réexaminons l'estimation de la variance pour l'estimateur par calage à deux phases. Nous proposons une nouvelle méthode qui peut représenter une amélioration considérable par rapport à la technique habituelle de conditionnement sur l'échantillon de première phase. Une simulation décrite à la section 10 sert à valider les avantages de cette nouvelle méthode ;4) nous comparons l'approche par calage à la méthode de régression assistée par modèle classique qui comporte l'ajustement d'un modèle de régression linéaire à deux niveaux. Nous montrons que l'estimateur assisté par modèle a des propriétés semblables à celles d'un estimateur par calage à deux phases.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110881
    Description :

    Les diagnostics de régression ont pour objectif de détecter des points individuels ou des groupes de points qui exercent une influence importante sur un modèle ajusté. Lorsqu'on ajuste un modèle à l'aide de données d'enquête, les sources d'influence sont la variable réponse Y, les variables explicatives X et les poids de sondage W. Le présent article traite de l'utilisation de la matrice chapeau et des effets de levier pour déceler les points qui pourraient être influents dans l'ajustement des modèles linéaires parce que les valeurs des variables explicatives ou des poids sont grandes. Nous comparons aussi les résultats qu'un analyste pourrait obtenir s'il utilisait les moindres carrés ordinaires plutôt que les moindres carrés pondérés par les poids de sondage pour déterminer quels points sont influents.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110884
    Description :

    Le présent article traite de l'estimation pour petits domaines de la proportion de personnes sans assurance maladie dans divers groupes minoritaires. Les petits domaines sont définis par le croisement de l'âge, du sexe et d'autres caractéristiques démographiques. Des méthodes d'estimation bayésiennes hiérarchiques ainsi qu'empiriques sont appliquées. En outre, des approximations exactes jusqu'à l'ordre deux des erreurs quadratiques moyennes des estimateurs bayésiens empiriques et des estimateurs corrigés du biais de ces erreurs quadratiques moyennes sont fournies. La méthodologie générale est illustrée au moyen d'estimations de la proportion de personnes non assurées pour plusieurs petits domaines de la sous population asiatique.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110887
    Description :

    De nombreux organismes statistiques considèrent le taux de réponse comme étant l'indicateur de la qualité à utiliser en ce qui concerne l'effet du biais de non réponse. Ils prennent donc diverses mesures en vue de réduire la non réponse ou de maintenir la réponse à un niveau jugé acceptable. Cependant, à lui seul, le taux de réponse n'est pas un bon indicateur du biais de non réponse. En général, un taux de réponse élevé n'implique pas que le biais dû à la non réponse est faible. On trouve à cet égard de nombreux exemples dans la littérature (par exemple, Groves et Peytcheva 2006 ; Keeter, Miller, Kohut, Groves et Presser 2000 ; Schouten 2004).

    Nous introduisons un certain nombre de concepts et un nouvel indicateur en vue d'évaluer la similarité entre la réponse à une enquête et l'échantillon de cette enquête. Cet indicateur de la qualité, que nous appelons indicateur R, peut servir de complément aux taux de réponse et est destiné principalement à évaluer le biais de non réponse. Il peut faciliter l'analyse de la réponse aux enquêtes en fonction du temps, ou pour diverses stratégies d'enquête sur le terrain ou divers modes de collecte des données. Nous appliquons l'indicateur R à deux exemples pratiques.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110882
    Description :

    Le recours à la méthode bootstrap est de plus en plus répandu dans le contexte des enquêtes par sondage réalisées par les organismes statistiques nationaux. Dans la plupart des applications, plusieurs ensembles de poids bootstrap sont fournis aux analystes avec le fichier de microdonnées d'enquête. Jusqu'à présent, l'utilisation de la méthode en pratique semble avoir été limitée principalement aux problèmes d'estimation de la variance. Dans le présent article, nous proposons une méthode bootstrap pour les tests d'hypothèses au sujet d'un vecteur de paramètres inconnus d'un modèle quand l'échantillon a été tiré d'une population finie. Le plan d'échantillonnage probabiliste utilisé pour sélectionner l'échantillon peut être informatif ou non. Notre méthode s'appuie sur des statistiques de test fondées sur un modèle dans lesquelles sont intégrés les poids de sondage. Ces statistiques sont habituellement faciles à calculer en se servant de progiciels statistiques classiques. Nous approximons la distribution sous l'hypothèse nulle de ces statistiques pondérées fondées sur un modèle en utilisant des poids bootstrap. L'un des avantages de notre méthode bootstrap par rapport aux méthodes existantes de test d'hypothèses à partir des données d'enquête est qu'après avoir reçu les ensembles de poids bootstrap, les analystes peuvent l'appliquer très facilement, même s'ils ne disposent pas de logiciels spécialisés pour le traitement des données d'enquêtes complexes. En outre, nos résultats de simulation laissent entendre que, dans l'ensemble, la méthode donne des résultats comparables à ceux de la méthode de Rao Scott et meilleurs que ceux des méthodes de Wald et de Bonferroni quand on teste des hypothèses au sujet d'un vecteur de paramètres d'un modèle de régression linéaire.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110886
    Description :

    La variabilité d'intervieweur est une composante importante de la variabilité des statistiques produites par sondage. Diverses stratégies liées au format et à la formulation des questions, ainsi qu'à la formation, à la charge de travail, à l'expérience et à l'affectation des intervieweurs sont employées pour essayer de réduire la variabilité d'intervieweur. La formule classique de mesure de la variabilité d'intervieweur, souvent appelée effet d'intervieweur, est donnée par ieff := deff_int = 1 + (n bar sub int - 1) rho sub int, où rho sub int et n bar sub int sont, respectivement, la corrélation intra intervieweur et la moyenne simple des charges de travail d'intervieweur. Dans le présent article, nous donnons une justification assistée par modèle de cette formule bien connue pour les méthodes d'échantillonnage avec probabilités égales (EPE) quand il n'existe pas de grappes spatiales dans l'échantillon et que les charges de travail des intervieweurs sont égales. Toutefois, les grappes spatiales ainsi que la pondération inégale sont très fréquentes dans les enquêtes à grande échelle. Dans le contexte d'un plan d'échantillonnage complexe, nous obtenons une formule appropriée de la variabilité d'intervieweur qui tient compte des probabilités inégales de sélection et des grappes spatiales. Notre formule fournit une évaluation plus exacte des effets d'intervieweur et permet donc d'affecter un budget plus raisonnable au contrôle de la variabilité d'intervieweur. Nous proposons aussi une décomposition de l'effet global en effets dus à la pondération, aux grappes spatiales et aux intervieweurs. Cette décomposition aide à comprendre différents moyens de réduire la variance totale.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110883
    Description :

    Nous appliquons une méthode bayésienne pour résoudre le problème des solutions limites de l'estimation du maximum de vraisemblance (MV) dans un tableau de contingence à double entrée incomplet en utilisant un modèle log-linéaire et des lois a priori de Dirichlet. Nous comparons cinq lois a priori de Dirichlet pour estimer les probabilités multinomiales par case sous un modèle de non réponse non ignorable. Trois de ces lois a priori ont été utilisées dans le cas d'un tableau à simple entrée incomplet et les deux autres sont deux nouvelles lois a priori proposées afin de tenir compte de la différence entre les profils de réponse des répondants et des électeurs indécis. Les estimations bayésiennes obtenues à l'aide des trois premières lois a priori n'ont pas systématiquement de meilleures propriétés que les estimations du MV, contrairement à ce qu'indiquaient des études antérieures, tandis que les deux nouvelles lois a priori donnent de meilleurs résultats que les trois lois a priori antérieures et que les estimations du MV chaque fois qu'est obtenue une solution limite. Nous utilisons quatre jeux de données provenant des sondages électoraux réalisés en 1998 dans l'État de l'Ohio pour illustrer comment il convient d'utiliser et d'interpréter les résultats des estimations pour les élections. Nous procédons à des études par simulation pour comparer les propriétés de cinq estimations bayésiennes sous un modèle de non réponse non ignorable.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110885
    Description :

    La présence de pics dans le spectre d'un processus stationnaire signale l'existence de phénomènes périodiques stochastiques, tels que l'effet saisonnier. Nous proposons une mesure de ces pics spectraux et un test de détection de leur présence qui s'appuient sur l'évaluation de leur pente et de leur convexité agrégées. Notre méthode est élaborée de manière non paramétrique et peut donc être utile durant l'analyse préliminaire d'une série. Elle peut aussi servir à détecter la présence d'une saisonnalité résiduelle dans les données désaisonnalisées. Nous étudions le test diagnostique au moyen d'une simulation et d'une étude de cas à grande échelle portant sur des données provenant du U.S. Census Bureau et de l'Organisation de coopération et de développement économiques (OCDE).

    Date de diffusion : 2009-06-22

  • Articles et rapports : 12-001-X200900110888
    Description :

    Lors de la sélection d'un échantillon, une pratique courante consiste à définir un plan de sondage stratifié sur des sous-populations. La variance de l'estimateur de Horvitz-Thompson est alors réduite par rapport à un tirage direct si les strates sont bien homogènes au regard de la variable d'intérêt. Si des variables auxiliaires sont disponibles pour chaque individu, l'échantillonnage peut être amélioré par tirage équilibré au sein de chaque strate et l'estimateur de Horvitz-Thompson sera plus précis si les variables auxiliaires sont bien corrélées à la variable d'intérêt. Cependant, si la répartition d'échantillon est faible dans certaines strates, l'équilibrage ne sera respecté que de façon très approximative. Nous proposons ici une méthode de tirage permettant de sélectionner un échantillon équilibré sur l'ensemble de la population, en respectant une allocation fixée au sein de chaque strate. Nous montrons que dans le cas particulier important d'un tirage de taille 2 dans chaque strate, la précision de l'estimateur de Horvitz-Thompson est améliorée si la variable d'intérêt est bien expliquée par les variables d'équilibrage sur l'ensemble de la population. Une application au cas d'un échantillonnage rotatif est également proposée.

    Date de diffusion : 2009-06-22

  • Articles et rapports : 82-003-X200900110795
    Description :

    Cet article décrit des méthodes de combinaison des divers cycles de l'Enquête sur la santé dans les collectivités canadiennes et discute des problèmes dont il convient de tenir compte si ces données sont combinées.

    Date de diffusion : 2009-02-18

  • Articles et rapports : 91F0015M2008010
    Description :

    L'objectif de cette étude est d'examiner la faisabilité d'utiliser les nouvelles inscriptions des dossiers des régimes d'assurance-maladie provinciaux et territoriaux pour mesurer de façon indépendante la migration interprovinciale et interterritoriale. L'étude vise à mesurer les différences conceptuelles et quantifiables entre cette source de données et notre source actuelle provenant de la Prestation fiscale canadienne pour enfants de l'Agence du revenu du Canada.

    Des critères permettant de mesurer la qualité et la pertinence des fichiers de soins de santé provinciaux et territoriaux ont été établis par approximation pour les estimations de la migration : couverture, cohérence, actualité, fiabilité, niveau de détail, uniformité et exactitude.

    D'après les présentes analyses, le document conclut que ces données n'améliorent pas les estimations et ne seraient pas convenables pour mesurer la migration interprovinciale et interterritoriale en ce moment. Ces données des dossiers des régimes d'assurance-maladie sont par contre une importante source de données indépendante qui peut être utilisée aux fins d'évaluation de la qualité.

    Date de diffusion : 2009-01-13

Références (94)

Références (94) (25 of 94 results)

  • Produits techniques : 11-522-X2008000
    Description :

    Depuis 1984, une série de conférences annuelles a été parrainé par Statistique Canada. Le recueil de la conférence est disponible depuis 1987. Le Symposium 2008 a été le vingt-quatrième d'une série de colloques internationaux organisés par Statistique Canada sur des questions de méthodologie. Chaque année le symposium traite d'un thème particulier. Celui de 2008 était : « Collecte des données : défis, réalisations et nouvelles orientations ».

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010955
    Description :

    Les gestionnaires d'enquête commencent tout juste à découvrir les nombreuses utilités de l'enregistrement audionumérique pour la surveillance et la gestion du personnel sur le terrain. Jusqu'ici, cette technique a surtout permis de garantir l'authenticité des interviews, de déceler la falsification, de fournir des exemples concrets permettant d'évaluer le rendement sur le terrain puis de renseigner les gestionnaires de la collecte des données sur les interviews menées en personne. Par ailleurs, l'interview enregistrée assistée par ordinateur (IEAO) permet d'améliorer certains aspects de la qualité des données d'enquête en corroborant ou en corrigeant les réponses codées par le personnel travaillant sur le terrain. À l'avenir, l'enregistrement sonore pourrait même remplacer ou suppléer la transcription textuelle des réponses libres, sur le terrain, d'autant plus qu'il promet de gagner en efficacité grâce aux logiciels de traduction de la voix en texte.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010983
    Description :

    Le U.S. Census Bureau mène des enquêtes mensuelles, trimestrielles et annuelles sur l'économie américaine, ainsi qu'un recensement quinquennal. Ces programmes imposent un effort considérable aux entreprises. Les nouvelles technologies, les nouvelles formes d'organisation et l'amenuisement des ressources influent sur la capacité des entreprises de répondre aux enquêtes. Ces changements influencent également les attentes des entreprises à l'égard du Census Bureau, les systèmes internes de l'organisme et ses relations bilatérales avec les entreprises.

    Depuis plusieurs années, le Census Bureau prend des mesures spéciales pour aider les grandes entreprises à se préparer au recensement. Dans tous nos programmes, nous avons également instauré une communication centrée sur les entreprises. Nous avons ainsi établi un modèle de relation qui met l'accent sur l'infrastructure et les pratiques opérationnelles et qui permet au Census Bureau d'être plus réceptif.

    Le présent exposé porte sur les communications et les systèmes du Census Bureau, centrés sur les entreprises. Nous décrivons des initiatives et des difficultés importantes ainsi que leur incidence sur les pratiques du Census Bureau et sur le comportement des répondants.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010972
    Description :

    Contexte : L'évaluation de la couverture du fichier obtenu par couplage de données administratives recueillies régulièrement par les hôpitaux et de données d'enquête est une importante étape préalable aux analyses fondées sur ce fichier couplé. Données et méthodes : Afin d'évaluer la couverture du couplage des données du cycle 1.1 de l'Enquête sur la santé dans les collectivités canadiennes (ESCC) aux données sur les hospitalisations (Information-santé orientée vers la personne, ou ISOP), le nombre de personnes admises à l'hôpital selon l'ISOP a été comparé à l'estimation pondérée obtenue pour les répondants à l'ESCC dont les données ont pu être couplées à celles de l'ISOP. Les écarts entre le chiffre selon l'ISOP et les estimations d'après les données couplées et pondérées de l'ESCC révèlent un échec du couplage ou un sous-dénombrement. Résultats : Selon l'ISOP, 1 572 343 personnes (hors Québec) âgées de 12 ans et plus ont été hospitalisées de septembre 2000 à la fin de novembre 2001. Les estimations fondées sur les données couplées de l'ESCC, rajustées pour tenir compte du consentement au couplage et de la vraisemblance du numéro d'assurance-maladie, sont inférieures de 7,7 % à ce chiffre. Les taux de couverture des hommes et des femmes sont comparables. Les taux provinciaux ne diffèrent pas de ceux observés pour le reste du Canada, mais des différences se dégagent pour les territoires. Les taux de couverture sont significativement plus faibles pour les personnes de 75 ans et plus que pour celles de 12 à 74 ans.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010940
    Description :

    Afin de permettre la collecte de données de bonne qualité, la section de la méthodologie de collecte des données (DCM pour Data Collection Methodology) offre des conseils et un appui d'expert en ce qui concerne la conception des questionnaires, les méthodes d'évaluation et l'obtention de la participation des répondants. La DCM aide ses clients à se perfectionner, entreprend des travaux de recherche et dirige des projets novateurs portant sur les méthodes de collecte des données. Toutes ces activités ont lieu dans un contexte exigeant de changement organisationnel et de ressources limitées. Le présent article décrit comment la DCM « fait affaire » avec ses clients et, plus globalement, avec le monde de la méthodologie en vue d'atteindre ses objectifs.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010969
    Description :

    Dans le cadre d'un projet auquel ont participé plusieurs divisions du Census Bureau des États-Unis, un système hautement perfectionné et novateur a été mis au point pour faire la saisie, le suivi et le balayage optique des données des répondants. Ce système met en oeuvre la reconnaissance intelligente de caractères (RIC), la reconnaissance optique de caractères (ROC), la reconnaissance optique de marques (ROM) et une technologie de saisie clavier fortement axée sur la détection et le contrôle des erreurs. Appelé integrated Computer Assisted Data Entry (iCADE) System, il fournit des images numériques des questionnaires remplis par les répondants qui sont ensuite traitées par une combinaison d'algorithmes d'imagerie, envoyées à l'application de reconnaissance optique de marques (ROM) qui recueille les données sous forme de cases cochées, recueille automatiquement et envoie uniquement les champs à réponse écrite aux clavistes qui procèdent à la saisie des données. Ces capacités ont accru considérablement l'efficacité du processus de saisie des données et abouti à une approche nouvelle et efficace des activités postérieures à la collecte.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010937
    Description :

    Le contexte de la discussion est la fréquence croissante des enquêtes internationales, dont fait partie l'International Tobacco Control (ITC) Policy Evaluation Project, qui a débuté en 2002. Les enquêtes ITC nationales, qui sont longitudinales, ont pour but d'évaluer les effets des mesures stratégiques adoptées dans divers pays en vertu de la Convention-cadre pour la lutte antitabac de l'OMS. Nous examinons et illustrons les défis que posent l'organisation, la collecte des données et l'analyse des enquêtes internationales. L'analyse est une raison qui motive de plus en plus la réalisation d'enquêtes transculturelles à grande échelle. La difficulté fondamentale de l'analyse est de discerner la réponse réelle (ou le manque de réponse) aux changements de politiques et de la séparer des effets du mode de collecte des données, de la non-réponse différentielle, des événements extérieurs, de la durée de la présence dans l'échantillon, de la culture et de la langue. Deux problèmes ayant trait à l'analyse statistique sont examinés. Le premier est celui de savoir quand et comment analyser des données regroupées provenant de plusieurs pays, afin de renforcer des conclusions qui pourraient être généralement valides. Bien que cela paraisse simple, dans certains cas les avis sont partagés quant à la mesure dans laquelle ce regroupement est possible et raisonnable. Selon certains, les modèles à effets aléatoires sont conceptuellement utiles pour les comparaisons formelles. Le deuxième problème consiste à trouver des modèles de mesure applicables à diverses cultures et à divers modes de collecte de données qui permettent l'étalonnage des réponses continues, binaires et ordinales, ainsi que la production de comparaisons dont ont été éliminés les effets extérieurs. Nous constatons que les modèles hiérarchiques offrent un moyen naturel de relâcher les exigences d'invariance du modèle entre les groupes.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010956
    Description :

    L'utilisation de l'interview enregistrée assistée par ordinateur (IEAO) comme outil pour déceler la falsification des interviews est de plus en plus fréquente dans les études par sondage (Biemer, 2000, 2003; Thissen, 2007). De même, les spécialistes de la recherche sur les enquêtes commencent à accroître l'utilité de l'IEAO en combinant les enregistrements sonores au codage pour résoudre les problèmes de qualité des données (Herget, 2001; Hansen, 2005; McGee, 2007). La communication porte sur les résultats d'une étude intégrée dans la National Home and Hospice Care Survey (NHHCS) réalisée auprès des établissements de santé par le National Center for Health Statistics, dans laquelle le codage du comportement fondé sur l'IEAO et des paradonnées particulières à l'IEAO ont été utilisés pour 1) repérer et corriger les problèmes de comportement des intervieweurs ou ceux relatifs aux questions au début de la période de collecte des données, avant qu'ils n'aient un effet négatif sur la qualité des données et 2) trouver des moyens de réduire l'erreur de mesure dans les futures exécutions de la NHHCS. Au cours des neuf premières semaines de la période de travail sur le terrain de 30 semaines, l'IEAO a été utilisée pour enregistrer chez tous les intervieweurs l'administration d'un sous-ensemble de questions de l'application de la NHHCS. Les enregistrements ont été reliés à l'application d'interview et aux données de sortie, puis codés selon l'un de deux modes, à savoir le codage par intervieweur ou le codage par question. La méthode de codage par intervieweur a permis d'examiner les problèmes particuliers à un intervieweur, ainsi que les problèmes plus généraux s'appliquant éventuellement à tous les intervieweurs. La méthode de codage par question a produit des données fournissant des éclaircissements sur l'intelligibilité des questions et d'autres problèmes de réponse. Sous ce mode, les codeurs ont codé plusieurs applications de la même question par plusieurs intervieweurs. Grâce à l'approche du codage par question, les chercheurs ont relevé des problèmes ayant trait à trois questions importantes de l'enquête durant les premières semaines de la collecte des données et ont donné aux intervieweurs des directives quant à la façon de traiter ces questions à mesure que la collecte des données s'est poursuivie. Les résultats du codage des enregistrements sonores (qui étaient reliés à l'application d'enquête et aux données de sortie) fourniront des renseignements qui permettront d'améliorer l'énoncé des questions et la formation des intervieweurs en prévision de la prochaine vague de la NHHCS et orienteront les travaux en vue de poursuivre l'amélioration de l'application d'IEAO et du système de codage.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010954
    Description :

    Au cours de la dernière année, Statistique Canada a conçu et mis à l'essai un nouveau moyen d'évaluer le rendement des intervieweurs qui procèdent aux interviews sur place assistées par ordinateur (IPAO). Un processus officiel existe déjà pour la surveillance des interviews téléphoniques centralisées. Les surveillants écoutent les interviews téléphoniques pendant qu'elles ont lieu pour évaluer l'exécution des tâches par l'intervieweur en fonction de critères préétablis et faire des commentaires à ce dernier pour lui indiquer ce qu'il a bien fait et ce qu'il doit améliorer. Pour les programmes d'IPAO, nous avons élaboré et mettons à l'essai une méthode pilote par laquelle des interviews sont enregistrées de façon numérique puis le surveillant écoute ces enregistrements afin d'évaluer le rendement de l'intervieweur sur le terrain et de lui fournir de la rétroaction qui aidera la qualité des données. Dans le présent article, nous donnons un aperçu du projet de surveillance de l'IPAO à Statistique Canada en décrivant la méthodologie de surveillance de l'IPAO et les plans de mise en oeuvre.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010920
    Description :

    Au nom de Statistique Canada, j'aimerais vous souhaiter la bienvenue à tous, amis et collègues, au Symposium 2008. Il s'agit du 24e Symposium international organisé par Statistique Canada sur les questions de méthodologie.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010988
    Description :

    La collecte des données en ligne a commencé en 1995. Il s'agissait alors d'une solution de rechange pour mener certains types de recherche auprès des consommateurs, mais elle a pris de l'ampleur en 2008. Cette croissance a surtout été observée dans les études qui utilisent des méthodes d'échantillonnage non probabiliste. Bien que l'échantillonnage en ligne ait acquis de la crédibilité pour ce qui est de certaines applications de recherche, de sérieuses questions demeurent concernant le bien-fondé des échantillons prélevés en ligne dans le cas des recherches exigent des mesures volumétriques précises du comportement de la population des États-Unis, notamment en ce qui a trait aux voyages. Dans le présent exposé, nous passons en revue la documentation et comparons les résultats d'études fondées sur des échantillons probabilistes et des échantillons prélevés en ligne pour comprendre les différences entre ces deux méthodes d'échantillonnage. Nous montrons aussi que les échantillons prélevés en ligne sous-estiment d'importants types de voyages, même après pondération en fonction de données démographiques et géographiques.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010974
    Description :

    L'article porte sur les lignes directrices pour la conception des questionnaires des enquêtes-établissements. Plus précisément, il traite du processus de transition d'un ensemble de lignes directrices rédigées pour un public général de méthodologistes d'enquête à des lignes directrices s'adressant à un public plus restreint de gestionnaires d'enquête et d'analystes travaillant pour un organisme particulier. Ce processus a été le fruit des efforts d'une équipe constituée de divers employés de la Direction des programmes économiques du Census Bureau qui ont travaillé en étroite collaboration. Partant de lignes directrices générales, l'équipe a déterminé ce qu'il convenait d'ajouter, de modifier ou de supprimer, ainsi que la part d'information théorique et expérimentale relevée dans la littérature qu'il convenait d'inclure. Outre le processus, l'article décrit le résultat final : un ensemble de lignes directrices pour la conception de questionnaires s'adressant spécialement à la Direction des programmes économiques.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011001
    Description :

    Présentement en cours, l'Enquête québécoise sur la santé de la population (EQSP), dont la collecte se terminera en février 2009, offre l'opportunité, de par l'envergure de son échantillon, d'évaluer l'impact de l'envoi de lettres d'information aux répondants sur le taux de réponse, et ce, dans un environnement contrôlé. En effet, avec plus de 38 000 répondants attendus, une partie de l'échantillon de cette enquête téléphonique à portée régionale a pu être utilisée pour permettre cette étude, sans toutefois avoir un impact trop important sur le taux de réponse global de l'enquête. Dans les enquêtes à génération aléatoire de numéro de téléphone (GANT), telle que l'EQSP, un des principaux défis de l'envoi d'une lettre d'information est l'atteinte de l'unité enquêtée. Or, cette réussite dépend en grande partie de notre capacité à associer une adresse aux unités échantillonnées et de la qualité de celle-ci.

    Cet article décrit l'étude contrôlée mise de l'avant par l'Institut de la statistique du Québec pour mesurer l'incidence de l'envoi de lettres d'information aux répondants sur le taux de réponse de l'enquête.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010952
    Description :

    Dans une enquête où les résultats ont été estimés par des moyennes simples, nous comparons les incidences qu'ont sur les résultats un suivi des cas de non-réponse et une pondération fondée sur les derniers dix pour cent de répondants. Les données utilisées proviennent de l'Enquête sur les conditions de vie des immigrants en Norvège qui a été réalisée en 2006.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011005
    Description :

    En 2006, Statistics New Zealand a entrepris d'élaborer une stratégie de coordination des initiatives nouvelles et existantes centrées sur le fardeau imposé au répondant. L'élaboration de cette stratégie a duré plus d'un an, et l'engagement qu'a ensuite pris l'organisme de réduire le fardeau de réponse l'a obligé à résoudre un certain nombre de questions ayant une incidence sur la façon dont il exécute ses enquêtes.

    Le prochain défi que doit relever Statistics New Zealand est de passer des initiatives axées sur des projets décrits dans la stratégie à la gestion continue du fardeau de réponse.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010948
    Description :

    Les anciens instruments d'enquête, qu'il s'agisse de questionnaires imprimés ou de scénarios téléphoniques, constituaient leur propre documentation. Ce contexte est celui dans lequel la banque de questions de l'ESRC a été créée, en vue d'offrir l'accès gratuit aux questionnaires publiés sur Internet et de permettre aux chercheurs de réutiliser les questions, leur évitant ainsi certaines difficultés tout en améliorant la comparabilité de leurs données avec celles recueillies par d'autres. Cependant aujourd'hui, alors que la technologie des enquêtes et les programmes informatiques sont devenus plus perfectionnés, il semble plus difficile de comprendre exactement les questionnaires les plus récents, particulièrement quand chaque équipe d'enquête utilise ses propres conventions pour fournir des renseignements sur les questions complexes dans les rapports techniques. Le présent article a pour but d'illustrer ces problèmes et de proposer des normes provisoires de présentation à utiliser jusqu'à ce que le processus soit automatisé.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011010
    Description :

    L'Enquête sur l'emploi, la rémunération et les heures de travail (EERH) est une enquête mensuelle qui utilise deux sources de données : un recensement des formulaires de retenues sur la paye (PD7) (données administratives) et une enquête auprès des établissements. Le présent document est axé sur le traitement des données administratives, de la réception hebdomadaire des données de l'Agence du revenu du Canada à la production d'estimations mensuelles par les responsables de l'EERH.

    Les méthodes de contrôle et d'imputation utilisées pour traiter les données administratives ont été révisées au cours des dernières années. Les objectifs de ce remaniement étaient principalement d'améliorer la qualité des données et l'uniformité avec une autre source de données administratives (T4), qui constitue une mesure repère pour les responsables du Système de comptabilité nationale de Statistique Canada. On visait en outre à s'assurer que le nouveau processus serait plus facile à comprendre et à modifier, au besoin. Par conséquent, un nouveau module de traitement a été élaboré pour contrôler et imputer les formulaires PD7, avant l'agrégation des données au niveau mensuel.

    Le présent document comporte un aperçu des processus actuel et nouveau, y compris une description des défis auxquels nous avons fait face pendant l'élaboration. L'amélioration de la qualité est démontrée à la fois au niveau conceptuel (grâce à des exemples de formulaires PD7 et à leur traitement au moyen de l'ancien et du nouveau systèmes) et quantitativement (en comparaison avec les données T4).

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011013
    Description :

    L'enregistrement audio des interviews peut être un outil efficace et polyvalent de collecte des données. Cependant, il peut produire de gros fichiers dont la gestion est fastidieuse. Les progrès techniques, y compris de meilleurs outils de développement de logiciels audio et l'adoption croissante de connexions Internet à large bande, ont allégé le fardeau de la collecte de données audio. Le présent article porte sur les technologies et méthodes utilisées pour enregistrer et gérer les données d'enquête recueillies par enregistrement audio en se servant d'ordinateurs portatifs, de téléphones et de connexions Internet. Le processus décrit comprend un appareil raccordé directement au récepteur téléphonique qui diffuse les conversations en continu directement vers l'ordinateur portatif pour la sauvegarde et la transmission.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010984
    Description :

    Le Programme de gestion de portefeuille d'entreprises (PGPE) de Statistique Canada (StatCan) a donné la preuve du bien-fondé d'une approche « holistique » de la gestion des relations que nous entretenons avec les entreprises répondantes les plus grandes et les plus complexes.

    Comprenant que le niveau d'intervention devrait varier selon le type de répondants et ayant pris conscience de la valeur de l'approche « centrée sur l'entreprise » de gestion des relations avec les fournisseurs de données complexes importantes, StatCan a adopté une stratégie de gestion de la réponse consistant à subdiviser la population d'entreprises en quatre niveaux, en fonction de leur taille, de leur complexité et de l'importance des données pour la production des estimations de l'enquête. La population étant ainsi segmentée, diverses approches de gestion de la réponse ont été élaborées en tenant compte de la contribution relative du segment. Cette stratégie permet à StatCan de diriger ses ressources vers les domaines où il est probable que le rendement de l'investissement sera le plus important. Les groupes I et II ont été définis comme essentiels à la production des estimations de l'enquête.

    Le groupe I comprend les entreprises les plus grandes et les plus complexes au Canada et est géré par l'entremise du Programme de gestion de portefeuille d'entreprises.

    Le groupe II comprend des entreprises plus petites et moins complexes que celles du groupe I, mais quand même importantes pour l'élaboration de mesures exactes des activités des industries individuelles.

    Le groupe III comprend des entreprises de taille plus moyenne, qui représentent la majeure partie des échantillons d'enquête.

    Le groupe IV comprend les entreprises les plus petites, qui sont exclues du processus de collecte des données; pour ces entreprises, StatCan s'appuie entièrement sur des données fiscales.

    Le plan de la communication sera le suivant :Ça marche! Résultats et mesures provenant des programmes qui ont mis en oeuvre la stratégie globale de gestion des réponses.Élaboration d'une approche méthodologique moins subjective pour segmenter la population des enquêtes-entreprises en vue de la gestion globale des réponses. Travaux de l'équipe de projet en vue de cerner les facteurs de complexité intrinsèquement utilisés par les employés expérimentés pour classer les répondants.Ce que les répondants « à problèmes » nous ont dit au sujet des problèmes sous-jacents à la non-réponse.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010979
    Description :

    Avant 2006, il fallait compter sur le personnel sur le terrain pour livrer les questionnaires du Recensement de la population à tous les logements du Canada. En 2006, on a établi une base de sondage des adresses couvrant presque 70 % des logements du pays et ces questionnaires ont été livrés par Postes Canada. Pour le Recensement de 2011, Statistique Canada prévoit élargir cette base de sondage afin d'envoyer les questionnaires par la poste à quelque 80 % à 85 % des logements. L'envoi des questionnaires du recensement par la poste soulève un certain nombre d'enjeux : s'assurer que les questionnaires renvoyés sont comptabilisés dans le bon secteur, mettre à jour la base de sondage des adresses au fur et à mesure des ajouts et déterminer les secteurs où il n'est pas indiqué de poster les questionnaires. Les modifications apportées à la méthode de mise à jour de la base de sondage pour 2011, notamment la décision d'utiliser des données purement administratives dans la mesure du possible et d'effectuer des mises à jour sur le terrain uniquement lorsque cela s'avère nécessaire, comportent de nouveaux défis pour la tenue du Recensement de 2011.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010949
    Description :

    La portée élargie des lois sur l'égalité au Royaume-Uni a entraîné l'obligation de recueillir des données sur l'orientation sexuelle. C'est pourquoi l'ONS a lancé un projet dont l'objectif est de donner des conseils sur la meilleure façon de recueillir des données sur ce sujet et d'examiner la possibilité de fournir des données qui répondront aux besoins des utilisateurs.

    Le projet porte sur les méthodes qualitatives et quantitatives de recherche liées à l'élaboration des questions et aux aspects opérationnels des enquêtes. Il comprend notamment :

    un examen des enquêtes du Royaume-Uni et d'autres pays qui recueillent déjà des données sur l'orientation/identité sexuelle;une série de groupes de discussion portant sur des questions d'ordre conceptuel entourant la notion d'« identité sexuelle », y compris les termes connexes et le caractère acceptable des questions dans le contexte d'enquêtes-ménages à objectifs multiples;une série d'essais quantitatifs portant une attention particulière à la non-réponse, à l'administration des questions et à la collecte des données;des tests cognitifs pour s'assurer que les questions sont interprétées comme il se doit;une recherche quantitative sur le biais potentiel lié aux réponses par personne interposée.Les problèmes concernant les analyses futures et les rapports sont examinés en même temps que l'élaboration des questions, par exemple ceux liés à l'établissement de statistiques exactes sur les populations présentant une faible prévalence.

    L'exposé porte également sur des questions pratiques d'administration des enquêtes concernant la garantie de confidentialité dans une situation d'interviews simultanées, qu'il s'agisse d'interviews sur place ou d'interviews téléphoniques.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011003
    Description :

    Le but de la présente étude est d'examiner la possibilité d'élaborer des facteurs de correction pour rajuster les mesures de l'indice de masse corporelle fondées sur des données autodéclarées afin d'obtenir des valeurs plus proches de celles calculées d'après des données mesurées. Les données proviennent de l'Enquête sur la santé dans les collectivités canadiennes de 2005 (ESCC) dans le cadre de laquelle on a demandé aux répondants d'indiquer leur taille et leur poids, lesquels ont ensuite été mesurés. Des analyses par régression ont été effectuées pour déterminer quelles caractéristiques sociodémographiques et relatives à la santé sont associées aux écarts entre les valeurs fondées sur des données autodéclarées et des données mesurées. L'échantillon a ensuite été divisé en deux groupes. Pour le premier, on a procédé à la régression de l'indice de masse corporelle (IMC) fondé sur des données autodéclarées et des prédicteurs des écarts sur l'IMC fondé sur des données mesurées. Des équations de correction ont été établies en utilisant toutes les variables explicatives ayant un effet significatif au seuil de signification de p<0,05. Puis, ces équations de correction ont été testées dans le deuxième groupe afin de calculer des estimations de la sensibilité, de la spécificité et de la prévalence de l'obésité. La relation entre l'IMC fondé sur des données mesurées, déclarées et corrigées, d'une part, et les problèmes de santé liés à l'obésité, d'autre part, a été examinée par régression logistique. Les estimations corrigées ont produit des mesures plus exactes de la prévalence de l'obésité, de l'IMC moyen et des niveaux de sensibilité. Les données autodéclarées exagéraient la relation entre l'IMC et les problèmes de santé, tandis que dans la plupart des cas, les estimations corrigées produisaient des rapports de cotes plus semblables à ceux obtenus pour l'IMC fondé sur des données mesurées.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011016
    Description :

    Alors que prennent fin une journée d'ateliers et trois journées bien remplies de séances, j'ai l'immense plaisir de vous livrer le mot de la fin et, surtout, de souligner les efforts déployés par ceux qui ont contribué au succès du Symposium de cette année. J'admets avec force qu'il s'agit d'une réussite.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800010971
    Description :

    Discours principal

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200800011008
    Description :

    Dans un certain sens, un questionnaire n'est jamais achevé. Les résultats des essais, les paradonnées et les constatations émanant des travaux de recherche fournissent constamment des raisons de le mettre à jour et de l'améliorer. En outre, les établissements évoluent au cours du temps et les questions doivent être modifiées en conséquence. Dans la réalité, toutefois, il n'en est pas toujours ainsi. Statistics Sweden compte plusieurs exemples de questionnaires qui ont rarement été améliorés après avoir été conçus. Néanmoins, nous essayons à l'heure actuelle de passer, pour la conception des questionnaires, d'une perspective linéaire à une perspective cyclique. Nous élaborons un modèle cyclique permettant d'améliorer continuellement les questionnaires en plusieurs cycles. Le présent article décrit ce modèle et la façon dont nous l'utilisons.

    Date de diffusion : 2009-12-03

Date de modification :