Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

48 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

48 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

48 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Type d’information

2 facettes affichées. 0 facettes sélectionnées.

Auteur(s)

48 facettes affichées. 1 facettes sélectionnées.

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (62)

Tout (62) (25 of 62 results)

  • Produits techniques : 11-522-X201700014735
    Description :

    La diffusion de microdonnées exige habituellement des méthodes de réduction et de modification des données, et le degré d’application de ces méthodes dépend des méthodes de contrôle qui seront nécessaires pour accéder aux données et les utiliser. Le calcul sécurisé est une approche qui, dans certaines circonstances, convient davantage pour accéder aux données à des fins statistiques; il permet le calcul de fonctions analytiques à l’égard de données chiffrées sans qu’il soit nécessaire de déchiffrer les données sources sous-jacentes pour procéder à une analyse statistique. Cette approche permet aussi à plusieurs emplacements de fournir des données, tout en garantissant une protection rigoureuse de la vie privée. De cette façon, les données peuvent être regroupées, et les fournisseurs de données peuvent calculer des fonctions analytiques, sans qu’aucune des parties ne connaisse les entrées des autres. À l’aide de certains résultats théoriques et d’exemples réels issus du domaine des soins de santé, nous expliquerons comment le calcul sécurisé peut être appliqué dans des contextes pratiques.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014738
    Description :

    Sous l’approche classique de traitement des observations manquantes fondée sur le plan de sondage, la construction de classes de pondération et le calage sont utilisés pour ajuster les poids de sondage pour les répondants présents dans l’échantillon. Ici, nous utilisons ces poids ajustés pour définir une loi de Dirichlet qui peut servir à faire des inférences au sujet de la population. Des exemples montrent que les procédures résultantes possèdent de meilleures propriétés de performance que les méthodes classiques quand la population est asymétrique.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014740
    Description :

    Dans le présent document, nous abordons les répercussions des prestations d’emploi et mesures de soutien versées au Canada, en vertu des Ententes sur le développement du marché du travail. Nous utilisons un ensemble riche de données administratives longitudinales couplées englobant tous les participants aux EDMT de 2002 à 2005. Sur la base d’un appariement par score de propension, comme dans Blundell et coll. (2002), Gerfin et Lechner (2002), et Sianesi (2004), nous avons produit des estimations de l’impact différentiel à l’échelle nationale à partir d’un estimateur de l’écart des différences et d’un estimateur par la méthode du noyau (Heckman et Smith, 1999). Les résultats laissent supposer que, tant pour les Services d’aide à l’emploi que pour les programmes de prestations d’emploi, comme le Développement des compétences et les Subventions salariales ciblées, des effets positifs se font sentir sur la rémunération et l’emploi.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014714
    Description :

    Les Ententes sur le développement du marché du travail (EDMT) sont des ententes entre le Canada et les provinces et territoires visant à financer la formation et les services de soutien sur le marché du travail pour les prestataires d’assurance-emploi. L’objectif de cette communication est d’examiner les améliorations au fil des ans de la méthode d’évaluation des répercussions. Le présent document décrit les EDMT et les travaux d’élaboration passés et mentionne les raisons qui motivent une meilleure utilisation de fonds de données administratives importants. Suit une explication détaillée de la façon dont la nouvelle approche a fait en sorte que le processus d’évaluation nécessite moins de ressources, alors que les résultats s’appliquent mieux à l’élaboration de politiques. Le document fait aussi état des leçons apprises d’un point de vue méthodologique et fournit un aperçu des façons de rendre efficace ce type d’utilisation des données administratives, particulièrement dans le contexte des grands programmes.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014718
    Description :

    La présente étude vise à déterminer si le fait de commencer à participer aux Services d’aide à l’emploi (SAE) tôt après la présentation de la demande d’assurance-emploi (a.-e.) donne de meilleurs résultats pour les chômeurs que leur participation plus tardive durant la période de prestations. Comme dans Sianesi (2004) et dans Hujer et Thomsen (2010), l’analyse s’appuie sur une méthode d’appariement par score de propension stratifié, conditionnelle à la durée discrétisée de la période de chômage jusqu’au commencement du programme. Les résultats montrent que les personnes qui ont participé aux SAE dans les quatre premières semaines après la présentation de la demande d’assurance-emploi sont celles chez lesquelles les effets sur la rémunération et l’incidence de l’emploi ont été les meilleurs et que ces personnes ont également vu se réduire l’utilisation de l’assurance-emploi à partir de la deuxième année après le programme.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014743
    Description :

    Le couplage probabiliste est susceptible de donner des erreurs d’appariement telles que les faux positifs et les faux négatifs . Dans de nombreux cas, ces erreurs peuvent être mesurées fiablement par des vérifications manuelles, c’est-à-dire l’inspection visuelle d’un échantillon de paires d’enregistrements pour déterminer si elles sont appariées. Nous décrivons un cadre pour la bonne exécution de ces vérifications qui se fonde sur un échantillon probabiliste de paires, des vérifications indépendantes répétées de mêmes paires et une analyse de classes latentes pour tenir compte des erreurs de vérification manuelle.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014709
    Description :

    La congestion routière ne se limite pas aux grandes villes, mais elle se manifeste aussi dans les villes de taille moyenne et sur les autoroutes qui traversent les villes. Parmi une large gamme de mesures de la congestion, six ont été sélectionnées en vue de faciliter l’agrégation et en raison de leur capacité à utiliser les données instantanées de la composante des véhicules légers de l’EUVC en 2014. Parmi les mesures sélectionnées, l’indice de congestion est peut-être le seul qui n’est pas biaisé. Cette mesure sert à illustrer différents aspects de la congestion du réseau routier.

    Date de diffusion : 2016-03-24

  • Articles et rapports : 82-003-X201600114307
    Description :

    À partir de l’Enquête auprès des peuples autochtones de 2012, la présente étude examine les propriétés psychométriques de l’échelle de détresse psychologique à 10 questions de Kessler (une mesure abrégée de la détresse psychologique non spécifique) appliquée aux Premières Nations vivant à l’extérieur des réserves, aux Métis et aux Inuits âgés de 15 ans et plus.

    Date de diffusion : 2016-01-20

  • Articles et rapports : 12-001-X201500214238
    Description :

    Félix-Medina et Thompson (2004) ont proposé une variante de l’échantillonnage par dépistage de liens pour échantillonner des populations humaines cachées ou difficiles à joindre, comme les toxicomanes et les travailleurs de l’industrie du sexe. Dans cette variante, on commence par sélectionner un échantillon d’emplacements, puis on demande aux personnes trouvées dans les lieux échantillonnés de nommer d’autres membres de la population à inclure dans l’échantillon. Ces auteurs ont établi des estimateurs du maximum de vraisemblance de la taille de la population sous l’hypothèse que la probabilité qu’une personne soit nommée par une autre dans un lieu échantillonné (probabilité de lien) ne dépend pas de la personne nommée (hypothèse d’homogénéité). Dans le présent travail, nous étendons leur recherche au cas où les probabilités de lien sont hétérogènes et dérivons des estimateurs du maximum de vraisemblance inconditionnel et conditionnel de la taille de la population. Nous proposons aussi des intervalles de confiance par vraisemblance profilée et par bootstrap pour la taille de la population. Les résultats de nos études en simulation montrent qu’en présence de probabilités de lien hétérogènes, les estimateurs proposés donnent d’assez bons résultats à condition que les fractions d’échantillonnage soient relativement grandes, disons supérieures à 0,5, tandis que la performance des estimateurs calculés sous l’hypothèse d’homogénéité n’est pas bonne. Les résultats montrent aussi que les intervalles de confiance proposés ne sont pas très robustes aux écarts par rapport aux modèles supposés.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 82-003-X201501214295
    Description :

    À l’aide du modèle de microsimulation du cancer du sein mis au point par le Cancer Intervention and Surveillance Monitoring Network de l’Université du Wisconsin adapté au contexte canadien, on a évalué 11 stratégies de dépistage par mammographie sur le plan des coûts et des années de vie ajustées en fonction de la qualité. Ces stratégies, qui s’adressent à la population générale, diffèrent selon l’âge au début et à la fin du dépistage ainsi que la fréquence des examens de dépistage. Des rapports coût/efficacité différentiels sont présentés, et des analyses de sensibilité servent à évaluer la robustesse des conclusions du modèle.

    Date de diffusion : 2015-12-16

  • Produits techniques : 11-522-X201300014257
    Description :

    L’Étude sur l’utilisation des véhicules au Canada est menée par Transports Canada, en partenariat avec Environnement Canada, Ressources naturelles Canada et les registraires provinciaux. L’étude se divise en deux composantes : les véhicules légers, comme les voitures, minifourgonnettes, VUS et camions dont le poids nominal brut du véhicule (PNBV) est inférieur à 4,5 tonnes métriques; et la composante des véhicules moyens et lourds, c’est-à-dire les camions dont le PNBV est de 4,5 tonnes métriques et plus. L’étude est la première qui recueille des données sur l’activité directement dans les véhicules, au moyen de méthodes de collecte électronique exclusivement. Cela permet d’obtenir plus de renseignements opportuns et fiables.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 12-001-X201400114029
    Description :

    Fay et Train (1995) présentent une méthode qu’ils nomment successive difference replication, c.-à-d. répliques des différences successives, qui peut être utilisée pour estimer la variance d’un total estimé au moyen d’un échantillon aléatoire systématique tiré d’une liste ordonnée. L’estimateur prend la forme générale d’un estimateur de variance par rééchantillonnage, où les facteurs de rééchantillonnage sont construits de manière à imiter l’estimateur par différences successives. Cet estimateur est une modification de celui présenté dans Wolter (1985). Le présent article étend la méthodologie en expliquant l’effet de l’attribution des lignes de matrice sur l’estimateur de variance, en montrant comment un jeu réduit de répliques mène à un estimateur raisonnable et en établissant les conditions pour que la méthode des répliques des différences successives soit équivalente à l’estimateur par différences successives.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201300111831
    Description :

    Nous considérons une estimation prudente de la variance pour l'estimateur de Horvitz-Thompson d'un total de population sous des plans d'échantillonnage avec probabilités d'inclusion par paire nulles, appelés plans « non mesurables ». Nous décomposons l'estimateur de variance de Horvitz-Thompson classique sous ce genre de plan et caractérisons le biais de manière précise. Nous élaborons une correction du biais qui est garantie d'être faiblement prudente (non biaisée négativement) quelle que soit la nature de la non-mesurabilité. L'analyse jette de la lumière sur les conditions sous lesquelles l'estimateur de variance de Horvitz-Thompson classique donne de bons résultats malgré la non-mesurabilité et où la correction du biais prudente peut être meilleure que les approximations utilisées habituellement.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 82-003-X201300111764
    Description :

    La présente étude compare deux sources d'information sur la consommation de médicaments sur ordonnance par les personnes de 65 ans et plus en Ontario - l'Enquête sur la santé dans les collectivités canadiennes (ESCC) et la base de données des demandes de paiement pour médicaments du Programme de médicaments de l'Ontario (PMO). L'analyse porte sur les médicaments contre les troubles cardiovasculaires et le diabète, parce qu'ils sont utilisés fréquemment, et que presque tous sont prescrits régulièrement.

    Date de diffusion : 2013-01-16

  • Articles et rapports : 82-003-X201100411598
    Description :

    Les données longitudinales permettent d'étudier la dynamique de l'état de santé au cours du cycle de vie en modélisant les trajectoires. Les trajectoires de l'état de santé mesurées au moyen de l'indice de l'état de santé Health Utilities Index Mark 3 (HUI3) modélisées sous forme d'une fonction de l'âge seulement, ainsi que d'une fonction de l'âge et de covariables socioéconomiques, ont révélé des résidus non normaux et des problèmes d'estimation de variance. Le but de l'étude était d'examiner la possibilité de transformer la distribution des scores HUI3 de manière à obtenir des résidus qui suivent approximativement une loi normale.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100111449
    Description :

    Nous analysons l'efficacité statistique et économique de diverses enquêtes avec échantillonnage en grappes pour lesquelles la collecte des données est effectuée à deux périodes, ou vagues, consécutives. Dans le cas d'un plan à échantillons indépendants, un échantillon en grappes est tiré de manière indépendante à chacune des deux vagues. Dans le cas d'un plan à panel de grappes, les mêmes grappes sont utilisées aux deux vagues, mais le tirage des échantillons dans les grappes est effectué indépendamment aux deux périodes. Dans un plan à panel d'unités d'observation, les grappes ainsi que les unités d'observation sont retenues d'une vague de collecte des données à l'autre. En supposant que la structure de la population est simple, nous calculons les variances sous le plan ainsi que les coûts des enquêtes réalisées selon ces divers types de plan. Nous considérons d'abord l'estimation de la variation de la moyenne de population entre deux périodes et nous déterminons les répartitions d'échantillon optimales pour les trois plans étudiés. Nous proposons ensuite un cadre de maximisation de l'utilité emprunté à la microéconomie en vue d'illustrer une approche possible pour choisir le plan dans laquelle nous nous efforçons d'optimiser simultanément plusieurs variances. La prise en compte simultanée de plusieurs moyennes et de leurs variances a tendance à faire pencher la préférence du plan à panel d'unités d'observation vers les plans à panel de grappes et à échantillons indépendants plus simples si le mode de collecte de données par panel est trop coûteux. Nous présentons des exemples numériques qui illustrent comment un concepteur d'enquête pourrait choisir le plan efficace sachant les paramètres de population et les coûts de collecte des données.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 82-003-X201100111404
    Description :

    La présente étude vise à évaluer trois échelles de comportement parental déclaré par l'enfant (nurturance, rejet et surveillance) utilisées dans l'Enquête nationale longitudinale sur les enfants et les jeunes.

    Date de diffusion : 2011-02-16

  • Articles et rapports : 12-001-X201000111252
    Description :

    Le biais dû à la non-réponse est un problème examiné de longue date dans le domaine de la recherche sur les enquêtes (Brehm 1993 ; Dillman, Eltinge, Groves et Little 2002), et de nombreuses études ont eu pour objectif de préciser les facteurs qui ont une influence sur la non-réponse partielle ainsi que totale. Dans le but de contribuer à la réalisation de l'objectif plus général consistant à réduire au minimum la non-réponse aux enquêtes, nous examinons dans la présente étude plusieurs facteurs pouvant avoir une incidence sur cette non-réponse, en utilisant les données de l'Animal Welfare Survey de 2007 réalisée en Ohio, aux États-Unis. En particulier, nous examinons la mesure dans laquelle l'intérêt du sujet et les primes d'incitation influent sur la participation aux enquêtes et sur la non-réponse partielle, en nous inspirant de la théorie du levier et de la saillance (leverage-saliency theory) (Groves, Singer et Corning 2000). Nous constatons que la participation à une enquête est influencée par le contexte du sujet (car celui-ci exerce un effet de levier positif ou négatif sur les unités échantillonnées) et par les primes d'incitation prépayées, ce qui est en harmonie avec la théorie du levier et de la saillance. La constatation que la non-réponse partielle, notre mesure indirecte de la qualité de la réponse, varie en fonction de la proximité par rapport à l'agriculture et l'environnement (lieu de résidence, connaissances sur la production des aliments et opinions quant à l'importance du bien être des animaux) confirme aussi nos attentes. Cependant, les données laissent entendre que la non-réponse partielle ne varie pas selon qu'un répondant reçoit ou non une prime d'incitation.

    Date de diffusion : 2010-06-29

  • Produits techniques : 11-522-X200800010957
    Description :

    Les enquêtes menées auprès d'entreprises diffèrent des enquêtes menées auprès de la population ou des ménages à bien des égards. Deux des plus importantes différences sont : (a) les répondants aux enquêtes-entreprises ne répondent pas à des questions sur des caractéristiques les concernant (leurs expériences, leurs comportements, leurs attitudes et leurs sentiments), mais sur des caractéristiques de leur organisation (taille, revenu, politiques, stratégies, etc.) et (b) les répondants aux questions parlent au nom d'une organisation. Les enquêtes-entreprises théoriques diffèrent pour leur part des autres enquêtes-entreprises, comme celles des bureaux nationaux de la statistique, à bien des égards aussi. Le fait que les enquêtes-entreprises théoriques ne visent habituellement pas la production de statistiques descriptives mais plutôt la réalisation de tests d'hypothèses (relations entre variables) constitue la plus importante différence. Les taux de réponse aux enquêtes-entreprises théoriques sont très faibles, ce qui suppose un risque énorme de biais de non-réponse. Aucune tentative n'est habituellement faite pour évaluer l'importance du biais attribuable à la non-réponse, et les résultats publiés peuvent par conséquent ne pas refléter fidèlement les vraies relations au sein de la population, ce qui augmente par ricochet la probabilité que les résultats des tests soient incorrects.

    Les auteurs de la communication analysent la façon dont le risque de biais dû à la non-réponse est étudié dans les documents de recherche publiés dans les grandes revues de gestion. Ils montrent que ce biais n'est pas suffisamment évalué et que la correction du biais est difficile ou très coûteux dans la pratique, si tant est que des tentatives sont faites en ce sens. Trois façons de traiter ce problème sont examinées :(a) réunir des données par d'autres moyens que des questionnaires;(b) mener des enquêtes auprès de très petites populations;(c) mener des enquêtes avec de très petits échantillons.

    Les auteurs examinent les raisons pour lesquelles ces méthodes constituent des moyens appropriés de mise à l'essai d'hypothèses dans les populations. Les compromis concernant le choix d'une méthode sont aussi examinés.

    Date de diffusion : 2009-12-03

  • Articles et rapports : 12-001-X200800210761
    Description :

    La stratification optimale est la méthode qui consiste à choisir les meilleures bornes qui rendent les strates intérieurement homogènes, étant donné la répartition de l'échantillon. Afin de rendre les strates intérieurement homogènes, celles ci doivent être construites de façon que les variances de strate de la caractéristique étudiée soient aussi faibles que possible. Un moyen efficace d'y arriver, si l'on connaît la distribution de la principale variable étudiée, consiste à créer des strates en découpant l'étendue de la distribution à des points appropriés. Si la distribution des fréquences de la variable étudiée est inconnue, on peut l'approximer en se fondant sur l'expérience passée ou sur certains renseignements a priori obtenus au cours d'une étude récente. Dans le présent article, le problème de la détermination des bornes optimales de strate (BOS) est considéré comme étant le problème de la détermination des largeurs optimales de strate (LOS). Il est formulé comme un problème de programmation mathématique (PPM) consistant à minimiser la variance du paramètre de population estimé sous la répartition de Neyman en imposant que la somme des largeurs des strates soit égale à l'étendue totale de la distribution. La variable étudiée est considérée comme suivant un loi continue dont la densité de probabilité est triangulaire ou normale standard. Les PPM formulés, qui s'avèrent être des problèmes de décision à plusieurs degrés, peuvent alors être résolus en utilisant la méthode de programmation dynamique proposée par Bühler et Deutler (1975). Des exemples numériques sont présentés pour illustrer les calculs. Les résultats obtenus sont également comparés à ceux donnés par la méthode de Dalenius et Hodges (1959) dans le cas d'une distribution normale.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800110615
    Description :

    Nous considérons les taux d'échantillonnage optimaux dans des plans d'échantillonnage par élément, quand l'analyse prévue est la régression linéaire pondérée par les poids de sondage et que les paramètres à estimer sont des combinaisons linéaires des coefficients de régression provenant d'un ou de plusieurs modèles. Nous commençons par élaborer des méthodes en supposant que des renseignements exacts sur les variables du plan existent dans la base de sondage, puis nous les généralisons à des situations où l'information pour certaines variables du plan n'est disponible que sous forme d'agrégat pour des groupes de sujets éventuels ou provient de données inexactes ou périmées. Nous envisageons également un plan d'échantillonnage pour l'estimation de combinaisons de coefficients provenant de plus d'un modèle. Une généralisation supplémentaire permet d'utiliser des combinaisons flexibles de coefficients choisies pour améliorer l'estimation d'un effet tout en en contrôlant un autre. Les applications éventuelles comprennent l'estimation des moyennes pour plusieurs ensembles de domaines chevauchants, ou l'amélioration des estimations pour des sous populations telles que les races minoritaires par échantillonnage non proportionnel des régions géographiques. Dans le contexte de la conception d'un sondage sur les soins reçus par les cancéreux (l'étude CanCORS) qui a motivé nos travaux, l'information éventuelle sur les variables du plan d'échantillonnage comprenait des données de recensement au niveau de l'îlot sur la race/ethnicité et la pauvreté, ainsi que des données au niveau individuel. Pour un emplacement de l'étude, un plan d'échantillonnage avec probabilités inégales en utilisant les adresses résidentielles des sujets et des données de recensement réduirait la variance de l'estimateur d'un effet du revenu de 25 %, ou de 38 % si la race des sujets avait été connue également. Par pondération flexible des contrastes du revenu selon la race, la variance de l'estimateur serait réduite de 26 % en utilisant les adresses résidentielles seulement et de 52 % en utilisant les adresses et les races. Nos méthodes seraient utiles dans les études où l'on considère un suréchantillonnage géographique selon la race ethnicité ou les caractéristiques socioéconomiques, ou dans toute étude où les caractéristiques pour lesquelles des données sont disponibles dans les bases de sondage sont mesurées avec une erreur.

    Date de diffusion : 2008-06-26

  • Produits techniques : 11-522-X200600110425
    Description :

    Supposons que les données d'une enquête avec plan de sondage à plusieurs degrés doivent être recueillies pour deux périodes de référence. Le présent article décrit les mérites relatifs de la méthode consistant à garder les mêmes grappes dans l'échantillon comparativement à l'échantillonnage de nouvelles grappes sous divers scénarios statistiques (corrélation entre les grappes et au cours du temps) et logistiques (coût de l'enquête). L'effet du plan dans le cas de la réutilisation au cours du temps des mêmes grappes tirées de l'échantillon principal est de la forme "1 - Ap(pi)/n", où " p " est la corrélation intertemporelle des totaux de grappe, "n" est le nombre de grappes, "pi" est la proportion de grappes du cycle précédent qui sont retenues et "A>0" est une constante fixe. Pourvu que les gains d'efficacité paraissent peu importants, la valeur des plans comportant la réutilisation des grappes tient à des considérations logistiques (coût de l'enquête). Nous présentons une démonstration empirique au moyen de données provenant de la Demography and Health Survey (DHS) réalisée au Bangladesh en 1996 et en 2000.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110414
    Description :

    En Finlande, les premières enquêtes de santé nationales par examen ont eu lieu durant les années 1960. Des enquêtes complètes auprès d'échantillons représentatifs de la population nationale ont été réalisées de 1978 à 1980 (Enquête sur la santé Mini Finlande) et de 2000 à 2001 (Santé 2000). Des enquêtes sur les facteurs de risque de maladie cardiovasculaire, appelées enquêtes FinRisk, ont été menées à intervalle de cinq ans en vue d'évaluer les tendances de ces facteurs. Les enquêtes de santé par examen représentent un outil important de surveillance de la santé et, lorsque leurs données sont couplées à celles des registres, constituent une riche source d'information pour les études épidémiologiques. L'article donne aussi des exemples de rapports publiés en s'appuyant sur plusieurs de ces études.

    Date de diffusion : 2008-03-17

  • Articles et rapports : 12-001-X200700210490
    Description :

    L'Enquête européenne sur le revenu et les conditions de vie (Statistics on Income and Living Conditions, SILC) a remplacé le Panel européen à partir de 2004. Elle permet de produire des statistiques annuelles sur la répartition des revenus, ainsi que sur la pauvreté et l'exclusion sociale. Cette enquête longitudinale, dont la collecte a eu lieu pour la première fois en France en mai 2004, touche tous les individus de plus de 15 ans occupant les 16 000 logements tirés dans l'échantillon-maître et la base de sondage des logements neufs. Tous ces individus sont suivis au cours du temps, même lorsqu'ils changent de logement. L'enquête doit aussi fournir des estimations transversales de qualité.

    Afin de limiter la charge des enquêtés, le plan de sondage préconisé pour SILC par Eurostat est un schéma rotatif basé sur quatre panels d'une durée de quatre ans chacun avec remplacement d'un panel tous les ans. La France a néanmoins choisi de porter la durée de ses panels à neuf années. Le plan de sondage rotatif permet de répondre aux besoins longitudinaux et transversaux de l'enquête. Cependant, il pose des défis en matière de pondération.

    Après un rappel du contexte de l'inférence lorsqu'on pratique une enquête longitudinale, l'article traite des pondérations longitudinales et transversales, qui sont conçues de manière à produire des estimateurs approximativement sans biais.

    Date de diffusion : 2008-01-03

  • Produits techniques : 11-522-X20040018733
    Description :

    Une enquête auprès d'utilisateurs de drogues injectables exploite l'information obtenue des centres d'échange de seringues de même que des utilisateurs échantillonnés. Le cadre méthodologique permet d'en tirer divers estimés.

    Date de diffusion : 2005-10-27

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (30)

Analyses (30) (25 of 30 results)

  • Articles et rapports : 82-003-X201600114307
    Description :

    À partir de l’Enquête auprès des peuples autochtones de 2012, la présente étude examine les propriétés psychométriques de l’échelle de détresse psychologique à 10 questions de Kessler (une mesure abrégée de la détresse psychologique non spécifique) appliquée aux Premières Nations vivant à l’extérieur des réserves, aux Métis et aux Inuits âgés de 15 ans et plus.

    Date de diffusion : 2016-01-20

  • Articles et rapports : 12-001-X201500214238
    Description :

    Félix-Medina et Thompson (2004) ont proposé une variante de l’échantillonnage par dépistage de liens pour échantillonner des populations humaines cachées ou difficiles à joindre, comme les toxicomanes et les travailleurs de l’industrie du sexe. Dans cette variante, on commence par sélectionner un échantillon d’emplacements, puis on demande aux personnes trouvées dans les lieux échantillonnés de nommer d’autres membres de la population à inclure dans l’échantillon. Ces auteurs ont établi des estimateurs du maximum de vraisemblance de la taille de la population sous l’hypothèse que la probabilité qu’une personne soit nommée par une autre dans un lieu échantillonné (probabilité de lien) ne dépend pas de la personne nommée (hypothèse d’homogénéité). Dans le présent travail, nous étendons leur recherche au cas où les probabilités de lien sont hétérogènes et dérivons des estimateurs du maximum de vraisemblance inconditionnel et conditionnel de la taille de la population. Nous proposons aussi des intervalles de confiance par vraisemblance profilée et par bootstrap pour la taille de la population. Les résultats de nos études en simulation montrent qu’en présence de probabilités de lien hétérogènes, les estimateurs proposés donnent d’assez bons résultats à condition que les fractions d’échantillonnage soient relativement grandes, disons supérieures à 0,5, tandis que la performance des estimateurs calculés sous l’hypothèse d’homogénéité n’est pas bonne. Les résultats montrent aussi que les intervalles de confiance proposés ne sont pas très robustes aux écarts par rapport aux modèles supposés.

    Date de diffusion : 2015-12-17

  • Articles et rapports : 82-003-X201501214295
    Description :

    À l’aide du modèle de microsimulation du cancer du sein mis au point par le Cancer Intervention and Surveillance Monitoring Network de l’Université du Wisconsin adapté au contexte canadien, on a évalué 11 stratégies de dépistage par mammographie sur le plan des coûts et des années de vie ajustées en fonction de la qualité. Ces stratégies, qui s’adressent à la population générale, diffèrent selon l’âge au début et à la fin du dépistage ainsi que la fréquence des examens de dépistage. Des rapports coût/efficacité différentiels sont présentés, et des analyses de sensibilité servent à évaluer la robustesse des conclusions du modèle.

    Date de diffusion : 2015-12-16

  • Articles et rapports : 12-001-X201400114029
    Description :

    Fay et Train (1995) présentent une méthode qu’ils nomment successive difference replication, c.-à-d. répliques des différences successives, qui peut être utilisée pour estimer la variance d’un total estimé au moyen d’un échantillon aléatoire systématique tiré d’une liste ordonnée. L’estimateur prend la forme générale d’un estimateur de variance par rééchantillonnage, où les facteurs de rééchantillonnage sont construits de manière à imiter l’estimateur par différences successives. Cet estimateur est une modification de celui présenté dans Wolter (1985). Le présent article étend la méthodologie en expliquant l’effet de l’attribution des lignes de matrice sur l’estimateur de variance, en montrant comment un jeu réduit de répliques mène à un estimateur raisonnable et en établissant les conditions pour que la méthode des répliques des différences successives soit équivalente à l’estimateur par différences successives.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201300111831
    Description :

    Nous considérons une estimation prudente de la variance pour l'estimateur de Horvitz-Thompson d'un total de population sous des plans d'échantillonnage avec probabilités d'inclusion par paire nulles, appelés plans « non mesurables ». Nous décomposons l'estimateur de variance de Horvitz-Thompson classique sous ce genre de plan et caractérisons le biais de manière précise. Nous élaborons une correction du biais qui est garantie d'être faiblement prudente (non biaisée négativement) quelle que soit la nature de la non-mesurabilité. L'analyse jette de la lumière sur les conditions sous lesquelles l'estimateur de variance de Horvitz-Thompson classique donne de bons résultats malgré la non-mesurabilité et où la correction du biais prudente peut être meilleure que les approximations utilisées habituellement.

    Date de diffusion : 2013-06-28

  • Articles et rapports : 82-003-X201300111764
    Description :

    La présente étude compare deux sources d'information sur la consommation de médicaments sur ordonnance par les personnes de 65 ans et plus en Ontario - l'Enquête sur la santé dans les collectivités canadiennes (ESCC) et la base de données des demandes de paiement pour médicaments du Programme de médicaments de l'Ontario (PMO). L'analyse porte sur les médicaments contre les troubles cardiovasculaires et le diabète, parce qu'ils sont utilisés fréquemment, et que presque tous sont prescrits régulièrement.

    Date de diffusion : 2013-01-16

  • Articles et rapports : 82-003-X201100411598
    Description :

    Les données longitudinales permettent d'étudier la dynamique de l'état de santé au cours du cycle de vie en modélisant les trajectoires. Les trajectoires de l'état de santé mesurées au moyen de l'indice de l'état de santé Health Utilities Index Mark 3 (HUI3) modélisées sous forme d'une fonction de l'âge seulement, ainsi que d'une fonction de l'âge et de covariables socioéconomiques, ont révélé des résidus non normaux et des problèmes d'estimation de variance. Le but de l'étude était d'examiner la possibilité de transformer la distribution des scores HUI3 de manière à obtenir des résidus qui suivent approximativement une loi normale.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100111449
    Description :

    Nous analysons l'efficacité statistique et économique de diverses enquêtes avec échantillonnage en grappes pour lesquelles la collecte des données est effectuée à deux périodes, ou vagues, consécutives. Dans le cas d'un plan à échantillons indépendants, un échantillon en grappes est tiré de manière indépendante à chacune des deux vagues. Dans le cas d'un plan à panel de grappes, les mêmes grappes sont utilisées aux deux vagues, mais le tirage des échantillons dans les grappes est effectué indépendamment aux deux périodes. Dans un plan à panel d'unités d'observation, les grappes ainsi que les unités d'observation sont retenues d'une vague de collecte des données à l'autre. En supposant que la structure de la population est simple, nous calculons les variances sous le plan ainsi que les coûts des enquêtes réalisées selon ces divers types de plan. Nous considérons d'abord l'estimation de la variation de la moyenne de population entre deux périodes et nous déterminons les répartitions d'échantillon optimales pour les trois plans étudiés. Nous proposons ensuite un cadre de maximisation de l'utilité emprunté à la microéconomie en vue d'illustrer une approche possible pour choisir le plan dans laquelle nous nous efforçons d'optimiser simultanément plusieurs variances. La prise en compte simultanée de plusieurs moyennes et de leurs variances a tendance à faire pencher la préférence du plan à panel d'unités d'observation vers les plans à panel de grappes et à échantillons indépendants plus simples si le mode de collecte de données par panel est trop coûteux. Nous présentons des exemples numériques qui illustrent comment un concepteur d'enquête pourrait choisir le plan efficace sachant les paramètres de population et les coûts de collecte des données.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 82-003-X201100111404
    Description :

    La présente étude vise à évaluer trois échelles de comportement parental déclaré par l'enfant (nurturance, rejet et surveillance) utilisées dans l'Enquête nationale longitudinale sur les enfants et les jeunes.

    Date de diffusion : 2011-02-16

  • Articles et rapports : 12-001-X201000111252
    Description :

    Le biais dû à la non-réponse est un problème examiné de longue date dans le domaine de la recherche sur les enquêtes (Brehm 1993 ; Dillman, Eltinge, Groves et Little 2002), et de nombreuses études ont eu pour objectif de préciser les facteurs qui ont une influence sur la non-réponse partielle ainsi que totale. Dans le but de contribuer à la réalisation de l'objectif plus général consistant à réduire au minimum la non-réponse aux enquêtes, nous examinons dans la présente étude plusieurs facteurs pouvant avoir une incidence sur cette non-réponse, en utilisant les données de l'Animal Welfare Survey de 2007 réalisée en Ohio, aux États-Unis. En particulier, nous examinons la mesure dans laquelle l'intérêt du sujet et les primes d'incitation influent sur la participation aux enquêtes et sur la non-réponse partielle, en nous inspirant de la théorie du levier et de la saillance (leverage-saliency theory) (Groves, Singer et Corning 2000). Nous constatons que la participation à une enquête est influencée par le contexte du sujet (car celui-ci exerce un effet de levier positif ou négatif sur les unités échantillonnées) et par les primes d'incitation prépayées, ce qui est en harmonie avec la théorie du levier et de la saillance. La constatation que la non-réponse partielle, notre mesure indirecte de la qualité de la réponse, varie en fonction de la proximité par rapport à l'agriculture et l'environnement (lieu de résidence, connaissances sur la production des aliments et opinions quant à l'importance du bien être des animaux) confirme aussi nos attentes. Cependant, les données laissent entendre que la non-réponse partielle ne varie pas selon qu'un répondant reçoit ou non une prime d'incitation.

    Date de diffusion : 2010-06-29

  • Articles et rapports : 12-001-X200800210761
    Description :

    La stratification optimale est la méthode qui consiste à choisir les meilleures bornes qui rendent les strates intérieurement homogènes, étant donné la répartition de l'échantillon. Afin de rendre les strates intérieurement homogènes, celles ci doivent être construites de façon que les variances de strate de la caractéristique étudiée soient aussi faibles que possible. Un moyen efficace d'y arriver, si l'on connaît la distribution de la principale variable étudiée, consiste à créer des strates en découpant l'étendue de la distribution à des points appropriés. Si la distribution des fréquences de la variable étudiée est inconnue, on peut l'approximer en se fondant sur l'expérience passée ou sur certains renseignements a priori obtenus au cours d'une étude récente. Dans le présent article, le problème de la détermination des bornes optimales de strate (BOS) est considéré comme étant le problème de la détermination des largeurs optimales de strate (LOS). Il est formulé comme un problème de programmation mathématique (PPM) consistant à minimiser la variance du paramètre de population estimé sous la répartition de Neyman en imposant que la somme des largeurs des strates soit égale à l'étendue totale de la distribution. La variable étudiée est considérée comme suivant un loi continue dont la densité de probabilité est triangulaire ou normale standard. Les PPM formulés, qui s'avèrent être des problèmes de décision à plusieurs degrés, peuvent alors être résolus en utilisant la méthode de programmation dynamique proposée par Bühler et Deutler (1975). Des exemples numériques sont présentés pour illustrer les calculs. Les résultats obtenus sont également comparés à ceux donnés par la méthode de Dalenius et Hodges (1959) dans le cas d'une distribution normale.

    Date de diffusion : 2008-12-23

  • Articles et rapports : 12-001-X200800110615
    Description :

    Nous considérons les taux d'échantillonnage optimaux dans des plans d'échantillonnage par élément, quand l'analyse prévue est la régression linéaire pondérée par les poids de sondage et que les paramètres à estimer sont des combinaisons linéaires des coefficients de régression provenant d'un ou de plusieurs modèles. Nous commençons par élaborer des méthodes en supposant que des renseignements exacts sur les variables du plan existent dans la base de sondage, puis nous les généralisons à des situations où l'information pour certaines variables du plan n'est disponible que sous forme d'agrégat pour des groupes de sujets éventuels ou provient de données inexactes ou périmées. Nous envisageons également un plan d'échantillonnage pour l'estimation de combinaisons de coefficients provenant de plus d'un modèle. Une généralisation supplémentaire permet d'utiliser des combinaisons flexibles de coefficients choisies pour améliorer l'estimation d'un effet tout en en contrôlant un autre. Les applications éventuelles comprennent l'estimation des moyennes pour plusieurs ensembles de domaines chevauchants, ou l'amélioration des estimations pour des sous populations telles que les races minoritaires par échantillonnage non proportionnel des régions géographiques. Dans le contexte de la conception d'un sondage sur les soins reçus par les cancéreux (l'étude CanCORS) qui a motivé nos travaux, l'information éventuelle sur les variables du plan d'échantillonnage comprenait des données de recensement au niveau de l'îlot sur la race/ethnicité et la pauvreté, ainsi que des données au niveau individuel. Pour un emplacement de l'étude, un plan d'échantillonnage avec probabilités inégales en utilisant les adresses résidentielles des sujets et des données de recensement réduirait la variance de l'estimateur d'un effet du revenu de 25 %, ou de 38 % si la race des sujets avait été connue également. Par pondération flexible des contrastes du revenu selon la race, la variance de l'estimateur serait réduite de 26 % en utilisant les adresses résidentielles seulement et de 52 % en utilisant les adresses et les races. Nos méthodes seraient utiles dans les études où l'on considère un suréchantillonnage géographique selon la race ethnicité ou les caractéristiques socioéconomiques, ou dans toute étude où les caractéristiques pour lesquelles des données sont disponibles dans les bases de sondage sont mesurées avec une erreur.

    Date de diffusion : 2008-06-26

  • Articles et rapports : 12-001-X200700210490
    Description :

    L'Enquête européenne sur le revenu et les conditions de vie (Statistics on Income and Living Conditions, SILC) a remplacé le Panel européen à partir de 2004. Elle permet de produire des statistiques annuelles sur la répartition des revenus, ainsi que sur la pauvreté et l'exclusion sociale. Cette enquête longitudinale, dont la collecte a eu lieu pour la première fois en France en mai 2004, touche tous les individus de plus de 15 ans occupant les 16 000 logements tirés dans l'échantillon-maître et la base de sondage des logements neufs. Tous ces individus sont suivis au cours du temps, même lorsqu'ils changent de logement. L'enquête doit aussi fournir des estimations transversales de qualité.

    Afin de limiter la charge des enquêtés, le plan de sondage préconisé pour SILC par Eurostat est un schéma rotatif basé sur quatre panels d'une durée de quatre ans chacun avec remplacement d'un panel tous les ans. La France a néanmoins choisi de porter la durée de ses panels à neuf années. Le plan de sondage rotatif permet de répondre aux besoins longitudinaux et transversaux de l'enquête. Cependant, il pose des défis en matière de pondération.

    Après un rappel du contexte de l'inférence lorsqu'on pratique une enquête longitudinale, l'article traite des pondérations longitudinales et transversales, qui sont conçues de manière à produire des estimateurs approximativement sans biais.

    Date de diffusion : 2008-01-03

  • Articles et rapports : 12-001-X20050018092
    Description :

    En échantillonnage, quand on dispose d'information auxiliaire, il est bien connu que l'« estimateur (par la régression) optimal » fondé sur le plan de sondage d'un total ou d'une moyenne de population finie est (du moins asymptotiquement) plus efficace que l'estimateur GREG correspondant. Nous illustrerons ce fait au moyen de simulations avec échantillonnage stratifié à partir de populations à distribution asymétrique. Au départ, l'estimateur GREG a été construit au moyen d'un modèle linéaire de superpopulation auxiliaire. Il peut aussi être considéré comme un estimateur par calage, c'est à dire un estimateur linéaire pondéré, où les poids obéissent à l'équation de calage et, sous cette contrainte, sont aussi proches que possible des « poids d'Horvitz Thompson » originaux (d'après une mesure de distance appropriée). Nous montrons que l'estimateur optimal peut aussi être considéré comme un estimateur par calage à cet égard avec une mesure quadratique de distance étroitement liée à celle générant l'estimateur GREG. Nous donnons aussi des exemples simples révélant qu'il n'est pas toujours facile d'obtenir cette nouvelle mesure.

    Date de diffusion : 2005-07-21

  • Articles et rapports : 12-001-X20040027752
    Description :

    Le meilleur estimateur (ou prédicteur) linéaire sans biais (BLU) d'un total de population est fondé sur les deux hypothèses suivantes : i) le modèle d'estimation qui sous tend l'estimateur BLU est spécifié correctement et ii) le plan de sondage est ignorable en ce qui concerne le modèle d'estimation. Dans ce contexte, un estimateur est robuste si sa distribution demeure proche de celle de l'estimateur BLU lorsque les deux hypothèses tiennent et s'il retient de bonnes propriétés lorsque l'une des hypothèses ou les deux ne sont pas entièrement satisfaites. La robustesse aux écarts par rapport à l'hypothèse (i) est appelée robustesse au modèle, tandis que la robustesse aux écarts par rapport à l'hypothèse (ii) est appelée robustesse au plan de sondage. On considère souvent que l'estimateur par la régression généralisée (GREG) est robuste, puisque sa propriété d'être asymptotiquement sans biais par rapport au plan (ASBP) ne dépend ni de l'hypothèse (i) ni de l'hypothèse (ii). Toutefois, si ces deux hypothèses tiennent, l'estimateur GREG est parfois nettement moins efficace que l'estimateur BLU et, en ce sens, n'est pas robuste. L'inefficacité relative de l'estimateur GREG comparativement à l'estimateur BLU est due à la grande dispersion des poids de sondage. Afin d'obtenir un estimateur robuste au plan de sondage, nous proposons donc un compromis entre ces deux estimateurs. Cette approche offre aussi une certaine protection contre les écarts par rapport à l'hypothèse (i). Toutefois, elle ne protège pas contre les données aberrantes, qui peuvent être considérées comme la conséquence d'une erreur de spécification du modèle. Pour traiter les données aberrantes, nous utilisons la technique de l'estimation M généralisée pondérée pour réduire l'influence des unités pour lesquelles les résidus pondérés de population sont importants. Nous proposons deux moyens pratiques de mettre en oeuvre les estimateurs M dans le cas d'enquêtes polyvalentes; soit nous modifions le poids des unités influentes et adoptons une approche par calage pour obtenir un ensemble unique de poids d'estimation robustes soit nous modifions les valeurs des unités influentes. Nous évaluons certaines propriétés de l'approche proposée au moyen d'une étude en simulation portant sur une population finie asymétrique créée à partir de données d'enquête réelles.

    Date de diffusion : 2005-02-03

  • Articles et rapports : 12-001-X20030026780
    Description :

    Les erreurs et d'autres problèmes de couverture associés aux recensements de population sont examinés à la lumière des travaux publiés récemment. Plus précisément, quand on apparie les dénombrements réels du recensement aux chiffres correspondants tirés de l'enquête postcensitaire, on obtient des résultats agrégés fondés sur un système d'enregistrement double qui fournissent certaines statistiques sur l'erreur de couverture.

    Dans le présent article, les questions liées à l'erreur de couverture et diverses solutions sont examinées dans le contexte des résultats du dernier Recensement de la population de la Turquie. La comparaison, au niveau régional, de la couverture du recensement fondée sur les données de ce dernier et celles de l'enquête postcensitaire témoigne d'une variabilité interrégionales. Certaines recommandations méthodologiques sont faites en vue d'une amélioration éventuelle des procédures courantes de dénombrement.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030016612
    Description :

    Dans cette étude, on présente de nouvelles équations de calage dans lesquelles on utilise des moments de deuxième ordre de la variable auxiliaire pour évaluer la moyenne de population sous échantillonnage aléatoire simple stratifié. On présente aussi différentes façons d'évaluer la variance de l'estimateur proposé. Le nouvel estimateur résultant peut être plus efficace que l'estimateur par la régression combiné sous échantillonnage stratifié. Ainsi, on étend l'idée à l'échantillonnage double d'une population stratifiée et on étudie certains résultats de simulation.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 12-001-X20020016413
    Description :

    Leslie Kish a longtemps prôné l'adoption de plans de sondage comprenant des échantillons à renouvellement complet, qui sont composés de panels mensuels non chevauchants pouvant être cumulés sur des périodes plus ou moins longues dans des domaines de taille variable. Ainsi, une même enquête peut être utilisée à plusieurs fins. La nouvelle American Community Survey (enquête américaine sur les collectivités) du Census Bureau est fondée sur un plan de sondage à échantillons successifs de ce genre. Les données qu'elle fournit servent au calcul de moyennes annuelles pour mesurer les variations à l'échelon de l'État et au calcul de moyennes mobiles sur trois ou cinq ans pour décrire des domaines de plus en plus réduits. L'article décrit l'influence exercée par Kish sur l'élaboration de l'American Community Survey, ainsi que certains problèmes méthodologiques d'ordre pratique qu'il a fallu résoudre pour mettre en oeuvre le plan de sondage.

    Date de diffusion : 2002-07-05

  • Articles et rapports : 12-001-X20010015859
    Description :

    L'INSEE a réalisé en 2001 une enquête destinée à mieux connaître la population sans domicile. En l'absence de base de sondage permettant d'atteindre directement les personnes sans domicile, le principe de l'enquête est d'échantillonner des prestations qui leur sont destinées et d'interroger les individus qui bénéficient de ces prestations. Lorsque l'on désire pondérer les observations individuelles issues de l'enquête, une difficulté surgit du fait qu'un individu peut bénéficier de plusieurs prestations pendant la période de référence considérée. Cet article montre comment il est possible d'appliquer la méthode du partage des poids pour résoudre ce problème. Dans ce type d'enquête, une même variable peut donner lieu à plusieurs paramètres d'intérêt, correspondant à des populations variant avec le temps. À chaque définition des paramètres correspond un jeu de poids. L'article insiste particulièrement sur le calcul de poids un jour moyen et une semaine moyenne. On donne également des éléments sur les données de fréquentation à collecter et la correction de la non-réponse.

    Date de diffusion : 2001-08-22

  • Articles et rapports : 12-001-X19980024355
    Description :

    Deux stratégies d'échantillonnage sont proposées pour estimer les chiffres d'une population finie au cycle le plus récent, à partir des échantillons prélevés sur deux cycles, au moyen de plans d'échantillonnage à probabilité variable. Nous utilisons les données recueillies au premier cycle sur une variable à l'étude comme mesure de la taille et comme variable de stratification pour la sélection de l'échantillon apparié, au deuxième cycle. L'efficacité relative des stratégies proposées est comparée ici à d'autres méthodes appropriées.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X19980013904
    Description :

    Un grand nombre des enquêtes économiques et agricoles visent des objectifs multiples. Il serait donc pratique de pouvoir stratifier la population-cible de ces enquêtes de différentes manières - et ainsi répondre à un certain nombre d'objectifs - puis de combiner les échantillons pour le dénombrement. Nous examinons dans ce document quatre méthodes d'échantillonnage distinctes qui prélèvent des échantillons similaires, toutes stratifications confondues, ce qui permet de réduire la taille globale de l'échantillon. L'efficacité de ces stratégies d'échantillonnage est évaluée à la lumière des données extraites d'une enquête sur l'agriculture. Nous indiquons ensuite comment un estimateur par calage (c.-à-d. pondéré de nouveau) peut accroître l'efficacité statistique, en reproduisant dans l'estimation ce que l'on sait de la taille de la strate initiale. La méthode itérative du quotient, qui a été proposée dans certains ouvrages, n'est en fait qu'une méthode de calage.

    Date de diffusion : 1998-07-31

  • Articles et rapports : 12-001-X199400214427
    Description :

    Dans cet article, nous déterminons un estimateur par régression généralisé pour domaines ainsi qu’un estimateur approximatif de la variance correspondante suivant un plan d’échantillonnage à deux phases pour stratification avec échantillonnage de Poisson à chaque phase. Ces estimateurs sont une application du modèle général d’estimation par régression pour l’échantillonnage à deux phases élaboré dans Särndal et Swensson (1987) et par Särndal, Swensson et Wretman (1992). Nous étudions l’efficacité empirique de l’estimateur par régression généralisé à l’aide de données de l’échantillon à deux phases de dossiers fiscaux de Statistique Canada, formé annuellement. Enfin, nous comparons à l’estimateur de Horvitz-Thompson trois cas particuliers de l’estimateur par régression généralisé, soit deux estimateurs par régression et un estimateur de stratification a posteriori.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199300214459
    Description :

    On appelle couplage d’enregistrements l’appariement d’enregistrements contenant des données sur des particuliers, des entreprises ou des logements quand on ne dispose pas d’un identificateur unique. Les méthodes utilisées, en pratique, comportent la classification de paires d’enregistrements, comme constituant des liens ou des non-liens, à l’aide d’une procédure automatisée basée sur le modèle théorique présenté par Fellegi et Sunter (1969). L’estimation des taux d’erreur de classification constitue un problème important. Fellegi et Sunter présentent une méthode, afin de calculer des estimations des taux d’erreur de classification, qui découle directement du couplage. Ces estimations faites à l’aide de modèles sont plus faciles à produire que celles obtenues par appariement manuel d’échantillons, méthode généralement utilisée en pratique. Les propriétés des estimations du taux d’erreur de classification fondées sur un modèle, obtenues au moyen de trois estimateurs de paramètre de modèle, sont comparées.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214454
    Description :

    Dans cette étude, nous nous intéressons à des bases de sondage imparfaites desquelles on n’a retiré aucune unité de population mais dans lesquelles un nombre indéterminé d’unités peuvent avoir été ajoutées un nombre indéterminé de fois sous des identités différentes. Lorsqu’on ne pose pas l’hypothèse de l’existence d’information supplémentaire concernant des unités de la base imparfaite, il est établi qu’en ce qui a trait à l’estimation d’un ratio ou d’une moyenne de population, l’erreur quadratique moyenne des estimateurs fondés sur la base imparfaite est inférieure à celle des estimateurs fondés sur la base parfaite pour l’échantillonnage aléatoire simple, lorsque les fractions de sondage des deux bases sont les mêmes. Cependant, cette relation n’est pas toujours vraie en ce qui concerne l’estimation d’un total de population. Il peut aussi arriver que l’estimateur d’un ratio, d’une moyenne ou d’un total ait une erreur quadratique moyenne moins élevée même si la fraction de sondage est plus faible dans la base imparfaite que celle utiliser dans la base parfaite.

    Date de diffusion : 1993-12-15

  • Articles et rapports : 12-001-X199300214460
    Description :

    Les méthodes qui servent à estimer le biais de réponse dans les enquêtes requièrent des mesures répétées « non biaisées » pour à tout le moins un sous-échantillon d’observations. L’estimateur habituel du biais de réponse est la différence entre la moyenne des observations originales et la moyenne des observations non biaisées. Dans cet article, nous étudions divers estimateurs du biais de réponse tirés de la prédiction modéliste. Nous supposons comme plan de sondage un échantillonnage à deux phases stratifié, avec échantillonnage aléatoire simple dans chaque phase. Nous supposons que la caractéristique y est observée pour chaque unité échantillonnée dans la phase 1, tandis que la valeur vraie de la caractéristique, \mu, est observée pour chaque unité du sous-échantillon prélevée dans la phase 2. Nous supposons en outre qu’une variable auxiliaire x est connue pour chaque unité de l’échantillon de la phase 1 et que le chiffre de population de x est connu. On suppose un certain nombre de modèles qui mettent en relation y, \mu et x; de ces modèles découlent divers estimateurs de E (y - \mu), le biais de réponse. Les estimateurs sont calculés à l’aide d’une méthode d’auto-amorçage destinée à l’estimation de la variance, du biais et de l’erreur quadratique moyenne. La méthode que nous utilisons est en fait la méthode de Bickel-Freedman à une phase, étendue à un plan à deux phases stratifié. À des fins d’illustration, nous appliquons la méthode étudiée à des données du programme de réinterview du National Agricultural Statistics Service. Nous montrons par ces données que l’estimateur fondé sur un modèle de Särndal, Swensson et Wretman (1991) est supérieur à l’estimateur de différence habituel, ce qui prouve qu’il est possible d’améliorer les estimateurs classiques au moyen de la prédiction modéliste.

    Date de diffusion : 1993-12-15

Références (32)

Références (32) (25 of 32 results)

  • Produits techniques : 11-522-X201700014735
    Description :

    La diffusion de microdonnées exige habituellement des méthodes de réduction et de modification des données, et le degré d’application de ces méthodes dépend des méthodes de contrôle qui seront nécessaires pour accéder aux données et les utiliser. Le calcul sécurisé est une approche qui, dans certaines circonstances, convient davantage pour accéder aux données à des fins statistiques; il permet le calcul de fonctions analytiques à l’égard de données chiffrées sans qu’il soit nécessaire de déchiffrer les données sources sous-jacentes pour procéder à une analyse statistique. Cette approche permet aussi à plusieurs emplacements de fournir des données, tout en garantissant une protection rigoureuse de la vie privée. De cette façon, les données peuvent être regroupées, et les fournisseurs de données peuvent calculer des fonctions analytiques, sans qu’aucune des parties ne connaisse les entrées des autres. À l’aide de certains résultats théoriques et d’exemples réels issus du domaine des soins de santé, nous expliquerons comment le calcul sécurisé peut être appliqué dans des contextes pratiques.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014738
    Description :

    Sous l’approche classique de traitement des observations manquantes fondée sur le plan de sondage, la construction de classes de pondération et le calage sont utilisés pour ajuster les poids de sondage pour les répondants présents dans l’échantillon. Ici, nous utilisons ces poids ajustés pour définir une loi de Dirichlet qui peut servir à faire des inférences au sujet de la population. Des exemples montrent que les procédures résultantes possèdent de meilleures propriétés de performance que les méthodes classiques quand la population est asymétrique.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014740
    Description :

    Dans le présent document, nous abordons les répercussions des prestations d’emploi et mesures de soutien versées au Canada, en vertu des Ententes sur le développement du marché du travail. Nous utilisons un ensemble riche de données administratives longitudinales couplées englobant tous les participants aux EDMT de 2002 à 2005. Sur la base d’un appariement par score de propension, comme dans Blundell et coll. (2002), Gerfin et Lechner (2002), et Sianesi (2004), nous avons produit des estimations de l’impact différentiel à l’échelle nationale à partir d’un estimateur de l’écart des différences et d’un estimateur par la méthode du noyau (Heckman et Smith, 1999). Les résultats laissent supposer que, tant pour les Services d’aide à l’emploi que pour les programmes de prestations d’emploi, comme le Développement des compétences et les Subventions salariales ciblées, des effets positifs se font sentir sur la rémunération et l’emploi.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014714
    Description :

    Les Ententes sur le développement du marché du travail (EDMT) sont des ententes entre le Canada et les provinces et territoires visant à financer la formation et les services de soutien sur le marché du travail pour les prestataires d’assurance-emploi. L’objectif de cette communication est d’examiner les améliorations au fil des ans de la méthode d’évaluation des répercussions. Le présent document décrit les EDMT et les travaux d’élaboration passés et mentionne les raisons qui motivent une meilleure utilisation de fonds de données administratives importants. Suit une explication détaillée de la façon dont la nouvelle approche a fait en sorte que le processus d’évaluation nécessite moins de ressources, alors que les résultats s’appliquent mieux à l’élaboration de politiques. Le document fait aussi état des leçons apprises d’un point de vue méthodologique et fournit un aperçu des façons de rendre efficace ce type d’utilisation des données administratives, particulièrement dans le contexte des grands programmes.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014718
    Description :

    La présente étude vise à déterminer si le fait de commencer à participer aux Services d’aide à l’emploi (SAE) tôt après la présentation de la demande d’assurance-emploi (a.-e.) donne de meilleurs résultats pour les chômeurs que leur participation plus tardive durant la période de prestations. Comme dans Sianesi (2004) et dans Hujer et Thomsen (2010), l’analyse s’appuie sur une méthode d’appariement par score de propension stratifié, conditionnelle à la durée discrétisée de la période de chômage jusqu’au commencement du programme. Les résultats montrent que les personnes qui ont participé aux SAE dans les quatre premières semaines après la présentation de la demande d’assurance-emploi sont celles chez lesquelles les effets sur la rémunération et l’incidence de l’emploi ont été les meilleurs et que ces personnes ont également vu se réduire l’utilisation de l’assurance-emploi à partir de la deuxième année après le programme.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014743
    Description :

    Le couplage probabiliste est susceptible de donner des erreurs d’appariement telles que les faux positifs et les faux négatifs . Dans de nombreux cas, ces erreurs peuvent être mesurées fiablement par des vérifications manuelles, c’est-à-dire l’inspection visuelle d’un échantillon de paires d’enregistrements pour déterminer si elles sont appariées. Nous décrivons un cadre pour la bonne exécution de ces vérifications qui se fonde sur un échantillon probabiliste de paires, des vérifications indépendantes répétées de mêmes paires et une analyse de classes latentes pour tenir compte des erreurs de vérification manuelle.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014709
    Description :

    La congestion routière ne se limite pas aux grandes villes, mais elle se manifeste aussi dans les villes de taille moyenne et sur les autoroutes qui traversent les villes. Parmi une large gamme de mesures de la congestion, six ont été sélectionnées en vue de faciliter l’agrégation et en raison de leur capacité à utiliser les données instantanées de la composante des véhicules légers de l’EUVC en 2014. Parmi les mesures sélectionnées, l’indice de congestion est peut-être le seul qui n’est pas biaisé. Cette mesure sert à illustrer différents aspects de la congestion du réseau routier.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201300014257
    Description :

    L’Étude sur l’utilisation des véhicules au Canada est menée par Transports Canada, en partenariat avec Environnement Canada, Ressources naturelles Canada et les registraires provinciaux. L’étude se divise en deux composantes : les véhicules légers, comme les voitures, minifourgonnettes, VUS et camions dont le poids nominal brut du véhicule (PNBV) est inférieur à 4,5 tonnes métriques; et la composante des véhicules moyens et lourds, c’est-à-dire les camions dont le PNBV est de 4,5 tonnes métriques et plus. L’étude est la première qui recueille des données sur l’activité directement dans les véhicules, au moyen de méthodes de collecte électronique exclusivement. Cela permet d’obtenir plus de renseignements opportuns et fiables.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X200800010957
    Description :

    Les enquêtes menées auprès d'entreprises diffèrent des enquêtes menées auprès de la population ou des ménages à bien des égards. Deux des plus importantes différences sont : (a) les répondants aux enquêtes-entreprises ne répondent pas à des questions sur des caractéristiques les concernant (leurs expériences, leurs comportements, leurs attitudes et leurs sentiments), mais sur des caractéristiques de leur organisation (taille, revenu, politiques, stratégies, etc.) et (b) les répondants aux questions parlent au nom d'une organisation. Les enquêtes-entreprises théoriques diffèrent pour leur part des autres enquêtes-entreprises, comme celles des bureaux nationaux de la statistique, à bien des égards aussi. Le fait que les enquêtes-entreprises théoriques ne visent habituellement pas la production de statistiques descriptives mais plutôt la réalisation de tests d'hypothèses (relations entre variables) constitue la plus importante différence. Les taux de réponse aux enquêtes-entreprises théoriques sont très faibles, ce qui suppose un risque énorme de biais de non-réponse. Aucune tentative n'est habituellement faite pour évaluer l'importance du biais attribuable à la non-réponse, et les résultats publiés peuvent par conséquent ne pas refléter fidèlement les vraies relations au sein de la population, ce qui augmente par ricochet la probabilité que les résultats des tests soient incorrects.

    Les auteurs de la communication analysent la façon dont le risque de biais dû à la non-réponse est étudié dans les documents de recherche publiés dans les grandes revues de gestion. Ils montrent que ce biais n'est pas suffisamment évalué et que la correction du biais est difficile ou très coûteux dans la pratique, si tant est que des tentatives sont faites en ce sens. Trois façons de traiter ce problème sont examinées :(a) réunir des données par d'autres moyens que des questionnaires;(b) mener des enquêtes auprès de très petites populations;(c) mener des enquêtes avec de très petits échantillons.

    Les auteurs examinent les raisons pour lesquelles ces méthodes constituent des moyens appropriés de mise à l'essai d'hypothèses dans les populations. Les compromis concernant le choix d'une méthode sont aussi examinés.

    Date de diffusion : 2009-12-03

  • Produits techniques : 11-522-X200600110425
    Description :

    Supposons que les données d'une enquête avec plan de sondage à plusieurs degrés doivent être recueillies pour deux périodes de référence. Le présent article décrit les mérites relatifs de la méthode consistant à garder les mêmes grappes dans l'échantillon comparativement à l'échantillonnage de nouvelles grappes sous divers scénarios statistiques (corrélation entre les grappes et au cours du temps) et logistiques (coût de l'enquête). L'effet du plan dans le cas de la réutilisation au cours du temps des mêmes grappes tirées de l'échantillon principal est de la forme "1 - Ap(pi)/n", où " p " est la corrélation intertemporelle des totaux de grappe, "n" est le nombre de grappes, "pi" est la proportion de grappes du cycle précédent qui sont retenues et "A>0" est une constante fixe. Pourvu que les gains d'efficacité paraissent peu importants, la valeur des plans comportant la réutilisation des grappes tient à des considérations logistiques (coût de l'enquête). Nous présentons une démonstration empirique au moyen de données provenant de la Demography and Health Survey (DHS) réalisée au Bangladesh en 1996 et en 2000.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110414
    Description :

    En Finlande, les premières enquêtes de santé nationales par examen ont eu lieu durant les années 1960. Des enquêtes complètes auprès d'échantillons représentatifs de la population nationale ont été réalisées de 1978 à 1980 (Enquête sur la santé Mini Finlande) et de 2000 à 2001 (Santé 2000). Des enquêtes sur les facteurs de risque de maladie cardiovasculaire, appelées enquêtes FinRisk, ont été menées à intervalle de cinq ans en vue d'évaluer les tendances de ces facteurs. Les enquêtes de santé par examen représentent un outil important de surveillance de la santé et, lorsque leurs données sont couplées à celles des registres, constituent une riche source d'information pour les études épidémiologiques. L'article donne aussi des exemples de rapports publiés en s'appuyant sur plusieurs de ces études.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X20040018733
    Description :

    Une enquête auprès d'utilisateurs de drogues injectables exploite l'information obtenue des centres d'échange de seringues de même que des utilisateurs échantillonnés. Le cadre méthodologique permet d'en tirer divers estimés.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20040018738
    Description :

    Ce document décrit les efforts consentis au Royaume-Uni lors du recensement de 2001 afin d'optimiser la réponse dans les secteurs démographiques difficiles à recenser. La recherche dédiée au recensement de 2011 y est aussi décrite.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20040018745
    Description :

    La mise à l'essai de questionnaires destinés aux populations spécialisées (Autochtones, homosexuels, bisexuels, enfants, victimes d'agression) pose des défis : identification des répondants, méthodes d'essai, choix des lieux, climat de confiance.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20030017594
    Description :

    Cet article porte sur l'Enquête européenne sur le revenu et les conditions de vie (European Survey on Income and Living Conditions), qui remplacera le Panel européen à partir de 2004. On y traite également de la méthode du partage des poids dans le cadre des pondérations longitudinale et transversale de cette enquête.

    Date de diffusion : 2005-01-26

  • Produits techniques : 11-522-X20030017704
    Description :

    Dans ce document, on décrit la méthode utilisée pour effectuer la pondération de l'enquête « Construction des identités » menée en France. Le système de pondération pose certains problèmes en raison du chevauchement des bases de sondage et du tirage au hasard de certaines personnes.

    Date de diffusion : 2005-01-26

  • Produits techniques : 11-522-X20030017605
    Description :

    Ce document a pour but de passer en revue les diverses méthodes de contrôle des techniques d'interview sur le terrain, y compris l'authentification de la formation, l'examen des interviews enregistrées assistées par ordinateur et des interviews enregistrées à l'externe, les données des systèmes SPG et la vérification des cas.

    Date de diffusion : 2005-01-26

  • Produits techniques : 11-522-X20030017598
    Description :

    Dans ce document, on examine certaines statistiques descriptives permettant d'évaluer la non-réponse à l'Enquête sur la population active (EPA) ainsi que des moyens d'améliorer la méthode courante d'ajustement pour la non-réponse.

    Date de diffusion : 2005-01-26

  • Produits techniques : 11-522-X20020016726
    Description :

    Bien que les pays en voie de développement soient de plus en plus disposés à avoir recours à des subventions pour répondre aux besoins en matière d'éducation, l'effet de ces programmes reste à déterminer. Les évaluations à long terme dans ce domaine d'activité sont rares. Dans cet article, on examine l'effet à long terme du programme PACES de la Colombie, lequel a fourni à plus de 125 000 élèves de quartiers pauvres des chèques dont le montant couvrait la moitié du coût des études secondaires en établissement privé.

    Le programme PACES offre une occasion inhabituelle d'évaluer l'effet du financement de la demande de services d'éducation dans un pays d'Amérique latine où les écoles privées forment une part importante des élèves. Ce programme présente un intérêt particulier, car plusieurs chèques ont été attribués par tirage au sort, de sorte que l'on peut évaluer de façon fiable les effets du programme.

    Dans cet article, on se sert de dossiers administratifs pour évaluer l'effet à long terme des chèques du programme PACES sur l'obtention d'un diplôme d'études secondaires et le rendement scolaire. Le principal avantage des dossiers administratifs tient au fait qu'il n'y a aucune perte due à l'érosion et que les données administratives reviennent nettement moins cher qu'un effort d'enquête coûteux et dangereux. En revanche, les numéros d'identification individuels pourraient être inexacts, compliquant ainsi le couplage des enregistrements, et le biais de sélection contamine l'échantillon d'élèves qui passent l'examen. On discute d'autres approches pour résoudre ces problèmes. Les résultats provisoires indiquent que le programme a fait augmenter les taux d'achèvement des études secondaires et que les notes d'examens d'entrée au collège sont plus élevées pour les élèves qui ont gagné au tirage au sort que pour ceux qui ont perdu.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016723
    Description :

    Des résultats catégoriques, comme des réponses binaires, ordinales ou nominales, sont fréquents dans le domaine de la recherche par sondage. La régression logistique permet d'étudier la relation entre ce genre de variables catégoriques et un ensemble de variables explicatives. On peut utiliser la procédure LOGISTIC pour réaliser une analyse logistique des données provenant d'un échantillon aléatoire. Toutefois, cette méthode n'est pas valide si les données ont été recueillies selon d'autres plans d'échantillonnage, comme les plans de sondage complexes avec stratification, mise en grappes et/ou pondération inégale. Dans ces cas, il faut appliquer des techniques spécialisées pour produire les estimations et les erreurs types appropriées.

    La procédure SURVEYLOGISTIC expérimentale dans la version 9, introduit la régression logistique des données d'enquête dans le système SAS et offre la plupart des fonctions de la procédure LOGISTIC. L'exposé décrit la démarche méthodologique ainsi que les applications de ce nouveau logiciel.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20010016295
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes, et s'adresse surtout à des méthodologistes.

    Afin de combler les lacunes laissées par les données manquantes, non déclarées, non pertinentes ou inutilisables, le programme de déclaration uniforme de la criminalité vise à entreprendre des estimations et imputations faisant appel à plusieurs méthodes statistiques. Ce document décrit les diverses approches dont on se sert pour évaluer les données d'infraction et d'arrestation, tout en soulignant les forces et faiblesses de chacune.

    Date de diffusion : 2002-09-12

  • Produits techniques : 11-522-X20010016235
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    Les casiers judiciaires réunis par le FBI dans le cadre du Uniform Crime Reporting Program (UCR) sont la source des statistiques nationales sur la criminalité. Les vérifications entreprises récemment en vue de réviser les dossiers du UCR ont soulevé des questions quant à la manière de traiter les erreurs décelées. Celles-ci portent sur la méthode de repérage et sur la procédure de correction une fois les erreurs relevées. Ce document est axé sur la méthode d'échantillonnage de même que sur l'établissement d'un facteur de correction statistique et de solutions de rechange. On marque une distinction entre le redressement et l'estimation de l'échantillon ayant trait aux données d'un organisme, puis on recommande d'utiliser le redressement de l'échantillon, considérant que c'est le moyen le plus précis de traiter les erreurs.

    Date de diffusion : 2002-09-12

  • Produits techniques : 11-522-X20010016289
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    La demande croissante de déclaration électronique dans les enquêtes auprès des établissements a mis en évidence la nécessité de faciliter l'utilisation des formules électroniques. Nous commençons à peine à en comprendre les conséquences sur le plan de la conception de ces formules. Les interviews cognitives et les tests d'utilisation sont analogues par la convergence des buts de ces deux catégories d'essais, l'objectif étant d'élaborer un instrument final sur papier ou sur support électronique qui réduit tant le fardeau de réponse que l'erreur de mesure. Les tests cognitifs ont grandement influé sur la conception de formules sur papier et sont aussi applicables à l'élaboration de formules électroniques. Les tests d'utilisation étendent l'application des méthodes existantes des tests cognitifs à un examen de l'interaction qui se crée entre le répondant et la formule électronique qu'il utilise.

    Le prochain recensement économique en 2002 aux États-Unis donnera aux entreprises la possibilité de faire leur déclaration sur formule électronique. Le Census Bureau est en train d'élaborer un guide de rédaction des formules électroniques qui énoncera des normes de conception de telles formules. Les normes qui figurent dans ce guide sont fondées sur les principes de facilité d'utilisation, les résultats de tests d'utilisation et de tests cognitifs et les règles de conception d'interface utilisateur graphique (IUG). Le présent document met en lumière les grandes questions de conception de formules électroniques qui ont été soulevées pendant l'élaboration du guide de rédaction et expose comment les tests d'utilisation et les interviews cognitives ont permis de les résoudre.

    Date de diffusion : 2002-09-12

  • Produits techniques : 11-522-X20010016300
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    L'Australian Bureau of Statistics (ABS) produit de nombreuses statistiques qui aident le gouvernement et la collectivité à prendre des décisions plus éclairées. Toutefois, pour que ces décisions soient véritablement éclairées, il est essentiel que les utilisateurs comprennent les limites des statistiques et la façon de les utiliser dans un contexte approprié. Par conséquent, l'ABS a lancé un projet intitulé « Qualifier la qualité », qui porte principalement sur deux volets : la présentation et l'éducation. Dans le volet de la présentation, on donne aux utilisateurs des renseignements sur la qualité des données pour les aider à répondre à la question « Les données conviennent-elles à l'usage qu'on veut en faire », alors que le volet de l'éducation les aide à apprécier l'importance des renseignements sur la qualité qui leur sont fournis et à apprendre à s'en servir. En examinant ces questions, le projet vise également à élaborer et à déterminer des processus et des systèmes techniques qui favoriseront le bon usage des données.

    Le présent document donne un aperçu des volets de présentation et d'éducation du projet. De plus, il comprend un examen des différentes méthodes de présentation, des systèmes qui les soutiennent et des façons dont les stratégies d'éducation influent les unes sur les autres. Il renferme aussi des observations notamment sur l'importance d'appuyer les stratégies d'éducation de systèmes bien développés et de méthodes de présentation appropriées.

    Date de diffusion : 2002-09-12

  • Produits techniques : 11-522-X20010016262
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    La demande de renseignements sur l'économie électronique oblige les organismes statistiques à évaluer la pertinence de leurs programmes de mesure existants et à en améliorer la qualité. Grâce à certaines innovations, le U.S. Census Bureau peut maintenant répondre aux besoins les plus urgents en matière d'information sur l'économie électronique et améliorer la qualité des données. À l'aide de travaux de recherche effectués au U.S. Census Bureau et grâce aux compétences des universités, du secteur privé et d'autres organismes gouvernementaux, les nouvelles données sur le commerce électronique et sur les procédés d'affaires électroniques ont été dynamisées. Par ailleurs, des études réalisées au U.S. Census Bureau au moyen de données existantes ou récentes fournissent des estimations quant à la taille, la portée et les répercussions de la nouvelle économie.

    Date de diffusion : 2002-09-12

Date de modification :