Statistiques par sujet – Simulations

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (34)

Tout (34) (25 of 34 results)

  • Articles et rapports : 11-633-X2017008
    Description :

    La plateforme de modélisation de microsimulation DYSEM propose un noyau de données démographiques et socioéconomiques qu’on peut utiliser avec facilité pour créer des modèles ou des applications de microsimulation dynamiques personnalisés. Le présent document décrit la plateforme DYSEM et donne un aperçu de ses usages prévus ainsi que des méthodes et données utilisées pour sa conception.

    Date de diffusion : 2017-07-28

  • Le Quotidien
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2017-07-28

  • Articles et rapports : 82-003-X201700614829
    Description :

    Le POHEM-IMC est un outil de microsimulation comprenant un modèle de l’IMC chez les adultes et un modèle des antécédents en matière d’IMC pendant l’enfance. Cet aperçu décrit l’élaboration de modèles de prédiction de l’IMC chez les adultes et des antécédents en matière d’IMC pendant l’enfance, et compare les estimations de l’IMC projetées aux estimations issues de données d’enquête représentatives de la population canadienne pour en établir la validité.

    Date de diffusion : 2017-06-21

  • Produits techniques : 91-621-X2017001
    Date de diffusion : 2017-01-25

  • Microdonnées à grande diffusion : 89F0002X
    Description :

    La BD/MSPS est un modèle de microsimulation statique qui sert à l'analyse des interactions financières entre les gouvernements et les particuliers au Canada. Elle permet de calculer les impôts payés aux gouvernements et les transferts monétaires reçus de ceux-ci. Elle est formée d'une base de données, d'une série d'algorithmes et de modèles relatifs aux impôts et aux transferts, d'un logiciel d'analyse et de la documentation de l'utilisateur.

    Date de diffusion : 2016-12-05

  • Le Quotidien
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2016-12-05

  • Articles et rapports : 82-003-X201600314338
    Description :

    Le présent document décrit les méthodes et les données utilisées pour l’élaboration et la mise en oeuvre du métamodèle POHEM – Maladies neurologiques.

    Date de diffusion : 2016-03-16

  • Produits techniques : 91-621-X2015001
    Date de diffusion : 2015-09-17

  • Produits techniques : 11-522-X201300014279
    Description :

    Dans le cadre du projet européen SustainCity, un modèle de microsimulation des individus et des ménages a été créé en vue de simuler la population de différentes métropoles européennes. L’objectif du projet était d’unir plusieurs modèles de microsimulation de transports et d’occupation des sols (land use modelling), de leur adjoindre un module dynamique de population et d’appliquer ces approches de microsimulation à trois zones géographiques d’Europe (la région d’Île de France et les agglomérations de Bruxelles et Zurich).

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014290
    Description :

    Cet article a pour objectif de présenter un nouveau module qui permettra de projeter les familles et les ménages selon le statut autochtone à l’aide du modèle de microsimulation Demosim. La méthode envisagée serait d’attribuer à chaque individu, à chaque année, un statut de chef de ménage/famille en utilisant la méthode des taux de chefs de manière à obtenir un nombre de familles et ménages annuels ventilés selon diverses caractéristiques et géographies liées aux populations autochtones.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014289
    Description :

    Cet article donne un aperçu des principales nouveautés qui seront intégrées au modèle de projections par microsimulation Demosim, dont une version partant des microdonnées de l'Enquête nationale auprès des ménages de 2011 est en cours de préparation. Dans un premier temps, les ajouts à la population de base sont présentés; il s’agit essentiellement de nouvelles variables, certaines étant ajoutées aux données de l'Enquête nationale auprès des ménages par le biais d’appariement de fichiers. Les méthodes envisagées pour la projection des variables linguistiques, la citoyenneté et la religion sont ensuite brièvement présentées à titre d’exemples de nouveautés relatives aux événements simulés par le modèle.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 82-003-X201301011873
    Description :

    On a élaboré un modèle de simulation informatique de l'activité physique pour la population adulte canadienne à partir des données longitudinales de l'Enquête nationale sur la santé de la population et des données transversales de l'Enquête sur la santé dans les collectivités canadiennes. Ce modèle est basé sur la plateforme du Modèle de santé de la population (POHEM), élaboré par Statistique Canada. Le présent article donne un aperçu du POHEM et une description des ajouts qui y ont été faits pour créer le module de l'activité physique (POHEM-PA). Ces ajouts comprennent l'évolution du niveau dMactivité physique dans le temps et la relation entre les niveaux d'activité physique et l'espérance de vie ajustée sur la santé, l'espérance de vie et l'apparition de certains problèmes de santé chroniques. Des estimations tirées de projections obtenues par simulation sont comparées avec des données d'enquête représentatives à l'échelle nationale, fournissant ainsi une indication de la validité du POHEM-PA.

    Date de diffusion : 2013-10-16

  • Articles et rapports : 82-003-X201300611796
    Description :

    La présente étude évalue la faisabilité d'utiliser des techniques de modélisation statistique pour combler les lacunes dans les données liées aux facteurs de risque, et plus particulièrement l'usage du tabac, dans les données de recensement couplées.

    Date de diffusion : 2013-06-19

  • Articles et rapports : 12-001-X201200111687
    Description :

    Afin de créer des fichiers de données à grande diffusion à partir d'enquêtes à grande échelle, les organismes statistiques diffusent parfois des sous­échantillons aléatoires des enregistrements originaux. Le sous­échantillonnage aléatoire amenuise la taille des fichiers transmis aux analystes secondaires des données et réduit les risques de divulgation accidentelle de renseignements confidentiels sur les participants aux enquêtes. Cependant, le sous­échantillonnage n'élimine pas entièrement le risque, de sorte qu'il faut altérer les données avant leur diffusion. Nous proposons de créer des sous­échantillons protégés contre la divulgation provenant d'enquêtes à grande échelle en recourant à l'imputation multiple. L'idée consiste à remplacer dans l'échantillon original les valeurs identificatoires ou sensibles par des valeurs tirées de modèles statistiques et de diffuser des sous­échantillons de ces données protégées contre la divulgation. Nous présentons des méthodes permettant de faire des inférences fondées sur les multiples sous­échantillons synthétiques.

    Date de diffusion : 2012-06-27

  • Produits techniques : 11-522-X20040018747
    Description :

    Ce document décrit l'élaboration et le projet pilote d'une première enquête sur le tabagisme auprès des Amérindiens et des Autochtones de l'Alaska. Des réunions avec des comités d'experts et des représentants tribaux ont permis d'adapter des méthodes.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20040018652
    Description :

    L'enquête Grandir en qualité menée par l'ISQ consistait à observer des services de garde sur place. Le succès de l'enquête découle d'une stratégie de collecte appuyée sur l'information.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20040018746
    Description :

    Ce document examine l'évaluation qualitative de questionnaires traduits, ses problèmes courants et le défi consistant à trouver des solutions qui conserveront l'esprit du questionnaire d'origine, tout en tenant compte de la diversité des dialectes.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20020016430
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016722
    Description :

    Le cancer du côlon et du rectum (CCR) est la deuxième cause de décès par cancer au Canada. Des essais randomisés avec témoins ont montré l'efficacité du dépistage par recherche du sang occulte dans les selles. Toutefois, il est nécessaire de procéder à une évaluation complète des coûts et des conséquences du dépistage du CCR pour la population canadienne avant de mettre en oeuvre un tel programme. Dans le cadre de cet article, on évalue la rentabilité du dépistage du CCR. Les résultats de ces simulations seront transmis au Comité national sur le dépistage du cancer colorectal du Canada en vue de faciliter la formulation de recommandations quant à la politique nationale à adopter.

    Le modèle de microsimulation de la santé de la population de Statistique Canada a été mis à jour afin d'y intégrer un module complet de dépistage du CCR fondé sur des données canadiennes et les résultats d'évaluation de l'efficacité du dépistage des essais randomisés avec témoins. Le module englobe des données sur la sensibilité et sur la spécificité de la recherche du sang occulte dans les selles et de la coloscopie, les taux de participation, l'incidence, la classification par stade, les options diagnostiques et thérapeutiques, l'évolution de la maladie, la mortalité et les coûts directs en services de santé pour divers scénarios de dépistage. Fait à noter, la reproduction de la réduction de la mortalité observée au moment de l'essai de dépistage de Funen a permis de valider ce modèle.

    Date de diffusion : 2004-09-13

  • Articles et rapports : 12-001-X20030016610
    Description :

    En présence de non-réponse partielle, en pratique, on recourt souvent à des méthodes d'imputation non pondérée, mais celles-ci produisent généralement des estimateurs biaisés sous l'hypothèse d'une réponse uniforme à l'intérieur des classes d'imputation. En nous inspirant de Skinner et Rao (2002), nous proposons un estimateur corrigé pour le biais d'une moyenne de population sous imputation par le ratio non pondérée et sous imputation aléatoire hot-deck, et nous calculons des estimateurs de la variance par linéarisation. Nous réalisons une petite étude en simulation pour évaluer les propriétés de biais et d'erreur quadratique moyenne des estimateurs obtenus. Nous étudions aussi le biais relatif et la stabilité relative des estimateurs de la variance.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 81-595-M2003005
    Description :

    Dans ce document, on élabore des procédures techniques permettant aux ministères de l'Éducation d'établir un lien entre les tests provinciaux et les tests nationaux et internationaux afin de pouvoir comparer les normes et présenter les résultats selon une échelle commune.

    Date de diffusion : 2003-05-29

  • Articles et rapports : 82-005-X20020016479
    Description :

    Le modèle de santé de la population est un outil d'analyse des politiques qui permet d'étudier, à l'aide de techniques de simulation, différents scénarios concernant le fardeau de certaines maladies sur la santé et l'économie, ainsi que le rapport coût-efficacité des nouvelles méthodes diagnostiques et thérapeutiques. L'utilisation de ce modèle de simulation est particulièrement pertinente dans un contexte de compressions budgétaires, puisque les nouvelles méthodes thérapeutiques sont souvent coûteuses et que des décisions stratégiques difficiles doivent être prises. Et surtout, ce modèle sert de base pour un cadre conceptuel plus vaste qui permettra d'élaborer des politiques en se servant de données détaillées sur les maladies et les facteurs de risque. Nos modèles « de base » ont permis d'estimer les coûts cumulatifs du traitement du cancer du sein, du cancer du poumon et du cancer colorectal au Canada. Nos modèles de cancer ont mis en évidence l'énorme fardeau économique lié à la batterie d'examens diagnostiques et au traitement initial, ainsi que les coûts élevés de l'hospitalisation liés aux décès par cancer. Nos modèles de base de cancer (poumon, sein et côlon et rectum) ont été utilisés pour évaluer l'effet de nouvelles pratiques. Nous avons utilisé ces modèles pour évaluer les nouvelles chimiothérapies proposées pour traiter le cancer du poumon à un stade avancé, l'effet sur la santé et les conséquences financières de la durée réduite de l'hospitalisation après une première intervention chirurgicale visant à traiter le cancer du sein, ainsi que l'effet éventuel d'un programme de dépistage du cancer du côlon et du rectum à l'échelle de la population. Jusqu'à présent, l'utilisation du tamoxifène pour prévenir le cancer du sein chez les femmes à haut risque est l'une des interventions les plus intéressantes que nous ayons étudiées.

    Date de diffusion : 2002-10-08

  • Produits techniques : 11-522-X20010016289
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    La demande croissante de déclaration électronique dans les enquêtes auprès des établissements a mis en évidence la nécessité de faciliter l'utilisation des formules électroniques. Nous commençons à peine à en comprendre les conséquences sur le plan de la conception de ces formules. Les interviews cognitives et les tests d'utilisation sont analogues par la convergence des buts de ces deux catégories d'essais, l'objectif étant d'élaborer un instrument final sur papier ou sur support électronique qui réduit tant le fardeau de réponse que l'erreur de mesure. Les tests cognitifs ont grandement influé sur la conception de formules sur papier et sont aussi applicables à l'élaboration de formules électroniques. Les tests d'utilisation étendent l'application des méthodes existantes des tests cognitifs à un examen de l'interaction qui se crée entre le répondant et la formule électronique qu'il utilise.

    Le prochain recensement économique en 2002 aux États-Unis donnera aux entreprises la possibilité de faire leur déclaration sur formule électronique. Le Census Bureau est en train d'élaborer un guide de rédaction des formules électroniques qui énoncera des normes de conception de telles formules. Les normes qui figurent dans ce guide sont fondées sur les principes de facilité d'utilisation, les résultats de tests d'utilisation et de tests cognitifs et les règles de conception d'interface utilisateur graphique (IUG). Le présent document met en lumière les grandes questions de conception de formules électroniques qui ont été soulevées pendant l'élaboration du guide de rédaction et expose comment les tests d'utilisation et les interviews cognitives ont permis de les résoudre.

    Date de diffusion : 2002-09-12

  • Produits techniques : 11-522-X20010016288
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    À l'occasion du recensement économique (U.S. Economic Census) de 2002 qui aura lieu prochainement aux États-Unis, les entreprises auront le choix de soumettre leurs données sur support imprimé ou électronique. La déclaration électronique se fera au moyen de questionnaires à remplir soi-même informatisés (QRSI) pour Windows. Le U.S. Census Bureau offrira l'option de déclaration électronique à l'ensemble des répondants à l'aide de plus de 650 formulaires différents. En outre, il a formé une équipe interdivisionnaire chargée d'élaborer un guide de rédaction des formulaires électroniques, décrivant les normes de conception à respecter pour créer les formulaires électroniques et assurant une qualité uniforme pour ce qui est de la conception des formulaires.

    La production du guide de rédaction a pour but d'uniformiser les travaux des divers analystes qui peuvent s'occuper d'éléments différents d'un projet de développement de logiciel (un QRSI en l'occurrence). Les membres de l'équipe ont conclu que le guide de rédaction devait inclure des normes concernant la présentation et la conception des écrans, la navigation, le graphisme, les fonctions de vérification, la fonction d'aide, la rétroaction, les pistes de vérification et l'accessibilité pour les utilisateurs handicapés.

    Les membres de l'équipe se sont engagés à élaborer plusieurs sections du guide de rédaction. Ils se sont réunis chaque semaine pour discuter des sections et les passer en revue. Ils ont également procédé à des tests d'utilisation des règles de vérification, et les employés des divisions spécialisées ont formulé des recommandations à l'intention des cadres supérieurs. Les membres de l'équipe ont réalisé les tests d'utilisation à l'aide de formulaires prototypes auprès de répondants réels. Au besoin, ils se sont adressés aux employés des divisions spécialisées pour qu'ils les aident à prendre des décisions concernant certains formulaires, lorsque les contraintes du support électronique exigeaient des modifications par rapport au formulaire imprimé.

    Le guide de rédaction représentera la norme de développement pour l'ensemble des QRSI qui seront utilisés dans le cadre du recensement économique de 2002; il permettra ainsi d'assurer l'uniformité entre les divers programmes d'enquête.

    Date de diffusion : 2002-09-12

  • Articles et rapports : 12-001-X20020016424
    Description :

    Dans la documentation traitant de l'échantillonnage, on trouve diverses propositions de la variance de l'estimateur de régression généralisée d'une moyenne, dont le principal but est d'estimer la variance due au plan de sondage. Dans certaines conditions, il est facile de concevoir des estimateurs de la variance qui sont approximativement non biaisés quant au plan de sondage et au modèle. On étudie dans cet article plusieurs estimateurs bivalents dans le cas de l'échantillonnage à un seul degré. Il s'agit d'estimateurs robustes de la variance due au modèle, même si le modèle qui agit sur la régression généralisée comprend un paramètre de variance incorrect.

    Une des caractéristiques principales des estimateurs robustes est le rajustement des carrés des résidus au moyen de facteurs analogues aux effets leviers utilisés en analyse de régression classique. On montre aussi que l'estimateur jackknife avec suppression d'une unité inclut les ajustements pour tenir compte des effets de leviers et constitue un bon choix, tant du point de vue de la variance due au plan de sondage que de celle due au modèle. Dans un ensemble de simulations, ces estimateurs de la variance sont caractérisés par un biais faible et produisent des intervalles de confiance dont le taux de couverture est quasi nominal pour plusieurs méthodes d'échantillonnage, tailles d'échantillon et populations en ce qui touche l'échantillonnage à un seul degré.

    On présente aussi les résultats de simulations pour une population à distribution asymétrique où tous les estimateurs de la variance donnent de mauvais résultats. Les échantillons qui ne représentent pas adéquatement les unités de grande valeur produisent des estimations de la moyenne trop faibles, des estimations de la variance trop faibles et des intervalles de confiance dont la couverture est nettement inférieure au taux nominal. Ces faiblesses peuvent être évitées à l'étape de l'élaboration du plan de sondage grâce à la sélection d'échantillons qui couvrent bien les unités extrêmes. Cependant, cette approche ne fonctionnera pas pour les populations dont les renseignements liés au plan de sondage sont insuffisants.

    Date de diffusion : 2002-07-05

Données (1)

Données (1) (1 result)

  • Microdonnées à grande diffusion : 89F0002X
    Description :

    La BD/MSPS est un modèle de microsimulation statique qui sert à l'analyse des interactions financières entre les gouvernements et les particuliers au Canada. Elle permet de calculer les impôts payés aux gouvernements et les transferts monétaires reçus de ceux-ci. Elle est formée d'une base de données, d'une série d'algorithmes et de modèles relatifs aux impôts et aux transferts, d'un logiciel d'analyse et de la documentation de l'utilisateur.

    Date de diffusion : 2016-12-05

Analyses (21)

Analyses (21) (21 of 21 results)

  • Articles et rapports : 11-633-X2017008
    Description :

    La plateforme de modélisation de microsimulation DYSEM propose un noyau de données démographiques et socioéconomiques qu’on peut utiliser avec facilité pour créer des modèles ou des applications de microsimulation dynamiques personnalisés. Le présent document décrit la plateforme DYSEM et donne un aperçu de ses usages prévus ainsi que des méthodes et données utilisées pour sa conception.

    Date de diffusion : 2017-07-28

  • Le Quotidien
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2017-07-28

  • Articles et rapports : 82-003-X201700614829
    Description :

    Le POHEM-IMC est un outil de microsimulation comprenant un modèle de l’IMC chez les adultes et un modèle des antécédents en matière d’IMC pendant l’enfance. Cet aperçu décrit l’élaboration de modèles de prédiction de l’IMC chez les adultes et des antécédents en matière d’IMC pendant l’enfance, et compare les estimations de l’IMC projetées aux estimations issues de données d’enquête représentatives de la population canadienne pour en établir la validité.

    Date de diffusion : 2017-06-21

  • Le Quotidien
    Description : Communiqué publié dans Le Quotidien – Bulletin de diffusion officielle de Statistique Canada
    Date de diffusion : 2016-12-05

  • Articles et rapports : 82-003-X201600314338
    Description :

    Le présent document décrit les méthodes et les données utilisées pour l’élaboration et la mise en oeuvre du métamodèle POHEM – Maladies neurologiques.

    Date de diffusion : 2016-03-16

  • Articles et rapports : 82-003-X201301011873
    Description :

    On a élaboré un modèle de simulation informatique de l'activité physique pour la population adulte canadienne à partir des données longitudinales de l'Enquête nationale sur la santé de la population et des données transversales de l'Enquête sur la santé dans les collectivités canadiennes. Ce modèle est basé sur la plateforme du Modèle de santé de la population (POHEM), élaboré par Statistique Canada. Le présent article donne un aperçu du POHEM et une description des ajouts qui y ont été faits pour créer le module de l'activité physique (POHEM-PA). Ces ajouts comprennent l'évolution du niveau dMactivité physique dans le temps et la relation entre les niveaux d'activité physique et l'espérance de vie ajustée sur la santé, l'espérance de vie et l'apparition de certains problèmes de santé chroniques. Des estimations tirées de projections obtenues par simulation sont comparées avec des données d'enquête représentatives à l'échelle nationale, fournissant ainsi une indication de la validité du POHEM-PA.

    Date de diffusion : 2013-10-16

  • Articles et rapports : 82-003-X201300611796
    Description :

    La présente étude évalue la faisabilité d'utiliser des techniques de modélisation statistique pour combler les lacunes dans les données liées aux facteurs de risque, et plus particulièrement l'usage du tabac, dans les données de recensement couplées.

    Date de diffusion : 2013-06-19

  • Articles et rapports : 12-001-X201200111687
    Description :

    Afin de créer des fichiers de données à grande diffusion à partir d'enquêtes à grande échelle, les organismes statistiques diffusent parfois des sous­échantillons aléatoires des enregistrements originaux. Le sous­échantillonnage aléatoire amenuise la taille des fichiers transmis aux analystes secondaires des données et réduit les risques de divulgation accidentelle de renseignements confidentiels sur les participants aux enquêtes. Cependant, le sous­échantillonnage n'élimine pas entièrement le risque, de sorte qu'il faut altérer les données avant leur diffusion. Nous proposons de créer des sous­échantillons protégés contre la divulgation provenant d'enquêtes à grande échelle en recourant à l'imputation multiple. L'idée consiste à remplacer dans l'échantillon original les valeurs identificatoires ou sensibles par des valeurs tirées de modèles statistiques et de diffuser des sous­échantillons de ces données protégées contre la divulgation. Nous présentons des méthodes permettant de faire des inférences fondées sur les multiples sous­échantillons synthétiques.

    Date de diffusion : 2012-06-27

  • Articles et rapports : 12-001-X20030016610
    Description :

    En présence de non-réponse partielle, en pratique, on recourt souvent à des méthodes d'imputation non pondérée, mais celles-ci produisent généralement des estimateurs biaisés sous l'hypothèse d'une réponse uniforme à l'intérieur des classes d'imputation. En nous inspirant de Skinner et Rao (2002), nous proposons un estimateur corrigé pour le biais d'une moyenne de population sous imputation par le ratio non pondérée et sous imputation aléatoire hot-deck, et nous calculons des estimateurs de la variance par linéarisation. Nous réalisons une petite étude en simulation pour évaluer les propriétés de biais et d'erreur quadratique moyenne des estimateurs obtenus. Nous étudions aussi le biais relatif et la stabilité relative des estimateurs de la variance.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 81-595-M2003005
    Description :

    Dans ce document, on élabore des procédures techniques permettant aux ministères de l'Éducation d'établir un lien entre les tests provinciaux et les tests nationaux et internationaux afin de pouvoir comparer les normes et présenter les résultats selon une échelle commune.

    Date de diffusion : 2003-05-29

  • Articles et rapports : 82-005-X20020016479
    Description :

    Le modèle de santé de la population est un outil d'analyse des politiques qui permet d'étudier, à l'aide de techniques de simulation, différents scénarios concernant le fardeau de certaines maladies sur la santé et l'économie, ainsi que le rapport coût-efficacité des nouvelles méthodes diagnostiques et thérapeutiques. L'utilisation de ce modèle de simulation est particulièrement pertinente dans un contexte de compressions budgétaires, puisque les nouvelles méthodes thérapeutiques sont souvent coûteuses et que des décisions stratégiques difficiles doivent être prises. Et surtout, ce modèle sert de base pour un cadre conceptuel plus vaste qui permettra d'élaborer des politiques en se servant de données détaillées sur les maladies et les facteurs de risque. Nos modèles « de base » ont permis d'estimer les coûts cumulatifs du traitement du cancer du sein, du cancer du poumon et du cancer colorectal au Canada. Nos modèles de cancer ont mis en évidence l'énorme fardeau économique lié à la batterie d'examens diagnostiques et au traitement initial, ainsi que les coûts élevés de l'hospitalisation liés aux décès par cancer. Nos modèles de base de cancer (poumon, sein et côlon et rectum) ont été utilisés pour évaluer l'effet de nouvelles pratiques. Nous avons utilisé ces modèles pour évaluer les nouvelles chimiothérapies proposées pour traiter le cancer du poumon à un stade avancé, l'effet sur la santé et les conséquences financières de la durée réduite de l'hospitalisation après une première intervention chirurgicale visant à traiter le cancer du sein, ainsi que l'effet éventuel d'un programme de dépistage du cancer du côlon et du rectum à l'échelle de la population. Jusqu'à présent, l'utilisation du tamoxifène pour prévenir le cancer du sein chez les femmes à haut risque est l'une des interventions les plus intéressantes que nous ayons étudiées.

    Date de diffusion : 2002-10-08

  • Articles et rapports : 12-001-X20020016424
    Description :

    Dans la documentation traitant de l'échantillonnage, on trouve diverses propositions de la variance de l'estimateur de régression généralisée d'une moyenne, dont le principal but est d'estimer la variance due au plan de sondage. Dans certaines conditions, il est facile de concevoir des estimateurs de la variance qui sont approximativement non biaisés quant au plan de sondage et au modèle. On étudie dans cet article plusieurs estimateurs bivalents dans le cas de l'échantillonnage à un seul degré. Il s'agit d'estimateurs robustes de la variance due au modèle, même si le modèle qui agit sur la régression généralisée comprend un paramètre de variance incorrect.

    Une des caractéristiques principales des estimateurs robustes est le rajustement des carrés des résidus au moyen de facteurs analogues aux effets leviers utilisés en analyse de régression classique. On montre aussi que l'estimateur jackknife avec suppression d'une unité inclut les ajustements pour tenir compte des effets de leviers et constitue un bon choix, tant du point de vue de la variance due au plan de sondage que de celle due au modèle. Dans un ensemble de simulations, ces estimateurs de la variance sont caractérisés par un biais faible et produisent des intervalles de confiance dont le taux de couverture est quasi nominal pour plusieurs méthodes d'échantillonnage, tailles d'échantillon et populations en ce qui touche l'échantillonnage à un seul degré.

    On présente aussi les résultats de simulations pour une population à distribution asymétrique où tous les estimateurs de la variance donnent de mauvais résultats. Les échantillons qui ne représentent pas adéquatement les unités de grande valeur produisent des estimations de la moyenne trop faibles, des estimations de la variance trop faibles et des intervalles de confiance dont la couverture est nettement inférieure au taux nominal. Ces faiblesses peuvent être évitées à l'étape de l'élaboration du plan de sondage grâce à la sélection d'échantillons qui couvrent bien les unités extrêmes. Cependant, cette approche ne fonctionnera pas pour les populations dont les renseignements liés au plan de sondage sont insuffisants.

    Date de diffusion : 2002-07-05

  • Articles et rapports : 88-003-X20020026371
    Description :

    Au moment d'élaborer les questions d'enquête des questionnaires, l'une des règles empiriques consiste à « faire preuve de concision et de simplicité ». Cet article est le troisième d'une série de leçons tirées des tests cognitifs liés à l'Enquête sur les pratiques de gestion des connaissances. Il rend compte des réponses que suscitent les longues questions, les questionnaires détaillés ou les trop nombreuses cases de réponse.

    Date de diffusion : 2002-06-14

  • Articles et rapports : 88-003-X20020026369
    Description :

    L'élimination des réponses « neutres » aux questions d'opinion a non seulement pour effet d'inciter les répondants à prendre position, mais elle les amène aussi subtilement à lire la question. Voyez comment nous avons utilisé ce concept et tiré parti de cet avantage dans le cadre de l'Enquête sur les pratiques de gestion des connaissances de 2001.

    Date de diffusion : 2002-06-14

  • Articles et rapports : 11F0019M1997099
    Description :

    Contexte : Le poumon est depuis plusieurs années le principal siège de cancer causant le décès pour les hommes et il est devenu depuis 1994 également laprincipale cause de décès par cancer pour les femmes au Canada. Il est donc important d'évaluer les ressources nécessaires à son diagnostic et à son traitement. Cetarticle présente, à partir d'un modèle de micro-simulation, une estimation des coûts médicaux directs associés au diagnostic et au traitement du cancer du poumon. L'incidence de 1992 est choisie comme référence alors que les coûts sont évalués selon les tarifs de 1993.Méthodes : Un module consacré au cancer du poumon a été incorporé au Modèle sur la santé de la population (POHEM). Les paramètres du module proviennent,entre autre, du régistre canadien des cancers (RCC) de Statistique Canada qui a fourni de l'information sur l'incidence et la classification histologique des cas decancer du poumon au Canada. Les registres de deux provinces ont permis d'estimer la distribution des stades du cancer au moment du diagnostic. Une équiped'oncologues a dérivé des méthodes de traitements «types» reflétant la pratique actuelle ainsi que les coûts directs associés. L'intégration de ces informations ainsique des courbes de survie appropriées au modèle POHEM permet, par simulation Monte Carlo, d'estimer les coûts globaux de traitement. Résultats : Nous avons estimé que les coûts médicaux directs de diagnostic et de traitement du cancer du poumon s'élevaient globalement à un peu plus de 528millions de dollars. Le coût par année de vie gagnée grâce au traitement de la maladie était d'environ 19,450 $. Pour la première fois au Canada, on a pu estimer lescoûts pour chacune des cinq années postérieures au diagnostic ainsi que pour chacun des stades au moment du diagnostic. Finalement, le coût par année de viegagnée supplémentaire pour trois traitements alternatifs du cancer du poumon non à petite cellule (CPNPC) a pu être estimé. Une analyse de sensibilité a montré queces coûts variaient entre 1,867 $ et 6,850 $ par année de vie gagnée supplémentaire, ce qui se compare avantageusement aux coûts que peuvent entraîner letraitement d'autres maladies.Conclusions : Contrairement à certains avis répandus, il semble que le traitement du cancer du poumon soit efficace d'un point de vue économique. En outre,l'utilisation d'un modèle de micro-simulation comme POHEM permet non seulement l'intégration cohérente d'information de sources diverses mais offre aussi lapossibilité d'estimer l'effet d'interventions médicales alternatives du point de vue des pressions financières sur le système de soins de santé.

    Date de diffusion : 1997-04-22

  • Articles et rapports : 11F0019M1995081
    Description :

    Les utilisateurs de statistiques socio-économiques veulent habituellement plus de renseignements, et de meilleure qualité. Souvent, on peut répondre à ces besoins simplement par des collectes de données plus poussées, qui sont soumises aux contraintes habituelles relatives aux coûts et au fardeau de réponse des répondants. Les utilisateurs, particulièrement aux fins de politiques publiques, continuent de réclamer, et cette demande n'est toujours pas comblée, un système intégré et cohérent de statistiques socio-économiques. Dans ce cas, des données supplémentaires ne seront pas suffisantes; la contrainte la plus importante demeure l'absence d'une approche conceptuelle convenue.

    Nous examinons brièvement ici l'état des cadres d'utilisation des statistiques sociales et économiques, y compris les genres d'indicateurs socio-économiques que les utilisateurs pourraient désirer. Ces indicateurs sont premièrement justifiés, en termes généraux, par des principes de base et des concepts intuitifs, ce laisse de côté les détails de leur construction, pour le moment. Ensuite, nous montrons comment une structure cohérente de tels indicateurs peut être assemblée.

    Une conséquence fondamentale est que cette structure exige un réseau coordonné d'enquêtes et de processus de collecte de données, ainsi que des normes supérieures de qualité de données. Ceci, à son tour, implique une décomposition des systèmes sur mesure qui caractérisent la majeure partie du travail d'enquête des agences statistiques nationales (ex. des «chaînes de production» de données parallèles, mais généralement non reliées). De plus, les données émanant du réseau d'enquêtes doivent être intégrées. Puisque les données en question sont dynamiques, la méthode proposée dépasse la correspondance statistique et s'étend aux modèles de microsimulation. Enfin, ces idées sont illustrées avec les résultats préliminaires du modèle LifePathss actuellement en cours d'élaboration à Statistique Canada.

    Date de diffusion : 1995-07-30

  • Articles et rapports : 11F0019M1995067
    Description :

    Le rôle de l'innovation technique dans la croissance économique est à la fois une question qui intéresse beaucoup la gestion des affaires publiques et un domaine de la théorie économique où la recherche est active. Or l'élaboration de théories économiques est souvent limitée par des considérations de résolubilité mathématique. Grâce aux théories économiques évolutives qui sont élaborées sous forme de modèles de microsimulation informatisée, on peut raisonnablement espérer surmonter les contraintes d'ordre mathématique et aborder les questions fondamentales d'une manière plus réaliste et plus souple. Cet article donne un aperçu de XEcon, qui est un modèle de microsimulation de croissance économique de type évolutif.

    Date de diffusion : 1995-06-30

  • Articles et rapports : 12-001-X199400214423
    Description :

    La plupart des enquêtes souffrent du problème de données manquantes attribuable à la non-réponse. Pour traiter ce problème, on a souvent recours à l’imputation afin de créer un « ensemble de données complet », c’est-à-dire, un ensemble de données composé d’observations réelles (pour les répondants) et d’imputations (pour les non-répondants). Habituellement, on effectue l’imputation en supposant un mécanisme de réponse non-confondu. Quand cette hypothèse se révèle fausse, un biais est introduit dans l’estimateur ordinaire de la moyenne de population calculé à partir de l’ensemble de données complet. Dans le présent article, nous étudions l’idée d’employer des facteurs de correction simples pour régler le problème du biais dans le cas où l’on a recours à l’imputation par quotient. Nous évaluons l’efficacité des facteurs de correction à l’aide d’une simulation de Monte Carlo dans laquelle nous utilisons des ensembles de données produits artificiellement qui représentent divers taux de non-réponse et mécanismes de non-réponse et diverses superpopulations et corrélations entre la variable étudiée et la variable auxiliaire. Nous constatons que ces facteurs de correction sont efficaces, particulièrement lorsque la population suit le modèle sous-jacent l’imputation par quotient. Nous traitons aussi d’une option pour estimer la variance des estimations ponctuelles corrigées.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199400214419
    Description :

    L’objet de cette étude était d’évaluer divers estimateurs pour petites régions dans le but de produire des estimations de niveau pour des domaines non planifiés tirés de l’Enquête sur la population active Italienne. Dans notre étude, les petites régions sont les régions des services de santé, qui sont des domaines territoriaux infrarégionaux non planifiés, qui n’ont pas été isolés au moment de l’établissement du plan d’échantillonnage et qui chevauchent donc les limites des strates du plan d’échantillonnage. Nous considérons les estimateurs suivants : l’estimateur par quotient de stratification a posteriori, l’estimateur synthétique, l’estimateur composite exprimé sous forme d’une combinaison linéaire de l’estimateur synthétique et de l’estimateur par quotient de stratification a posteriori et l’estimateur dépendant de la taille de l’échantillon. Pour tous les estimateurs considérés ici, les biais relatifs moyens en pourcentage et la moyenne des erreurs quadratiques moyennes relatives ont été obtenus par une étude de Monte Carlo dans laquelle le plan d’échantillonnage a été simulé à l’aide de données provenant du recensement de l’Italie de 1981.

    Date de diffusion : 1994-12-15

  • Articles et rapports : 12-001-X199300114475
    Description :

    Lorsqu’on crée des bases de données de microsimulation, souvent utilisées dans la planification et l’analyse des politiques, on combine plusieurs fichiers de données par des techniques d’appariement statistique afin d’enrichir le fichier receveur. Or, pour effectuer cette opération, il faut poser l’hypothèse de l’indépendance conditionnelle (HIC), ce qui peut fausser sérieusement les relations conjointes entre les variables. On peut éviter de poser cette hypothèse en utilisant des informations supplémentaires appropriées. Dans cet article, nous examinons des méthodes d’appariement statistique qui correspondent à trois méthodes d’imputation - par régression, hot-deck et log-linéaire - appliquées suivant deux scénarios : avec et sans information supplémentaire. La méthode d’imputation log-linéaire consiste essentiellement à introduire des contraintes nominales dans la méthode par régression ou la méthode hot-deck. À partir d’une vaste étude de simulation faite avec des données fictives, nous exécutons des analyses de sensibilité lorsque l’on s’éloigne de l’HIC et nous étudions les gains qui peuvent découler de l’utilisation d’informations supplémentaires. À l’aide de données fictives, nous créons différents scénarios relatifs à la distribution et aux relations des variables pertinentes, par exemple distribution symétrique vs. distribution asymétrique et données supplémentaires substitutives vs. données supplémentaires non substitutives. Nous faisons aussi quelques recommandations sur l’utilisation des méthodes d’appariement statistique. Notre étude confirme particulièrement que l’HIC peut représenter une contrainte sérieuse, que l’on peut éliminer en utilisant des informations supplémentaires appropriées. L’étude montre aussi que les méthodes hot-deck sont généralement préférables aux méthodes de régression. De plus, lorsqu’on dispose d’informations supplémentaires, les contraintes nominales log-linéaires peuvent accroître l’efficacité des méthodes hot-deck. L’idée de cette étude est née des préoccupations que l’on avait sur l’utilisation de l’HIC dans la construction de la Base de données de simulation des politiques sociales à Statistique Canada.

    Date de diffusion : 1993-06-15

  • Articles et rapports : 12-001-X199100214501
    Description :

    Bien que les enquêtes agricoles du Département de l’agriculture des É.-U. (DAEU) servent à estimer la production végétale à l’échelle du pays et pour chaque État, les estimations par comté sont plus utiles aux décideurs locaux. Ce genre d’estimations sont aussi recherchées par les entreprises qui se spécialisent dans la vente d’engrais, de pesticides, d’assurance-récolte et de matériel agricole. Les États font souvent leurs propres enquêtes dans le but de produire des estimations de la production agricole par comté. En règle générale, ces enquêtes ne reposent pas sur des méthodes d’échantillonnage probabiliste. En outre, la somme des estimations pour chaque comté d’un État doit concorder avec l’estimation calculée par le DAEU pour l’ensemble de l’État. Les méthodes d’estimation classiques pour petites régions ne sont donc pas directement applicables dans les circonstances. Dans cet article, nous allons recourir à des modèles de régression pour estimer la production de blé par comté au Kansas. Nous allons décrire une étude de simulation par laquelle nous comparons les estimations obtenues par régression à celles calculées à l’aide de deux estimateurs classiques pour petites régions : l’estimateur synthétique et l’estimateur direct. Nous allons aussi comparer plusieurs méthodes par lesquelles nous pouvons pondérer les estimations initiales de manière qu’elles concordent avec l’estimation de la production totale de l’État calculée par le DAEU.

    Date de diffusion : 1991-12-16

Références (12)

Références (12) (12 of 12 results)

  • Produits techniques : 91-621-X2017001
    Date de diffusion : 2017-01-25

  • Produits techniques : 91-621-X2015001
    Date de diffusion : 2015-09-17

  • Produits techniques : 11-522-X201300014279
    Description :

    Dans le cadre du projet européen SustainCity, un modèle de microsimulation des individus et des ménages a été créé en vue de simuler la population de différentes métropoles européennes. L’objectif du projet était d’unir plusieurs modèles de microsimulation de transports et d’occupation des sols (land use modelling), de leur adjoindre un module dynamique de population et d’appliquer ces approches de microsimulation à trois zones géographiques d’Europe (la région d’Île de France et les agglomérations de Bruxelles et Zurich).

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014290
    Description :

    Cet article a pour objectif de présenter un nouveau module qui permettra de projeter les familles et les ménages selon le statut autochtone à l’aide du modèle de microsimulation Demosim. La méthode envisagée serait d’attribuer à chaque individu, à chaque année, un statut de chef de ménage/famille en utilisant la méthode des taux de chefs de manière à obtenir un nombre de familles et ménages annuels ventilés selon diverses caractéristiques et géographies liées aux populations autochtones.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014289
    Description :

    Cet article donne un aperçu des principales nouveautés qui seront intégrées au modèle de projections par microsimulation Demosim, dont une version partant des microdonnées de l'Enquête nationale auprès des ménages de 2011 est en cours de préparation. Dans un premier temps, les ajouts à la population de base sont présentés; il s’agit essentiellement de nouvelles variables, certaines étant ajoutées aux données de l'Enquête nationale auprès des ménages par le biais d’appariement de fichiers. Les méthodes envisagées pour la projection des variables linguistiques, la citoyenneté et la religion sont ensuite brièvement présentées à titre d’exemples de nouveautés relatives aux événements simulés par le modèle.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X20040018747
    Description :

    Ce document décrit l'élaboration et le projet pilote d'une première enquête sur le tabagisme auprès des Amérindiens et des Autochtones de l'Alaska. Des réunions avec des comités d'experts et des représentants tribaux ont permis d'adapter des méthodes.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20040018652
    Description :

    L'enquête Grandir en qualité menée par l'ISQ consistait à observer des services de garde sur place. Le succès de l'enquête découle d'une stratégie de collecte appuyée sur l'information.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20040018746
    Description :

    Ce document examine l'évaluation qualitative de questionnaires traduits, ses problèmes courants et le défi consistant à trouver des solutions qui conserveront l'esprit du questionnaire d'origine, tout en tenant compte de la diversité des dialectes.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20020016430
    Description :

    Les méthodes de linéarisation (ou série de Taylor) sont souvent utilisées pour estimer les erreurs-types des coefficients des modèles de régression linéaire ajustés à des échantillons à phases multiples. Lorsque le nombre d'unités primaires d'échantillonnage (UPE) est grand, la linéarisation peut produire des valeurs précises d'erreurs-types dans des conditions assez générales. Par contre, si ce nombre est faible ou que la valeur d'un coefficient dépend en grande partie des données provenant d'un petit nombre d'UPE, les estimateurs par linéarisation peuvent présenter un biais négatif important.

    Dans cet article, on définit les caractéristiques de la matrice de conception, qui biaisent fortement les erreurs-types estimées par la linéarisation des coefficients de régression linéaire. De plus, on propose une nouvelle méthode, appelée linéarisation à biais réduit (LBR), qui est fondée sur des résidus ajustés pour mieux évaluer approximativement la covariance des erreurs vraies. Si les erreurs sont indépendantes et pareillement distribuées, l'estimateur de LBR est sans biais pour la variance. En outre, une étude en simulation montre que la LBR peut réduire considérablement le biais, même si les erreurs ne sont pas indépendantes et pareillement distribuées. On propose aussi d'utiliser une approximation de Satterthwaite pour déterminer le nombre de degrés de liberté de la distribution de référence à l'égard des tests et des intervalles de confiance qui ont trait aux combinaisons linéaires de coefficients fondés sur l'estimateur de LBR. On démontre que l'estimateur de la variance jackknife a aussi tendance à être biaisé dans les situations où la linéarisation est faussée. Cependant, le biais du jackknife est généralement positif. L'estimateur par linéarisation à biais réduit peut être considéré comme un compromis entre l'estimateur par linéarisation standard et celui du jackknife.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20020016722
    Description :

    Le cancer du côlon et du rectum (CCR) est la deuxième cause de décès par cancer au Canada. Des essais randomisés avec témoins ont montré l'efficacité du dépistage par recherche du sang occulte dans les selles. Toutefois, il est nécessaire de procéder à une évaluation complète des coûts et des conséquences du dépistage du CCR pour la population canadienne avant de mettre en oeuvre un tel programme. Dans le cadre de cet article, on évalue la rentabilité du dépistage du CCR. Les résultats de ces simulations seront transmis au Comité national sur le dépistage du cancer colorectal du Canada en vue de faciliter la formulation de recommandations quant à la politique nationale à adopter.

    Le modèle de microsimulation de la santé de la population de Statistique Canada a été mis à jour afin d'y intégrer un module complet de dépistage du CCR fondé sur des données canadiennes et les résultats d'évaluation de l'efficacité du dépistage des essais randomisés avec témoins. Le module englobe des données sur la sensibilité et sur la spécificité de la recherche du sang occulte dans les selles et de la coloscopie, les taux de participation, l'incidence, la classification par stade, les options diagnostiques et thérapeutiques, l'évolution de la maladie, la mortalité et les coûts directs en services de santé pour divers scénarios de dépistage. Fait à noter, la reproduction de la réduction de la mortalité observée au moment de l'essai de dépistage de Funen a permis de valider ce modèle.

    Date de diffusion : 2004-09-13

  • Produits techniques : 11-522-X20010016289
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    La demande croissante de déclaration électronique dans les enquêtes auprès des établissements a mis en évidence la nécessité de faciliter l'utilisation des formules électroniques. Nous commençons à peine à en comprendre les conséquences sur le plan de la conception de ces formules. Les interviews cognitives et les tests d'utilisation sont analogues par la convergence des buts de ces deux catégories d'essais, l'objectif étant d'élaborer un instrument final sur papier ou sur support électronique qui réduit tant le fardeau de réponse que l'erreur de mesure. Les tests cognitifs ont grandement influé sur la conception de formules sur papier et sont aussi applicables à l'élaboration de formules électroniques. Les tests d'utilisation étendent l'application des méthodes existantes des tests cognitifs à un examen de l'interaction qui se crée entre le répondant et la formule électronique qu'il utilise.

    Le prochain recensement économique en 2002 aux États-Unis donnera aux entreprises la possibilité de faire leur déclaration sur formule électronique. Le Census Bureau est en train d'élaborer un guide de rédaction des formules électroniques qui énoncera des normes de conception de telles formules. Les normes qui figurent dans ce guide sont fondées sur les principes de facilité d'utilisation, les résultats de tests d'utilisation et de tests cognitifs et les règles de conception d'interface utilisateur graphique (IUG). Le présent document met en lumière les grandes questions de conception de formules électroniques qui ont été soulevées pendant l'élaboration du guide de rédaction et expose comment les tests d'utilisation et les interviews cognitives ont permis de les résoudre.

    Date de diffusion : 2002-09-12

  • Produits techniques : 11-522-X20010016288
    Description :

    Cette publication comporte une description détaillée des questions techniques entourant la conception et la réalisation d'enquêtes et s'adresse surtout à des méthodologistes.

    À l'occasion du recensement économique (U.S. Economic Census) de 2002 qui aura lieu prochainement aux États-Unis, les entreprises auront le choix de soumettre leurs données sur support imprimé ou électronique. La déclaration électronique se fera au moyen de questionnaires à remplir soi-même informatisés (QRSI) pour Windows. Le U.S. Census Bureau offrira l'option de déclaration électronique à l'ensemble des répondants à l'aide de plus de 650 formulaires différents. En outre, il a formé une équipe interdivisionnaire chargée d'élaborer un guide de rédaction des formulaires électroniques, décrivant les normes de conception à respecter pour créer les formulaires électroniques et assurant une qualité uniforme pour ce qui est de la conception des formulaires.

    La production du guide de rédaction a pour but d'uniformiser les travaux des divers analystes qui peuvent s'occuper d'éléments différents d'un projet de développement de logiciel (un QRSI en l'occurrence). Les membres de l'équipe ont conclu que le guide de rédaction devait inclure des normes concernant la présentation et la conception des écrans, la navigation, le graphisme, les fonctions de vérification, la fonction d'aide, la rétroaction, les pistes de vérification et l'accessibilité pour les utilisateurs handicapés.

    Les membres de l'équipe se sont engagés à élaborer plusieurs sections du guide de rédaction. Ils se sont réunis chaque semaine pour discuter des sections et les passer en revue. Ils ont également procédé à des tests d'utilisation des règles de vérification, et les employés des divisions spécialisées ont formulé des recommandations à l'intention des cadres supérieurs. Les membres de l'équipe ont réalisé les tests d'utilisation à l'aide de formulaires prototypes auprès de répondants réels. Au besoin, ils se sont adressés aux employés des divisions spécialisées pour qu'ils les aident à prendre des décisions concernant certains formulaires, lorsque les contraintes du support électronique exigeaient des modifications par rapport au formulaire imprimé.

    Le guide de rédaction représentera la norme de développement pour l'ensemble des QRSI qui seront utilisés dans le cadre du recensement économique de 2002; il permettra ainsi d'assurer l'uniformité entre les divers programmes d'enquête.

    Date de diffusion : 2002-09-12

Date de modification :