Statistiques par sujet – Inférence et fondements

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 0 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (127)

Tout (127) (25 of 127 results)

  • Produits techniques : 84-538-X
    Description :

    Ce document présente la méthodologie sous-jacente à la production des tables de mortalité pour le Canada, les provinces et les territoires et ce, à partir de la période de référence 1980-1982.

    Date de diffusion : 2017-11-16

  • Produits techniques : 12-206-X
    Description :

    Ce rapport résume les travaux réalisés dans le cadre d'un programme parrainé par les trois divisions de la méthodologie de Statistique Canada. Ce programme couvre les activités de recherche et de développement liées aux méthodes statistiques pouvant être appliquées à grande échelle aux programmes d'enquêtes du Bureau qui, autrement, n'auraient pas été offertes parmi les services de méthodologie de ces programmes d'enquête. Elles comportent aussi des tâches de soutien à l'intention des clients concernant l'application d'exploitations antérieures fructueuses, qui visent à promouvoir l'utilisation des résultats de recherche et des travaux préparatoires.

    Date de diffusion : 2017-11-03

  • Articles et rapports : 12-001-X201700114822
    Description :

    Nous utilisons une méthode bayésienne pour inférer sur une proportion dans une population finie quand des données binaires sont recueillies selon un plan d’échantillonnage double sur des petits domaines. Le plan d’échantillonnage double correspond à un plan d’échantillonnage en grappes à deux degrés dans chaque domaine. Un modèle bayésien hiérarchique établi antérieurement suppose que, pour chaque domaine, les réponses binaires de premier degré suivent des lois de Bernoulli indépendantes et que les probabilités suivent des lois bêta paramétrisées par une moyenne et un coefficient de corrélation. La moyenne varie selon le domaine, tandis que la corrélation est la même dans tous les domaines. En vue d’accroître la flexibilité de ce modèle, nous l’avons étendu afin de permettre aux corrélations de varier. Les moyennes et les corrélations suivent des lois bêta indépendantes. Nous donnons à l’ancien modèle le nom de modèle homogène et au nouveau, celui de modèle hétérogène. Tous les hyperparamètres possèdent des distributions a priori non informatives appropriées. Une complication supplémentaire tient au fait que certains paramètres sont faiblement identifiés, ce qui rend difficile l’utilisation d’un échantillonneur de Gibbs classique pour les calculs. Donc, nous avons imposé des contraintes unimodales sur les distributions bêta a priori et utilisé un échantillonneur de Gibbs par blocs pour effectuer les calculs. Nous avons comparé les modèles hétérogène et homogène au moyen d’un exemple et d’une étude en simulation. Comme il fallait s’y attendre, le modèle double avec corrélations hétérogènes est celui qui est privilégié.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201600214662
    Description :

    Les plans d’échantillonnage à deux phases sont souvent utilisés dans les enquêtes lorsque la base de sondage ne contient que peu d’information auxiliaire, voire aucune. Dans la présente note, nous apportons certains éclaircissements sur le concept d’invariance souvent mentionné dans le contexte des plans d’échantillonnage à deux phases. Nous définissons deux types de plans d’échantillonnage à deux phases invariants, à savoir les plans fortement invariants et les plans faiblement invariants, et donnons des exemples. Enfin, nous décrivons les implications d’une forte ou d’une faible invariance du point de vue de l’inférence.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600114545
    Description :

    L’estimation des quantiles est une question d’intérêt dans le contexte non seulement de la régression, mais aussi de la théorie de l’échantillonnage. Les expectiles constituent une solution de rechange naturelle ou un complément aux quantiles. En tant que généralisation de la moyenne, les expectiles ont gagné en popularité ces dernières années parce qu’en plus d’offrir un portrait plus détaillé des données que la moyenne ordinaire, ils peuvent servir à calculer les quantiles grâce aux liens étroits qui les associent à ceux-ci. Nous expliquons comment estimer les expectiles en vertu d’un échantillonnage à probabilités inégales et comment les utiliser pour estimer la fonction de répartition. L’estimateur ajusté de la fonction de répartition obtenu peut être inversé pour établir les estimations des quantiles. Nous réalisons une étude par simulations pour examiner et comparer l’efficacité de l’estimateur fondé sur des expectiles.

    Date de diffusion : 2016-06-22

  • Produits techniques : 11-522-X201700014738
    Description :

    Sous l’approche classique de traitement des observations manquantes fondée sur le plan de sondage, la construction de classes de pondération et le calage sont utilisés pour ajuster les poids de sondage pour les répondants présents dans l’échantillon. Ici, nous utilisons ces poids ajustés pour définir une loi de Dirichlet qui peut servir à faire des inférences au sujet de la population. Des exemples montrent que les procédures résultantes possèdent de meilleures propriétés de performance que les méthodes classiques quand la population est asymétrique.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014713
    Description :

    Le terme mégadonnées peut signifier différentes choses pour différentes personnes. Pour certaines, il s’agit d’ensembles de données que nos systèmes classiques de traitement et d’analyse ne peuvent plus traiter. Pour d’autres, cela veut simplement dire tirer parti des ensembles de données existants de toutes tailles et trouver des façons de les fusionner, avec comme objectif de produire de nouveaux éléments de connaissance. La première perspective présente un certain nombre de défis importants pour les études traditionnelles de marché, recherches sur l’opinion et recherches sociales. Dans l’un ou l’autre cas, il existe des répercussions pour l’avenir des enquêtes, qu’on commence à peine à explorer.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014759
    Description :

    Nombre des possibilités et des défis de la science des données moderne découlent d’éléments dynamiques, dont l’évolution des populations, la croissance du volume de données administratives et commerciales sur les particuliers et les établissements, les flux continus de données et la capacité de les analyser et de les résumer en temps réel, ainsi que la détérioration des données faute de ressources pour les tenir à jour. Le domaine de la statistique officielle, qui met l’accent sur la qualité des données et l’obtention de résultats défendables, se prête parfaitement à la mise en relief des questions statistiques et liées à la science des données dans divers contextes. L’exposé souligne l’importance des bases de sondage de population et de leur tenue à jour, la possibilité d’utiliser des méthodes à bases de sondage multiples et des couplages d’enregistrements, la façon dont l’utilisation de données à grande échelle non issues d’enquêtes comme information auxiliaire façonne les objets de l’inférence, la complexité des modèles pour les grands ensembles de données, l’importance des méthodes récursives et de la régularisation, et les avantages des outils évolués de visualisation des données en ce qui concerne la détection des changements.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014727
    Description :

    "Des échantillons probabilistes tirés de bases de sondage quasi-universelles de ménages et de personnes, des mesures normalisées, qui donnent lieu à des enregistrements de données multivariées, analysés au moyen de procédures statistiques reflétant le plan de sondage – c’est-ce qui a constitué le fondement des sciences sociales empiriques pendant 75 ans. C’est cette structure de mesure qui a donné au monde développé la grande majorité de nos connaissances actuelles sur nos sociétés et leurs économies. Les données d’enquête conservées actuellement constituent un dossier historique unique. Cependant, nous vivons maintenant dans un monde de données bien différent de celui dans lequel les dirigeants des organismes statistiques et des sciences sociales ont grandi. Nous produisons maintenant des données multidimensionnelles à partir de recherches sur Internet, de dispositifs mobiles connectés à Internet, des médias sociaux, de différents capteurs, de lecteurs optiques de magasins de détails et d’autres dispositifs. Certains estiment que la taille de ces sources de données augmente de 40 % par année. La taille totale de ces nouvelles sources de données éclipse celle des enquêtes fondées sur un échantillon probabiliste. De plus, les enquêtes fondées sur des échantillons ne se portent pas très bien dans le monde développé. La baisse des taux de participation aux enquêtes est liée aux coûts de plus en plus élevés de la collecte des données. Malgré des besoins en information croissants, la création de nouveaux instruments d’enquête est entravée par les restrictions budgétaires imposées aux organismes de statistique officielle et aux sources de financement de la recherche en sciences sociales. Toutes ces observations représentent des défis sans précédent pour le paradigme de base de l’inférence dans les sciences sociales et économiques. L’article propose de nouvelles approches à mettre en œuvre pour ce moment charnière historique. "

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014704
    Description :

    Il existe plusieurs domaines et sujets de recherche méthodologique en statistiques officielles. Nous expliquons pourquoi ils sont importants, et pourquoi il s’agit des plus importants pour les statistiques officielles. Nous décrivons les principaux sujets dans ces domaines de recherche et nous donnons un aperçu de ce qui semble le plus prometteur pour les aborder. Nous nous penchons ici sur: (i) la qualité des comptes nationaux, et plus particulièrement le taux de croissance du revenu national brut; (ii) les mégadonnées, et plus particulièrement la façon de créer des estimations représentatives et de tirer le meilleur parti possible des mégadonnées, lorsque cela semble difficile ou impossible; Nous abordons aussi : (i) l’amélioration de l’actualité des estimations statistiques provisoires et finales; (ii) l’analyse statistique, plus particulièrement des phénomènes complexes et cohérents. Ces sujets font partie de l’actuel programme de recherche méthodologique stratégique qui a été adopté récemment à Statistique Pays-Bas.

    Date de diffusion : 2016-03-24

  • Produits techniques : 12-002-X
    Description :

    Le Bulletin technique et d'information (BTI) des Centres de données de recherche (CDR) est un forum où les analystes de Statistique Canada et les personnes travaillant dans le milieu de la recherche peuvent communiquer entre eux au sujet de l'utilisation des données d'enquête et des techniques méthodologiques. Les articles du BTI seront axés sur l'analyse et la modélisation de données, la gestion des données ainsi que les pratiques exemplaires ou inefficaces sur le plan statistique, informatique et scientifique. De plus, les thèmes du BTI comprendront des articles portant sur le contenu des données, les répercussions de la formulation des questionnaires, la comparaison d'ensembles de données, les études traitant des méthodologies et de leur application, les particularités des données, les données problématiques et les solutions proposées et enfin la présentation d'outils novateurs utilisant les données des CDR et des logiciels appropriés. Tous ces articles permettront d'offrir des conseils et des exemples détaillés de commandes, d'habitudes, d'astuces et de stratégies pouvant aider les utilisateurs des CDR à résoudre des problèmes.

    Les principaux objectifs du BTI sont les suivants :

    - l'avancement et la diffusion des connaissances relatives aux données de Statistique Canada;- l'échange d'idées entre les utilisateurs des CDR;- l'aide aux nouveaux utilisateurs;- la collaboration avec les spécialistes et les divisions spécialisées de Statistique Canada.

    Le BTI vise la publication d'articles de qualité, dignes d'être diffusés dans le milieu de la recherche et susceptibles d'accroître la qualité des travaux effectués dans les CDR de Statistique Canada.

    Date de diffusion : 2015-03-25

  • Produits techniques : 11-522-X201300014280
    Description :

    Au cours de la dernière décennie, on a vu les enquêtes par panel en ligne s’établir comme un moyen rapide et économique d’effectuer des études de marché. Les progrès dans le domaine des technologies de l’information, en particulier la croissance rapide continue de l’usage d’Internet et des ordinateurs par les membres du public, sont à la base de ce phénomène. La croissance des taux de non-réponse et des prix à laquelle doit faire face l’industrie des sondages sous-tend aussi ce changement. Toutefois, certains risques importants sont associés aux enquêtes par panel en ligne, le biais de sélection dû à l’autosélection des répondants n’étant pas le moindre. Il existe aussi des risques d’erreurs de couverture et de mesure. L’absence d’un cadre d’inférence et d’indicateurs de la qualité des données constitue un obstacle à l’utilisation de panels en ligne pour la production de statistiques de haute qualité au sujet de la population générale. Néanmoins, les enquêtes par panel en ligne pour la production de statistiques ponctuelles et même de statistiques officielles semblent représenter une nouvelle forme de concurrence posant de plus en plus de défis à certains instituts nationaux de statistique. Le présent article explore la question de la conception et de l’utilisation des panels en ligne de façon scientifiquement valable. On donne d’abord un aperçu d’une norme de mesure de la performance établie par la Société suédoise des enquêtes et des sondages pour évaluer certains aspects qualitatifs des résultats des enquêtes par panel en ligne. Puis, on discute en détail de la décomposition du biais et de l’atténuation des risques de biais. Enfin, on présente certaines idées en vue de combiner des enquêtes par panel en ligne et des enquêtes classiques pour obtenir une inférence contrôlée de manière rentable.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014259
    Description :

    Dans l’optique de réduire le fardeau de réponse des exploitants agricoles, Statistique Canada étudie d’autres approches que les enquêtes par téléphone pour produire des estimations des grandes cultures. Une option consiste à publier des estimations de la superficie récoltée et du rendement en septembre, comme cela se fait actuellement, mais de les calculer au moyen de modèles fondés sur des données par satellite et des données météorologiques, ainsi que les données de l’enquête téléphonique de juillet. Toutefois, avant d’adopter une telle approche, on doit trouver une méthode pour produire des estimations comportant un niveau d’exactitude suffisant. Des recherches sont en cours pour examiner différentes possibilités. Les résultats de la recherche initiale et les enjeux à prendre en compte sont abordés dans ce document.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014251
    Description :

    Dans la perspective d’un modélisateur, je décris la situation actuelle en matière d’inférence fondée sur les enquêtes pour la production de statistiques officielles. Ce faisant, je tente de dégager les forces et les faiblesses des approches inférentielles fondées sur le plan de sondage, d’une part, et sur un modèle, d’autre part, appliquées aujourd’hui à l’échantillonnage, du moins en ce qui concerne les statistiques officielles. Je termine par un exemple tiré d’un plan de collecte adaptatif qui illustre pourquoi l’adoption d’une perspective fondée sur un modèle (fréquentiste ou bayésien) représente le meilleur moyen pour les statistiques officielles d’éviter la « schizophrénie inférentielle » débilitante qui semble inévitable si l’on applique les méthodes actuelles pour répondre aux nouvelles demandes d’information du monde d’aujourd’hui (et peut-être même de demain).

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014252
    Description :

    Même si l’estimation de caractéristiques de populations finies à partir d’échantillons probabilistes a obtenu beaucoup de succès pour les grands échantillons, des inférences à partir d’échantillons non probabilistes sont également possibles. Les échantillons non probabilistes ont été critiqués en raison du biais d’auto-sélection et de l’absence de méthodes pour estimer la précision des estimations. L’accès plus vaste à Internet et la capacité de procéder à des collectes de données très peu coûteuses en ligne ont ravivé l’intérêt pour ce sujet. Nous passons en revue des stratégies d’échantillonnage non probabiliste et nous résumons certains des enjeux clés. Nous proposons ensuite des conditions à respecter pour que l’échantillonnage non probabiliste puisse constituer une approche raisonnable. Nous concluons par des idées de recherches futures.

    Date de diffusion : 2014-10-31

  • Articles et rapports : 12-001-X201400114004
    Description :

    En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201200211753
    Description :

    Dans les études longitudinales, la non-réponse est souvent de nature non monotone. Dans le cas de la Survey of Industrial Research and Development (SIRD), il est raisonnable de supposer que le mécanisme de non-réponse dépend des valeurs antérieures, en ce sens que la propension à répondre au sujet d'une variable étudiée au point t dans le temps dépend de la situation de réponse ainsi que des valeurs observées ou manquantes de la même variable aux points dans le temps antérieurs à t. Puisque cette non-réponse n'est pas ignorable, l'approche axée sur la vraisemblance paramétrique est sensible à la spécification des modèles paramétriques s'appuyant sur la distribution conjointe des variables à différents points dans le temps et sur le mécanisme de non-réponse. La non-réponse non monotone limite aussi l'application des méthodes de pondération par l'inverse de la propension à répondre. En écartant toutes les valeurs observées auprès d'un sujet après la première valeur manquante pour ce dernier, on peut créer un ensemble de données présentant une non-réponse monotone ignorable, puis appliquer les méthodes établies pour la non-réponse ignorable. Cependant, l'abandon de données observées n'est pas souhaitable et peut donner lieu à des estimateurs inefficaces si le nombre de données écartées est élevé. Nous proposons d'imputer les réponses manquantes par la régression au moyen de modèles d'imputation créés prudemment sous le mécanisme de non-réponse dépendante des valeurs antérieures. Cette méthode ne requiert l'ajustement d'aucun modèle paramétrique sur la distribution conjointe des variables à différents points dans le temps ni sur le mécanisme de non-réponse. Les propriétés des moyennes estimées en appliquant la méthode d'imputation proposée sont examinées en s'appuyant sur des études en simulation et une analyse empirique des données de la SIRD.

    Date de diffusion : 2012-12-19

  • Articles et rapports : 12-001-X201200111688
    Description :

    Nous étudions le problème de la non-réponse non ignorable dans un tableau de contingence bidimensionnel qui peut être créé individuellement pour plusieurs petits domaines en présence de non-réponse partielle ainsi que totale. En général, le fait de prendre en considération les deux types de non-réponse dans les données sur les petits domaines accroît considérablement la complexité de l'estimation des paramètres du modèle. Dans le présent article, nous conceptualisons le tableau complet des données pour chaque domaine comme étant constitué d'un tableau contenant les données complètes et de trois tableaux supplémentaires pour les données de ligne manquantes, les données de colonne manquantes et les données de ligne et de colonne manquantes, respectivement. Dans des conditions de non-réponse non ignorable, les probabilités totales de cellule peuvent varier en fonction du domaine, de la cellule et de ces trois types de « données manquantes ». Les probabilités de cellule sous-jacentes (c'est-à-dire celles qui s'appliqueraient s'il était toujours possible d'obtenir une classification complète) sont produites pour chaque domaine à partir d'une loi commune et leur similarité entre les domaines est quantifiée paramétriquement. Notre approche est une extension de l'approche de sélection sous non-réponse non ignorable étudiée par Nandram et Choi (2002a, b) pour les données binaires ; cette extension crée une complexité supplémentaire qui découle de la nature multivariée des données et de la structure des petits domaines. Comme dans les travaux antérieurs, nous utilisons un modèle d'extension centré sur un modèle de non-réponse ignorable de sorte que la probabilité totale de cellule dépend de la catégorie qui représente la réponse. Notre étude s'appuie sur des modèles hiérarchiques bayésiens et des méthodes Monte Carlo par chaîne de Markov pour l'inférence a posteriori. Nous nous servons de données provenant de la troisième édition de la National Health and Nutrition Examination Survey pour illustrer les modèles et les méthodes.

    Date de diffusion : 2012-06-27

  • Articles et rapports : 12-001-X201100211603
    Description :

    De nombreuses enquêtes par sondage comprennent des questions suscitant une réponse binaire (par exemple, obèse, non obèse) pour un certain nombre de petits domaines. Une inférence est requise au sujet de la probabilité d'une réponse positive (par exemple obèse) dans chaque domaine, la probabilité étant la même pour tous les individus dans chaque domaine et différente entre les domaines. Étant donné le peu de données dans les domaines, les estimateurs directs ne sont pas fiables et il est nécessaire d'utiliser des données provenant d'autres domaines pour améliorer l'inférence pour un domaine particulier. Essentiellement, il est supposé a priori que les domaines sont similaires, si bien que le choix d'un modèle hiérarchique bayésien, le modèle bêta-binomial standard, est naturel. L'innovation tient au fait qu'un praticien peut disposer d'information a priori supplémentaire qui est nécessaire au sujet d'une combinaison linéaire des probabilités. Par exemple, une moyenne pondérée des probabilités est un paramètre, et l'information peut être obtenue au sujet de ce paramètre, ce qui rend le paradigme bayésien approprié. Nous avons modifié le modèle bêta-binomial standard pour petits domaines afin d'y intégrer l'information a priori sur la combinaison linéraire des probabilités, que nous appelons une contrainte. Donc, il existe trois cas. Le practicien a) ne spécifie pas de contrainte, b) spécifie une contrainte et le paramètre entièrement et c) spécifie une contrainte et l'information qui peut être utilisée pour construire une loi a priori pour le paramètre. L'échantillonneur de Gibbs « griddy » est utilisé pour ajuster les modèles. Pour illustrer notre méthode, nous prenons l'exemple de l'obésité chez les enfants dans la National Health and Nutrition Examination Survey dans laquelle les petits domaines sont formés par croisement de l'école (cycle secondaire inférieur ou supérieur), de l'etnicité (blanche, noire, mexicaine) et du sexe (masculin, féminin). Nous procédons à une étude en simulation pour évaluer certaines caractéristiques statistiques de notre méthode. Nous avons montré que le gain de précision au-delà de (a) est dans l'ordre où (b) est plus grand que (c).

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100211602
    Description :

    Cet article tente de répondre aux trois questions énoncées dans le titre. Il commence par une discussion des caractéristiques uniques des données d'enquêtes complexes qui diffèrent de celles des autres ensembles de données ; ces caractéristiques requièrent une attention spéciale, mais suggèrent une vaste gamme de procédures d'inférence. Ensuite, un certain nombre d'approches proposées dans la documentation pour traiter ces caractéristiques sont passées en revue en discutant de leurs mérites et de leurs limites. Ces approches diffèrent en ce qui a trait aux conditions qui sous-tendent leur utilisation, aux données additionnelles requises pour leur application, aux tests d'adéquation de l'ajustement du modèle, aux objectifs d'inférence qu'elles permettent de satisfaire, à l'efficacité statistique, aux demandes de ressources informatiques et aux compétences que doivent posséder les analystes qui ajustent les modèles. La dernière partie de l'article présente les résultats de simulations conçues pour comparer le biais, la variance et les taux de couverture des diverses approches dans le cas de l'estimation des coefficients de régression linéaire en partant d'un échantillon stratifié. Enfin, l'article se termine par une brève discussion des questions en suspens.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100111446
    Description :

    L'estimation sur petits domaines fondée sur des modèles linéaires mixtes est parfois inefficace quand les relations sous-jacentes ne sont pas linéaires. Nous présentons des techniques d'estimation sur petits domaines pour des variables qui peuvent être modélisées linéairement après une transformation non linéaire. En particulier, nous étendons l'estimateur direct fondé sur un modèle de Chandra et Chambers (2005, 2009) à des données qui concordent avec un modèle linéaire mixte sur l'échelle logarithmique, en utilisant le calage sur un modèle pour définir des poids pouvant être utilisés dans cet estimateur. Nos résultats montrent que l'estimateur fondé sur la transformation que nous obtenons est à la fois efficace et robuste à la distribution des effets aléatoires dans le modèle. Une application à des données d'enquêtes auprès des entreprises démontre la performance satisfaisante de la méthode.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 12-001-X201100111451
    Description :

    Dans la méthode du calage de Deville et Särndal (1992), les équations de calage ne prennent en compte que les estimations exactes de totaux des variables auxiliaires. L'objectif de cet article est de s'intéresser à d'autres paramètres que le total pour caler. Ces paramètres que l'on qualifie de complexes sont par exemple le ratio, la médiane ou la variance de variables auxiliaires.

    Date de diffusion : 2011-06-29

  • Produits techniques : 12-539-X
    Description :

    Ce document réunit des lignes directrices et des listes de contrôles liées à de nombreuses questions dont on doit tenir compte dans la poursuite des objectifs de qualité que sous-tend l'exécution des activités statistiques. Le document s'attarde principalement à la façon d'assurer la qualité grâce à la conception ou à la restructuration efficace et adéquate d'un projet ou d'un programme statistique, des débuts jusqu'à l'évaluation, la diffusion et la documentation des données. Ces lignes directrices sont fondées sur les connaissances et l'expérience collective d'un grand nombre d'employés de Statistique Canada. On espère que les Lignes directrices concernant la qualité seront utiles au personnel chargé de la planification et de la conception des enquêtes et d'autres projets statistiques, ainsi qu'à ceux qui évaluent et analysent les résultats de ces projets.

    Date de diffusion : 2009-12-02

  • Produits techniques : 11-522-X200600110392
    Description :

    Nous suivons une méthode bayésienne robuste pour analyser des données pouvant présenter un biais de non-réponse et un biais de sélection non ignorables. Nous utilisons un modèle de régression logistique robuste pour établir le lien entre les indicateurs de réponse (variable aléatoire de Bernoulli) et les covariables, dont nous disposons pour tous les membres de la population finie. Ce lien permet d'expliquer l'écart entre les répondants et les non-répondants de l'échantillon. Nous obtenons ce modèle robuste en élargissant le modèle de régression logistique conventionnel à un mélange de lois de Student, ce qui nous fournit des scores de propension (probabilité de sélection) que nous utilisons pour construire des cellules d'ajustement. Nous introduisons les valeurs des non-répondants en tirant un échantillon aléatoire à partir d'un estimateur à noyau de la densité, formé d'après les valeurs des répondants à l'intérieur des cellules d'ajustement. La prédiction fait appel à une régression linéaire spline, fondée sur les rangs, de la variable de réponse sur les covariables selon le domaine, en échantillonnant les erreurs à partir d'un autre estimateur à noyau de la densité, ce qui rend notre méthode encore plus robuste. Nous utilisons des méthodes de Monte-Carlo par chaînes de Markov (MCMC) pour ajuster notre modèle. Dans chaque sous-domaine, nous obtenons la loi a posteriori d'un quantile de la variable de réponse à l'intérieur de chaque sous-domaine en utilisant les statistiques d'ordre sur l'ensemble des individus (échantillonnés et non échantillonnés). Nous comparons notre méthode robuste à des méthodes paramétriques proposées récemment.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110419
    Description :

    La recherche sur les services de santé s'appuie habituellement sur des données d'observation afin de comparer les résultats chez des patients recevant des traitements différents. La comparaison de groupes de patients participant à des études par observation peut être biaisée, car les résultats diffèrent à la fois en raison des effets du traitement et de ceux liés au pronostic fait sur le patient. Dans certains cas, particulièrement lorsque les données recueillies ont trait à des facteurs de risque cliniques précis, il est possible de tenir compte de ces différences en utilisant des méthodes statistiques ou épidémiologiques. Dans d'autres cas, où des caractéristiques non mesurées de la population de patients ont une incidence sur la décision de prodiguer le traitement ainsi que sur le résultat, il est impossible d'éliminer ces différences par des techniques courantes. L'utilisation de données administratives sur la santé pour entreprendre des études par observation demande des précautions particulières, puisque d'importants renseignements cliniques font défaut. Nous discutons de plusieurs méthodes statistiques et épidémiologiques visant à éliminer le biais manifeste (mesurable) et caché (non mesurable) dans les études par observation. Ces méthodes comprennent l'ajustement de la composition des groupes de cas, l'appariement fondé sur la propension, la redéfinition des variables d'exposition d'intérêt et la technique économétrique d'analyse avec variables instrumentales (VI). Nous illustrons ces méthodes à l'aide d'exemples extraits de publications médicales, dont la prédiction de la mortalité un an après une crise cardiaque, le rendement des dépenses en soins de santé, en ce qui a trait aux avantages cliniques et financiers, dans les régions des États-Unis où les dépenses sont élevées, ainsi que les avantages du traitement effractif des patients ayant fait une crise cardiaque liés à la survie à long terme. Il est possible d'utiliser des données administratives sur la santé pour réaliser des études par observation à condition de veiller soigneusement à résoudre les problèmes liés à la causalité inverse et au facteur de confusion non mesuré.

    Date de diffusion : 2008-03-17

Données (0)

Données (0) (Aucun résultat)

Votre recherche pour «» n’a donné aucun résultat dans la présente section du site.

Vous pouvez essayer :

Analyses (40)

Analyses (40) (25 of 40 results)

  • Articles et rapports : 12-001-X201700114822
    Description :

    Nous utilisons une méthode bayésienne pour inférer sur une proportion dans une population finie quand des données binaires sont recueillies selon un plan d’échantillonnage double sur des petits domaines. Le plan d’échantillonnage double correspond à un plan d’échantillonnage en grappes à deux degrés dans chaque domaine. Un modèle bayésien hiérarchique établi antérieurement suppose que, pour chaque domaine, les réponses binaires de premier degré suivent des lois de Bernoulli indépendantes et que les probabilités suivent des lois bêta paramétrisées par une moyenne et un coefficient de corrélation. La moyenne varie selon le domaine, tandis que la corrélation est la même dans tous les domaines. En vue d’accroître la flexibilité de ce modèle, nous l’avons étendu afin de permettre aux corrélations de varier. Les moyennes et les corrélations suivent des lois bêta indépendantes. Nous donnons à l’ancien modèle le nom de modèle homogène et au nouveau, celui de modèle hétérogène. Tous les hyperparamètres possèdent des distributions a priori non informatives appropriées. Une complication supplémentaire tient au fait que certains paramètres sont faiblement identifiés, ce qui rend difficile l’utilisation d’un échantillonneur de Gibbs classique pour les calculs. Donc, nous avons imposé des contraintes unimodales sur les distributions bêta a priori et utilisé un échantillonneur de Gibbs par blocs pour effectuer les calculs. Nous avons comparé les modèles hétérogène et homogène au moyen d’un exemple et d’une étude en simulation. Comme il fallait s’y attendre, le modèle double avec corrélations hétérogènes est celui qui est privilégié.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201600214662
    Description :

    Les plans d’échantillonnage à deux phases sont souvent utilisés dans les enquêtes lorsque la base de sondage ne contient que peu d’information auxiliaire, voire aucune. Dans la présente note, nous apportons certains éclaircissements sur le concept d’invariance souvent mentionné dans le contexte des plans d’échantillonnage à deux phases. Nous définissons deux types de plans d’échantillonnage à deux phases invariants, à savoir les plans fortement invariants et les plans faiblement invariants, et donnons des exemples. Enfin, nous décrivons les implications d’une forte ou d’une faible invariance du point de vue de l’inférence.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600114545
    Description :

    L’estimation des quantiles est une question d’intérêt dans le contexte non seulement de la régression, mais aussi de la théorie de l’échantillonnage. Les expectiles constituent une solution de rechange naturelle ou un complément aux quantiles. En tant que généralisation de la moyenne, les expectiles ont gagné en popularité ces dernières années parce qu’en plus d’offrir un portrait plus détaillé des données que la moyenne ordinaire, ils peuvent servir à calculer les quantiles grâce aux liens étroits qui les associent à ceux-ci. Nous expliquons comment estimer les expectiles en vertu d’un échantillonnage à probabilités inégales et comment les utiliser pour estimer la fonction de répartition. L’estimateur ajusté de la fonction de répartition obtenu peut être inversé pour établir les estimations des quantiles. Nous réalisons une étude par simulations pour examiner et comparer l’efficacité de l’estimateur fondé sur des expectiles.

    Date de diffusion : 2016-06-22

  • Articles et rapports : 12-001-X201400114004
    Description :

    En 2009, deux enquêtes importantes réalisées par la division des administrations publiques du U.S. Census Bureau ont été remaniées afin de réduire la taille de l’échantillon, d’économiser des ressources et d’améliorer la précision des estimations (Cheng, Corcoran, Barth et Hogue 2009). Sous le nouveau plan de sondage, chaque strate habituelle, définie par l’État et le type d’administration publique, qui contient un nombre suffisant d’unités (administrations publiques) est divisée en deux sous strates en fonction de la masse salariale totale de chaque unité afin de tirer un plus petit échantillon de la sous strate des unités de petite taille. L’approche assistée par modèle est adoptée pour estimer les totaux de population. Des estimateurs par la régression utilisant des variables auxiliaires sont obtenus soit pour chaque sous strate ainsi créée soit pour la strate originale en regroupant des deux sous strates. Cheng, Slud et Hogue (2010) ont proposé une méthode fondée sur un test de décision qui consiste à appliquer un test d’hypothèse pour décider quel estimateur par la régression sera utilisé pour chaque strate originale. La convergence et la normalité asymptotique de ces estimateurs assistés par modèle sont établies ici sous un cadre asymptotique fondé sur le plan de sondage ou assisté par modèle. Nos résultats asymptotiques suggèrent aussi deux types d’estimateurs de variance convergents, l’un obtenu par substitution des quantités inconnues dans les variances asymptotiques et l’autre en appliquant la méthode du bootstrap. La performance de tous les estimateurs des totaux et des estimateurs de leur variance est examinée au moyen d’études empiriques. L’Annual Survey of Public Employment and Payroll (ASPEP) des États Unis est utilisé pour motiver et illustrer notre étude.

    Date de diffusion : 2014-06-27

  • Articles et rapports : 12-001-X201200211753
    Description :

    Dans les études longitudinales, la non-réponse est souvent de nature non monotone. Dans le cas de la Survey of Industrial Research and Development (SIRD), il est raisonnable de supposer que le mécanisme de non-réponse dépend des valeurs antérieures, en ce sens que la propension à répondre au sujet d'une variable étudiée au point t dans le temps dépend de la situation de réponse ainsi que des valeurs observées ou manquantes de la même variable aux points dans le temps antérieurs à t. Puisque cette non-réponse n'est pas ignorable, l'approche axée sur la vraisemblance paramétrique est sensible à la spécification des modèles paramétriques s'appuyant sur la distribution conjointe des variables à différents points dans le temps et sur le mécanisme de non-réponse. La non-réponse non monotone limite aussi l'application des méthodes de pondération par l'inverse de la propension à répondre. En écartant toutes les valeurs observées auprès d'un sujet après la première valeur manquante pour ce dernier, on peut créer un ensemble de données présentant une non-réponse monotone ignorable, puis appliquer les méthodes établies pour la non-réponse ignorable. Cependant, l'abandon de données observées n'est pas souhaitable et peut donner lieu à des estimateurs inefficaces si le nombre de données écartées est élevé. Nous proposons d'imputer les réponses manquantes par la régression au moyen de modèles d'imputation créés prudemment sous le mécanisme de non-réponse dépendante des valeurs antérieures. Cette méthode ne requiert l'ajustement d'aucun modèle paramétrique sur la distribution conjointe des variables à différents points dans le temps ni sur le mécanisme de non-réponse. Les propriétés des moyennes estimées en appliquant la méthode d'imputation proposée sont examinées en s'appuyant sur des études en simulation et une analyse empirique des données de la SIRD.

    Date de diffusion : 2012-12-19

  • Articles et rapports : 12-001-X201200111688
    Description :

    Nous étudions le problème de la non-réponse non ignorable dans un tableau de contingence bidimensionnel qui peut être créé individuellement pour plusieurs petits domaines en présence de non-réponse partielle ainsi que totale. En général, le fait de prendre en considération les deux types de non-réponse dans les données sur les petits domaines accroît considérablement la complexité de l'estimation des paramètres du modèle. Dans le présent article, nous conceptualisons le tableau complet des données pour chaque domaine comme étant constitué d'un tableau contenant les données complètes et de trois tableaux supplémentaires pour les données de ligne manquantes, les données de colonne manquantes et les données de ligne et de colonne manquantes, respectivement. Dans des conditions de non-réponse non ignorable, les probabilités totales de cellule peuvent varier en fonction du domaine, de la cellule et de ces trois types de « données manquantes ». Les probabilités de cellule sous-jacentes (c'est-à-dire celles qui s'appliqueraient s'il était toujours possible d'obtenir une classification complète) sont produites pour chaque domaine à partir d'une loi commune et leur similarité entre les domaines est quantifiée paramétriquement. Notre approche est une extension de l'approche de sélection sous non-réponse non ignorable étudiée par Nandram et Choi (2002a, b) pour les données binaires ; cette extension crée une complexité supplémentaire qui découle de la nature multivariée des données et de la structure des petits domaines. Comme dans les travaux antérieurs, nous utilisons un modèle d'extension centré sur un modèle de non-réponse ignorable de sorte que la probabilité totale de cellule dépend de la catégorie qui représente la réponse. Notre étude s'appuie sur des modèles hiérarchiques bayésiens et des méthodes Monte Carlo par chaîne de Markov pour l'inférence a posteriori. Nous nous servons de données provenant de la troisième édition de la National Health and Nutrition Examination Survey pour illustrer les modèles et les méthodes.

    Date de diffusion : 2012-06-27

  • Articles et rapports : 12-001-X201100211603
    Description :

    De nombreuses enquêtes par sondage comprennent des questions suscitant une réponse binaire (par exemple, obèse, non obèse) pour un certain nombre de petits domaines. Une inférence est requise au sujet de la probabilité d'une réponse positive (par exemple obèse) dans chaque domaine, la probabilité étant la même pour tous les individus dans chaque domaine et différente entre les domaines. Étant donné le peu de données dans les domaines, les estimateurs directs ne sont pas fiables et il est nécessaire d'utiliser des données provenant d'autres domaines pour améliorer l'inférence pour un domaine particulier. Essentiellement, il est supposé a priori que les domaines sont similaires, si bien que le choix d'un modèle hiérarchique bayésien, le modèle bêta-binomial standard, est naturel. L'innovation tient au fait qu'un praticien peut disposer d'information a priori supplémentaire qui est nécessaire au sujet d'une combinaison linéaire des probabilités. Par exemple, une moyenne pondérée des probabilités est un paramètre, et l'information peut être obtenue au sujet de ce paramètre, ce qui rend le paradigme bayésien approprié. Nous avons modifié le modèle bêta-binomial standard pour petits domaines afin d'y intégrer l'information a priori sur la combinaison linéraire des probabilités, que nous appelons une contrainte. Donc, il existe trois cas. Le practicien a) ne spécifie pas de contrainte, b) spécifie une contrainte et le paramètre entièrement et c) spécifie une contrainte et l'information qui peut être utilisée pour construire une loi a priori pour le paramètre. L'échantillonneur de Gibbs « griddy » est utilisé pour ajuster les modèles. Pour illustrer notre méthode, nous prenons l'exemple de l'obésité chez les enfants dans la National Health and Nutrition Examination Survey dans laquelle les petits domaines sont formés par croisement de l'école (cycle secondaire inférieur ou supérieur), de l'etnicité (blanche, noire, mexicaine) et du sexe (masculin, féminin). Nous procédons à une étude en simulation pour évaluer certaines caractéristiques statistiques de notre méthode. Nous avons montré que le gain de précision au-delà de (a) est dans l'ordre où (b) est plus grand que (c).

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100211602
    Description :

    Cet article tente de répondre aux trois questions énoncées dans le titre. Il commence par une discussion des caractéristiques uniques des données d'enquêtes complexes qui diffèrent de celles des autres ensembles de données ; ces caractéristiques requièrent une attention spéciale, mais suggèrent une vaste gamme de procédures d'inférence. Ensuite, un certain nombre d'approches proposées dans la documentation pour traiter ces caractéristiques sont passées en revue en discutant de leurs mérites et de leurs limites. Ces approches diffèrent en ce qui a trait aux conditions qui sous-tendent leur utilisation, aux données additionnelles requises pour leur application, aux tests d'adéquation de l'ajustement du modèle, aux objectifs d'inférence qu'elles permettent de satisfaire, à l'efficacité statistique, aux demandes de ressources informatiques et aux compétences que doivent posséder les analystes qui ajustent les modèles. La dernière partie de l'article présente les résultats de simulations conçues pour comparer le biais, la variance et les taux de couverture des diverses approches dans le cas de l'estimation des coefficients de régression linéaire en partant d'un échantillon stratifié. Enfin, l'article se termine par une brève discussion des questions en suspens.

    Date de diffusion : 2011-12-21

  • Articles et rapports : 12-001-X201100111446
    Description :

    L'estimation sur petits domaines fondée sur des modèles linéaires mixtes est parfois inefficace quand les relations sous-jacentes ne sont pas linéaires. Nous présentons des techniques d'estimation sur petits domaines pour des variables qui peuvent être modélisées linéairement après une transformation non linéaire. En particulier, nous étendons l'estimateur direct fondé sur un modèle de Chandra et Chambers (2005, 2009) à des données qui concordent avec un modèle linéaire mixte sur l'échelle logarithmique, en utilisant le calage sur un modèle pour définir des poids pouvant être utilisés dans cet estimateur. Nos résultats montrent que l'estimateur fondé sur la transformation que nous obtenons est à la fois efficace et robuste à la distribution des effets aléatoires dans le modèle. Une application à des données d'enquêtes auprès des entreprises démontre la performance satisfaisante de la méthode.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 12-001-X201100111451
    Description :

    Dans la méthode du calage de Deville et Särndal (1992), les équations de calage ne prennent en compte que les estimations exactes de totaux des variables auxiliaires. L'objectif de cet article est de s'intéresser à d'autres paramètres que le total pour caler. Ces paramètres que l'on qualifie de complexes sont par exemple le ratio, la médiane ou la variance de variables auxiliaires.

    Date de diffusion : 2011-06-29

  • Articles et rapports : 91F0015M2005007
    Description :

    Le Programme des estimations de population de Statistique Canada utilise des estimations de migration interne provenant des sources de données administratives. Deux versions d'estimations de migration sont présentement disponibles, provisoires (P), d'après l'information de crédit d'impôt pour enfants et définitives (D), produites à partir des rapports d'impôt sur le revenu. Pour certaines dates de références, ces versions peuvent être différentes de manière significative. Ce document résume les recherches entreprises à la Division de la démographie afin de modifier la méthode actuelle visant à diminuer l'écart entre ces estimations. Après une brève analyse des différences, six méthodes sont expérimentées : 1) régression des sortants; 2) régression des entrants et des sortants, séparément; 3) régression de la migration nette; 4) la moyenne mobile à pondération exponentielle; 5) l'approche du U.S. Bureau of Census; et 6) méthode de régression de la différence première. Il semble que les méthodes où on combine estimations provisoires et définitives pour l'estimation provisoire de la migration nette (méthode 3) sont le meilleur moyen d'accroître la convergence de ces estimations de la migration interne pour le Programme des estimations de la population. Il est alors possible de « lisser » certaines tendances irrégulières que présentent les estimations PFE, tout en conservant la possibilité d'appréhender par cette source d'information les variations courantes des tendances migratoires.

    Date de diffusion : 2005-06-20

  • Articles et rapports : 89-552-M2005013
    Description :

    Le présent rapport documente les principaux aspects de l'élaboration de l'Enquête internationale sur l'alphabétisation et les compétences des adultes (EIACA) - les origines théoriques de l'enquête, les domaines soumis à une éventuelle évaluation, les méthodes retenues pour l'évaluation de chaque domaine et les critères employés pour retenir les domaines dans le plan définitif de l'enquête. Dans sa conception même, l'EIACA prend appui sur les forces des évaluations menées dans le cadre de l'Enquête internationale sur l'alphabétisation des adultes (EIAA) en élargissant l'éventail des compétences évaluées et en améliorant la qualité des méthodes d'évaluation utilisées. Le présent rapport fait état de plusieurs réalisations, notamment : - l'élaboration d'un nouveau cadre et de mesures connexes robustes pour la résolution de problèmes; - l'élaboration d'un cadre solide et de mesures connexes robustes pour la numératie; - la spécification des cadres pour les capacités cognitives pratiques, le travail d'équipe et la littératie en matière de technologie des communications. Le rapport examine également les domaines pour lesquels des méthodes d'évaluation de qualité suffisante n'ont pu être mises au point, ce qui nous rappelle que les progrès scientifiques dans ce domaine exigent des efforts considérables.

    Date de diffusion : 2005-03-24

  • Articles et rapports : 91F0015M2004006
    Description :

    Dans ce document, on évalue et on compare la nouvelle et l'ancienne méthode pour produire des estimations officielles de la migration interne et interprovinciale selon les provinces ou les territoires pour la période de 1996-1997 à 2000-2001.

    Date de diffusion : 2004-06-17

  • Articles et rapports : 12-001-X20030026785
    Description :

    L'une des méthodes permettant d'éviter les divulgations consiste à diffuser des ensembles de microdonnées à grande diffusion partiellement synthétiques. Ces ensembles comprennent les unités enquêtés au départ, mais certaines valeurs recueillies, comme celles de nature délicate présentant un haut risque de divulgation ou celles d'identificateurs clés, sont remplacées par des imputations multiples. Bien qu'on recoure à l'heure actuelle à des approches partiellement synthétiques pour protéger les données à grande diffusion, on ne les a pas encore assorties de méthodes d'inférence valides. Le présent article décrit de telles méthodes. Elles sont fondées sur les concepts de l'imputation multiple en vue de remplacer des données manquantes, mais s'appuient sur des règles différentes pour combiner les estimations ponctuelles et les estimations de la variance. Ces règles de combinaison diffèrent aussi de celles élaborées par Raghunathan, Reiter et Rubin (2003) pour les ensembles de données entièrement synthétiques. La validité de ces nouvelles règles est illustrée au moyen d'études par simulation.

    Date de diffusion : 2004-01-27

  • Articles et rapports : 12-001-X20030016610
    Description :

    En présence de non-réponse partielle, en pratique, on recourt souvent à des méthodes d'imputation non pondérée, mais celles-ci produisent généralement des estimateurs biaisés sous l'hypothèse d'une réponse uniforme à l'intérieur des classes d'imputation. En nous inspirant de Skinner et Rao (2002), nous proposons un estimateur corrigé pour le biais d'une moyenne de population sous imputation par le ratio non pondérée et sous imputation aléatoire hot-deck, et nous calculons des estimateurs de la variance par linéarisation. Nous réalisons une petite étude en simulation pour évaluer les propriétés de biais et d'erreur quadratique moyenne des estimateurs obtenus. Nous étudions aussi le biais relatif et la stabilité relative des estimateurs de la variance.

    Date de diffusion : 2003-07-31

  • Articles et rapports : 81-595-M2003005
    Description :

    Dans ce document, on élabore des procédures techniques permettant aux ministères de l'Éducation d'établir un lien entre les tests provinciaux et les tests nationaux et internationaux afin de pouvoir comparer les normes et présenter les résultats selon une échelle commune.

    Date de diffusion : 2003-05-29

  • Articles et rapports : 11F0019M2003199
    Description :

    À l'aide d'un échantillon national représentatif d'établissements, nous avons cherché à déterminer si l'adoption de certaines pratiques de travail équivalentes (PTE) a tendance à réduire le taux de démissions. Dans l'ensemble, notre analyse fournit des preuves solides d'une association négative entre l'adoption de certaines PTE et le taux de démissions, pour les établissements comptant plus de dix employés du secteur des services hautement spécialisés. Nous dégageons aussi certaines preuves d'une association négative pour le secteur des services peu spécialisés. Cependant, la force de cette association négative diminue considérablement lorsque nous ajoutons un indicateur précisant si l'établissement a adopté ou non une politique officielle de partage de l'information. Dans le secteur de la fabrication, les preuves d'une association négative sont faibles. Bien que les établissements ayant des groupes de travail autonomes aient affiché un taux de démissions plus faible que les autres, aucun ensemble de pratiques de travail étudié n'a d'effet négatif et statistiquement significatif sur ce taux. Nous émettons l'hypothèse que les PTE clés peuvent réduire davantage le roulement de la main-d'oeuvre dans des environnements techniquement complexes que dans des environnements requérant peu de compétences.

    Date de diffusion : 2003-03-17

  • Articles et rapports : 89-552-M2000007
    Description :

    Le but de ce document est d'explorer le problème de l'inférence statistique au niveau des variables aléatoires ordinales. On y examine également la robustesse des méthodes de rechange servant à mesurer l'alphabétisation et les choix d'échelles pour l'alphabétisation moyenne ainsi que l'effet de l'alphabétisation sur le revenu personnel.

    Date de diffusion : 2000-06-02

  • Articles et rapports : 62F0014M1998013
    Description :

    La population de référence de l'indice des prix à la consommation (IPC) est représentée, depuis la mise à jour du panier de biens et services de 1992, par les familles et personnes seules vivant dans des ménages privés, urbains ou ruraux. L'IPC officiel est une mesure du taux de variation moyen dans le temps du coût d'achat d'un panier fixe de biens et services achetés par les consommateurs canadiens.

    Étant donné l'étendue de la population cible de l'IPC, on a reproché à cette mesure de négliger les expériences inflationistes de certains groupes socio-démographiques. La présente étude s'intéresse à cette question pour trois sous-groupes de la population de référence de l'IPC. Elle est une prolongation des recherches antérieures sur le sujet réalisées à Statistique Canada.

    Dans le présent document, les indices analytiques de prix à la consommation des sous-groupes sont comparés à l'indice analytique pour l'ensemble de la population de référence, au niveau géographique national.

    Les conclusions s'inscrivent dans la même lignée que celles des études précédentes de Statistique Canada portant sur des sous-groupes de la population de référence de l'IPC. Ces études ont toujours conclu qu'un indice des prix à la consommation établi pour un sous-groupe quelconque, ne diffère pas sensiblement de l'indice pour l'ensemble de la population de référence.

    Date de diffusion : 1999-05-13

  • Articles et rapports : 91F0015M1998005
    Description :

    Tous les pays qui organisent des recensements s'inquiètent post factum de sa qualité et de l'ampleur du sous- dénombrement net. Pour mesurer l'une et l'autre, différentes méthodes ont depuis longtemps été imaginées. Certaines mettent à profit des sources d'informations indépendantes du recensement lui-même, alors que d'autres contrôlent la cohérence des résultats. Ce sont des opérations lourdes et onéreuses.

    Attendu que la population dans chaque pays est organisée différemment et que les structures administratives ne sont pas les mêmes, il n'y a pas de modèle universel qui puisse être appliqué pour obtenir des mesures. La division de la Démographie de Statistique Canada a passé en revue les procédés utilisés dans quatre pays du monde industrialisé afin de comparer les méthodes et apprécier leurs avantages et leurs faiblesses : les États-Unis, le Royaume Uni, l'Australie et évidement le Canada. Il ressort de la revue que l'analyse démographique peut être d'un grand secours pour déceler les incohérences quand vient le temps de comparer deux recensements successifs et que la technique des micro-données et le couplage des enregistrements sont indispensables pour évaluer l'importance du nombre de ceux qui ont été omis ou au contraire comptés deux fois le jour de l'énumération. Mais la conclusion la plus importante est la nécessité de conjuguer les efforts des démographes et des statisticiens pour évaluer des nombres dont la justesse demeurera toujours sujette à discussion.

    Date de diffusion : 1998-03-27

  • Articles et rapports : 91F0015M1997004
    Description :

    L'estimation des effectifs de population par âge, sexe, état matrimonial par provinces, est une entreprise difficile surtout à cause des migrations. En effet, on ne peut caractériser le migrant que par ses déclarations au recensement. Jusqu'en 1991, le recensement ne comportait que la question sur le lieu de résidence cinq ans auparavant. Ainsi, l'individu qui avait cinq ans auparavant une résidence différente était considéré comme un migrant et en tant que tel on lui attribuait au moment de sa migration les caractéristiques qu'il déclarait au recensement. Or, il avait eu cinq ans pour en changer, en particulier son état matrimonial.

    Depuis 1991, le recensement pose la question sur la résidence un an auparavant. La même démarche fait attribuer au migrant, au moment de sa migration, des caractéristiques qui selon toute vraisemblance risque davantage d'être les mêmes que celles qu'il déclare. Il n'a eu qu'une seule année pour en changer.L'article décrit en détail les méthodes utilisées maintenant par Statistique Canada pour estimer les caractéristiques des migrants et mesure les avantages par rapport à l'utilisation de la mobilité sur cinq ans.

    Date de diffusion : 1997-12-23

  • Articles et rapports : 91F0015M1997003
    Description :

    Pour des raisons historiques, les tables de mortalité les plus connues et fréquemment utilisées sont les tables du moment. Elles sont construites avec les taux de mortalité par âge observés sur une courte période (souvent l'année) et ont pour but de renseigner sur l'état de la mortalité à cette période. Les survivants et les décès qui figurent dans leurs colonnes sont en quelque sorte davantage des abstractions que des réalités. Il est donc fautif de croire que la table de mortalité d'une année (1995 par exemple) a une quelconque valeur prédictive de la cadence à laquelle disparaîtront ceux qui naissent cette année-là et par extension de la durée moyenne de la vie qu'ils commencent. À de rares exceptions la moyenne des années vécues par les individus a toujours été plus longue que l'espérance de vie de la table de mortalité de l'année de leur naissance. Cela vient de ce que l'incessante lutte contre la mort réduit année après année ces risques de décès à chaque âge et les individus, en avançant dans la vie bénéficient de ces gains successifs.

    Pour reconstituer (ou envisager) la cadence à laquelle les membres d'une génération ont réellement disparu (ou disparaîtront), il faut disposer de très longues séries de taux de mortalité par âge et d'indications fiables sur ceux qui manquent pour les agencer de manière à constituer le cheminement réel d'une génération. Construites exactement de la même manière que celles du moment ces tables portent tout naturellement le nom de tables de génération mais l'observation comparative de leurs paramètres livre des enseignements d'une grande richesse.

    Date de diffusion : 1997-10-01

  • Articles et rapports : 12-001-X19970013101
    Description :

    Dans le travail ordinaire en statistique, l'échantillonnage est souvent exécuté en fonction d'un processus qui choisit des variables aléatoires telles sont indépendantes et distribuées de façon identique (IDI), de sorte qu'il faut avoir recours à des rajustements pour les utiliser dans le contexte d'une enquête complexe. Toutefois, au lieu de rajuster l'analyse, les auteurs ont adopté une formulation qui a ceci de nouveau qu'elle prélève un second échantillon dans l'échantillon original. Dans ce second échantillon, le premier ensemble de sélections est inversé de façon à fournir à terme un échantillon aléatoire simple. Bien entendu, il serait inefficace d'utiliser ce processus en deux étapes pour tirer un échantillon aléatoire simple unique d'une enquête complexe normalement beaucoup plus grande, et c'est pourquoi des échantillons aléatoires simples multiples sont prélevés, les auteurs ayant élaboré une façon de fonder sur eux des inférences. Les échantillons originaux ne peuvent pas tous être inversés, mais les auteurs abordent de nombreux cas spéciaux qui couvrent tout un éventail de possibilités.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19970013102
    Description :

    Les auteurs examinent la sélection des variables auxiliaires pour l'estimation par régression des paramètres des populations finies dans le cas d'un plan de sondage aléatoire simple. Ce problème fondamental que posent les méthodes d'échantillonnage fondé sur un modèle ou assisté par un modèle prend une importance d'ordre pratique quand le nombre de variables disponibles est grand. Les auteurs élaborent une méthode consistant à minimiser un estimateur de l'erreur quadratique moyenne, puis, la comparent à d'autres en utilisant un ensemble fixe de variables auxiliaires, un test de signification classique, une méthode de réduction du nombre de conditions et une méthode de régression ridge. Selon les résultats de l'étude, la méthode proposée est efficace. Les auteurs soulignent que la méthode de sélection des variables influe sur les propriétés des estimateurs types de la variance, ce qui entraîne par conséquent un problème d'estimation de la variance.

    Date de diffusion : 1997-08-18

  • Articles et rapports : 12-001-X19960022980
    Description :

    Dans le présent article, nous présentons une méthode qui permet d'estimer l'intervalle de confiance de la moyenne d'une population finie quand on dispose de certaines données auxiliaires. Comme l'ont montré Royall et Cumberland grâce à une série d'études empiriques, l'application naïve des méthodes existantes de construction des intervalles de confiance de la moyenne d'une population aboutit parfois à de très médiocres probabilités conditionnelles de couverture subordonnées à la moyenne d'échantillon de la covariable. Le cas échéant, nous proposons de transformer les données pour améliorer la précision de l'approximation normale. Puis, d'après les données transformées, nous faisons une inférence quant à la moyenne de la population originale et intégrons les données auxiliaires à l'inférence soit directement, soit par calage au moyen d'une fonction empirique de vraisemblance. Nous appliquons notre méthode, qui est basée sur le plan de sondage, à six populations réelles et constatons que, dans les cas où la transformation est nécessaire, elle donne de bons résultats comparativement à la méthode de régression habituelle.

    Date de diffusion : 1997-01-30

Références (87)

Références (87) (25 of 87 results)

  • Produits techniques : 84-538-X
    Description :

    Ce document présente la méthodologie sous-jacente à la production des tables de mortalité pour le Canada, les provinces et les territoires et ce, à partir de la période de référence 1980-1982.

    Date de diffusion : 2017-11-16

  • Produits techniques : 12-206-X
    Description :

    Ce rapport résume les travaux réalisés dans le cadre d'un programme parrainé par les trois divisions de la méthodologie de Statistique Canada. Ce programme couvre les activités de recherche et de développement liées aux méthodes statistiques pouvant être appliquées à grande échelle aux programmes d'enquêtes du Bureau qui, autrement, n'auraient pas été offertes parmi les services de méthodologie de ces programmes d'enquête. Elles comportent aussi des tâches de soutien à l'intention des clients concernant l'application d'exploitations antérieures fructueuses, qui visent à promouvoir l'utilisation des résultats de recherche et des travaux préparatoires.

    Date de diffusion : 2017-11-03

  • Produits techniques : 11-522-X201700014738
    Description :

    Sous l’approche classique de traitement des observations manquantes fondée sur le plan de sondage, la construction de classes de pondération et le calage sont utilisés pour ajuster les poids de sondage pour les répondants présents dans l’échantillon. Ici, nous utilisons ces poids ajustés pour définir une loi de Dirichlet qui peut servir à faire des inférences au sujet de la population. Des exemples montrent que les procédures résultantes possèdent de meilleures propriétés de performance que les méthodes classiques quand la population est asymétrique.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014713
    Description :

    Le terme mégadonnées peut signifier différentes choses pour différentes personnes. Pour certaines, il s’agit d’ensembles de données que nos systèmes classiques de traitement et d’analyse ne peuvent plus traiter. Pour d’autres, cela veut simplement dire tirer parti des ensembles de données existants de toutes tailles et trouver des façons de les fusionner, avec comme objectif de produire de nouveaux éléments de connaissance. La première perspective présente un certain nombre de défis importants pour les études traditionnelles de marché, recherches sur l’opinion et recherches sociales. Dans l’un ou l’autre cas, il existe des répercussions pour l’avenir des enquêtes, qu’on commence à peine à explorer.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014759
    Description :

    Nombre des possibilités et des défis de la science des données moderne découlent d’éléments dynamiques, dont l’évolution des populations, la croissance du volume de données administratives et commerciales sur les particuliers et les établissements, les flux continus de données et la capacité de les analyser et de les résumer en temps réel, ainsi que la détérioration des données faute de ressources pour les tenir à jour. Le domaine de la statistique officielle, qui met l’accent sur la qualité des données et l’obtention de résultats défendables, se prête parfaitement à la mise en relief des questions statistiques et liées à la science des données dans divers contextes. L’exposé souligne l’importance des bases de sondage de population et de leur tenue à jour, la possibilité d’utiliser des méthodes à bases de sondage multiples et des couplages d’enregistrements, la façon dont l’utilisation de données à grande échelle non issues d’enquêtes comme information auxiliaire façonne les objets de l’inférence, la complexité des modèles pour les grands ensembles de données, l’importance des méthodes récursives et de la régularisation, et les avantages des outils évolués de visualisation des données en ce qui concerne la détection des changements.

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014727
    Description :

    "Des échantillons probabilistes tirés de bases de sondage quasi-universelles de ménages et de personnes, des mesures normalisées, qui donnent lieu à des enregistrements de données multivariées, analysés au moyen de procédures statistiques reflétant le plan de sondage – c’est-ce qui a constitué le fondement des sciences sociales empiriques pendant 75 ans. C’est cette structure de mesure qui a donné au monde développé la grande majorité de nos connaissances actuelles sur nos sociétés et leurs économies. Les données d’enquête conservées actuellement constituent un dossier historique unique. Cependant, nous vivons maintenant dans un monde de données bien différent de celui dans lequel les dirigeants des organismes statistiques et des sciences sociales ont grandi. Nous produisons maintenant des données multidimensionnelles à partir de recherches sur Internet, de dispositifs mobiles connectés à Internet, des médias sociaux, de différents capteurs, de lecteurs optiques de magasins de détails et d’autres dispositifs. Certains estiment que la taille de ces sources de données augmente de 40 % par année. La taille totale de ces nouvelles sources de données éclipse celle des enquêtes fondées sur un échantillon probabiliste. De plus, les enquêtes fondées sur des échantillons ne se portent pas très bien dans le monde développé. La baisse des taux de participation aux enquêtes est liée aux coûts de plus en plus élevés de la collecte des données. Malgré des besoins en information croissants, la création de nouveaux instruments d’enquête est entravée par les restrictions budgétaires imposées aux organismes de statistique officielle et aux sources de financement de la recherche en sciences sociales. Toutes ces observations représentent des défis sans précédent pour le paradigme de base de l’inférence dans les sciences sociales et économiques. L’article propose de nouvelles approches à mettre en œuvre pour ce moment charnière historique. "

    Date de diffusion : 2016-03-24

  • Produits techniques : 11-522-X201700014704
    Description :

    Il existe plusieurs domaines et sujets de recherche méthodologique en statistiques officielles. Nous expliquons pourquoi ils sont importants, et pourquoi il s’agit des plus importants pour les statistiques officielles. Nous décrivons les principaux sujets dans ces domaines de recherche et nous donnons un aperçu de ce qui semble le plus prometteur pour les aborder. Nous nous penchons ici sur: (i) la qualité des comptes nationaux, et plus particulièrement le taux de croissance du revenu national brut; (ii) les mégadonnées, et plus particulièrement la façon de créer des estimations représentatives et de tirer le meilleur parti possible des mégadonnées, lorsque cela semble difficile ou impossible; Nous abordons aussi : (i) l’amélioration de l’actualité des estimations statistiques provisoires et finales; (ii) l’analyse statistique, plus particulièrement des phénomènes complexes et cohérents. Ces sujets font partie de l’actuel programme de recherche méthodologique stratégique qui a été adopté récemment à Statistique Pays-Bas.

    Date de diffusion : 2016-03-24

  • Produits techniques : 12-002-X
    Description :

    Le Bulletin technique et d'information (BTI) des Centres de données de recherche (CDR) est un forum où les analystes de Statistique Canada et les personnes travaillant dans le milieu de la recherche peuvent communiquer entre eux au sujet de l'utilisation des données d'enquête et des techniques méthodologiques. Les articles du BTI seront axés sur l'analyse et la modélisation de données, la gestion des données ainsi que les pratiques exemplaires ou inefficaces sur le plan statistique, informatique et scientifique. De plus, les thèmes du BTI comprendront des articles portant sur le contenu des données, les répercussions de la formulation des questionnaires, la comparaison d'ensembles de données, les études traitant des méthodologies et de leur application, les particularités des données, les données problématiques et les solutions proposées et enfin la présentation d'outils novateurs utilisant les données des CDR et des logiciels appropriés. Tous ces articles permettront d'offrir des conseils et des exemples détaillés de commandes, d'habitudes, d'astuces et de stratégies pouvant aider les utilisateurs des CDR à résoudre des problèmes.

    Les principaux objectifs du BTI sont les suivants :

    - l'avancement et la diffusion des connaissances relatives aux données de Statistique Canada;- l'échange d'idées entre les utilisateurs des CDR;- l'aide aux nouveaux utilisateurs;- la collaboration avec les spécialistes et les divisions spécialisées de Statistique Canada.

    Le BTI vise la publication d'articles de qualité, dignes d'être diffusés dans le milieu de la recherche et susceptibles d'accroître la qualité des travaux effectués dans les CDR de Statistique Canada.

    Date de diffusion : 2015-03-25

  • Produits techniques : 11-522-X201300014280
    Description :

    Au cours de la dernière décennie, on a vu les enquêtes par panel en ligne s’établir comme un moyen rapide et économique d’effectuer des études de marché. Les progrès dans le domaine des technologies de l’information, en particulier la croissance rapide continue de l’usage d’Internet et des ordinateurs par les membres du public, sont à la base de ce phénomène. La croissance des taux de non-réponse et des prix à laquelle doit faire face l’industrie des sondages sous-tend aussi ce changement. Toutefois, certains risques importants sont associés aux enquêtes par panel en ligne, le biais de sélection dû à l’autosélection des répondants n’étant pas le moindre. Il existe aussi des risques d’erreurs de couverture et de mesure. L’absence d’un cadre d’inférence et d’indicateurs de la qualité des données constitue un obstacle à l’utilisation de panels en ligne pour la production de statistiques de haute qualité au sujet de la population générale. Néanmoins, les enquêtes par panel en ligne pour la production de statistiques ponctuelles et même de statistiques officielles semblent représenter une nouvelle forme de concurrence posant de plus en plus de défis à certains instituts nationaux de statistique. Le présent article explore la question de la conception et de l’utilisation des panels en ligne de façon scientifiquement valable. On donne d’abord un aperçu d’une norme de mesure de la performance établie par la Société suédoise des enquêtes et des sondages pour évaluer certains aspects qualitatifs des résultats des enquêtes par panel en ligne. Puis, on discute en détail de la décomposition du biais et de l’atténuation des risques de biais. Enfin, on présente certaines idées en vue de combiner des enquêtes par panel en ligne et des enquêtes classiques pour obtenir une inférence contrôlée de manière rentable.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014259
    Description :

    Dans l’optique de réduire le fardeau de réponse des exploitants agricoles, Statistique Canada étudie d’autres approches que les enquêtes par téléphone pour produire des estimations des grandes cultures. Une option consiste à publier des estimations de la superficie récoltée et du rendement en septembre, comme cela se fait actuellement, mais de les calculer au moyen de modèles fondés sur des données par satellite et des données météorologiques, ainsi que les données de l’enquête téléphonique de juillet. Toutefois, avant d’adopter une telle approche, on doit trouver une méthode pour produire des estimations comportant un niveau d’exactitude suffisant. Des recherches sont en cours pour examiner différentes possibilités. Les résultats de la recherche initiale et les enjeux à prendre en compte sont abordés dans ce document.

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014251
    Description :

    Dans la perspective d’un modélisateur, je décris la situation actuelle en matière d’inférence fondée sur les enquêtes pour la production de statistiques officielles. Ce faisant, je tente de dégager les forces et les faiblesses des approches inférentielles fondées sur le plan de sondage, d’une part, et sur un modèle, d’autre part, appliquées aujourd’hui à l’échantillonnage, du moins en ce qui concerne les statistiques officielles. Je termine par un exemple tiré d’un plan de collecte adaptatif qui illustre pourquoi l’adoption d’une perspective fondée sur un modèle (fréquentiste ou bayésien) représente le meilleur moyen pour les statistiques officielles d’éviter la « schizophrénie inférentielle » débilitante qui semble inévitable si l’on applique les méthodes actuelles pour répondre aux nouvelles demandes d’information du monde d’aujourd’hui (et peut-être même de demain).

    Date de diffusion : 2014-10-31

  • Produits techniques : 11-522-X201300014252
    Description :

    Même si l’estimation de caractéristiques de populations finies à partir d’échantillons probabilistes a obtenu beaucoup de succès pour les grands échantillons, des inférences à partir d’échantillons non probabilistes sont également possibles. Les échantillons non probabilistes ont été critiqués en raison du biais d’auto-sélection et de l’absence de méthodes pour estimer la précision des estimations. L’accès plus vaste à Internet et la capacité de procéder à des collectes de données très peu coûteuses en ligne ont ravivé l’intérêt pour ce sujet. Nous passons en revue des stratégies d’échantillonnage non probabiliste et nous résumons certains des enjeux clés. Nous proposons ensuite des conditions à respecter pour que l’échantillonnage non probabiliste puisse constituer une approche raisonnable. Nous concluons par des idées de recherches futures.

    Date de diffusion : 2014-10-31

  • Produits techniques : 12-539-X
    Description :

    Ce document réunit des lignes directrices et des listes de contrôles liées à de nombreuses questions dont on doit tenir compte dans la poursuite des objectifs de qualité que sous-tend l'exécution des activités statistiques. Le document s'attarde principalement à la façon d'assurer la qualité grâce à la conception ou à la restructuration efficace et adéquate d'un projet ou d'un programme statistique, des débuts jusqu'à l'évaluation, la diffusion et la documentation des données. Ces lignes directrices sont fondées sur les connaissances et l'expérience collective d'un grand nombre d'employés de Statistique Canada. On espère que les Lignes directrices concernant la qualité seront utiles au personnel chargé de la planification et de la conception des enquêtes et d'autres projets statistiques, ainsi qu'à ceux qui évaluent et analysent les résultats de ces projets.

    Date de diffusion : 2009-12-02

  • Produits techniques : 11-522-X200600110392
    Description :

    Nous suivons une méthode bayésienne robuste pour analyser des données pouvant présenter un biais de non-réponse et un biais de sélection non ignorables. Nous utilisons un modèle de régression logistique robuste pour établir le lien entre les indicateurs de réponse (variable aléatoire de Bernoulli) et les covariables, dont nous disposons pour tous les membres de la population finie. Ce lien permet d'expliquer l'écart entre les répondants et les non-répondants de l'échantillon. Nous obtenons ce modèle robuste en élargissant le modèle de régression logistique conventionnel à un mélange de lois de Student, ce qui nous fournit des scores de propension (probabilité de sélection) que nous utilisons pour construire des cellules d'ajustement. Nous introduisons les valeurs des non-répondants en tirant un échantillon aléatoire à partir d'un estimateur à noyau de la densité, formé d'après les valeurs des répondants à l'intérieur des cellules d'ajustement. La prédiction fait appel à une régression linéaire spline, fondée sur les rangs, de la variable de réponse sur les covariables selon le domaine, en échantillonnant les erreurs à partir d'un autre estimateur à noyau de la densité, ce qui rend notre méthode encore plus robuste. Nous utilisons des méthodes de Monte-Carlo par chaînes de Markov (MCMC) pour ajuster notre modèle. Dans chaque sous-domaine, nous obtenons la loi a posteriori d'un quantile de la variable de réponse à l'intérieur de chaque sous-domaine en utilisant les statistiques d'ordre sur l'ensemble des individus (échantillonnés et non échantillonnés). Nous comparons notre méthode robuste à des méthodes paramétriques proposées récemment.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X200600110419
    Description :

    La recherche sur les services de santé s'appuie habituellement sur des données d'observation afin de comparer les résultats chez des patients recevant des traitements différents. La comparaison de groupes de patients participant à des études par observation peut être biaisée, car les résultats diffèrent à la fois en raison des effets du traitement et de ceux liés au pronostic fait sur le patient. Dans certains cas, particulièrement lorsque les données recueillies ont trait à des facteurs de risque cliniques précis, il est possible de tenir compte de ces différences en utilisant des méthodes statistiques ou épidémiologiques. Dans d'autres cas, où des caractéristiques non mesurées de la population de patients ont une incidence sur la décision de prodiguer le traitement ainsi que sur le résultat, il est impossible d'éliminer ces différences par des techniques courantes. L'utilisation de données administratives sur la santé pour entreprendre des études par observation demande des précautions particulières, puisque d'importants renseignements cliniques font défaut. Nous discutons de plusieurs méthodes statistiques et épidémiologiques visant à éliminer le biais manifeste (mesurable) et caché (non mesurable) dans les études par observation. Ces méthodes comprennent l'ajustement de la composition des groupes de cas, l'appariement fondé sur la propension, la redéfinition des variables d'exposition d'intérêt et la technique économétrique d'analyse avec variables instrumentales (VI). Nous illustrons ces méthodes à l'aide d'exemples extraits de publications médicales, dont la prédiction de la mortalité un an après une crise cardiaque, le rendement des dépenses en soins de santé, en ce qui a trait aux avantages cliniques et financiers, dans les régions des États-Unis où les dépenses sont élevées, ainsi que les avantages du traitement effractif des patients ayant fait une crise cardiaque liés à la survie à long terme. Il est possible d'utiliser des données administratives sur la santé pour réaliser des études par observation à condition de veiller soigneusement à résoudre les problèmes liés à la causalité inverse et au facteur de confusion non mesuré.

    Date de diffusion : 2008-03-17

  • Produits techniques : 11-522-X20040018733
    Description :

    Une enquête auprès d'utilisateurs de drogues injectables exploite l'information obtenue des centres d'échange de seringues de même que des utilisateurs échantillonnés. Le cadre méthodologique permet d'en tirer divers estimés.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20040018732
    Description :

    Ce document décrit l'échantillonnage adapté pour lequel l'estimation sans biais est fondée sur une combinaison de probabilités de sélection initiales et conditionnelles. La méthode de Rao-Blackwell améliore ces estimateurs.

    Date de diffusion : 2005-10-27

  • Produits techniques : 11-522-X20040018735
    Description :

    Ce document décrit des analyses de la non-réponse chez les minorités ethniques aux Pays-Bas. Ces analyses démontrent que l'effet de réponse s'explique par le degré d'urbanisation. Un impact négatif est observé chez les minorités ethniques.

    Date de diffusion : 2005-10-27

  • Produits techniques : 12-002-X20050018031
    Description :

    Cet article décrit les modifications apportées à un fichier « bswreg » .ado de Stata qui permet d'estimer la variance à l'aide de poids bootstrap. Cette révision comprend l'ajout de nouvelles fonctions de sortie et d'analyse. La principale fonction ajoutée au programme permet aux chercheurs d'utiliser des poids bootstrap moyens en tenant compte du nombre de poids bootstrap utilisés pour générer ces poids moyens. L'utilité de ce programme est illustrée au moyen de l'ensemble de données de l'Enquête sur le milieu de travail et les employés. La version révisée de la commande « bswreg » demeure un outil souple et convivial, compatible avec une gamme variée de méthodes d'analyse de régression et d'ensemble de données. La commande bswreg et les poids bootstrap fondés sur le plan de sondage ne devraient être utilisés pour l'inférence que si celle ci est théoriquement valide.

    Date de diffusion : 2005-06-23

  • Produits techniques : 12-002-X20050018030
    Description :

    Il arrive souvent qu'on veuille utiliser des microdonnées d'enquête pour déterminer si le taux de fréquence d'une caractéristique donnée dans une sous-population est le même que celui dans l'ensemble de la population. Le présent document expose diverses façons de procéder pour faire des inférences au sujet d'une différence entre les taux et montre si et comment ces options peuvent être mises en oeuvre dans trois différents progiciels d'enquête. Tous les progiciels illustrés, soit SUDAAN, WesVar et Bootvar, peuvent utiliser les poids bootstrap fournis par l'analyste pour procéder à l'estimation de la variance.

    Date de diffusion : 2005-06-23

  • Produits techniques : 11-522-X2003001
    Description :

    Depuis 1984, une série de conférences annuelles a été parrainé par Statistique Canada. Le recueil de la conférence est disponible depuis 1987. Le Symposium 2003 a été le vingtième d'une série de colloques internationaux organisés par Statistique Canada sur des questions de méthodologie. Chaque année le symposium traite d'un thème particulier. Celui de 2003 était : « Défis reliés à la réalisation d'enquêtes pour la prochaine décennie ».

    Date de diffusion : 2005-01-26

  • Produits techniques : 11-522-X20030017721
    Description :

    Dans ce document, on examine un modèle de régression pour estimer les composantes de la variance pour un plan d'échantillonnage à deux degrés.

    Date de diffusion : 2005-01-26

  • Produits techniques : 11-522-X20030017691
    Description :

    Dans ce document, on explique comment des résultats de projets de recherche européens sur le contrôle de la divulgation des statistiques (CDS) peuvent être appliqués à la production de statistiques officielles. On y décrit aussi deux progiciels statistiques qui permettent de produire des données ne posant pas de risque de divulgation : tau-ARGUS pour les données tabulaires et mu-ARGUS pour les microdonnées.

    Date de diffusion : 2005-01-26

  • Produits techniques : 11-522-X20030017718
    Description :

    Ce document fournit une description de l'approche, des modèles, des enjeux, des problèmes, des leçons apprises et de l'expérience acquise au moment de regrouper et de diffuser largement des statistiques au niveau des petits domaines. Le document fait également état des travaux effectués à l'égard de la morbidité psychiatrique et des statistiques sur les crimes, ainsi que des répercussions sur les recherches à venir.

    Date de diffusion : 2005-01-26

  • Produits techniques : 11-522-X20030017521
    Description :

    Dans ce document, on examine la nécessité de mettre en place des domaines comme les enquêtes internationales, les enquêtes par panel, l'estimation pour petites régions, les études par observation, les analyses secondaires et les modes de collecte des données pour favoriser la coopération des membres du public aux enquêtes et pour faire chuter les taux de non réponse.

    Date de diffusion : 2005-01-26

Date de modification :