Statistiques par sujet – Méthodes statistiques

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Contenu

1 facettes affichées. 1 facettes sélectionnées.

Préciser les résultats par

Aide pour les filtres et la recherche
Filtres actuellement sélectionnés pouvant être supprimés

Mot(s)-clé(s)

Enquête ou programme statistique

16 facettes affichées. 0 facettes sélectionnées.

Contenu

1 facettes affichées. 1 facettes sélectionnées.

Autres ressources disponibles pour appuyer vos recherches.

Aide pour trier les résultats
Explorer notre base centrale des principaux concepts normalisés, définitions, sources de données et méthodes.
En cours de chargement
Chargement en cours, veuillez patienter...
Tout (206)

Tout (206) (25 of 206 results)

  • Index et guides : 98-500-X
    Description :

    Fournit des renseignements qui permettent aux utilisateurs d’utiliser les données du Recensement de la population de manière efficace, de les mettre en application et de les interpréter. Chaque guide renferme des définitions et des explications sur les concepts du recensement ainsi qu’une rubrique sur la qualité des données et la comparabilité historique. Des renseignements supplémentaires seront inclus pour des variables spécifiques afin d'aider les utilisateurs à mieux comprendre les concepts et les questions utilisés dans le recensement.

    Date de diffusion : 2017-11-29

  • Produits techniques : 84-538-X
    Description :

    Ce document présente la méthodologie sous-jacente à la production des tables de mortalité pour le Canada, les provinces et les territoires et ce, à partir de la période de référence 1980-1982.

    Date de diffusion : 2017-11-16

  • Revues et périodiques : 11-633-X
    Description :

    Les documents de cette série traitent des méthodes utilisées pour produire des données qui seront employées pour effectuer des études analytiques à Statistique Canada sur l’économie, la santé et la société. Ils ont pour but de renseigner les lecteurs sur les méthodes statistiques, les normes et les définitions utilisées pour élaborer des bases de données à des fins de recherche. Tous les documents de la série ont fait l’objet d’un examen par les pairs et d’une révision institutionnelle, afin de veiller à ce qu’ils soient conformes au mandat de Statistique Canada et qu’ils respectent les normes généralement reconnues régissant les bonnes pratiques professionnelles.

    Date de diffusion : 2017-11-09

  • Produits techniques : 12-206-X
    Description :

    Ce rapport résume les travaux réalisés dans le cadre d'un programme parrainé par les trois divisions de la méthodologie de Statistique Canada. Ce programme couvre les activités de recherche et de développement liées aux méthodes statistiques pouvant être appliquées à grande échelle aux programmes d'enquêtes du Bureau qui, autrement, n'auraient pas été offertes parmi les services de méthodologie de ces programmes d'enquête. Elles comportent aussi des tâches de soutien à l'intention des clients concernant l'application d'exploitations antérieures fructueuses, qui visent à promouvoir l'utilisation des résultats de recherche et des travaux préparatoires.

    Date de diffusion : 2017-11-03

  • Articles et rapports : 11F0019M2017399
    Description :

    Le Canada est une nation commerçante qui produit des quantités importantes d’extrants liées aux ressources. Ainsi, le comportement des prix des ressources qui revêtent de l’importance pour le Canada est pertinent, afin de comprendre les progrès de la croissance des revenus réels et la prospérité du pays et des provinces. Les brusques variations de la demande et de l’offre ou les changements à la politique monétaire sur les marchés internationaux peuvent avoir une énorme influence sur le prix des ressources. Les fluctuations sont un facteur important de transmission des bouleversements externes au sein de l’économie nationale. Le présent document comporte des estimations historiques de l’indice des prix des produits de base de la Banque du Canada (IPPB) et les couple à des estimations modernes. Au moyen d’un ensemble de sources de données historiques, il évalue les poids et les prix d’une manière suffisamment cohérente pour permettre l’établissement d’estimations à long terme qui pourraient être couplées à l’IPPB de Fisher moderne.

    Date de diffusion : 2017-10-11

  • Articles et rapports : 13-605-X201700114840
    Description :

    Statistique Canada prépare actuellement le système statistique afin de pouvoir déterminer les répercussions de la transition du cannabis récréatif du domaine illégal au domaine légal et d’éclairer les activités économiques et sociales liées à la consommation du cannabis après cette transition. Bien que le système de statistiques sociales permette de recueillir des renseignements sur l’utilisation du cannabis, des mises à jour seront requises pour mesurer plus exactement les effets sur la santé et l’incidence sur le système judiciaire. L’infrastructure statistique actuelle servant à mesurer de façon plus exhaustive l’utilisation et les répercussions des substances comme le tabac et l’alcool pourrait être adaptée pour en faire autant pour le cannabis. Toutefois, les statistiques économiques accessibles ne précisent pas le rôle que jouent les drogues illégales dans l’économie. Tant les statistiques sociales qu’économiques devront être mises à jour pour refléter la légalisation du cannabis, et le défi est particulièrement important pour les statistiques économiques. Le présent document résume les travaux menés actuellement à cette fin.

    Date de diffusion : 2017-09-28

  • Index et guides : 12-606-X
    Description :

    Ceci est une trouse destiné à aider des producteurs et des utilisateurs de données à l'externe de Statistique Canada.

    Date de diffusion : 2017-09-27

  • Articles et rapports : 11-633-X2017009
    Description :

    Le présent document décrit les procédures d’emploi des sources de données administratives couplées pour estimer les taux d’utilisation des congés parentaux payés au Canada et les problèmes découlant de cet emploi.

    Date de diffusion : 2017-08-29

  • Articles et rapports : 11-633-X2017008
    Description :

    La plateforme de modélisation de microsimulation DYSEM propose un noyau de données démographiques et socioéconomiques qu’on peut utiliser avec facilité pour créer des modèles ou des applications de microsimulation dynamiques personnalisés. Le présent document décrit la plateforme DYSEM et donne un aperçu de ses usages prévus ainsi que des méthodes et données utilisées pour sa conception.

    Date de diffusion : 2017-07-28

  • Revues et périodiques : 12-001-X
    Description :

    La revue publie des articles sur les divers aspects des méthodes statistiques qui intéressent un organisme statistique comme, par exemple, les problèmes de conception découlant de contraintes d'ordre pratique, l'utilisation de différentes sources de données et de méthodes de collecte, les erreurs dans les enquêtes, l'évaluation des enquêtes, la recherche sur les méthodes d'enquêtes, l'analyse des séries chronologiques, la désaisonnalisation, les études démographiques, l'intégration des données statistiques, les méthodes d'estimation et d'analyse de données et le développement de systèmes généralisés. Une importance particulière est accordée à l'élaboration et à l'évaluation de méthodes qui ont été utilisées pour la collecte de données ou appliquées à des données réelles.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114820
    Description :

    Les erreurs de mesure peuvent provoquer un biais de l’estimation des transitions, donnant lieu à des conclusions erronées au sujet de la dynamique du marché du travail. La littérature traditionnelle sur l’estimation des mouvements bruts est basée sur la supposition que les erreurs de mesure ne sont pas corrélées au fil du temps. Cette supposition n’est pas réaliste dans bien des contextes, en raison du plan d’enquête et des stratégies de collecte de données. Dans le présent document, nous utilisons une approche basée sur un modèle pour corriger les mouvements bruts observés des erreurs de classification au moyen de modèles markoviens à classes latentes. Nous nous reportons aux données recueillies dans le cadre de l’enquête italienne continue sur la population active, qui est transversale et trimestrielle et qui comporte un plan de renouvellement de type 2-2-2. Le questionnaire nous permet d’utiliser plusieurs indicateurs des états de la population active pour chaque trimestre : deux recueillis au cours de la première interview, et un troisième recueilli un an plus tard. Notre approche fournit une méthode pour estimer la mobilité sur le marché du travail, en tenant compte des erreurs corrélées et du plan par renouvellement de l’enquête. Le modèle qui convient le mieux est un modèle markovien mixte à classes latentes, avec des covariables touchant les transitions latentes et des erreurs corrélées parmi les indicateurs; les composantes mixtes sont de type mobile-stable. Le caractère plus approprié de la spécification du modèle mixte est attribuable à des transitions latentes estimées avec une plus grande précision.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114819
    Description :

    La modélisation de séries chronologiques structurelle est une puissante technique de réduction des variances pour les estimations sur petits domaines (EPD) reposant sur des enquêtes répétées. Le bureau central de la statistique des Pays-Bas utilise un modèle de séries chronologiques structurel pour la production des chiffres mensuels de l’Enquête sur la population active (EPA) des Pays-Bas. Cependant, ce type de modèle renferme des hyperparamètres inconnus qui doivent être estimés avant que le filtre de Kalman ne puisse être appliqué pour estimer les variables d’état du modèle. Le présent article décrit une simulation visant à étudier les propriétés des estimateurs des hyperparamètres de tels modèles. La simulation des distributions de ces estimateurs selon différentes spécifications de modèle viennent compléter les diagnostics types pour les modèles espace-état. Une autre grande question est celle de l’incertitude entourant les hyperparamètres du modèle. Pour tenir compte de cette incertitude dans les estimations d’erreurs quadratiques moyennes (EQM) de l’EPA, différents modes d’estimation sont pris en compte dans une simulation. En plus de comparer les biais EQM, cet article examine les variances et les EQM des estimateurs EQM envisagés.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114823
    Description :

    L’obtention d’estimateurs dans un processus de calage à plusieurs phases requiert le calcul séquentiel des estimateurs et des poids calés des phases antérieures afin d’obtenir ceux de phases ultérieures. Déjà après deux phases de calage, les estimateurs et leurs variances comprennent des facteurs de calage provenant des deux phases, et les formules deviennent lourdes et non informatives. Par conséquent, les études publiées jusqu’à présent traitent principalement du calage à deux phases, tandis que le calage à trois phases ou plus est rarement envisagé. Dans certains cas, l’analyse s’applique à un plan de sondage particulier et aucune méthodologie complète n’est élaborée pour la construction d’estimateurs calés ni, tâche plus difficile, pour l’estimation de leur variance en trois phases ou plus. Nous fournissons une expression explicite pour calculer la variance d’estimateurs calés en plusieurs phases qui tient pour n’importe quel nombre de phases. En spécifiant une nouvelle représentation des poids calés en plusieurs phases, il est possible de construire des estimateurs calés qui ont la forme d’estimateurs par la régression multivariée, ce qui permet de calculer un estimateur convergent de leur variance. Ce nouvel estimateur de variance est non seulement général pour tout nombre de phases, mais possède aussi certaines caractéristiques favorables. Nous présentons une comparaison à d’autres estimateurs dans le cas particulier du calage à deux phases, ainsi qu’une étude indépendante pour le cas à trois phases.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114818
    Description :

    La protection de la confidentialité des données qui figurent dans des tableaux de données quantitatives peut devenir extrêmement difficile lorsqu’on travaille avec des tableaux personnalisés. Une solution relativement simple consiste à perturber au préalable les microdonnées sous-jacentes, mais cela peut avoir un effet négatif excessif sur la précision des agrégats. Nous proposons plutôt une méthode perturbatrice qui vise à mieux concilier les besoins de protection et de précision des données en pareil cas. La méthode consiste à traiter par niveaux les données de chaque cellule en appliquant une perturbation minime, voire nulle, aux valeurs inférieures et une perturbation plus importante aux valeurs supérieures. La méthode vise avant tout à protéger les données personnelles, qui sont généralement moins asymétriques que les données des entreprises.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114817
    Description :

    Nous présentons les résultats de notre recherche sur les modes de répartition d’échantillons qui permettent de faire une estimation efficace sur petits domaines par modélisation dans les cas où les domaines d’intérêt coïncident avec les strates. Les méthodes d’estimation assistées d’un modèle et celles fondées sur un modèle sont répandues dans la production de statistiques relatives aux petits domaines, mais l’utilisation du modèle et de la méthode d’estimation sous-jacents est rarement intégrée au plan de répartition de l’échantillon entre les domaines. C’est pourquoi nous avons conçu un nouveau mode de répartition fondée sur un modèle que nous avons appelé répartition g1. Aux fins de comparaison, nous décrivons un autre mode de répartition fondée sur un modèle qui a récemment vu le jour. Ces deux répartitions sont fondées sur une mesure ajustée de l’homogénéité qui se calcule à l’aide d’une variable auxiliaire et constitue une approximation de la corrélation intraclasse à l’intérieur des domaines. Nous avons choisi cinq solutions de répartition par domaine sans modèle, adoptées par le passé dans le cadre d’études spécialisées, comme méthodes de référence. Pour une répartition égale ou proportionnelle, il nous faut connaître le nombre de domaines ainsi que le nombre d’unités statistiques de base dans chacun d’eux. Les répartitions de Neyman et de Bankier et la répartition par programmation non linéaire (PNL), nécessitent des paramètres au niveau du domaine comme l’écart-type, le coefficient de variation ou les totaux. En règle générale, on peut caractériser les méthodes de répartition en fonction des critères d’optimisation et de l’utilisation de données auxiliaires. On évalue alors les propriétés statistiques des diverses méthodes retenues au moyen d’expériences de simulation d’échantillon faisant appel aux données réelles du registre de population. Selon les résultats de simulation, on peut conclure que l’intégration du modèle et de la méthode d’estimation à la méthode de répartition a pour effet d’améliorer les résultats de l’estimation.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114822
    Description :

    Nous utilisons une méthode bayésienne pour inférer sur une proportion dans une population finie quand des données binaires sont recueillies selon un plan d’échantillonnage double sur des petits domaines. Le plan d’échantillonnage double correspond à un plan d’échantillonnage en grappes à deux degrés dans chaque domaine. Un modèle bayésien hiérarchique établi antérieurement suppose que, pour chaque domaine, les réponses binaires de premier degré suivent des lois de Bernoulli indépendantes et que les probabilités suivent des lois bêta paramétrisées par une moyenne et un coefficient de corrélation. La moyenne varie selon le domaine, tandis que la corrélation est la même dans tous les domaines. En vue d’accroître la flexibilité de ce modèle, nous l’avons étendu afin de permettre aux corrélations de varier. Les moyennes et les corrélations suivent des lois bêta indépendantes. Nous donnons à l’ancien modèle le nom de modèle homogène et au nouveau, celui de modèle hétérogène. Tous les hyperparamètres possèdent des distributions a priori non informatives appropriées. Une complication supplémentaire tient au fait que certains paramètres sont faiblement identifiés, ce qui rend difficile l’utilisation d’un échantillonneur de Gibbs classique pour les calculs. Donc, nous avons imposé des contraintes unimodales sur les distributions bêta a priori et utilisé un échantillonneur de Gibbs par blocs pour effectuer les calculs. Nous avons comparé les modèles hétérogène et homogène au moyen d’un exemple et d’une étude en simulation. Comme il fallait s’y attendre, le modèle double avec corrélations hétérogènes est celui qui est privilégié.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114836
    Description :

    La collecte de données par sondage axée sur le Web, qui consiste à prendre contact avec les enquêtés par la poste pour leur demander de répondre par Internet et à retenir les autres modes de réponse jusqu’à un stade ultérieur du processus de mise en œuvre, a connu un essor rapide au cours de la dernière décennie. Le présent article décrit les raisons pour lesquelles cette combinaison novatrice de modes de prise de contact et de réponse aux enquêtes était nécessaire, les principales étant la diminution de l’efficacité de la téléphonie vocale et l’élaboration plus lente que prévu de méthodes de collecte de données par courriel/Internet uniquement. Les obstacles historiques et institutionnels à cette combinaison de modes d’enquête sont également examinés. Vient ensuite une description de la recherche fondamentale sur l’utilisation des listes d’adresses postales aux États-Unis, ainsi que les effets de la communication auditive et visuelle sur la mesure par sondage, suivie d’une discussion des efforts expérimentaux en vue de créer une méthodologie axée sur le Web comme remplacement viable des enquêtes à réponse par téléphone ou par la poste. De nombreux exemples d’usage courant ou prévu de la collecte de données axée sur le Web sont fournis. L’article se termine par une discussion des promesses et des défis considérables qui résultent du recours plus important aux méthodes d’enquête axées sur le Web.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 82-003-X201700614829
    Description :

    Le POHEM-IMC est un outil de microsimulation comprenant un modèle de l’IMC chez les adultes et un modèle des antécédents en matière d’IMC pendant l’enfance. Cet aperçu décrit l’élaboration de modèles de prédiction de l’IMC chez les adultes et des antécédents en matière d’IMC pendant l’enfance, et compare les estimations de l’IMC projetées aux estimations issues de données d’enquête représentatives de la population canadienne pour en établir la validité.

    Date de diffusion : 2017-06-21

  • Articles et rapports : 11-633-X2017007
    Description :

    La base de données longitudinales sur l’immigration (BDIM) est une source importante et complète de données contribuant à mieux comprendre le comportement économique des immigrants. Il s’agit du seul ensemble annuel de données canadiennes permettant d’étudier les caractéristiques des immigrants au Canada au moment de leur admission ainsi que leur situation économique et leur mobilité régionale (interprovinciale) sur plus de 30 ans. La BDIM combine des fichiers de données administratives sur les admissions d’immigrants et sur les permis de résidence non permanente provenant d’Immigration, Réfugiés et Citoyenneté Canada (IRCC) à des fichiers de données fiscales provenant de l’Agence du revenu du Canada (ARC). Ces données sont disponibles pour des immigrants déclarants admis à partir de 1980. Les dossiers de déclarants sont disponibles pour les immigrants déclarants depuis 1982.

    Ce rapport vise à discuter des sources de données, des concepts et des variables de la BDIM, du couplage d’enregistrements, du traitement des données, de la diffusion, de l’évaluation des données et des indicateurs de qualité, de la comparabilité avec d’autres ensembles de données relatifs à l’immigration ainsi que des analyses que permet la BDIM.

    Date de diffusion : 2017-06-16

  • Revues et périodiques : 12-605-X
    Description :

    Le Modèle du processus d'un projet de couplage d'enregistrements (MPPCE) a été développé par Statistique Canada pour identifier les processus et les activités mis en œuvres dans des projets de couplage d'enregistrements. Le MPPCE s'applique aux projets menés aux niveaux tant individuel que de l'entreprise en utilisant diverses sources de données pour créer des nouvelles sources de données.

    Date de diffusion : 2017-06-05

  • Articles et rapports : 18-001-X2017002
    Description :

    Ce document de travail décrit la méthodologie utilisée pour mesurer l’éloignement à l’échelon de la collectivité. La méthode tient compte de résultats de travaux récents sur le sujet et tire avantage de nouvelles possibilités de calcul découlant de l’intégration de statistiques officielles avec des données provenant de sources statistiques non officielles. L’approche adoptée pour le calcul prend en compte de multiples points d’accès aux services. De plus, elle établit un continuum englobant des collectivités dont les infrastructures de transport et le degré d’accès diffèrent, tout en conservant l’information sur les infrastructures de transport des collectivités dans la base de données. Le document présente également une méthode d’ajout de mesures de l’accessibilité à certains services ainsi qu’un exemple du calcul des mesures de l’accessibilité.

    Date de diffusion : 2017-05-09

  • Produits techniques : 12-586-X
    Description :

    Le Cadre d’assurance de la qualité (CAQ) est l’outil de gouvernance de niveau le plus élevé pour la gestion de la qualité à Statistique Canada. Il fournit un aperçu des stratégies de gestion de la qualité et d’atténuation des risques adoptées par les différents secteurs de programme de l’organisme. Le CAQ est utilisé conjointement avec les pratiques de gestion de Statistique Canada, comme celles décrites dans les Lignes directrices concernant la qualité.

    Date de diffusion : 2017-04-21

  • Articles et rapports : 11-633-X2017006
    Description :

    Ce document décrit une méthode d’imputation des codes postaux manquants dans une base de données longitudinale. La base de données Cohorte santé et environnement du Recensement du Canada (CSERCan) de 1991, qui contient des renseignements sur les répondants au questionnaire détaillé du Recensement de 1991, couplée avec les fichiers des déclarations de revenus T1 pour la période allant de 1984 à 2011, est utilisée pour illustrer et valider la méthode. La cohorte contient jusqu’à 28 champs consécutifs de codes postaux de résidences, mais en raison des vides fréquents dans l’historique des codes postaux, les codes postaux manquants doivent être imputés. Pour valider la méthode d’imputation, deux expériences ont été mises au point dans lesquelles 5 % et 10 % de tous les codes postaux issus d’un sous-ensemble comportant des historiques complets ont été effacés de façon aléatoire et imputés.

    Date de diffusion : 2017-03-13

  • Produits techniques : 91-621-X2017001
    Date de diffusion : 2017-01-25

  • Articles et rapports : 11-633-X2017005
    Description :

    Les taux d’hospitalisation font partie des statistiques couramment employées quand il est question de l’utilisation des services de soins de santé. La variété des méthodes de calcul des intervalles de confiance pour ces taux et d’autres taux liés à la santé porte à croire qu’il serait nécessaire de classifier, de comparer et d’évaluer ces méthodes. Zeno est un outil conçu pour calculer les intervalles de confiance des taux à partir de plusieurs formules disponibles dans la littérature. Le présent rapport présente le contenu de la page principale de l’outil Zeno et indique les formules à utiliser en fonction des hypothèses des utilisateurs et de la portée de l’analyse.

    Date de diffusion : 2017-01-19

Données (1)

Données (1) (1 result)

  • Microdonnées à grande diffusion : 89F0002X
    Description :

    La BD/MSPS est un modèle de microsimulation statique qui sert à l'analyse des interactions financières entre les gouvernements et les particuliers au Canada. Elle permet de calculer les impôts payés aux gouvernements et les transferts monétaires reçus de ceux-ci. Elle est formée d'une base de données, d'une série d'algorithmes et de modèles relatifs aux impôts et aux transferts, d'un logiciel d'analyse et de la documentation de l'utilisateur.

    Date de diffusion : 2016-12-05

Analyses (161)

Analyses (161) (25 of 161 results)

  • Revues et périodiques : 11-633-X
    Description :

    Les documents de cette série traitent des méthodes utilisées pour produire des données qui seront employées pour effectuer des études analytiques à Statistique Canada sur l’économie, la santé et la société. Ils ont pour but de renseigner les lecteurs sur les méthodes statistiques, les normes et les définitions utilisées pour élaborer des bases de données à des fins de recherche. Tous les documents de la série ont fait l’objet d’un examen par les pairs et d’une révision institutionnelle, afin de veiller à ce qu’ils soient conformes au mandat de Statistique Canada et qu’ils respectent les normes généralement reconnues régissant les bonnes pratiques professionnelles.

    Date de diffusion : 2017-11-09

  • Articles et rapports : 11F0019M2017399
    Description :

    Le Canada est une nation commerçante qui produit des quantités importantes d’extrants liées aux ressources. Ainsi, le comportement des prix des ressources qui revêtent de l’importance pour le Canada est pertinent, afin de comprendre les progrès de la croissance des revenus réels et la prospérité du pays et des provinces. Les brusques variations de la demande et de l’offre ou les changements à la politique monétaire sur les marchés internationaux peuvent avoir une énorme influence sur le prix des ressources. Les fluctuations sont un facteur important de transmission des bouleversements externes au sein de l’économie nationale. Le présent document comporte des estimations historiques de l’indice des prix des produits de base de la Banque du Canada (IPPB) et les couple à des estimations modernes. Au moyen d’un ensemble de sources de données historiques, il évalue les poids et les prix d’une manière suffisamment cohérente pour permettre l’établissement d’estimations à long terme qui pourraient être couplées à l’IPPB de Fisher moderne.

    Date de diffusion : 2017-10-11

  • Articles et rapports : 13-605-X201700114840
    Description :

    Statistique Canada prépare actuellement le système statistique afin de pouvoir déterminer les répercussions de la transition du cannabis récréatif du domaine illégal au domaine légal et d’éclairer les activités économiques et sociales liées à la consommation du cannabis après cette transition. Bien que le système de statistiques sociales permette de recueillir des renseignements sur l’utilisation du cannabis, des mises à jour seront requises pour mesurer plus exactement les effets sur la santé et l’incidence sur le système judiciaire. L’infrastructure statistique actuelle servant à mesurer de façon plus exhaustive l’utilisation et les répercussions des substances comme le tabac et l’alcool pourrait être adaptée pour en faire autant pour le cannabis. Toutefois, les statistiques économiques accessibles ne précisent pas le rôle que jouent les drogues illégales dans l’économie. Tant les statistiques sociales qu’économiques devront être mises à jour pour refléter la légalisation du cannabis, et le défi est particulièrement important pour les statistiques économiques. Le présent document résume les travaux menés actuellement à cette fin.

    Date de diffusion : 2017-09-28

  • Articles et rapports : 11-633-X2017009
    Description :

    Le présent document décrit les procédures d’emploi des sources de données administratives couplées pour estimer les taux d’utilisation des congés parentaux payés au Canada et les problèmes découlant de cet emploi.

    Date de diffusion : 2017-08-29

  • Articles et rapports : 11-633-X2017008
    Description :

    La plateforme de modélisation de microsimulation DYSEM propose un noyau de données démographiques et socioéconomiques qu’on peut utiliser avec facilité pour créer des modèles ou des applications de microsimulation dynamiques personnalisés. Le présent document décrit la plateforme DYSEM et donne un aperçu de ses usages prévus ainsi que des méthodes et données utilisées pour sa conception.

    Date de diffusion : 2017-07-28

  • Revues et périodiques : 12-001-X
    Description :

    La revue publie des articles sur les divers aspects des méthodes statistiques qui intéressent un organisme statistique comme, par exemple, les problèmes de conception découlant de contraintes d'ordre pratique, l'utilisation de différentes sources de données et de méthodes de collecte, les erreurs dans les enquêtes, l'évaluation des enquêtes, la recherche sur les méthodes d'enquêtes, l'analyse des séries chronologiques, la désaisonnalisation, les études démographiques, l'intégration des données statistiques, les méthodes d'estimation et d'analyse de données et le développement de systèmes généralisés. Une importance particulière est accordée à l'élaboration et à l'évaluation de méthodes qui ont été utilisées pour la collecte de données ou appliquées à des données réelles.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114820
    Description :

    Les erreurs de mesure peuvent provoquer un biais de l’estimation des transitions, donnant lieu à des conclusions erronées au sujet de la dynamique du marché du travail. La littérature traditionnelle sur l’estimation des mouvements bruts est basée sur la supposition que les erreurs de mesure ne sont pas corrélées au fil du temps. Cette supposition n’est pas réaliste dans bien des contextes, en raison du plan d’enquête et des stratégies de collecte de données. Dans le présent document, nous utilisons une approche basée sur un modèle pour corriger les mouvements bruts observés des erreurs de classification au moyen de modèles markoviens à classes latentes. Nous nous reportons aux données recueillies dans le cadre de l’enquête italienne continue sur la population active, qui est transversale et trimestrielle et qui comporte un plan de renouvellement de type 2-2-2. Le questionnaire nous permet d’utiliser plusieurs indicateurs des états de la population active pour chaque trimestre : deux recueillis au cours de la première interview, et un troisième recueilli un an plus tard. Notre approche fournit une méthode pour estimer la mobilité sur le marché du travail, en tenant compte des erreurs corrélées et du plan par renouvellement de l’enquête. Le modèle qui convient le mieux est un modèle markovien mixte à classes latentes, avec des covariables touchant les transitions latentes et des erreurs corrélées parmi les indicateurs; les composantes mixtes sont de type mobile-stable. Le caractère plus approprié de la spécification du modèle mixte est attribuable à des transitions latentes estimées avec une plus grande précision.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114819
    Description :

    La modélisation de séries chronologiques structurelle est une puissante technique de réduction des variances pour les estimations sur petits domaines (EPD) reposant sur des enquêtes répétées. Le bureau central de la statistique des Pays-Bas utilise un modèle de séries chronologiques structurel pour la production des chiffres mensuels de l’Enquête sur la population active (EPA) des Pays-Bas. Cependant, ce type de modèle renferme des hyperparamètres inconnus qui doivent être estimés avant que le filtre de Kalman ne puisse être appliqué pour estimer les variables d’état du modèle. Le présent article décrit une simulation visant à étudier les propriétés des estimateurs des hyperparamètres de tels modèles. La simulation des distributions de ces estimateurs selon différentes spécifications de modèle viennent compléter les diagnostics types pour les modèles espace-état. Une autre grande question est celle de l’incertitude entourant les hyperparamètres du modèle. Pour tenir compte de cette incertitude dans les estimations d’erreurs quadratiques moyennes (EQM) de l’EPA, différents modes d’estimation sont pris en compte dans une simulation. En plus de comparer les biais EQM, cet article examine les variances et les EQM des estimateurs EQM envisagés.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114823
    Description :

    L’obtention d’estimateurs dans un processus de calage à plusieurs phases requiert le calcul séquentiel des estimateurs et des poids calés des phases antérieures afin d’obtenir ceux de phases ultérieures. Déjà après deux phases de calage, les estimateurs et leurs variances comprennent des facteurs de calage provenant des deux phases, et les formules deviennent lourdes et non informatives. Par conséquent, les études publiées jusqu’à présent traitent principalement du calage à deux phases, tandis que le calage à trois phases ou plus est rarement envisagé. Dans certains cas, l’analyse s’applique à un plan de sondage particulier et aucune méthodologie complète n’est élaborée pour la construction d’estimateurs calés ni, tâche plus difficile, pour l’estimation de leur variance en trois phases ou plus. Nous fournissons une expression explicite pour calculer la variance d’estimateurs calés en plusieurs phases qui tient pour n’importe quel nombre de phases. En spécifiant une nouvelle représentation des poids calés en plusieurs phases, il est possible de construire des estimateurs calés qui ont la forme d’estimateurs par la régression multivariée, ce qui permet de calculer un estimateur convergent de leur variance. Ce nouvel estimateur de variance est non seulement général pour tout nombre de phases, mais possède aussi certaines caractéristiques favorables. Nous présentons une comparaison à d’autres estimateurs dans le cas particulier du calage à deux phases, ainsi qu’une étude indépendante pour le cas à trois phases.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114818
    Description :

    La protection de la confidentialité des données qui figurent dans des tableaux de données quantitatives peut devenir extrêmement difficile lorsqu’on travaille avec des tableaux personnalisés. Une solution relativement simple consiste à perturber au préalable les microdonnées sous-jacentes, mais cela peut avoir un effet négatif excessif sur la précision des agrégats. Nous proposons plutôt une méthode perturbatrice qui vise à mieux concilier les besoins de protection et de précision des données en pareil cas. La méthode consiste à traiter par niveaux les données de chaque cellule en appliquant une perturbation minime, voire nulle, aux valeurs inférieures et une perturbation plus importante aux valeurs supérieures. La méthode vise avant tout à protéger les données personnelles, qui sont généralement moins asymétriques que les données des entreprises.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114817
    Description :

    Nous présentons les résultats de notre recherche sur les modes de répartition d’échantillons qui permettent de faire une estimation efficace sur petits domaines par modélisation dans les cas où les domaines d’intérêt coïncident avec les strates. Les méthodes d’estimation assistées d’un modèle et celles fondées sur un modèle sont répandues dans la production de statistiques relatives aux petits domaines, mais l’utilisation du modèle et de la méthode d’estimation sous-jacents est rarement intégrée au plan de répartition de l’échantillon entre les domaines. C’est pourquoi nous avons conçu un nouveau mode de répartition fondée sur un modèle que nous avons appelé répartition g1. Aux fins de comparaison, nous décrivons un autre mode de répartition fondée sur un modèle qui a récemment vu le jour. Ces deux répartitions sont fondées sur une mesure ajustée de l’homogénéité qui se calcule à l’aide d’une variable auxiliaire et constitue une approximation de la corrélation intraclasse à l’intérieur des domaines. Nous avons choisi cinq solutions de répartition par domaine sans modèle, adoptées par le passé dans le cadre d’études spécialisées, comme méthodes de référence. Pour une répartition égale ou proportionnelle, il nous faut connaître le nombre de domaines ainsi que le nombre d’unités statistiques de base dans chacun d’eux. Les répartitions de Neyman et de Bankier et la répartition par programmation non linéaire (PNL), nécessitent des paramètres au niveau du domaine comme l’écart-type, le coefficient de variation ou les totaux. En règle générale, on peut caractériser les méthodes de répartition en fonction des critères d’optimisation et de l’utilisation de données auxiliaires. On évalue alors les propriétés statistiques des diverses méthodes retenues au moyen d’expériences de simulation d’échantillon faisant appel aux données réelles du registre de population. Selon les résultats de simulation, on peut conclure que l’intégration du modèle et de la méthode d’estimation à la méthode de répartition a pour effet d’améliorer les résultats de l’estimation.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114822
    Description :

    Nous utilisons une méthode bayésienne pour inférer sur une proportion dans une population finie quand des données binaires sont recueillies selon un plan d’échantillonnage double sur des petits domaines. Le plan d’échantillonnage double correspond à un plan d’échantillonnage en grappes à deux degrés dans chaque domaine. Un modèle bayésien hiérarchique établi antérieurement suppose que, pour chaque domaine, les réponses binaires de premier degré suivent des lois de Bernoulli indépendantes et que les probabilités suivent des lois bêta paramétrisées par une moyenne et un coefficient de corrélation. La moyenne varie selon le domaine, tandis que la corrélation est la même dans tous les domaines. En vue d’accroître la flexibilité de ce modèle, nous l’avons étendu afin de permettre aux corrélations de varier. Les moyennes et les corrélations suivent des lois bêta indépendantes. Nous donnons à l’ancien modèle le nom de modèle homogène et au nouveau, celui de modèle hétérogène. Tous les hyperparamètres possèdent des distributions a priori non informatives appropriées. Une complication supplémentaire tient au fait que certains paramètres sont faiblement identifiés, ce qui rend difficile l’utilisation d’un échantillonneur de Gibbs classique pour les calculs. Donc, nous avons imposé des contraintes unimodales sur les distributions bêta a priori et utilisé un échantillonneur de Gibbs par blocs pour effectuer les calculs. Nous avons comparé les modèles hétérogène et homogène au moyen d’un exemple et d’une étude en simulation. Comme il fallait s’y attendre, le modèle double avec corrélations hétérogènes est celui qui est privilégié.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 12-001-X201700114836
    Description :

    La collecte de données par sondage axée sur le Web, qui consiste à prendre contact avec les enquêtés par la poste pour leur demander de répondre par Internet et à retenir les autres modes de réponse jusqu’à un stade ultérieur du processus de mise en œuvre, a connu un essor rapide au cours de la dernière décennie. Le présent article décrit les raisons pour lesquelles cette combinaison novatrice de modes de prise de contact et de réponse aux enquêtes était nécessaire, les principales étant la diminution de l’efficacité de la téléphonie vocale et l’élaboration plus lente que prévu de méthodes de collecte de données par courriel/Internet uniquement. Les obstacles historiques et institutionnels à cette combinaison de modes d’enquête sont également examinés. Vient ensuite une description de la recherche fondamentale sur l’utilisation des listes d’adresses postales aux États-Unis, ainsi que les effets de la communication auditive et visuelle sur la mesure par sondage, suivie d’une discussion des efforts expérimentaux en vue de créer une méthodologie axée sur le Web comme remplacement viable des enquêtes à réponse par téléphone ou par la poste. De nombreux exemples d’usage courant ou prévu de la collecte de données axée sur le Web sont fournis. L’article se termine par une discussion des promesses et des défis considérables qui résultent du recours plus important aux méthodes d’enquête axées sur le Web.

    Date de diffusion : 2017-06-22

  • Articles et rapports : 82-003-X201700614829
    Description :

    Le POHEM-IMC est un outil de microsimulation comprenant un modèle de l’IMC chez les adultes et un modèle des antécédents en matière d’IMC pendant l’enfance. Cet aperçu décrit l’élaboration de modèles de prédiction de l’IMC chez les adultes et des antécédents en matière d’IMC pendant l’enfance, et compare les estimations de l’IMC projetées aux estimations issues de données d’enquête représentatives de la population canadienne pour en établir la validité.

    Date de diffusion : 2017-06-21

  • Articles et rapports : 11-633-X2017007
    Description :

    La base de données longitudinales sur l’immigration (BDIM) est une source importante et complète de données contribuant à mieux comprendre le comportement économique des immigrants. Il s’agit du seul ensemble annuel de données canadiennes permettant d’étudier les caractéristiques des immigrants au Canada au moment de leur admission ainsi que leur situation économique et leur mobilité régionale (interprovinciale) sur plus de 30 ans. La BDIM combine des fichiers de données administratives sur les admissions d’immigrants et sur les permis de résidence non permanente provenant d’Immigration, Réfugiés et Citoyenneté Canada (IRCC) à des fichiers de données fiscales provenant de l’Agence du revenu du Canada (ARC). Ces données sont disponibles pour des immigrants déclarants admis à partir de 1980. Les dossiers de déclarants sont disponibles pour les immigrants déclarants depuis 1982.

    Ce rapport vise à discuter des sources de données, des concepts et des variables de la BDIM, du couplage d’enregistrements, du traitement des données, de la diffusion, de l’évaluation des données et des indicateurs de qualité, de la comparabilité avec d’autres ensembles de données relatifs à l’immigration ainsi que des analyses que permet la BDIM.

    Date de diffusion : 2017-06-16

  • Revues et périodiques : 12-605-X
    Description :

    Le Modèle du processus d'un projet de couplage d'enregistrements (MPPCE) a été développé par Statistique Canada pour identifier les processus et les activités mis en œuvres dans des projets de couplage d'enregistrements. Le MPPCE s'applique aux projets menés aux niveaux tant individuel que de l'entreprise en utilisant diverses sources de données pour créer des nouvelles sources de données.

    Date de diffusion : 2017-06-05

  • Articles et rapports : 18-001-X2017002
    Description :

    Ce document de travail décrit la méthodologie utilisée pour mesurer l’éloignement à l’échelon de la collectivité. La méthode tient compte de résultats de travaux récents sur le sujet et tire avantage de nouvelles possibilités de calcul découlant de l’intégration de statistiques officielles avec des données provenant de sources statistiques non officielles. L’approche adoptée pour le calcul prend en compte de multiples points d’accès aux services. De plus, elle établit un continuum englobant des collectivités dont les infrastructures de transport et le degré d’accès diffèrent, tout en conservant l’information sur les infrastructures de transport des collectivités dans la base de données. Le document présente également une méthode d’ajout de mesures de l’accessibilité à certains services ainsi qu’un exemple du calcul des mesures de l’accessibilité.

    Date de diffusion : 2017-05-09

  • Articles et rapports : 11-633-X2017006
    Description :

    Ce document décrit une méthode d’imputation des codes postaux manquants dans une base de données longitudinale. La base de données Cohorte santé et environnement du Recensement du Canada (CSERCan) de 1991, qui contient des renseignements sur les répondants au questionnaire détaillé du Recensement de 1991, couplée avec les fichiers des déclarations de revenus T1 pour la période allant de 1984 à 2011, est utilisée pour illustrer et valider la méthode. La cohorte contient jusqu’à 28 champs consécutifs de codes postaux de résidences, mais en raison des vides fréquents dans l’historique des codes postaux, les codes postaux manquants doivent être imputés. Pour valider la méthode d’imputation, deux expériences ont été mises au point dans lesquelles 5 % et 10 % de tous les codes postaux issus d’un sous-ensemble comportant des historiques complets ont été effacés de façon aléatoire et imputés.

    Date de diffusion : 2017-03-13

  • Articles et rapports : 11-633-X2017005
    Description :

    Les taux d’hospitalisation font partie des statistiques couramment employées quand il est question de l’utilisation des services de soins de santé. La variété des méthodes de calcul des intervalles de confiance pour ces taux et d’autres taux liés à la santé porte à croire qu’il serait nécessaire de classifier, de comparer et d’évaluer ces méthodes. Zeno est un outil conçu pour calculer les intervalles de confiance des taux à partir de plusieurs formules disponibles dans la littérature. Le présent rapport présente le contenu de la page principale de l’outil Zeno et indique les formules à utiliser en fonction des hypothèses des utilisateurs et de la portée de l’analyse.

    Date de diffusion : 2017-01-19

  • Articles et rapports : 82-003-X201601214687
    Description :

    La présente étude donne un aperçu du couplage qui a été effectué entre l’Enquête sur la santé dans les collectivités canadiennes et la Base canadienne de données sur la mortalité. L’article explique le processus de couplage des enregistrements et présente les résultats concernant les associations entre les comportements en matière de santé et la mortalité dans un échantillon représentatif de Canadiens.

    Date de diffusion : 2016-12-21

  • Articles et rapports : 12-001-X201600214662
    Description :

    Les plans d’échantillonnage à deux phases sont souvent utilisés dans les enquêtes lorsque la base de sondage ne contient que peu d’information auxiliaire, voire aucune. Dans la présente note, nous apportons certains éclaircissements sur le concept d’invariance souvent mentionné dans le contexte des plans d’échantillonnage à deux phases. Nous définissons deux types de plans d’échantillonnage à deux phases invariants, à savoir les plans fortement invariants et les plans faiblement invariants, et donnons des exemples. Enfin, nous décrivons les implications d’une forte ou d’une faible invariance du point de vue de l’inférence.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600214677
    Description :

    Comment savoir si les ajustements de la pondération réduisent ou non le biais de non-réponse ? Si une variable est mesurée pour toutes les unités de l’échantillon sélectionné, on peut calculer une estimation approximativement sans biais de la moyenne ou du total de population pour cette variable en se servant des poids de sondage. Une seconde estimation de la moyenne ou du total de population peut être obtenue en se basant uniquement sur les répondants à l’enquête et en utilisant des poids ajustés pour tenir compte de la non-réponse. Si les deux estimations ne concordent pas, il y a des raisons de penser que les ajustements des poids n’ont peut-être pas éliminé le biais de non-réponse pour la variable en question. Dans le présent article, nous développons les propriétés théoriques des estimateurs de variance par linéarisation et par jackknife en vue d’évaluer le biais d’une estimation de la moyenne ou du total de population par comparaison des estimations obtenues pour des sous-ensembles chevauchants des mêmes données avec différents ensembles de poids, quand la poststratification ou la pondération par l’inverse de la propension à répondre servent à ajuster les poids pour tenir compte de la non-réponse. Nous donnons les conditions suffisantes sur la population, l’échantillon et le mécanisme de réponse pour que les estimateurs de variance soient convergents, et démontrons les propriétés de ces derniers pour un petit échantillon au moyen d’une étude par simulation.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600214676
    Description :

    Les procédures de winsorisation permettent de remplacer les valeurs extrêmes par des valeurs moins extrêmes, déplaçant en fait les valeurs extrêmes originales vers le centre de la distribution. La winsorisation sert donc à détecter ainsi qu’à traiter les valeurs influentes. Mulry, Oliver et Kaputa (2014) comparent la performance de la méthode de winsorisation unilatérale élaborée par Clark (1995) et décrite par Chambers, Kokic, Smith et Cruddas (2000) avec celle d' estimation M (Beaumont et Alavi 2004) dans le cas de données sur une population d’entreprises fortement asymétrique. Un aspect particulièrement intéressant des méthodes qui servent à détecter et à traiter des valeurs influentes est la plage de valeurs définies comme étant influentes, que l’on appelle « zone de détection ». L’algorithme de winsorisation de Clark est facile à mettre en œuvre et peut s’avérer très efficace. Cependant, la zone de détection qui en résulte dépend considérablement du nombre de valeurs influentes dans l’échantillon, surtout quand on s’attend à ce que les totaux d’enquête varient fortement selon la période de collecte. Dans la présente note, nous examinons l’effet du nombre de valeurs influentes et de leur taille sur les zones de détection produites par la winsorisation de Clark en utilisant des données simulées de manière à représenter raisonnablement les propriétés de la population visée par la Monthly Retail Trade Survey (MRTS) du U.S. Census Bureau. Les estimations provenant de la MRTS et d’autres enquêtes économiques sont utilisées dans le calcul d’indicateurs économiques, comme le produit intérieur brut (PIB).

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600214684
    Description :

    Cet article présente un plan d’échantillonnage en grappes adaptatif incomplet qui est facile à appliquer, permet de bien contrôler la taille de l’échantillon et n’oblige pas à suivre le voisinage. Dans un tel plan, on prélève un échantillon initial par un des plans classiques. Si une cellule répond à une condition préétablie, on procède à une sélection complète dans un rayon déterminé de cette cellule. On estime la moyenne de la population à l’aide de l’estimateur \pi. Si toutes les probabilités d’inclusion sont connues, on dispose d’un estimateur \pi sans biais, mais si selon le cas ces probabilités sont inconnues pour une partie des unités de l’échantillon final, elles feront l’objet d’une estimation. Pour estimer les probabilités d’inclusion, on construit un estimateur biaisé. Toutefois, les simulations démontrent que, si la taille d’échantillon est suffisante, l’erreur sera négligeable pour les probabilités d’inclusion et que l’estimateur \pi relatif sera presque exempt de biais. Ce plan rivalise avec l’échantillonnage en grappes adaptatif, parce qu’il permet de contrôler la taille de l’échantillon final et que sa gestion est facile. Il rivalise également avec l’échantillonnage séquentiel à deux degrés, parce qu’on tient compte de la forme en grappes de la population et qu’on diminue le coût de la couverture de toute l’aire d’échantillonnage. L’auteur se sert de données réelles d’une population d’oiseaux ainsi que de simulations pour comparer ce plan à un échantillonnage séquentiel adaptatif à deux degrés. Les simulations montrent que le plan est d’une grande efficacité en comparaison à son rival.

    Date de diffusion : 2016-12-20

  • Articles et rapports : 12-001-X201600214661
    Description :

    Un exemple présenté par Jean-Claude Deville en 2005 est soumis à trois méthodes d’estimation : la méthode des moments, la méthode du maximum de vraisemblance et le calage généralisé. Les trois méthodes donnent exactement les mêmes résultats pour les deux modèles de non-réponse. On discute ensuite de la manière de choisir le modèle le plus adéquat

    Date de diffusion : 2016-12-20

Références (44)

Références (44) (25 of 44 results)

  • Index et guides : 98-500-X
    Description :

    Fournit des renseignements qui permettent aux utilisateurs d’utiliser les données du Recensement de la population de manière efficace, de les mettre en application et de les interpréter. Chaque guide renferme des définitions et des explications sur les concepts du recensement ainsi qu’une rubrique sur la qualité des données et la comparabilité historique. Des renseignements supplémentaires seront inclus pour des variables spécifiques afin d'aider les utilisateurs à mieux comprendre les concepts et les questions utilisés dans le recensement.

    Date de diffusion : 2017-11-29

  • Produits techniques : 84-538-X
    Description :

    Ce document présente la méthodologie sous-jacente à la production des tables de mortalité pour le Canada, les provinces et les territoires et ce, à partir de la période de référence 1980-1982.

    Date de diffusion : 2017-11-16

  • Produits techniques : 12-206-X
    Description :

    Ce rapport résume les travaux réalisés dans le cadre d'un programme parrainé par les trois divisions de la méthodologie de Statistique Canada. Ce programme couvre les activités de recherche et de développement liées aux méthodes statistiques pouvant être appliquées à grande échelle aux programmes d'enquêtes du Bureau qui, autrement, n'auraient pas été offertes parmi les services de méthodologie de ces programmes d'enquête. Elles comportent aussi des tâches de soutien à l'intention des clients concernant l'application d'exploitations antérieures fructueuses, qui visent à promouvoir l'utilisation des résultats de recherche et des travaux préparatoires.

    Date de diffusion : 2017-11-03

  • Index et guides : 12-606-X
    Description :

    Ceci est une trouse destiné à aider des producteurs et des utilisateurs de données à l'externe de Statistique Canada.

    Date de diffusion : 2017-09-27

  • Produits techniques : 12-586-X
    Description :

    Le Cadre d’assurance de la qualité (CAQ) est l’outil de gouvernance de niveau le plus élevé pour la gestion de la qualité à Statistique Canada. Il fournit un aperçu des stratégies de gestion de la qualité et d’atténuation des risques adoptées par les différents secteurs de programme de l’organisme. Le CAQ est utilisé conjointement avec les pratiques de gestion de Statistique Canada, comme celles décrites dans les Lignes directrices concernant la qualité.

    Date de diffusion : 2017-04-21

  • Produits techniques : 91-621-X2017001
    Date de diffusion : 2017-01-25

  • Produits techniques : 75F0002M
    Description :

    Cette série comprend de la documentation détaillée sur revenu, notamment les problèmes de conception, l'évaluation qualitative des données et les recherches préliminaires.

    Date de diffusion : 2016-07-08

  • Produits techniques : 75F0002M2016003
    Description :

    Les statistiques sur le revenu sont périodiquement mises à jour pour rendre compte des plus récentes estimations de population fondées sur les données du recensement. Ainsi, avec la diffusion des données de 2014 de l’Enquête canadienne sur le revenu, Statistique Canada a révisé les estimations pour la période de 2006 à 2013 en s’appuyant sur les nouveaux chiffres de population du Recensement de 2011. Le présent document fournit des estimations non révisées ainsi que des estimations révisées pour des statistiques de revenus clés, ainsi qu’une description des changements les plus significatifs.

    Date de diffusion : 2016-07-08

  • Produits techniques : 11-522-X
    Description :

    Depuis 1984, un série de conférences annuelles a été parrainé par Statistique Canada. Le recueil de la conférence est disponible depuis 1987.

    Date de diffusion : 2016-03-24

  • Produits techniques : 91-528-X
    Description :

    Ce manuel offre des descriptions détaillées des sources de données et des méthodes utilisées par Statistique Canada pour produire des estimations de la population. Elles comportent : les estimations postcensitaires et intercensitaires de la population; la population de départ; les naissances et les décès; l'immigration; les émigrations; les résidents non permanents; la migration interprovinciale; les estimations infraprovinciales de la population; les estimations de la population selon l'âge, le sexe et l'état matrimonial et les estimations des familles de recensement. Un glossaire des termes courants est inclus à la fin du manuel, suivi de la notation normalisée utilisée.

    Auparavant, la documentation sur les changements méthodologiques pour le calcul des estimations était éparpillée dans plusieurs publications et documents d'information de Statistique Canada. Ce manuel offre aux utilisateurs de statistiques démographiques un recueil exhaustif des procédures actuelles utilisées par Statistique Canada pour élaborer des estimations de la population et des familles.

    Date de diffusion : 2016-03-03

  • Classification : 12-603-X
    Description :

    La Classification canadienne des unités et secteurs institutionnels (CCUSI) 2012 est la norme générale pour le classement des unités et secteurs institutionnels. Cette classification est utilisée pour les statistiques économiques et comprend des définitions pour ses 171 classes. CCUSI 2012 a été élaborée par suite de la mise en œuvre des recommandations internationales publiées dans le manuel Système de comptabilité nationale 2008 (SCN 2008).

    Date de diffusion : 2016-02-11

  • Produits techniques : 75F0002M2015003
    Description :

    Cette note porte sur les estimations révisées du revenu tirées de l’Enquête sur la dynamique du travail et du revenu (EDTR). Les révisions aux estimations de l’EDTR permettent de comparer les résultats de l’Enquête canadienne sur le revenu (ECR) à ceux des années précédentes puisqu’elles offrent une solution aux problèmes associés aux différences méthodologiques entre l’EDTR et l’ECR.

    Date de diffusion : 2015-12-17

  • Produits techniques : 91-621-X2015001
    Date de diffusion : 2015-09-17

  • Produits techniques : 12-002-X
    Description :

    Le Bulletin technique et d'information (BTI) des Centres de données de recherche (CDR) est un forum où les analystes de Statistique Canada et les personnes travaillant dans le milieu de la recherche peuvent communiquer entre eux au sujet de l'utilisation des données d'enquête et des techniques méthodologiques. Les articles du BTI seront axés sur l'analyse et la modélisation de données, la gestion des données ainsi que les pratiques exemplaires ou inefficaces sur le plan statistique, informatique et scientifique. De plus, les thèmes du BTI comprendront des articles portant sur le contenu des données, les répercussions de la formulation des questionnaires, la comparaison d'ensembles de données, les études traitant des méthodologies et de leur application, les particularités des données, les données problématiques et les solutions proposées et enfin la présentation d'outils novateurs utilisant les données des CDR et des logiciels appropriés. Tous ces articles permettront d'offrir des conseils et des exemples détaillés de commandes, d'habitudes, d'astuces et de stratégies pouvant aider les utilisateurs des CDR à résoudre des problèmes.

    Les principaux objectifs du BTI sont les suivants :

    - l'avancement et la diffusion des connaissances relatives aux données de Statistique Canada;- l'échange d'idées entre les utilisateurs des CDR;- l'aide aux nouveaux utilisateurs;- la collaboration avec les spécialistes et les divisions spécialisées de Statistique Canada.

    Le BTI vise la publication d'articles de qualité, dignes d'être diffusés dans le milieu de la recherche et susceptibles d'accroître la qualité des travaux effectués dans les CDR de Statistique Canada.

    Date de diffusion : 2015-03-25

  • Produits techniques : 12-002-X201500114147
    Description :

    En régression logistique, les observations influentes sont celles qui ont un effet notable sur certains aspects de l’adéquation du modèle. Une grande taille d’échantillon ne permet pas, à elle seule, d’écarter cette préoccupation; il demeure important d’examiner les observations qui pourraient être influentes, surtout dans les données d’enquêtes complexes. Le présent article décrit un algorithme simple pour rechercher les observations influentes potentielles dans les données d’enquête complexes en utilisant le logiciel SAS. Cet algorithme a été appliqué dans le cadre d’une étude fondée sur des données de l’Enquête sur la santé dans les collectivités canadiennes de 2005 en vue de déterminer les facteurs associés à l’utilisation des services des médecins de famille par les adolescents.

    Date de diffusion : 2015-03-25

  • Index et guides : 99-002-X
    Description :

    Ce rapport donne une description des méthodes d'échantillonnage et de pondération utilisées pour l’Enquête nationale auprès des ménages de 2011. Il fournit les justifications opérationnelles et théoriques et présente les résultats des études d'évaluation de ces méthodes.

    Date de diffusion : 2015-01-28

  • Produits techniques : 12-002-X201400111901
    Description :

    Ce document est destiné aux analystes/chercheurs qui envisagent d'effectuer de la recherche avec des données issues d'une enquête pour lesquelles des poids d'enquête et des poids bootstrap sont fournis dans les fichiers de données. Ce document donne, pour certains progiciels choisis, des instructions sur la façon d'utiliser des poids d'enquête et des poids bootstrap pour effectuer une analyse de données d'enquête. Nous donnons de brèves instructions sur la façon d'obtenir des estimations fondées sur des enquêtes pondérées, des estimations de la variance bootstrap (ainsi que d'autres erreurs de quantités souhaitées) et quelques tests statistiques classiques pour chaque progiciel. Même si ces directives sont seulement fournies pour les exemples choisis, nous donnons des renseignements sur l'étendue des analyses pondérées utilisant les poids bootstrap qui peuvent être effectuées par chaque logiciel.

    Date de diffusion : 2014-08-07

  • Index et guides : 99-001-X2011001
    Description :

    Le Guide de l'utilisateur de l'Enquête nationale auprès des ménages est un document de référence qui présente les différentes étapes de l'Enquête nationale auprès des ménages (ENM). Il fournit un aperçu du contenu, du plan d'échantillonnage et de la collecte, du traitement des données, de l'évaluation de la qualité des données et de la diffusion des données ayant trait à l'ENM de 2011. Le Guide de l'utilisateur de l'Enquête nationale auprès des ménages peut s'avérer utile autant pour les utilisateurs chevronnés que pour les utilisateurs novices qui désirent se familiariser avec l'ENM de 2011 ainsi que pour en soutirer des renseignements précis.

    Date de diffusion : 2013-05-08

  • Produits techniques : 75F0002M2012003
    Description :

    La diffusion des données de 2010 de l'Enquête sur la dynamique du travail et du revenu (EDTR) a coïncidé avec une révision historique des résultats de 2006 à 2009. Les poids de l'enquête ont été mis à jour afin de tenir compte des nouvelles estimations démographiques fondées sur le Recensement de 2006, plutôt que sur le Recensement de 2001. Le présent document présente de façon sommaire les répercussions de cette révision sur les estimations d'enquête pour la période 2006-2009.

    Date de diffusion : 2012-11-01

  • Produits techniques : 12-002-X201200111642
    Description :

    En général, il est recommandé de recourir à l'estimation pondérée au moment d'analyser les données d'un fichier de microdonnées issues du questionnaire complet du recensement. Puisque de tels fichiers de données sont maintenant disponibles dans les CDR, il est nécessaire de donner aux chercheurs de ces centres plus d'information sur la façon de procéder à une estimation pondérée avec ces fichiers. Ce document a pour objectif de fournir cette information, plus particulièrement la façon avec laquelle les variables de pondération ont été dérivées pour les fichiers de microdonnées du recensement et la pondération qui devrait être utilisée pour différentes unités d'analyse. Dans le cas des recensements de 1996, 2001 et 2006, la même variable de pondération est appropriée peu importe si ce sont des personnes, des familles ou des ménages qui sont étudiés. Dans le cas du Recensement de 1991, les recommandations sont plus complexes : une variable de pondération différente de celle des personnes et des familles est requise pour les ménages, et d'autres restrictions s'appliquent pour obtenir la bonne valeur de pondération pour les familles.

    Date de diffusion : 2012-10-25

  • Produits techniques : 11-522-X2010000
    Description :

    Depuis 1984, une série de conférences annuelles est parrainée par Statistique Canada. Le recueil de la conférence est disponible depuis 1987. Le Symposium 2010 est intitulé « Statistiques sociales : interaction entre recensements, enquêtes et données administratives »

    Date de diffusion : 2011-09-15

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2011001
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2009. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2011-06-16

  • Produits techniques : 12-587-X
    Description :

    Cette publication montre comment concevoir et mener un recensement ou une enquête par sondage. Le lecteur y trouvera une explication des concepts fondamentaux des enquêtes et des façons de concevoir des sondages efficaces et de qualité. Cette publication s'adresse à ceux qui planifient, mènent, ou gèrent une enquête et aux étudiants des cours de conception d'enquête.

    Le livre fournit de l'information concernant:

    -la planification et la gestion d'une enquête ;-la formulation des objectifs d'enquête et la conception de questionnaire; -les différents paramètres qui gouvernent la conception d'une enquête (par échantillon ou par recensement, la population visée par l'enquête, la base de sondage, les sources possible d'erreur); -le choix de la méthode de collecte (autodénombrement, interview sur place ou téléphonique, interview assistée par ordinateur ou au moyen d'un questionnaire papier);-l'organisation et la gestion de la collecte de données; -le calcul de la taille d'échantillon, la répartition de l'échantillon aux strates et le tirage de l'échantillon; -les méthodes d'estimation ponctuelle et d'estimation de la variance, et l'analyse des données; -l'utilisation des données administratives durant la conception ou l'estimation; -le traitement des données (ce qui se passe entre la collecte et l'estimation), de même que différentes méthodes de contrôle et d'assurance de la qualité visant à réduire les erreurs durant les différentes étapes de l'enquête;-la diffusion des données et le contrôle de la divulgation.

    Cette publication comporte également une étude de cas pour illustrer les diverses étapes de la mise en place d'une enquête auprès de ménages, en utilisant les méthodes et les principes présentés dans le livre. Auparavant, cette publication était seulement offerte en format imprimé et Publiée pour la première fois en octobre 2003.

    Date de diffusion : 2010-09-27

  • Enquêtes et programmes statistiques — Documentation : 62F0026M2010002
    Description :

    Dans ce rapport, on présente les indicateurs de qualité produits pour l'Enquête sur les dépenses des ménages de 2005. Ces indicateurs de qualité, tels que les coefficients de variation, les taux de non-réponse, les taux de glissement et les taux d'imputation, permettent aux utilisateurs d'interpréter les données.

    Date de diffusion : 2010-04-26

Date de modification :