Histoire et contexte

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

2 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (10)

Tout (10) ((10 résultats))

  • Articles et rapports : 12-001-X202000100001
    Description :

    Depuis plusieurs décennies, les agences nationales de statistique dans le monde utilisent des enquêtes probabilistes comme outil privilégié pour répondre à des besoins d’informations au sujet d’une population d’intérêt. Au cours des dernières années, on a observé un vent de changement et on considère de plus en plus d’autres sources de données. Cette tendance peut être expliquée par cinq facteurs principaux : le déclin des taux de réponse dans les enquêtes probabilistes, les coûts de collecte élevés, l’accroissement du fardeau sur les répondants, le désir d’avoir accès à des statistiques en « temps réel » et la prolifération des sources de données non probabilistes. Certaines personnes en sont même venues à croire que les enquêtes probabilistes pourraient graduellement disparaître. Dans cet article, nous passons en revue quelques approches qui permettent de réduire, voire éliminer, l’utilisation d’enquêtes probabilistes tout en conservant un cadre d’inférence statistique valide. Toutes les approches que nous considérons utilisent des données d’une source non probabiliste accompagnées, dans la plupart des cas, de données d’une enquête probabiliste. Certaines d’entre elles reposent sur la validité d’hypothèses de modèle ce qui contraste avec les approches fondées sur le plan de sondage probabiliste. Ces dernières sont généralement moins efficaces mais, en contrepartie, elles ne sont pas affectées par le risque de biais découlant d’une mauvaise spécification d’un modèle.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201300211883
    Description :

    L'histoire de l'échantillonnage, qui remonte aux écrits de A.N. Kiaer, a été marquée par d'importantes controverses. Avant tout, Kiaer lui-même a dû lutter pour convaincre ses contemporains que l'échantillonnage était, en soi, une procédure légitime. Il s'y est efforcé pendant plusieurs décennies et étaient un vieillard avant que l'échantillonnage devienne une activité honorable. A.L. Bowley a été le premier à fournir à la fois une justification théorique de l'échantillonnage (en 1906) et une démonstration pratique de sa faisabilité (dans un sondage réalisé à Reading, qui a été publié en 1912). En 1925, les membres de l'IIS réunis à Rome ont adopté une résolution témoignant de leur acceptation de l'utilisation de l'échantillonnage par randomisation ainsi que par choix raisonné. Bowley a utilisé les deux approches. Cependant, au cours des deux décennies suivantes, on a assisté à une tendance croissante à rendre la randomisation obligatoire. En 1934, Jerzy Neyman a profité de l'échec relativement récent d'un grand sondage par choix raisonné pour préconiser que les sondages subséquents fassent appel uniquement à l'échantillonnage aléatoire. Il a trouvé en M. H. Hansen, W.N. Hurwitz et W.G. Madow des disciples doués qui, ensemble, ont publié en 1953 un traité d'échantillonnage faisant autorité. Cet ouvrage est demeuré incontesté pendant près de deux décennies. Toutefois, dans les années 1970, R.M. Royall et ses coauteurs ont remis en cause le recours à l'inférence fondée sur l'échantillonnage aléatoire et recommandé d'utiliser plutôt l'échantillonnage fondé sur un modèle. Ce plaidoyer a, à son tour, déclenché la troisième controverses importante en un peu moins d'un siècle. Néanmoins, le présent auteur, comme plusieurs autres, est convaincu que l'inférence fondée sur le plan de sondage et celle fondée sur un modèle ont toutes deux un rôle utile à jouer.

    Date de diffusion : 2014-01-15

  • Stats en bref : 13-604-M2007056
    Description :

    Ce document met en lumière la récente mise en place du Compte satellite de recherche et de développement élaboré par Statistique Canada. Le CSRD fournit une analyse de la capitalisation de la recherche et du développement (R et D) suivant les lignes directrices internationales pour le Système des comptes nationaux. Diverses méthodes de calcul mesurent l'impact des dépenses en recherche et développement sur le Produit intérieur brut du Canada. Ce document fournit les résultats du CSRD pour les années 1997 à 2004.

    Date de diffusion : 2008-05-30

  • Articles et rapports : 11-522-X20040018744
    Description :

    Je tenterai de considérer l'avenir des enquêtes à la lumière d'une incroyable évolution de la technologie de l'information. Je m'interrogerai sur ce que les nouvelles technologies pourraient apporter à des modes différents d'exécution des enquêtes.

    Date de diffusion : 2005-10-27

  • Articles et rapports : 12-001-X20000015174
    Description :

    Le calcul fait partie intégrante de l'analyse statistique en général et de l'échantillonnage d'enquête en particulier. Le genre d'analyses que l'on peut mener dépend de la puissance du calcul dont on dispose. Le développement général de la théorie de l'échantillonnage est retracé en fonction des développements technologiques dans le domaine du calcul.

    Date de diffusion : 2000-08-30

  • Articles et rapports : 12-001-X20000015175
    Description :

    Mahalanobis a montré comment se servir de la statistique pour éclairer l'élaboration des politiques gouvernementales. Le US Bureau of the Census s'est inspiré de ses travaux innovateurs pour approfondir l'étude des erreurs de mesure qui entachent les données de recensement et d'enquête. Nombre d'idées fausses sont répandues au sujet des recensements, notamment en ce qui concerne les personnes qu'il faut dénombrer et où il faut le faire. Des erreurs sont commises durant le recensement, notamment des erreurs de couverture. Au fil des ans, le US Bureau of the Census a élaboré des méthodes statistiques, y compris des méthodes d'échantillonnage, en vue d'augmenter l'exactitude des données de recensement et de réduire le fardeau de réponse.

    Date de diffusion : 2000-08-30

  • Articles et rapports : 12-001-X19980024347
    Description :

    Nous examinons dans cet article divers aspects de la conception et de l'analyse des études dans le cadre desquelles les mêmes unités sont examinées à différents moments; au fil des ans. Ces études incluent les enquêtes longitudinales, ainsi que les analyses longitudinales d'études rétrospectives et de données administratives ou données du recensement. Nous nous intéressons ici tout particulièrement aux problèmes particuliers qui résultent du caractère longitudinal de l'étude, en examinant quatre des principales composantes de l'étude longitudinale, à savoir la conception, la mise en oeuvre, l'évaluation et l'analyse. Une attention particulière doit être portée à chacune de ces étapes durant la planification d'une étude longitudinale. Au nombre des questions qui sont liées à la nature longitudinale des études, mentionnons les suivantes: concepts et définitions, bases de sondage, méthodes d'échantillonnage, collecte des données, traitement de la non-réponse, imputation, estimation, validation des données ainsi que analyse et diffusion des données. En présumant que les exigences fondamentales liées à la conduite d'une enquête transversale sont connues, nous énonçons ci-après les questions et les problèmes que se dessinent pour bon nombre d'études longitudinales.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X199000114558
    Description :

    Dans cet article, nous montrons brièvement comment les statisticiens du U.S. Bureau of the Census ont pu, par leurs recherches, contribuer à l’avancement de la théorie et de la pratique des recensements et des sondages. Nous essayons aussi de voir ce que nous réserve l’avenir à ce chapitre.

    Date de diffusion : 1990-06-15

  • Articles et rapports : 12-001-X198500214373
    Description :

    Dans la première partie du document, nous procédons à une revue rétrospective des travaux d’historiens sur les dossiers manuscrits de recensement microfilmés. Les historiens ont utilisé plusieurs types de plan d’échantillonnage qui vont, par ordre croissant de complexité, de l’échantillonnage aléatoire en grappes et stratifié jusqu’à l’échantillonnage en grappes à deux degrés stratifié. Dans la deuxième partie, nous proposons une méthode permettant de créer une bande-échantillon à grande diffusion qui contiendrait des données du recensement du Canada de 1881. Cette recherche faisait partie d’un projet pilote exécuté pour les Archives publiques du Canada et a été réalisée par le Centre de données sur les sciences sociales de l’Université Western Ontario. Le projet pilote avait pour but de déterminer s’il était avantageux et possible, du point de vue économique et technique, de construire une base de données ordinolingue à l’aide des questionnaires microfilmés du recensement du Canada de 1881.

    Date de diffusion : 1985-12-16

  • Articles et rapports : 12-001-X198000254939
    Description :

    Ce document décrit le processus d’impartition des contrats d’étude de marché chez Imperial Oil Limited. L’auteur énumère les processus de gestion qui précèdent l’impartition et définit les attentes d'un acheteur typique de travaux de recherche. On examine la nécessité d’avoir une relation d’affaire satisfaisante entre l’acheteur et le vendeur, et on dresse ensuite la liste des divers attributs le plus souvent considérés par une entreprise en quête d’un exécutant pour un projet de recherche particulier.

    Date de diffusion : 1980-12-15
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (10)

Analyses (10) ((10 résultats))

  • Articles et rapports : 12-001-X202000100001
    Description :

    Depuis plusieurs décennies, les agences nationales de statistique dans le monde utilisent des enquêtes probabilistes comme outil privilégié pour répondre à des besoins d’informations au sujet d’une population d’intérêt. Au cours des dernières années, on a observé un vent de changement et on considère de plus en plus d’autres sources de données. Cette tendance peut être expliquée par cinq facteurs principaux : le déclin des taux de réponse dans les enquêtes probabilistes, les coûts de collecte élevés, l’accroissement du fardeau sur les répondants, le désir d’avoir accès à des statistiques en « temps réel » et la prolifération des sources de données non probabilistes. Certaines personnes en sont même venues à croire que les enquêtes probabilistes pourraient graduellement disparaître. Dans cet article, nous passons en revue quelques approches qui permettent de réduire, voire éliminer, l’utilisation d’enquêtes probabilistes tout en conservant un cadre d’inférence statistique valide. Toutes les approches que nous considérons utilisent des données d’une source non probabiliste accompagnées, dans la plupart des cas, de données d’une enquête probabiliste. Certaines d’entre elles reposent sur la validité d’hypothèses de modèle ce qui contraste avec les approches fondées sur le plan de sondage probabiliste. Ces dernières sont généralement moins efficaces mais, en contrepartie, elles ne sont pas affectées par le risque de biais découlant d’une mauvaise spécification d’un modèle.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201300211883
    Description :

    L'histoire de l'échantillonnage, qui remonte aux écrits de A.N. Kiaer, a été marquée par d'importantes controverses. Avant tout, Kiaer lui-même a dû lutter pour convaincre ses contemporains que l'échantillonnage était, en soi, une procédure légitime. Il s'y est efforcé pendant plusieurs décennies et étaient un vieillard avant que l'échantillonnage devienne une activité honorable. A.L. Bowley a été le premier à fournir à la fois une justification théorique de l'échantillonnage (en 1906) et une démonstration pratique de sa faisabilité (dans un sondage réalisé à Reading, qui a été publié en 1912). En 1925, les membres de l'IIS réunis à Rome ont adopté une résolution témoignant de leur acceptation de l'utilisation de l'échantillonnage par randomisation ainsi que par choix raisonné. Bowley a utilisé les deux approches. Cependant, au cours des deux décennies suivantes, on a assisté à une tendance croissante à rendre la randomisation obligatoire. En 1934, Jerzy Neyman a profité de l'échec relativement récent d'un grand sondage par choix raisonné pour préconiser que les sondages subséquents fassent appel uniquement à l'échantillonnage aléatoire. Il a trouvé en M. H. Hansen, W.N. Hurwitz et W.G. Madow des disciples doués qui, ensemble, ont publié en 1953 un traité d'échantillonnage faisant autorité. Cet ouvrage est demeuré incontesté pendant près de deux décennies. Toutefois, dans les années 1970, R.M. Royall et ses coauteurs ont remis en cause le recours à l'inférence fondée sur l'échantillonnage aléatoire et recommandé d'utiliser plutôt l'échantillonnage fondé sur un modèle. Ce plaidoyer a, à son tour, déclenché la troisième controverses importante en un peu moins d'un siècle. Néanmoins, le présent auteur, comme plusieurs autres, est convaincu que l'inférence fondée sur le plan de sondage et celle fondée sur un modèle ont toutes deux un rôle utile à jouer.

    Date de diffusion : 2014-01-15

  • Stats en bref : 13-604-M2007056
    Description :

    Ce document met en lumière la récente mise en place du Compte satellite de recherche et de développement élaboré par Statistique Canada. Le CSRD fournit une analyse de la capitalisation de la recherche et du développement (R et D) suivant les lignes directrices internationales pour le Système des comptes nationaux. Diverses méthodes de calcul mesurent l'impact des dépenses en recherche et développement sur le Produit intérieur brut du Canada. Ce document fournit les résultats du CSRD pour les années 1997 à 2004.

    Date de diffusion : 2008-05-30

  • Articles et rapports : 11-522-X20040018744
    Description :

    Je tenterai de considérer l'avenir des enquêtes à la lumière d'une incroyable évolution de la technologie de l'information. Je m'interrogerai sur ce que les nouvelles technologies pourraient apporter à des modes différents d'exécution des enquêtes.

    Date de diffusion : 2005-10-27

  • Articles et rapports : 12-001-X20000015174
    Description :

    Le calcul fait partie intégrante de l'analyse statistique en général et de l'échantillonnage d'enquête en particulier. Le genre d'analyses que l'on peut mener dépend de la puissance du calcul dont on dispose. Le développement général de la théorie de l'échantillonnage est retracé en fonction des développements technologiques dans le domaine du calcul.

    Date de diffusion : 2000-08-30

  • Articles et rapports : 12-001-X20000015175
    Description :

    Mahalanobis a montré comment se servir de la statistique pour éclairer l'élaboration des politiques gouvernementales. Le US Bureau of the Census s'est inspiré de ses travaux innovateurs pour approfondir l'étude des erreurs de mesure qui entachent les données de recensement et d'enquête. Nombre d'idées fausses sont répandues au sujet des recensements, notamment en ce qui concerne les personnes qu'il faut dénombrer et où il faut le faire. Des erreurs sont commises durant le recensement, notamment des erreurs de couverture. Au fil des ans, le US Bureau of the Census a élaboré des méthodes statistiques, y compris des méthodes d'échantillonnage, en vue d'augmenter l'exactitude des données de recensement et de réduire le fardeau de réponse.

    Date de diffusion : 2000-08-30

  • Articles et rapports : 12-001-X19980024347
    Description :

    Nous examinons dans cet article divers aspects de la conception et de l'analyse des études dans le cadre desquelles les mêmes unités sont examinées à différents moments; au fil des ans. Ces études incluent les enquêtes longitudinales, ainsi que les analyses longitudinales d'études rétrospectives et de données administratives ou données du recensement. Nous nous intéressons ici tout particulièrement aux problèmes particuliers qui résultent du caractère longitudinal de l'étude, en examinant quatre des principales composantes de l'étude longitudinale, à savoir la conception, la mise en oeuvre, l'évaluation et l'analyse. Une attention particulière doit être portée à chacune de ces étapes durant la planification d'une étude longitudinale. Au nombre des questions qui sont liées à la nature longitudinale des études, mentionnons les suivantes: concepts et définitions, bases de sondage, méthodes d'échantillonnage, collecte des données, traitement de la non-réponse, imputation, estimation, validation des données ainsi que analyse et diffusion des données. En présumant que les exigences fondamentales liées à la conduite d'une enquête transversale sont connues, nous énonçons ci-après les questions et les problèmes que se dessinent pour bon nombre d'études longitudinales.

    Date de diffusion : 1999-01-14

  • Articles et rapports : 12-001-X199000114558
    Description :

    Dans cet article, nous montrons brièvement comment les statisticiens du U.S. Bureau of the Census ont pu, par leurs recherches, contribuer à l’avancement de la théorie et de la pratique des recensements et des sondages. Nous essayons aussi de voir ce que nous réserve l’avenir à ce chapitre.

    Date de diffusion : 1990-06-15

  • Articles et rapports : 12-001-X198500214373
    Description :

    Dans la première partie du document, nous procédons à une revue rétrospective des travaux d’historiens sur les dossiers manuscrits de recensement microfilmés. Les historiens ont utilisé plusieurs types de plan d’échantillonnage qui vont, par ordre croissant de complexité, de l’échantillonnage aléatoire en grappes et stratifié jusqu’à l’échantillonnage en grappes à deux degrés stratifié. Dans la deuxième partie, nous proposons une méthode permettant de créer une bande-échantillon à grande diffusion qui contiendrait des données du recensement du Canada de 1881. Cette recherche faisait partie d’un projet pilote exécuté pour les Archives publiques du Canada et a été réalisée par le Centre de données sur les sciences sociales de l’Université Western Ontario. Le projet pilote avait pour but de déterminer s’il était avantageux et possible, du point de vue économique et technique, de construire une base de données ordinolingue à l’aide des questionnaires microfilmés du recensement du Canada de 1881.

    Date de diffusion : 1985-12-16

  • Articles et rapports : 12-001-X198000254939
    Description :

    Ce document décrit le processus d’impartition des contrats d’étude de marché chez Imperial Oil Limited. L’auteur énumère les processus de gestion qui précèdent l’impartition et définit les attentes d'un acheteur typique de travaux de recherche. On examine la nécessité d’avoir une relation d’affaire satisfaisante entre l’acheteur et le vendeur, et on dresse ensuite la liste des divers attributs le plus souvent considérés par une entreprise en quête d’un exécutant pour un projet de recherche particulier.

    Date de diffusion : 1980-12-15
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :