Histoire et contexte

Filtrer les résultats par

Aide à la recherche
Currently selected filters that can be removed

Mot(s)-clé(s)

Type

1 facets displayed. 1 facets selected.

Géographie

1 facets displayed. 0 facets selected.

Contenu

1 facets displayed. 0 facets selected.
Aide à l'ordre
entrées

Résultats

Tout (78)

Tout (78) (0 à 10 de 78 résultats)

  • Articles et rapports : 12-001-X202300200012
    Description : Au cours des dernières décennies, de nombreuses façons différentes d’utiliser l’information auxiliaire ont enrichi la théorie et la pratique de l’échantillonnage. Jean-Claude Deville a contribué de manière importante à ces progrès. Mes commentaires permettent de retracer certaines des étapes qui ont conduit à une théorie importante pour l’utilisation de l’information auxiliaire : l’estimation par calage.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200013
    Description : Jean-Claude Deville compte parmi les plus éminents chercheurs dans la théorie et la pratique des sondages. Ses travaux sur l’échantillonnage équilibré, l’échantillonnage indirect et le calage en particulier sont reconnus au niveau international et largement utilisés en statistique officielle. Il est également pionnier dans le domaine de l’analyse statistique des données fonctionnelles. Le présent article nous donne l’occasion de reconnaître l’immense travail qu’il a accompli, et de lui rendre hommage. Dans la première partie, nous évoquons brièvement la contribution de Jean-Claude à l’analyse statistique en composantes principales fonctionnelles. Nous détaillons également certaines extensions récentes de ses travaux au croisement des domaines de l’analyse statistique des données fonctionnelles et de la théorie des sondages. Dans la seconde partie, nous présentons une extension de son travail dans le domaine de l’échantillonnage indirect. Ces résultats de recherche sont motivés par des applications concrètes et illustrent l’influence de Jean-Claude sur notre travail de chercheuses.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200015
    Description : Cet article discute et commente l’article de Ardilly, Haziza, Lavallée et Tillé consacré à une présentation synoptique de l’œuvre de Jean-Claude Deville en théorie des sondages. Il apporte quelques éclairages sur le contexte, les applications et les utilisations des résultats de ses travaux et il montre comment ceux-ci se sont inscrits dans le métier de statisticien dans lequel Jean-Claude a eu une démarche d’« éclaireur ». Il évoque aussi d’autres aspects de sa carrière et de ses inventions créatrices.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200017
    Description : Jean-Claude Deville, décédé en octobre 2021, fut l’un des chercheurs les plus influents dans le domaine la statistique d’enquête au cours des quarante dernières années. Cet article retrace certaines de ses contributions qui ont eu un profond impact, tant sur la théorie que sur la pratique des enquêtes. Cet article abordera les sujets suivants : l’échantillonnage équilibré au moyen de la méthode du cube, le calage, la méthode du partage des poids, le développement des expressions de la variance d’estimateurs complexes au moyen de la fonction d’influence et l’échantillonnage par quotas.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300100007
    Description : Je donnerai un aperçu de l’évolution de la recherche sur le contrôle de la divulgation statistique (CDS) dans les dernières décennies et de son adaptation à la révolution des données à l’aide de définitions plus officielles de la confidentialité. Je soulignerai les nombreux apports de Chris Skinner aux domaines de recherche sur le CDS. Je passerai en revue ses recherches de pionnier en commençant par ses travaux des années 1990 sur la diffusion de microdonnées d’échantillon du recensement au Royaume-Uni. De ces recherches sont nées diverses études où l’on a mesuré le risque de réidentification dans les microdonnées d’enquête au moyen de modèles probabilistes. Je porterai principalement mon attention à traiter d’autres aspects des recherches en CDS de Chris. Chris Skinner a reçu le prix Waksberg en 2019 et n’a malheureusement jamais eu l’occasion de présenter son discours Waksberg au Symposium international sur les questions de méthodologie de Statistique Canada. Le présent article suivra le canevas préparé par Chris en prévision de cette allocution.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202000100001
    Description :

    Depuis plusieurs décennies, les agences nationales de statistique dans le monde utilisent des enquêtes probabilistes comme outil privilégié pour répondre à des besoins d’informations au sujet d’une population d’intérêt. Au cours des dernières années, on a observé un vent de changement et on considère de plus en plus d’autres sources de données. Cette tendance peut être expliquée par cinq facteurs principaux : le déclin des taux de réponse dans les enquêtes probabilistes, les coûts de collecte élevés, l’accroissement du fardeau sur les répondants, le désir d’avoir accès à des statistiques en « temps réel » et la prolifération des sources de données non probabilistes. Certaines personnes en sont même venues à croire que les enquêtes probabilistes pourraient graduellement disparaître. Dans cet article, nous passons en revue quelques approches qui permettent de réduire, voire éliminer, l’utilisation d’enquêtes probabilistes tout en conservant un cadre d’inférence statistique valide. Toutes les approches que nous considérons utilisent des données d’une source non probabiliste accompagnées, dans la plupart des cas, de données d’une enquête probabiliste. Certaines d’entre elles reposent sur la validité d’hypothèses de modèle ce qui contraste avec les approches fondées sur le plan de sondage probabiliste. Ces dernières sont généralement moins efficaces mais, en contrepartie, elles ne sont pas affectées par le risque de biais découlant d’une mauvaise spécification d’un modèle.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201900100003
    Description :

    Dans le présent article, je tenterai de brièvement présenter par ordre chronologique quelques faits saillants de ma vie hasardeuse de statisticien, qui s’est étalée sur plus de 60 ans, de 1954 à aujourd’hui.

    Date de diffusion : 2019-05-07

  • Articles et rapports : 89-20-00012018001
    Description :

    Les ouvrages historiques permettent aux lecteurs de jeter un regard sur le passé, non seulement pour satisfaire leur curiosité en ce qui a trait à « la façon de faire d’autrefois », mais aussi pour prendre conscience du chemin parcouru depuis et tirer des leçons du passé. Pour Statistique Canada, les ouvrages de ce genre offrent également la possibilité de mettre en valeur la contribution apportée par l’organisme au Canada et à sa population, tout en nous rappelant qu’une telle institution continue d’évoluer chaque jour.

    À l’occasion du centième anniversaire de Statistique Canada en 2018, l’ouvrage Jouer dans la cour des grands : Histoire de Statistique Canada : 1970 à 2008 prend appui sur les travaux de deux publications notables sur l’histoire de l’organisme. Il porte sur l’histoire de l’organisme de 1970 à 2008 et couvre ainsi 36 années. De même, lorsque suffisamment de temps se sera écoulé pour atteindre un niveau d’objectivité adéquat, il sera temps, encore une fois, de transcrire le prochain chapitre de l’organisme, qui ne cesse de raconter l’histoire du Canada en chiffres.

    Date de diffusion : 2018-12-03

  • Articles et rapports : 12-001-X201700254888
    Description :

    L’exposé retrace l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années. Dans un article fondamental publié en 1934, Neyman jetait les bases théoriques de l’approche axée sur l’échantillonnage probabiliste pour l’inférence à partir d’échantillons d’enquête. Les traités d’échantillonnage classiques publiés par Cochran, Deming, Hansen, Hurwitz et Madow, Sukhatme, ainsi que Yates au début des années 1950 étendaient et étoffaient la théorie de l’échantillonnage probabiliste, en mettant l’accent sur l’absence de biais, les caractéristiques exemptes de modèle, ainsi que les plans de sondage qui minimisent la variance selon un coût fixe. De 1960 à 1970, l’attention s’est portée sur les fondements théoriques de l’inférence à partir de données d’enquêtes, contexte dans lequel l’approche dépendante d’un modèle a suscité d’importantes discussions. L’apparition de logiciels statistiques d’usage général a entraîné l’utilisation de ces derniers avec des données d’enquêtes, d’où la conception de méthodes spécialement applicables aux données d’enquêtes complexes. Parallèlement, des méthodes de pondération telles que l’estimation par la régression et le calage devenaient réalisables et la convergence par rapport au plan de sondage a remplacé la contrainte d’absence de biais comme critère pour les estimateurs classiques. Un peu plus tard, les méthodes de rééchantillonnage gourmandes en ressources informatiques sont également devenues applicables à des échantillons d’enquêtes à grande échelle. L’augmentation de la puissance informatique a permis des imputations plus avancées des données manquantes, l’utilisation d’une plus grande quantité de données auxiliaires, le traitement des erreurs de mesure dans l’estimation, et l’application de procédures d’estimation plus complexes. Une utilisation marquante de modèles a eu lieu dans le domaine en expansion de l’estimation sur petits domaines. Les orientations futures de la recherche et des méthodes seront influencées par les budgets, les taux de réponse, le degré d’actualité des données, les outils améliorés de collecte des données et l’existence de données auxiliaires, dont une partie proviendra des « mégadonnées ». L’évolution des comportements culturels et de l’environnement physico-technique aura une incidence sur la façon de réaliser les enquêtes.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254894
    Description :

    Cette note de Danny Pfeffermann présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21
Données (0)

Données (0) (0 résultat)

Aucun contenu disponible actuellement

Analyses (78)

Analyses (78) (0 à 10 de 78 résultats)

  • Articles et rapports : 12-001-X202300200012
    Description : Au cours des dernières décennies, de nombreuses façons différentes d’utiliser l’information auxiliaire ont enrichi la théorie et la pratique de l’échantillonnage. Jean-Claude Deville a contribué de manière importante à ces progrès. Mes commentaires permettent de retracer certaines des étapes qui ont conduit à une théorie importante pour l’utilisation de l’information auxiliaire : l’estimation par calage.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200013
    Description : Jean-Claude Deville compte parmi les plus éminents chercheurs dans la théorie et la pratique des sondages. Ses travaux sur l’échantillonnage équilibré, l’échantillonnage indirect et le calage en particulier sont reconnus au niveau international et largement utilisés en statistique officielle. Il est également pionnier dans le domaine de l’analyse statistique des données fonctionnelles. Le présent article nous donne l’occasion de reconnaître l’immense travail qu’il a accompli, et de lui rendre hommage. Dans la première partie, nous évoquons brièvement la contribution de Jean-Claude à l’analyse statistique en composantes principales fonctionnelles. Nous détaillons également certaines extensions récentes de ses travaux au croisement des domaines de l’analyse statistique des données fonctionnelles et de la théorie des sondages. Dans la seconde partie, nous présentons une extension de son travail dans le domaine de l’échantillonnage indirect. Ces résultats de recherche sont motivés par des applications concrètes et illustrent l’influence de Jean-Claude sur notre travail de chercheuses.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200015
    Description : Cet article discute et commente l’article de Ardilly, Haziza, Lavallée et Tillé consacré à une présentation synoptique de l’œuvre de Jean-Claude Deville en théorie des sondages. Il apporte quelques éclairages sur le contexte, les applications et les utilisations des résultats de ses travaux et il montre comment ceux-ci se sont inscrits dans le métier de statisticien dans lequel Jean-Claude a eu une démarche d’« éclaireur ». Il évoque aussi d’autres aspects de sa carrière et de ses inventions créatrices.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300200017
    Description : Jean-Claude Deville, décédé en octobre 2021, fut l’un des chercheurs les plus influents dans le domaine la statistique d’enquête au cours des quarante dernières années. Cet article retrace certaines de ses contributions qui ont eu un profond impact, tant sur la théorie que sur la pratique des enquêtes. Cet article abordera les sujets suivants : l’échantillonnage équilibré au moyen de la méthode du cube, le calage, la méthode du partage des poids, le développement des expressions de la variance d’estimateurs complexes au moyen de la fonction d’influence et l’échantillonnage par quotas.
    Date de diffusion : 2024-01-03

  • Articles et rapports : 12-001-X202300100007
    Description : Je donnerai un aperçu de l’évolution de la recherche sur le contrôle de la divulgation statistique (CDS) dans les dernières décennies et de son adaptation à la révolution des données à l’aide de définitions plus officielles de la confidentialité. Je soulignerai les nombreux apports de Chris Skinner aux domaines de recherche sur le CDS. Je passerai en revue ses recherches de pionnier en commençant par ses travaux des années 1990 sur la diffusion de microdonnées d’échantillon du recensement au Royaume-Uni. De ces recherches sont nées diverses études où l’on a mesuré le risque de réidentification dans les microdonnées d’enquête au moyen de modèles probabilistes. Je porterai principalement mon attention à traiter d’autres aspects des recherches en CDS de Chris. Chris Skinner a reçu le prix Waksberg en 2019 et n’a malheureusement jamais eu l’occasion de présenter son discours Waksberg au Symposium international sur les questions de méthodologie de Statistique Canada. Le présent article suivra le canevas préparé par Chris en prévision de cette allocution.
    Date de diffusion : 2023-06-30

  • Articles et rapports : 12-001-X202000100001
    Description :

    Depuis plusieurs décennies, les agences nationales de statistique dans le monde utilisent des enquêtes probabilistes comme outil privilégié pour répondre à des besoins d’informations au sujet d’une population d’intérêt. Au cours des dernières années, on a observé un vent de changement et on considère de plus en plus d’autres sources de données. Cette tendance peut être expliquée par cinq facteurs principaux : le déclin des taux de réponse dans les enquêtes probabilistes, les coûts de collecte élevés, l’accroissement du fardeau sur les répondants, le désir d’avoir accès à des statistiques en « temps réel » et la prolifération des sources de données non probabilistes. Certaines personnes en sont même venues à croire que les enquêtes probabilistes pourraient graduellement disparaître. Dans cet article, nous passons en revue quelques approches qui permettent de réduire, voire éliminer, l’utilisation d’enquêtes probabilistes tout en conservant un cadre d’inférence statistique valide. Toutes les approches que nous considérons utilisent des données d’une source non probabiliste accompagnées, dans la plupart des cas, de données d’une enquête probabiliste. Certaines d’entre elles reposent sur la validité d’hypothèses de modèle ce qui contraste avec les approches fondées sur le plan de sondage probabiliste. Ces dernières sont généralement moins efficaces mais, en contrepartie, elles ne sont pas affectées par le risque de biais découlant d’une mauvaise spécification d’un modèle.

    Date de diffusion : 2020-06-30

  • Articles et rapports : 12-001-X201900100003
    Description :

    Dans le présent article, je tenterai de brièvement présenter par ordre chronologique quelques faits saillants de ma vie hasardeuse de statisticien, qui s’est étalée sur plus de 60 ans, de 1954 à aujourd’hui.

    Date de diffusion : 2019-05-07

  • Articles et rapports : 89-20-00012018001
    Description :

    Les ouvrages historiques permettent aux lecteurs de jeter un regard sur le passé, non seulement pour satisfaire leur curiosité en ce qui a trait à « la façon de faire d’autrefois », mais aussi pour prendre conscience du chemin parcouru depuis et tirer des leçons du passé. Pour Statistique Canada, les ouvrages de ce genre offrent également la possibilité de mettre en valeur la contribution apportée par l’organisme au Canada et à sa population, tout en nous rappelant qu’une telle institution continue d’évoluer chaque jour.

    À l’occasion du centième anniversaire de Statistique Canada en 2018, l’ouvrage Jouer dans la cour des grands : Histoire de Statistique Canada : 1970 à 2008 prend appui sur les travaux de deux publications notables sur l’histoire de l’organisme. Il porte sur l’histoire de l’organisme de 1970 à 2008 et couvre ainsi 36 années. De même, lorsque suffisamment de temps se sera écoulé pour atteindre un niveau d’objectivité adéquat, il sera temps, encore une fois, de transcrire le prochain chapitre de l’organisme, qui ne cesse de raconter l’histoire du Canada en chiffres.

    Date de diffusion : 2018-12-03

  • Articles et rapports : 12-001-X201700254888
    Description :

    L’exposé retrace l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années. Dans un article fondamental publié en 1934, Neyman jetait les bases théoriques de l’approche axée sur l’échantillonnage probabiliste pour l’inférence à partir d’échantillons d’enquête. Les traités d’échantillonnage classiques publiés par Cochran, Deming, Hansen, Hurwitz et Madow, Sukhatme, ainsi que Yates au début des années 1950 étendaient et étoffaient la théorie de l’échantillonnage probabiliste, en mettant l’accent sur l’absence de biais, les caractéristiques exemptes de modèle, ainsi que les plans de sondage qui minimisent la variance selon un coût fixe. De 1960 à 1970, l’attention s’est portée sur les fondements théoriques de l’inférence à partir de données d’enquêtes, contexte dans lequel l’approche dépendante d’un modèle a suscité d’importantes discussions. L’apparition de logiciels statistiques d’usage général a entraîné l’utilisation de ces derniers avec des données d’enquêtes, d’où la conception de méthodes spécialement applicables aux données d’enquêtes complexes. Parallèlement, des méthodes de pondération telles que l’estimation par la régression et le calage devenaient réalisables et la convergence par rapport au plan de sondage a remplacé la contrainte d’absence de biais comme critère pour les estimateurs classiques. Un peu plus tard, les méthodes de rééchantillonnage gourmandes en ressources informatiques sont également devenues applicables à des échantillons d’enquêtes à grande échelle. L’augmentation de la puissance informatique a permis des imputations plus avancées des données manquantes, l’utilisation d’une plus grande quantité de données auxiliaires, le traitement des erreurs de mesure dans l’estimation, et l’application de procédures d’estimation plus complexes. Une utilisation marquante de modèles a eu lieu dans le domaine en expansion de l’estimation sur petits domaines. Les orientations futures de la recherche et des méthodes seront influencées par les budgets, les taux de réponse, le degré d’actualité des données, les outils améliorés de collecte des données et l’existence de données auxiliaires, dont une partie proviendra des « mégadonnées ». L’évolution des comportements culturels et de l’environnement physico-technique aura une incidence sur la façon de réaliser les enquêtes.

    Date de diffusion : 2017-12-21

  • Articles et rapports : 12-001-X201700254894
    Description :

    Cette note de Danny Pfeffermann présente une discussion de l’article « Théorie et méthodologie des enquêtes par sondage : orientations passées, présentes et futures » où J.N.K. Rao et Wayne A. Fuller partagent leur vision quant à l’évolution de la théorie et de la méthodologie des enquêtes par sondage au cours des 100 dernières années.

    Date de diffusion : 2017-12-21
Références (0)

Références (0) (0 résultat)

Aucun contenu disponible actuellement

Date de modification :