2. Théorie de base
Jae-kwang Kim, Seunghwan Park et Seo-young Kim
Précédent | Suivant
À la présente section, nous commençons
par présenter la théorie de base qui sous-tend la combinaison de l'information pour
l'estimation sur petits domaines. Nous examinons d'abord le cas simple de la
combinaison de deux enquêtes. Supposons qu'il existe deux enquêtes, et réalisées selon deux plans d'échantillonnage probabiliste distincts. Les deux
enquêtes ne sont pas forcément indépendantes. À partir de l'enquête nous
obtenons un estimateur sans biais sous le plan
et l'estimateur de sa
variance
À partir de l'enquête nous obtenons un estimateur sans biais sous le plan
de
L'erreur d'échantillonnage de
peut être exprimée par le modèle
d'erreur d'échantillonnage
et
et
représentent les erreurs d'échantillonnage associées
à
et à
telles que
Le paramètre d'intérêt est le total
de population
de
dans le domaine
Partant de (1.1), nous obtenons le modèle
au niveau du domaine qui suit :
où
Nous pouvons exprimer (2.2) en fonction
de la moyenne de population
où
Si nous utilisons un modèle
d'erreurs emboîtées
où
et
alors
Le modèle d'erreurs emboîtées, dont
l'usage est assez fréquent en estimation sur petits domaines (par exemple,
Battese, Harter et Fuller 1988), repose sur l'hypothèse que
pour
Comme
est souvent assez grand, nous
pouvons supposer sans risque que
Le modèle (2.2) est appelé modèle
d'erreur structurel parce qu'il décrit la relation structurelle entre les
deux variables latentes
et Les deux modèles, (2.1) et
(2.2), sont souvent mentionnés dans la littérature traitant des modèles d'erreur
de mesure (Fuller 1987). Donc, le modèle pour
l'estimation sur petits domaines peut être considéré comme un modèle d'erreur
de mesure, comme l'a suggéré Fuller
(1991) qui a été le premier à utiliser l'approche du modèle d'erreur de mesure dans
la modélisation au niveau de l'unité pour l'estimation sur petits domaines.
Maintenant, si nous définissons
en combinant (2.1) et (2.3), nous
obtenons
qui peut également s'écrire sous la forme
Donc, quand tous les paramètres du
modèle (2.5) sont connus, le meilleur estimateur de
peut être calculé par
où
est la matrice de variance-covariance
de La variance de
est donnée par L'estimateur en (2.6) peut être appelé
estimateur par les moindres carrés généralisés (MCG), parce qu'il s'appuie sur
la méthode des moindres carrés généralisés de la théorie des modèles linéaires.
La méthode MCG est utile parce qu'elle est optimale et qu'elle permet
d'incorporer naturellement des sources d'information supplémentaires. Par
exemple, si un autre estimateur
de est également disponible et
satisfait
et
alors le modèle MCG étendu s'écrit
et l'estimateur MCG peut être obtenu par
où
est la matrice de
variance-covariance de
La variance de l'estimateur MCG est
Si
est indépendant de
le gain d'efficacité, en termes
de variance relative, qui découle de l'incorporation de
dans l'estimateur MCG peut
s'exprimer sous la forme
où
Le gain est important si la variance
d'échantillonnage de
ainsi que la variance du modèle
sont faibles. Si
alors le gain est nul.
Remarque 1 Notons que le modèle (2.5)
peut également s'écrire
L'estimateur MCG obtenu à partir de (2.8), qui est le même que
l'estimateur MCG obtenu à partir de (2.5), peut être exprimé sous la forme
où
et
L'estimateur
lorsqu'il est calculé en utilisant le
paramètre estimé
est appelé estimateur synthétique, et
l'estimateur optimal en (2.9) est souvent appelé estimateur composite. On peut
montrer qu'en ignorant l'effet de l'estimation de
la variance de l'estimateur composite est
égale à
et, comme
l'estimateur composite est plus efficace que
l'estimateur direct.
Précédent | Suivant