Laboratoire d`Analyse – Recherche en Economie Quantitative

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Laboratoire d`Analyse – Recherche en Economie Quantitative...

Description

Laboratoire d’Analyse – Recherche en Economie Quantitative One pager

Août 2012

Vol. 3 – Num. 003 http://www.lareq.com

Paradigme Bayésien et Principe de Révision Bayésienne Jean – Paul Tsasa V. Kimbambu* La controverse philosophique école classique versus école bayésienne est finalement peu intéressante. Il faut faire un choix et le nôtre est clair : c’est le paradigme bayésien. Boreux – Parent – Bernier, 2010

Introduction Ce papier s’inscrit dans la série de travaux qui préparent l’avènement d’un modèle d’équilibre général dynamique stochastique (DSGE) de la RD. Congo. Il présente dans un langage approprié les principaux concepts permettant de bien appréhender l’analyse bayésienne. A ce titre, il faut noter que l’approche bayésienne a considérablement favorisé le développement des modèles DSGE comme outil d’analyse et de prévision de la politique macroéconomique.

Elle propose un cadre rigoureux pour formaliser les

croyances a priori (paradigme bayésien) et déterminer comment celles – ci doivent être mises à jour une fois que les données sont observées (révision bayésienne). Aussi, il convient de préciser que cette approche est généralement opposée à une autre dite classique. A l’effet de voir tout le tableau, nous nous proposons d’analyser préalablement l’approche classique avant de s’atteler sur celle bayésienne. Dans la dernière section, nous allons rappeler, par un exemple, le processus de révision bayésienne. I. Paradigme classique L’inférence statistique comprend deux grandes écoles : l’école classique et l’école bayésienne. Nous reprenons dans les deux premières sections les caractéristiques qui marquent la différence entre les deux grandes écoles. Considérons une observable Y, distribuée selon un modèle d’échantillonnage le paramètre

†.

Ce paramètre appartient à un espace (ensemble des états de la nature)

dimension finie et l’expression paramètres

la seule inconnue est de

est la distribution de la variable aléatoire Y conditionnellement à ses

L’école classique attribue au paramètre

une vraie valeur inconnue et certaine, c’est – à –

dire conceptuellement unique. L’estimation de ce paramètre exige la construction d’une statistique (fonction des données ou estimateur) dont les paramètres dépendent de Soit l’estimateur de la moyenne arithmétique d’un échantillon de n variables aléatoires indépendantes et identiquement distribuées (iid) :

* †

Master en cours Economie – NPTCI 2010 – 2012 ; Assistant CCAM – UPC et Chercheur co – accompli au Laboratoire d’Analyse – Recherche en Economie Quantitative [LAREQ] ; [email protected]– BP 16 626 Kinshasa I. Un paramètre est souvent multidimensionnel,

26 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

Pour n assez grand (théorème central limite), l’estimateur de variance risque

. Il s’agit en réalité de la probabilité de

a une distribution normale, de moyenne sachant l’inconnu

et

. En considérant un

il devient aisé de calculer les valeurs critiques :

Comme l’indique la relation précédente, il n’est possible de calculer l’intervalle de tolérance que si

et

sont connus. Or en réalité, ces paramètres sont inconnus. Ainsi, le statisticien classique, en refusant de considérer

-

comme une variable aléatoire, procède en trois temps et comme suit :

En un premier temps ; il suppose qu’il connait

et de ce fait, renverse la perspective en

*

écrivant un intervalle de confiance :

contrairement au paramètre

qui est inconnu mais certain, les limites de l’intervalle calculé sur

les données réellement observées sont aléatoires. L’intervalle obtenu n’est donc pas un jugement probabiliste sur

mais plutôt l’expression du degré de fiabilité de la procédure

statistique, autrement la probabilité† de recouvrement de

par un intervalle aléatoire

(l’intervalle de confiance n’a donc pas de sens probabiliste direct) ; -

En un deuxième temps, il remplace, d’une part, l’écart – type inconnu

par l’écart – type

estimé :

et d’autre part, le percentile z, en vertu de la théorie statistique de l’échantillonnage, par le percentile de Student t. Ainsi, il obtient :

é

-

Sachant que rien ne garantit que le paramètre

é

appartienne à l’intervalle de confiance, le

statisticien classique fait généralement preuve d’une souplesse intellectuelle, voire d’une entourloupette en réalisant un véritable tout de passe – passe : (i) il imagine une collection d’échantillons recueillis dans les mêmes conditions, (ii) pour chaque échantillon généré, il obtient

* †

Alors qu’un intervalle de tolérance porte sur une observable, un intervalle de confiance porte sur un paramètre. Nous verrons plus loin que contrairement au statisticien classique qui considère la probabilité comme une fréquence limite dans une succession d’essais dans laquelle on rapporte le nombre de cas favorables (sous – entendu équiprobables) au nombre d’essais effectivement réalisés, le statisticien bayésien conçoit la probabilité comme le résultat d’un pari subjectif mais pas arbitraire.

27 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

quasi – inévitablement un nouvel intervalle de confiance de ces intervalles contiendraient

et (iii) il conclut que

pour cent

dans ce cas, la valeur inconnue et certaine

C’est la vision fréquentiste de l’inférence statistique où l’analyse admet que tout est dans les données. Nous verrons dans le point qui suit que le statisticien bayésien raisonne différemment puisqu’il admet que le paramètre du modèle statistique paramétrique

est incertain. Dès lors, la préoccupation

change ; on cherchera plutôt à quantifier cette incertitude en mobilisant toutes les informations disponibles. II. Paradigme bayésien Le statisticien bayésien, contraire au classique, confère au paramètre

le statut de variable aléatoire.

Ainsi, il lui attribue une distribution de probabilité a priori (prior) qui décrit l’état de savoir actuel sur le paramètre en cause. On la note :

Le prior quantifie à la fois l’état de connaissance et le degré d’incertitude d’un analyste, modélisateur ou expert sur le phénomène observé. En vue de préserver la cohérence du modèle, le savoir de l’expert doit être indépendant de l’échantillon considéré. Comme le notent Boreux, Parent et Bernier (2010), reconnaître la quantification de l’expert, c’est prendre acte que ses paris ne sont pas arbitraires. Ainsi, des méthodes ont été développées pour traduire les paris en cause sous la forme d’une loi ou distribution de probabilité. Considérons la règle de Bayès : é

é

é

Pour passer des informations a priori aux lois (distribution) a priori, la théorie bayésienne de la décision statistique affecte des indices de crédibilité (élicitation) aux éléments de l’ensemble des valeurs possibles du paramètre

. La pratique bayésienne distingue quatre façons de coder l’information a priori (Robert,

2006 ; Parent et Bernier, 2007 ; Boreux, Parent et Bernier, 2010). a) Prendre un prior non informatif Le prior non informatif, appelé également prior vague ou prior peu informatif, n’est pas l’expression d’une ignorance absolue de la distribution statistique du paramètre. Ce prior suppose que le savoir de l’expert sur le problème considéré ne lui permet pas de lier les paramètres :

28 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

que toutes les plages de valeurs

sont, à ses yeux, équiprobables* (symétriques), à tel enseigne qu’il ne

pariera pas davantage sur une valeur que sur une autre. Soit l’information de Fisher† d’un n–échantillon iid :

Cette matrice intervient dans la construction de priors non informatifs. C’est ainsi qu’en privilégiant un raisonnement mathématique, Jeffrey (1939) a proposé la construction d’un prior vague à partir du déterminant de

:

Ce prior impropre a comme propriété de fournir une référence insensible à une reparamétrisation du modèle de vraisemblance. b) Choisir un prior conjugué à la vraisemblance Dans ce cas, la forme analytique du modèle d’échantillonnage présente des caractéristiques mathématiques que l’on doit identifier dans la forme analytique du prior. Ainsi, on obtient de modèles en juxtaposant le nom du modèle de prior au nom du modèle d’échantillonnage (Par exemple, gamma– normal–normal ; gamma–Poisson ; bêta–binomial). En considérant respectivement un modèle gamma–normal–normal‡ :

où les paramètres du prior (hyperparamètres)

sont connus,

ainsi, on a :

Pour

tendant vers zéro, on a :

§

é

é

Les priors non informatifs peuvent être obtenu en donnant des valeurs extrêmes aux hyperparamètres du prior conjugué.

* † ‡ §

L’équiprobabilité qui traduit l’ignorance et la prudence de l’expert. Pour de plus amples développement, nous renvoyons l’intéressé à Matata et Tsasa (2012). Le modèle d’échantillonnage choisi est la loi normale et le prior conjugé est un mélange gamma– normal. On note l’indépendance avec le signe

29 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

c) Procéder par analogie Cette approche est généralement utilisée par l’expert lorsqu’il accorde moins de confiance aux données provenant des observations. d) Mobiliser la méthode par introspections successives Dans ce cas, l’expert parie sur des valeurs de

qui ont un sens à ses yeux. Ensuite, il tente de caler une

distribution standard sur le modèle d’élicitation que constituent ces valeurs phares ou d’en déduire un prior conjugué à partir de la connaissance de certains quantiles ou de leurs écarts. Il convient, par ailleurs, de noter que l’analyse statistique bayésienne repose à la fois sur les données (composante objective) et sur les idées du chercheur (composante subjective). Elle vise à déterminer les causes à partir des effets. Les causes sont réduites aux paramètres du mécanisme probabiliste générateur des données imaginé par l’expert et que les effets sont résumés par les observations disponibles. Ainsi, les observations apparaissent comme une série des tirages dans une loi statistique contrôlée par le paramètre inconnu

.

Dans sa démarche, l’analyste bayésien procède en trois temps :

-

il applique une méthode statistique afin de déduire des observations une inférence sur

-

il quantifie, à l’issue de cette inférence, l’incertitude sur

-

il recourt au mécanisme générateur de données conditionnellement à

(connaissance de la cause

;

);

à l’effet de prévoir les

observations futures. Ainsi, à partir du principe de l’analyse statistique bayésienne, la règle de Bayès peut être dérivée en considérant le théorème des probabilités conditionnelles :

Figure 1. : Principe de l’analyse statistique bayésienne

30 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

Avant l’observation,

est la distribution prédictive a priori :

La probabilité conjointe du paramètre

peut donc être représentée de trois façons différentes :

-

la cause

produit l’effet y (représentation du prior) ;

-

Sachant l’effet y, on infère ka cause

-

La combinaison de deux premières représentations.

(représentation du posterior) ;

Déterminons à présent la distribution de probabilité de l’observable une observation future

conditionnellement à l’échantillon observé y. Il suffit pour ce faire de multiplier

sa densité d’échantillonnage rapport à

afin de quantifier l’incertitude sur

par la distribution a posteriori

puis intégrer ce produit par

:

Ainsi, on montre (Boreux, Parent et Bernier, 2010) que l’observable indépendante des observations passées quand on dispose de

est conditionnellement

:

III. Principe de révision bayésienne* III.1. Autopsie de la théorie de probabilité Comme vu précédemment, la probabilité peut être appréhendée en considérant soit une approche objective (démarche classique), soit une approche

subjective (démarche bayésienne). La première

approche, développée notamment par Pascal, Bernoulli et Pòlya, consiste à dériver la probabilité de réalisation d’un événement grâce à des calculs combinatoires. Et la deuxième approche, basée sur le théorème de Cox – Jaynes, suppose que tout mécanisme d’apprentissage est soit isomorphe à la théorie des probabilités, soit incohérent. Ainsi, au sens bayésien, la probabilité apparait comme une codification numérique d’un état de connaissance (valeur subjective) obtenue par un processus rationnel et individuellement indépendant. Afin de bien saisir la dimension analytique du concept de probabilité et son application dans les pratiques bayésiennes, il nous parait légitime de procéder comme suit. Présenter, d’abord, un panorama de l’évolution de la théorie des probabilités†. Ensuite, rappeler quelques notions et concepts clés du calcul de de probabilité. Et enfin pour clore le chapitre, nous nous proposons d’illustrer, par un exemple, le processus de révision bayésienne. * †

Cette section cite largement Tsasa (2012a). Si l’on admet que la probabilité est une évaluation du caractère vraisemblable d’un événement, et donc, une mesure de réalisation d’un événement ; ce que la théorie des probabilités peut dès lors être définie comme l’étude mathématique des phénomènes stochastiques, c’est – à – dire caractérisés par le hasard et l’incertitude.

31 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

a) Evolution temporelle et conceptuelle de la probabilité Laplace, en 1795, a proposé une première définition opérationnelle de la probabilité d’un événement, mais l’attribue explicitement à Pascal : « la probabilité est une fonction dont le numérateur est le nombre de cas favorable, et dont le dénominateur est le nombre de cas possibles ». Cette définition garde ses vertus historiques mais ne demeure pas universellement valable, puisque, intrinsèquement, elle ne se réduit qu’à des cas d’événements équiprobables. Notons que la définition proposée par Laplace ne marque pas du tout le début de la pensée sur la probabilité. En effet, comme le notent nombre d’historiens, notamment Ernet Coumet, le concept de probabilité a fait également l’objet d’analyse par le savant des civilisations anciennes. Ainsi, Coumet estime que le calcul de probabilité n’est pas né du hasard. Il est le fait d’une réflexion autour de nombreuses situations concrètes vécues dans l’évolution et les développements de différents domaines tels que le commerce, le contrat d’échange, les pratiques actuarielles, la médecine, etc. Bien que longtemps ignoré en algèbre, géométrie, chimie et physique, le concept de probabilité a connu une dynamique dans l’appréhension de sont contenu dès l’antiquité. Ainsi, par exemple, Aristote considère la probabilité comme une opinion dont le caractère est généralement admis. Cicéron, contrairement à Aristote, associe la probabilité à la notion de vraisemblance. Au XVIè siècle, Galilée établit un lien entre le concept de probabilité et la notion du risque. Et par la suite, Bartolomé de Médina propose une définition proche du sens généralement admis à ce jour : la probabilité est une traduction du caractère vraisemblable d’une idée. Il estimait que, une fois une opinion probable, il est permis de la suivre, même si l’opinion opposée est plus probable. Et enfin, Blaise Pascal et Pierre de Fermat, à travers une série de correspondance, intègre la notion de hasard dans l’appréhension du concept de probabilité. Les réflexions de Pascal et Fermat ont été sémantiques, puisqu’à l’origine d’une série d’innovations : -

Christian Huygens, encouragé par Pascal, publie en 1657, un premier traité sur la probabilité et introduit la notion d’espérance mathématique ;

-

Par la suite, Jakob Bernoulli, définit la variable aléatoire, établit le lien entre probabilité et fréquence en cas de jeux répétés, propose la première expression de la loi binomiale et énonce la loi des grands nombres (théorème de Bernoulli) ;

-

Abraham de Moivre, en1718, généralise l’usage de la combinaison ;

-

Thomas Simpson, en 1755, sur base de travaux de Roger Coes, applique la théorie des erreurs aux erreurs sur les observations ;

-

Pierre – Simon Laplace, en 1812, énonce une première version du théorème central limite. Plus tard, en 1901, Alexandre Liapounov donne sa version moderne et en 1910, Paul Lévy en fournit la première preuve ;

-

Emile Borel, en 1897, introduit les notions de mesure et d’ensembles mesurables. Ses travaux seront complété par Henri Léon Lebesgue, avec la théorie de l’intégration ;

-

Andrei Markov, en 1902, introduit les chaînes de Markov afin de généraliser la loi des grands nombres par une série d’expérience dépendant les unes des autres ;

32 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

-

Andrei Kolmogorov, par ses recherches, fait de l’analyse de probabilités une véritable théorie, notamment, en énonçant son axiomatique et en révélant ses applications ;

-

Kiyoshi Itô développe, dès 1940, une théorie et un lemme reliant l’analyse (équations aux dérivées partielles) et les probabilités (calcul stochastique).

b) Calcul de probabilités Le calcul de probabilités est un exercice qui permet de chiffrer les chances de réalisation d’un événement. Le calcul de probabilités est gouverné par des axiomes, théorèmes et lois. Ci – après, nous illustrons les plus importants. Soit E, la réalisation d’un événement quelconque ; p, sa probabilité de réalisation et q, sa probabilité de non réalisation, Au sens de Laplace – Pascal :



est le nombre de cas favorables et , le nombre de cas possible,

et

Par conséquent :

Lorsque la réalisation de l’événement E est certain,

, dans l’opposé [événement impossible],

b.1) Axiomatique de Kolmogorov

Soit un espace probabiliste (Ω, A, p), où Ω est l’ensemble fondamental ou l’univers ; A, la tribu ou un sous – ensemble des événements Ei tel que

et p Il ressort que les définitions classique [Laplace –

Pascal], fréquentiste [Bernoulli] et subjective [Bayès] de la probabilité de réalisation d’un événement vérifient les axiomes suivants.

-

Axiome 1 : pour tout événement E,

-

Axiome 2 :

-

Axiome 3 : pour

événements mutuellement exclusifs,

b.2) Les lois en probabilités

Loi de multiplication de probabilités : Les formules issues de la loi de multiplication diffèrent suivant la nature des événements. -

Pour des événements mutuellement non exclusifs et stochastiquement indépendants :

-

Pour des événements mutuellement non exclusifs et stochastiquement dépendants :

33 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

-

Pour des événements mutuellement exclusifs, on obtient la formule du crible :

Loi d’addition de probabilités : De même, les formules issues de la loi d’addition diffèrent suivant la nature des événements. -

Pour des événements mutuellement non exclusifs et stochastiquement indépendants :

-

Pour des événements mutuellement non exclusifs et stochastiquement dépendants :

-

Pour des événements mutuellement exclusifs, on obtient la formule du crible :

b.3) Théorèmes de Morgan [ou Théorèmes de De Morgan*]

Les théorèmes de Morgan ont été mis à jour par le mathématicien Auguste De Morgan. -

Théorème 1 : lorsque deux événements E1 et E2 obéissent à la restriction d’indépendance stochastique, il est prouvé que :

-

Théorème 2 : si deux événements E1 et E2 obéissent à la restriction d’indépendance stochastique, il est prouvé que :

Tableau 1 : Démonstration du théorème de Morgan Théorème 1 :

Théorème 2 :

Une manipulation mathématique simple montre clairement que :

Et en conséquence :

b.4) Binôme de Newton et Triangle de Pascal

Le binôme de Newton, du nom d’Isaac Newton, est généralement utilisé en calcul de probabilités lorsque deux événements E1 et E2, ayant une probabilité de réalisation constante, sont complémentaires. Il est donc construit en considérant une expansion entre deux termes. Supposons que

soit la probabilité de

fabriquer une bonne pièce de monnaie et , celle de fabriquer une mauvaise pièce de monnaie.

*

Appelé également lois de Morgan.

34 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

Tableau 2 : Illustration du Binôme de Newton est la probabilité de fabriquer une bonne pièce de 1ière : expérience monnaie ; est la probabilité d’en fabriquer une mauvaise. 2ième expérience

:

est la probabilité de fabriquer 2 bonnes pièces de monnaie ; est la probabilité de fabriquer une bonne pièce et une mauvaise ; est la probabilité de fabriquer 2 mauvaises pièces de monnaie.

3ième expérience

:

est la probabilité de fabriquer 3 bonnes pièces de monnaie ; est la probabilité de fabriquer 2 bonnes pièces et une mauvaise ; est la probabilité de fabriquer une bonne pièce et 2 mauvaises ; est la probabilité de fabriquer 3 mauvaises pièces de monnaie.

. . .

. . .

. . .

nième expérience

C’est la formule qui généralise le binôme de Newton, avec , le nombre de fois où l’expérience est répétée.

Le tableau illustratif ci – dessous établit un lien étroit entre le binôme de Newton et le triangle de Pascal. Chaque terme repris à l’intérieur du triangle de Pascal correspond à la somme du terme immédiatement supérieur et de celui qui se trouve directement à sa gauche. Tableau 3 : Interaction Binôme de Newton et Triangle de Pascal i m 0 1 2 3 4 5 6 7 8 9 10

0

1

2

3

4

5

6

7

8

9

10

1 1 1 1 1 1 1 1 1 1 1

1 2 3 4 5 6 7 8 9 10

1 3 6 10 15 21 28 36 45

1 4 10 20 35 56 84 120

1 5 15 35 70 126 210

1 6 21 56 126 252

1 7 28 84 210

1 8 36 120

1 9 45

1 10

1

Ainsi, les coefficients du binôme de Newton peuvent dès lors être dérivés à partir du triangle de Pascal. III.2. Révision bayésienne Ce point présente une application du théorème de Bayès dans le processus de révision de choix. Cette démarche s’applique souvent dans le cas d’incohérence temporelle de politique économique où le décideur doit, à chaque période, s’assurer de l’optimalité de choix réalisé. Le théorème de Bayès – Laplace permet d’appréhender la distribution a posteriori de la probabilité. Ainsi, en se basant sur les observations et leurs lois de probabilité, le théorème BL actualise les estimations d’un paramètre ou d’une probabilité. Connaissant

et

, respectivement, les probabilités 35 Laréq

Jean – Paul Tsasa/ Chercheur co – accompli

marginales ou probabilités a priori des événements

et

;

, la fonction de vraisemblance de

l’événement A, le théorème de BL peut s’écrire comme suit:

avec

, probabilité a posteriori de

sous condition

.

En vertu du théorème de probabilité totale, on sait :

En vue d’illustrer le processus de révision bayésienne, la formule de Bayès, reprise ci – dessus, peut également s’écrire comme suit :

Répondons, à présent, à l’interrogation suivante : quel sera le taux de croissance en fin de l’année ? Supposons que l’on sache la probabilité que la banque centrale a d’annoncer : p(G/taux positif) = 0,9, probabilité d’annoncer que le taux de croissance économique soit positif sachant qu’il y aura effectivement un taux de croissance positif ; p(G/taux négatif) = 0,2, probabilité d’annoncer que le taux de croissance soit positif sachant qu’il y aura un taux de croissance négatif ; où G est l’événement la banque centrale annonce un taux de croissance positif. On ignore [dans le présent] si d’ici la fin de l’année, la croissance sera positive ou non (probabilité a priori). Supposons qu’on admet que : p(taux positif) = 1/2, c’est – à – dire une croyance a priori : on croit qu’il y a une chance sur deux qu’il ait taux de croissance économique positif. Hypothèse : il y aura croissance économique positive à la fin de l’année. Partant, on estime la probabilité que la banque centrale annonce un taux de croissance positif en se basant sur la croyance a priori : p(G) = p(G/ taux positif).p(taux positif) + p(G/taux négatif).p(taux négatif) Soit p(G) = 0,55 Sachant que la banque centrale a annoncé un taux de croissance positif, quelle est la probabilité qu’on enregistre effectivement un taux de croissance positif à la fin de l’année :

36 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

Soit p(taux positif /G) = 0,82 Il y a lieu de réviser une deuxième fois que le taux de croissance sera positif en consultant, par exemple, les rapports du FMI ou de la banque mondiale où l’on prédit le taux de croissance en fin période [année]. Dans ce cas, on considère comme croyance initiale, la probabilité que le taux de croissance économique soit positif, que l’on vient de calculer.

Bibliographie 

ADJEMIAN Stéphane et Florian PELGRIN, 2008, « Un Regard Bayésien sur les Modèles Dynamiques de la Macroéconomie », Economie & Prévision, vol. 2/3, num. 183/184, JEL C3, C5, E3, 127 – 152.



AN Sungabae and Frank SCHORFHEIDE, 2007, «Bayesian Analysis of DSGE Models», Econometric Reviews, forthcoming”, Econometric Reviews, vol. 26, num. 2/4,113 – 172.



BERGER, JamesO., 1985, Statistical Decision Theory and Bayesian Analysis, 2nd ed., Springer-Verlag France.



BOREUX Jean – Jacques, Eric PARENT et Jacques BERNIER, 2010, Pratique du Calcul Bayésien, éd. Springer, Paris.



CHOPIN Nicolas and Florian PELGRIN, 2004, «Bayesian Inference and State Number Determination for Hidden Markov Models : An Application to the Information Content of the Yield Curve about Inflation», Journal of Econometrics, vol. 123, num. 2, 327 – 344.



FERNANDEZ – VILLAVERDE Jesús and Juan F. Rubio-Ramírez, 2005, «Estimating Dynamic Equilibrium Economies : Linear versus NonLinear Likelihood», Journal of Applied Econometrics, vol. 20, num. 7, 891 – 910.



FERNÁNDEZ – VILLAVERDE Jesús, 2009, “The Econometrics of DSGE Models”, NBER Working Paper Series, No.14667.



GUJARATI Damodar N., 2004, Econométrie, Traduction de la 4ième édition américaine par Bernard Bernier, De Boeck, Bruxelles.



JEFFREYS Harold, 1939, Theory of Probability, Oxford University Press, Oxford.



MATATA Dandy et Jean – Paul TSASA, 2012, “Troïka statistique de R.A. Fisher : Critère absolu, Information de Fisher et Analyse de la Variance”, One Pager Laréq, vol. 2, num. 003, (mai 2012), 16 – 21.



PARENT Eric et Jacques BERNIER, 2007, Le Raisonnement Bayésien ? Modélisation et Inférence, Springer Verlag France.



ROBERT Christian P., 2007, Le Choix Bayésien, Principes et Pratique. Statistique et Probabilités Appliquées, éd. Springer, Paris



TSASA Jean – Paul, 2012a, “Probabilité et révision bayésienne : De la genèse du calcul de probabilités à l’initiation aux pratiques bayésiennes”, One Pager Laréq, vol. 1, (mars 2012), 7p.



TSASA Jean – Paul, 2012b, « Initiation à la Macroéconomie DGE : Identités Mathématiques et Fondements Théoriques », One Pager Laréq, vol. 1, num. 009, (avril 2012), 13p.



TSASA Jean – Paul, 2012c, « Incohérence Temporelle de la Politique Economique : Application et Développement du modèle de Fischer », One Pager Laréq, vol. 3, num. 001, (juillet 2012), 1 – 14.



WALLISER Bernard, 2011, Comment Raisonnent les Economistes : Les Fonction des Modèles, éd. Odile Jacob, Paris.



WICKENS Michael, 2010, Analyse Macroéconomique Approfondie : Une Approche par l’Equilibre Général Dynamique, 1ière édition, De Boeck, Bruxelles.



ZELLNER Arnold, 1971, An Introduction to Bayesian Inference in Econometrics, JohnWiley & Sons, New York. 37 Laréq Jean – Paul Tsasa/ Chercheur co – accompli

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF