Incertitude, Probabilités et Croyances

January 14, 2018 | Author: Anonymous | Category: Mathématiques, Statistiques et probabilités
Share Embed Donate


Short Description

Download Incertitude, Probabilités et Croyances...

Description

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

L’objectif de ce chapitre est de s’appuyer sur l’histoire des probabilités pour justifier le recours à des probabilités subjectives incertaines, c'est-à-dire à une représentation des croyances dont l’utilisation est très peu courante en théorie (économique) de la décision. Historiquement, on peut voir que la mesure de l’incertitude est le plus souvent donnée par un nombre unique (la probabilité) mais que s’opposent une interprétation objective de la probabilité — fondée soit sur une propriété physique des phénomènes aléatoires (approche fréquentiste) soit sur des nécessités logiques concernant les croyances (approche logique) — et une interprétation subjective — fondée sur les croyances personnelles (section 3.1). La remise en cause de la pertinence de l’approche fréquentiste pour l’analyse économique est bien connue : elle se fait au travers de la distinction entre risque et incertitude. Mais, la pertinence de l’approche fréquentiste peut également être questionnée pour tous les phénomènes incertains (section 3.2). Au sein de l’approche subjective de l’incertitude, s’opposent une vision intuitive des croyances et une vision préférentialiste. Alors que de Finetti et Savage défendent, au sein de la vision préférentialiste, la probabilité (numérique) comme seule mesure de croyance compatible avec des préférences rationnelles, la vision intuitive favorise des mesures de croyances non réduites à une mesure de probabilité (section 3.3). Enfin, de manière plus ou moins indépendante de l’interprétation donnée à l’incertitude, plusieurs modélisations de cette dernière sont envisageables (section 3.4).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Diversité des probabilités La notion de probabilité est celle qui sert généralement, en théorie de la décision et ailleurs, à appréhender l'évaluation des chances de survenance d'un événement, lequel peut alors déterminer la conséquence d'une décision particulière. Cependant, l'utilisation des probabilités pose nombre de difficultés dont une, largement débattue dans un grand nombre de disciplines (statistiques, physique, philosophie, économie...) est relative à la multiplicité des interprétations du concept de probabilité.

La théorie classique et le principe de symétrie (Laplace (1812)) 1 La théorie classique des probabilités 2 à la fois pose les principales bases mathématiques du calcul des probabilités ⎯ calcul qui prend sa forme moderne dans le cadre axiomatique de Kolmogoroff (1933) ⎯ et révèle les différentes interprétations de la probabilité qui conduisent aux approches fréquentistes,

1

On trouvera dans Hamouda et Rowley (1996) des références bibliographiques

complètes. Pour notre part, nous ne précisons dans cette section que quelques références généralement considérées comme essentielles. 2

Celle-ci débute avec les lettres échangées entre Blaise Pascal et Pierre Fermat à

propos des questions posées par le Chevalier de Méré sur les prix équitables dans des jeux de hasard. Les développements ultérieurs sont dus principalement à Christian Huygens, Jacques Bernoulli, Pierre Rémond de Montmort, Abraham de Moivre puis Pierre Simon de Laplace.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

logiques et subjectives. Ainsi, l'unité du concept de probabilité précède la diversité que l'on connaît aujourd'hui (Shafer (1990)) 3 La théorie classique définit la probabilité d'un événement comme le rapport entre le nombre de résultats élémentaires favorables à cet événement et le nombre total de résultats élémentaires ⎯ on est donc amené à une distribution uniforme sur l'ensemble des résultats élémentaires (ou espace fondamental). Une telle définition suppose l'acceptation d'un principe de symétrie, dû à Laplace (1812) et connu sous le nom de principe de la raison insuffisante, selon lequel les résultats élémentaires sont également vraisemblables 4 . Dit autrement, les résultats élémentaires sont supposés avoir des probabilités identiques. Il y a là une source évidente de circularité puisque la notion de probabilité est nécessaire à sa propre définition.

3

« (...) Bernoulli and De Moivre's mathematics bound fair price, belief and frequency

tightly together. The probability of an event, in their theory was simultaneously the degree to which we should believe it will happen and the long-run frequency with which it does happen. It is also the fair price, in shillings, say, for a gamble that will return one shilling if it does happen. » (Shafer (1990, p.436)). 4

Allais (1983) précise que ce même principe de symétrie est aussi présent dans les

théories purement mathématiques modernes des probabilités. En effet, les calculs réalisés imposent que tous les événements (ou cas) possibles soient envisagés, donc supposés, au moins implicitement, se réaliser simultanément (voir la section 3.2). Toutefois, ce principe, appelé axiome d'égale possibilité par Allais (1983), n'est pas explicité dans les théories axiomatiques modernes des probabilités ce qui contribue, selon l'auteur, au développement de graves erreurs d'interprétation concernant le lien entre concept mathématique de probabilité ⎯ appelé fréquence mathématique par l'auteur ⎯ et l'incertitude concrète (« le hasard »).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

De plus, et outre le caractère arbitraire du principe lui-même, l'application de celui-ci suppose de pouvoir identifier sans ambiguïté les résultats élémentaires. Lorsque l'on s'intéresse à des événements clairement structurés du type « obtenir au moins une fois face sur deux lancers d'une pièce équilibrée », l'identification des résultats élémentaires semble immédiate 5 . En revanche, dans le cas d'événements plus complexes du type « un candidat socialiste est élu aux élections présidentielles françaises de 2037 », l'identification des résultats élémentaires devient totalement arbitraire 6 . Ce qui est en fait en jeu ici c'est l'étendue du domaine des phénomènes incertains pour lesquels le principe de Laplace peut s'appliquer. En effet, en s'appuyant sur une interprétation extensive du principe ⎯ celle qui admet la possibilité de définir des résultats élémentaires et de leur accorder une égale vraisemblance, quelle que soit la complexité de l'événement ⎯, tout phénomène incertain

apparaît

probabilisable.

Une

vision

plus

restrictive

du

domaine

d'application du principe ⎯ appelé alors principe d'indifférence (Keynes (1921)) ⎯ considère que l'application d'une distribution de probabilité uniforme concerne les

5

Notons toutefois qu'il s'agit là du fameux exemple pour lequel le mathématicien du

dix-huitième siècle Jean le Rond d'Alembert est supposé avoir identifié trois événements élémentaires (0 fois face, 1 fois face, 2 fois face) et par conséquent assigné une probabilité de 2/3 ⎯ plutôt que 3/4 ⎯ à l'événement considéré. Nous pouvons ajouter qu'une part d'arbitraire peut être présente même dans le cas encore plus simple d'un seul lancé, l'espace fondamental pouvant être, par exemple, {pile, face, tranche}. 6

Il faut ajouter que lorsque l'espace des résultats élémentaires est infini (événements

du type « le candidat communiste aux élections présidentielles françaises de 2037 obtient un nombre de suffrages supérieur à 5% du total des suffrages exprimés »), l'identification des résultats élémentaires est impossible.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

phénomènes pour lesquels l'information disponible apparaît symétrique c'est-à-dire "également favorable" pour chaque événement : alors que le principe de raison insuffisante repose sur notre ignorance ⎯ il n'y a aucune raison connue de ne pas supposer les événements équiprobables ⎯, le principe d'indifférence repose sur une connaissance partielle, symétrique, non décisive en faveur d'un ou plusieurs événements au détriment des autres 7 .

L'approche logique ou nécessairiste (Keynes (1921), Jeffreys (1939), Carnap (1950)) L'approche logique (ou nécessairiste) définit la probabilité ainsi : soient h et a deux ensembles quelconques de propositions, « si une connaissance de h justifie une croyance rationnelle dans a de degré α, nous disons qu'il y a une relation de probabilité de degré α entre a et h. (Keynes (1921, p.4)). La probabilité est donc une généralisation de l'implication 8 . Un exemple est donné par Keynes (1921) lorsqu'il discute l'approche fréquentiste de Venn (1866) : « Si, par le passé, trois enfants sur dix sont morts au cours de leurs quatre premières années d'existence, l'induction peut reposer sur cette assertion incertaine, tous les enfants meurent dans cette proportion. Mais nous ne pouvons affirmer sur cette base, ainsi que Venn souhaite

7

La distinction entre les deux principes n'apparaît pas toujours de manière claire

dans la littérature, du moins en ce qui concerne la terminologie employée. C'est le cas, par exemple, chez Savage (1954) qui nous dit : « Perhaps what I here call the principle of insufficient reason should be called the principle of cogent reason » (Savage (1954, p.64)). 8

La logique inductive ⎯ développée par Carnap (1950) ⎯ qui est mobilisée ici se

distingue de la logique déductive. Si a se déduit de h alors non-a ne peut pas se déduire d'un ensemble h' contenant h. En revanche, si a est induit de h alors il n'est pas interdit que nona soit induit d'un ensemble h' contenant h.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

le faire, que la probabilité de mort d'un enfant au cours de ses quatre premières années d'existence est 3/10. Nous ne pouvons pas dire plus que : il est probable (dans mon sens) qu'il y ait une telle probabilité (dans son sens). » (Keynes (1921, p.99)). Les probabilités logiques sont dites épistémiques (Good (1990)) puisqu'elles concernent, non pas l'incertitude attachée à l'environnement lui-même ⎯ cas des probabilités dites physiques ou plus généralement ontologiques ⎯ mais l'incertitude attachée à « l'appréhension de l'environnement » (McCann (1994)) par l'individu (ou un groupe d'individus). En conséquence, les probabilités logiques sont relatives à des degrés de croyances. Cependant les probabilités logiques sont objectives car elles reposent sur une idée de croyance rationnelle : « (...) probability is not subjective, It is not, that is to say, subject to human caprice (...). The Theory of Probability is logical, therefore, because it is concerned with the degree of belief which is rational to entertain in given conditions, and not merely with the actual beliefs of particular individuals, which may or may not be rational. » (Keynes (1921, p.4)). Cela implique, en particulier, qu'une probabilité logique est forcément la même pour tous les individus : la relation entre une hypothèse A et une évidence B est issue de la cohérence du raisonnement ; elle est étrangère à tout jugement individuel (Savage (1954, p.60)) 9 . La principale limite de l'approche logique est son caractère peu opérationnel. Selon Ramsey (1926) : « fundamental criticism of Mr. Keynes views,... is the

9

Précisons, avec Fishburn (1964, pp.161-162)), que la relation de probabilité

(logique) ne dit rien à propos de la crédibilité de l'évidence. Si l'évidence B est « Toutes les femmes mariées ont trois yeux verts et Madame Jones est une femme mariée » et si l'hypothèse A est « Madame Jones a trois yeux verts », alors la probabilité (logique) de A sachant B est égale à 1.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

obvious one that there really do not seem to be any such things as the probability relations that he describes. » (Ramsey (1926, p.2) cité par Hacking (1990)). Il semble en effet que la notion de probabilité logique ne fournisse pas un outil aisément utilisable pour la prédiction et la prise de décision. Une raison primordiale de la difficulté à rendre le concept de probabilité logique opératoire est sans doute liée au fait que, dans cette approche, la notion primitive est celle de probabilité conditionnelle. D'un point de vue nécessariste, on peut parler de « la probabilité de A sachant B », où A et B représentent des événements, des hypothèses ou des propositions, mais l'expression « probabilité (absolue) de A » n'a pas de sens. De même, B ne peut être appréhendé, en termes de probabilité, que relativement à un autre élément C, et ainsi de suite. Au total, nous sommes confronté à un ensemble complexe de probabilités relatives qui risque d'engendrer un processus de régression à l'infini (voir Hacking (1990, p.170)).

L'approche fréquentiste (Venn (1866)) L'approche fréquentiste définit la probabilité d'un événement comme la valeur limite de la proportion de résultats favorables à cet événement dans une série infinie de répétitions à l'identique et indépendantes. On a affaire ici à des probabilités physiques puisque l'on cherche à mesurer l'incertitude attachée à certains phénomènes, indépendamment de sa perception par les individus. L'exemple type est constitué par n lancers d'une pièce et par les probabilités d'obtenir pile ou face. Citons deux limites générales de cette approche, largement admise en théorie économique, implicitement ou explicitement. Premièrement, la population de référence n'est pas toujours clairement déterminée. Pour ce qui est des lancers de dés ou de pièces, la question pose peu de difficultés. En revanche, la probabilité, par exemple, d'avoir un accident en voiture

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

doit-elle être calculée en fonction du type de véhicule, de l'origine du conducteur, de la saison, du jour de la semaine, etc. ?10 Deuxièmement, la notion de répétitions à l'identique et indépendantes est problématique : « Si un lancé de pièce était reproduit parfaitement, il devrait toujours conduire au même résultat. » (Schoemaker (1982, p.536)) et, pourrait-on ajouter, les événements ne seraient pas indépendants. Cet aspect contradictoire de la définition fréquentiste de la probabilité ne peut être éclairé qu'à partir d'une réflexion sur la place du déterminisme et des phénomènes purement aléatoires dans la nature. Ainsi, on peut opposer une conception déterministe ⎯ représentée historiquement par Laplace ⎯ selon laquelle l'incertitude résulte de causes échappant à notre connaissance et une conception considérant un hasard pur qui « ne serait pas dû à notre incapacité de prévoir, mais bien à la nature même des choses. » (Louis de Broglie, cité par Allais (1983, p.871)).

L'approche subjective ou personnaliste (Ramsey (1931), de Finetti (1937), Savage (1954)) L'approche subjective ou personnaliste définit la probabilité comme un degré de croyance : « La probabilité mesure la confiance qu'un individu particulier a dans la vérité d'une proposition particulière. » (Savage (1954, p.3)). de Finetti (1937) a montré ⎯ voir la section 3.3.2 ⎯ que ce degré de croyance

10

Bien que l'on y soit directement confronté dans l'approche fréquentiste, la question

de la délimitation de la population de référence, ou espace fondamental, se pose pour toute théorie des probabilités, y compris dans la théorie purement mathématique des probabilités (voir Fine (1973, pp.60-61)). Savage (1954, pp.82-91) aborde ce problème dans le contexte des probabilités subjectives au travers de la discussion sur les « petits mondes » (small worlds).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

doit être une probabilité en vertu de certains principes de cohérence. Ceux-ci ne sont fondés ni sur des considérations logiques à propos des croyances ni sur des considérations empiriques mais sur des considérations relatives à la rationalité économique des choix engendrés par ces croyances. Nous avons donc affaire à des croyances qui ne sont pas objectives mais qui doivent être des probabilités. Ces probabilités subjectives peuvent être définies quelles que soient la complexité du phénomène incertain et l'information disponible sur ce phénomène. Elles sont personnelles dans la mesure où les axiomes retenus ne garantissent pas, pour un même événement, des croyances communes à tous les individus. Les approches personnalistes « postulent que l'individu concerné est d'une certaine manière "raisonnable", mais elles ne rejettent pas la possibilité que deux individus raisonnables face à la même évidence puissent avoir des degrés de confiance différents concernant la vérité d'une même proposition. » (Savage (1954, p.3)). La possibilité de différences interpersonnelles de probabilités est à la fois une manifestation claire du caractère subjectif de ces probabilités et la source de critiques à l'encontre de cette approche lesquelles concernent le rôle joué par les facteurs objectifs ⎯ données de l'environnement, règles universelles de cohérence du

raisonnement ⎯

dans

la

formation

des

croyances.

Autrement

dit,

le

subjectivisme des théories personnalistes s'opposerait à la « vérité » des théories fréquentistes ou logiques. La réponse de Savage (1954, p.67-68) s'articule essentiellement autour de deux points : 1) La

probabilité

subjective,

lorsqu'elle

repose

sur

les

axiomes

de

comportement proposés par Savage (1954), implique une cohérence interne des croyances : elle ne laisse aucune place à l'influence de facteurs psychologiques qui pourraient être vus comme incompatibles avec un jugement de croyance rationnel. Savage (1954) cite l'exemple de l'optimisme ou du pessimisme.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

2) Au travers du théorème de de Finetti ⎯ voir la section 3.1.3.3 ⎯, la probabilité subjective tend, sous certaines conditions, vers la probabilité objective de l'approche fréquentiste au fur et à mesure que les données de l'expérience s'accumulent. La cohérence interne des croyances conduit donc à la "cohérence externe" exigée par l'approche fréquentiste. Après avoir présenté les différentes approches des probabilités, nous sommes amenés dans les deux sections suivantes à revenir sur leurs limites plus spécifiquement dans le contexte de décisions incertaines concrètes c'est-à-dire celles de la vie économique courante. Nous nous concentrons sur les deux approches les plus courantes en économie, à savoir l'approche fréquentiste et l'approche subjective.

Fréquences et incertitude Risque versus incertitude La distinction célèbre de Knight (1921) entre risque et incertitude sert fréquemment pour délimiter le rôle que la théorie fréquentiste est censée pouvoir légitimement jouer dans les décisions économiques. Chez Knight (1921), le risque désigne l'« incertitude mesurable » c'est-à-dire probabilisable objectivement 11 tandis que le terme incertitude est réservé pour la « vraie incertitude », celle pour

11

L'auteur entend ici la probabilité en tant que fréquence empirique (« statistical

probability ») ainsi que la probabilité a priori (« a priori probability ») à savoir celle qui découle de l'application du principe de raison insuffisante ; tout en précisant que la seconde n'est « pratiquement jamais rencontrée dans les affaires [business] » alors que la première est « extrêmement courante » (Knight (1921, p.215)).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

laquelle « il n'y a pas de base valide de quelque sorte que ce soit [pour calculer des probabilités objectives]. » (Knight (1921, p.225)). Dans la sphère économique, le risque concerne les événements pour lesquels il existe des fréquences empiriques portant sur des populations de référence assez larges. Knight (1921) cite l'exemple de la probabilité d'éclatement d'une bouteille de champagne au cours de la production dans une entreprise : que l'on prenne comme population de référence la production de l'entreprise elle-même, si elle est suffisante (1er cas), ou la production de l'ensemble de la branche (2ème cas), le risque est finalement mesurable et peut être transformé en coût certain pour l'entreprise ⎯ laquelle peut soit assumer elle-même le risque (1er cas) soit s'assurer contre ce risque (2ème cas). Dans le cas de l'incertitude, la détermination d'une population de référence est impossible du fait de l'absence de phénomènes identiques, ou du moins similaires à celui considéré. C'est donc le caractère unique du phénomène qui est source de véritable incertitude. Par unique, on entend plus précisément qu'il n'y a ni répétitions à l'identique connues du phénomène ni série observée de phénomènes analogues. Dans un tel contexte, il ne peut y avoir inférence de nature statistique mais seulement une estimation de nature purement subjective. Knight (1921) donne l'exemple de l'investissement dans une entreprise et plus généralement des décisions « which are far too unique, generally speaking, for any sort of statistical tabulation to have any value for guidance. » (Knight (1921, p.231)). 12

12

Rappelons la conséquence essentielle que Knight (1921) tire de l'introduction de la

distinction entre risque et incertitude. C'est cette vraie incertitude qui va justifier le profit de l'entrepreneur : alors que le profit est nul en concurrence parfaite dans la théorie néoclassique, l'introduction de l’incertitude explique cette rémunération de l'entrepreneur dans la mesure où ce dernier accepte une "prise d'incertitude" ⎯ reposant sur un jugement

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Bien

que

Knight (1921)

soit

conscient

de

l'absence

de

séparation

systématiquement nette entre risque et incertitude 13 , il considère l'étude des

purement personnel ⎯ et ses conséquences : « When (...) the managerial function comes to require the exercise of judgement involving liability to error, and when in consequence the assumption of responsibility for the correctness of his opinions becomes a condition prerequisite to getting the other members of the group to submit to the manager's direction, the nature of the function is revolutionized; the manager becomes an entrepreneur. He may, and typically will, to be sure, continue to perform the old mechanical routine functions and to receive the old wages; but in addition he makes responsible decision, and his income will normally contain in addition to wages a pure differential element designated as "profit" by the economic theorist. This profit is simply the difference between the market price of the productive agencies he employs, the amount which the competition of other entrepreneurs forces him to guarantee to them as a condition of securing their services, and the amount which he finally realizes from the disposition of the product which under his direction they turn out. » (Knight (1921, pp.276-277)). Il est intéressant de noter la nature de la justification du profit donnée par Knight (1921). Contrairement à la rémunération du travail et du capital, cette justification ne réside pas dans une contribution physique ⎯ directe ou indirecte ⎯ au produit, la valeur de ce dernier étant connue de manière certaine ou "pseudo certaine" (cas de l'incertitude mesurable). Mais, elle réside dans le fait que l'entrepreneur engage sa responsabilité puisqu'il garantit aux autres membres de l'entreprise, la valeur du produit telle qu'il l'a estimée dans un contexte de vraie incertitude. 13

Premièrement, « rien dans l'univers de l'expérience n'est absolument unique non

plus que deux choses sont absolument identiques. » (Knight (1921, p.227)). Deuxièmement, il est possible de procéder à d'autres types d'analogies, « C'est à dire, au lieu de prendre les décisions d'autres individus dans des situations objectivement plus ou moins similaires, nous pouvons prendre les décisions du même individu dans toutes sortes de situations. » (Knight (1921, p.228)) ; l'auteur s'appuyant sur l'exemple du succès d'un investissement,

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

phénomènes économiques incertains comme séparée de celle des phénomènes économiques permettant des calculs de risque. Cette position est largement partagée dans la théorie économique depuis Knight (1921), même si les travaux les plus nombreux se situent dans le domaine du risque. Dans le domaine de l'incertitude, l'approche radicale de Shackle (1949, 1979) contribue à renforcer la séparation avec le risque et à minimiser la pertinence de la théorie fréquentiste pour l'analyse économique. Selon l'auteur, il existe une probabilité fournissant une connaissance objective : c'est celle exprimée dans l'approche fréquentiste. Mais, là encore, il est précisé que les décisions humaines concrètes sont étrangères à ce contexte : « When probability is objective and claims to found itself on observation, it consists in relative frequencies. So far as the observations are properly made and interpreted, the relative frequencies are knowledge. Knowledge and uncertainty are mutually exclusive (...). Objective, actuarial probability has no relevance for the analysis of decision in face of uncertainty, because when objective probabilities can be applied there is no uncertainty. » (Shackle (1961, pp.59-60)). Les décisions humaines concrètes ont un caractère le plus souvent unique : « To most business men it falls only once or twice, or a handful of times, to have to decide upon the purpose, type scale and location of an individual plant ; most professional men choose a career only once ; and so on. These occasions of choosing are spread at such long and irregular intervals that they cannot be treated as together forming a seriable experiment. » (Shackle (1958) cité par Hamouda et Rowley (1996, p.77)).

celui-ci

pouvant

provenir

plus

des

caractéristiques

de

l'entrepreneur

que

des

caractéristiques de l'investissement lui-même. Autrement dit, il existe toujours, même pour des événements a priori uniques, des données de l'expérience desquelles on peut inférer une évaluation probabiliste.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Le rejet du risque, donc de la théorie fréquentiste, comme cadre pertinent pour l'analyse des décisions humaines concrètes est plus marqué chez Shackle que chez Knight. La raison principale est que Shackle adopte explicitement une perspective dans laquelle l'incertitude est d'une part endogène et d'autre part indissociable de la dimension temporelle 14 . La prise d'une décision en situation d'incertitude conduit en effet le plus souvent à modifier les circonstances qui étaient celles de cette décision, rendant cette dernière non reproductible : « When an individual elects to marry or not to marry, to become a surgeon instead of an engineer ; when a statesman decides to challenge rather than appease an aggressive enemy (...) ; in all such instances the entire subsequent career of an individual or an nation is swung into one rather than another of two wholly different channels (...). It is, accordingly, logically impossible for a person who has to make a decision in such an instance to contemplate repeating his experiment: such experiments are self-destructive. » (Shackle (1961, p.56)). Autrement dit, les problèmes de décision auxquels est confronté un individu sont dépendants du chemin déjà parcouru ⎯ « After such a decision there can be no going back to the state of affairs which prevailed while the choice was still open (...). » (Ibid.).

Le risque n'existe pas Malgré ce qui vient d'être dit, la position de Shackle comme celle de Knight nous paraît rester source d'ambiguïtés. En effet, en retenant la distinction entre risque et incertitude, les deux auteurs laissent une place à l'idée de mesure empirique objective de l'incertitude.

14

« The future is created by crucial choice decisions; it is not discovered through the

Bayes-Laplace theorem regarding relative frequencies. » (Davidson (1996, p.32)).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

La levée de cette ambiguïté nécessite de reconnaître qu'il n'existe aucune mesure objective de l'incertitude car les constructions de probabilités dites objectives recourent à des principes invérifiables. Par-là, la distinction entre risque et incertitude est sans objet ; elle ne mène qu'à des erreurs d'interprétation sur la nature véritable de la théorie fréquentiste. Pour s'en rendre compte, il ne faut pas, comme le font largement Knight et Shackle, s'intéresser à des phénomènes complexes mais revenir aux expériences canoniques comme celle des lancers de pièces. Deux questions peuvent alors être posées : 1) Une fréquence peut-elle nous donner une mesure de probabilité ? 2) La probabilité tirée d'une observation passée ⎯ en supposant que cette probabilité puisse être connue ⎯ est-elle une source d'information sur le futur ? 15 Dans les deux cas, il nous faut répondre négativement, à moins d'accepter certains principes ; acceptation qui ne peut être que de nature non objective. Concernant la première question, l'espoir d'une réponse positive passe d'abord

par

l'acceptation

de

l'axiome

d'égale

possibilité

en

moyenne

(Allais (1983)). Reprenons l'exemple des lancers de pièces. L'approche fréquentiste s'intéresse à une (ou quelques) série(s) particulière(s) de lancers, non à l'ensemble des séries comme dans l'approche classique ou dans les théories purement mathématiques des probabilités. Toutefois, si on suppose qu'il n'y a aucune raison pour qu'en moyenne on obtienne plus de piles que de faces, ou inversement, alors, conformément à la loi (empirique) des grands nombres, la fréquence empirique (observée) du résultat pile tend, au fur et à mesure que le nombre de lancers

15

Dans

le

langage

des

processus

stochastiques

⎯ largement

utilisés

en

macroéconomie, notamment en relation avec l'hypothèse des anticipations rationnelles ⎯, cette question est celle de la stationnarité et de l'ergodicité des processus stochastiques (voir, Davidson (1991,1996)).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

augmente, vers sa probabilité ou plutôt vers ce que Allais (1983) préfère appeler sa fréquence (empirque) intrinsèque. Hélas, cette fréquence intrinsèque ne peut pas être connue car « notre expérience est finie, pas infinie, et nous n'avons affaire qu'à des répétitions finies et non des répétitions infinies d'expériences. » (Fine (1973, p.94)). Peut-être peut-on considérer que cette fréquence intrinsèque est connue a priori si l'on accepte le principe de Laplace : elle est égale à ½ pour les événements élémentaires pile et face, si l'on admet que l'espace fondamental est {pile,face}. Mais alors, est-il vraiment nécessaire de faire un tel détour par les concepts et techniques de la théorie fréquentiste ? Peut-être peut-on considérer qu'une série finie mais "assez longue" d'observations suffit à avoir une bonne estimation, une certitude pratique concernant cette fréquence intrinsèque. Il s'agit là encore d'un principe qui dessert l'objectivisme visé par l'approche fréquentiste 16 . A ce stade, la deuxième question est déjà clairement superflue d'un point de vue pratique. Supposons malgré tout que nous ayons une connaissance de la fréquence intrinsèque du phénomène étudié. Pour les mêmes raisons que celles évoquées à propos de la première question, cette connaissance, que l'on peut interpréter comme une connaissance du passé, ne constitue pas une connaissance du futur. En effet, la seule connaissance du futur fournie ⎯ en supposant l'axiome d'égale possibilité en moyenne vérifié ⎯ est inaccessible : il s'agit de la convergence (à la limite) des fréquences empiriques futures vers la fréquence intrinsèque. L'introduction du principe de la convergence "dans le long terme" (c'est-à-dire, pour

16

« The problem though with the large role being presumed for practical certainty is

that it too conveniently lumps all of our difficulties with the interpretation of probability into one and then protects it from further examination on the grounds that it involves a primitive concept. Primitive concepts to be useful need to be clearer to our intuition than the grounds for judgments of practical certainty appear to be. » (Fine (1973, p.88-89)).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

des répétitions "nombreuses") est similaire à celle de la certitude pratique, donc susceptible d'être l'objet de critiques du même ordre 17 . De plus, ce n'est pas à un long terme auquel nous avons affaire en théorie de la décision ; ⎯ « à long terme nous serons tous morts » pour reprendre l’expression célèbre de John Maynard Keynes. Ce qui nous intéresse le plus souvent c'est le futur immédiat (le lancer suivant). Or, non seulement nous ne pouvons pas avoir de connaissance objective de ce futur immédiat, mais celui-ci ne pourra jamais ni confirmer ni infirmer une quelconque fréquence intrinsèque 18,19 . Par ailleurs, l'introduction de la dimension temporelle permet d'éclairer d'une autre manière l'axiome d'égale possibilité en moyenne puisqu’alors, l'utilisation de ce dernier suppose la croyance en l'invariance des lois de la nature. De nouveau, on fait appel à une croyance de nature métaphysique pour estimer des probabilités physiques. On peut ajouter que, dans la mesure où l'incertitude économique a souvent une composante endogène forte, postuler un tel principe d'invariance (des lois psychologiques et sociales) revient à refuser toute créativité de l'être humain :

17

Par exemple, celle exprimée par Fine (1973, p.103) : « The long run guarantee of

convergence is thus ineffective since we are unable, either before or after observation, to determine how long a "long" run must be. ». 18

Supposons que l'on ait lancé une pièce 10000 fois et que l'on ait obtenu 10000 fois

face. Non seulement aucune fréquence intrinsèque n'est incompatible avec ce résultat mais, de plus, aucun résultat d'un 10001ème lancer (pile, face, tranche, disparition de la pièce,...) n'est incompatible avec ce résultat. 19

Les difficultés de la théorie fréquentiste sont exemplaires d'un problème plus

général soulevé par Hume : le problème de l'induction. Une présentation succincte et claire se trouve chez Fishburn (1964, pp.152-155).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

c'est enfermer la réflexion et l'action de ce dernier dans un déterminisme contestable sur les plans descriptif ⎯ plus encore que dans le cas de phénomènes physiques ⎯ et normatif. Dit autrement, affirmer que le risque n'existe pas c'est affirmer l'existence d'une incertitude ontologique radicale et générale : la réalité ne peut être mesurée par une probabilité numérique tirée de fréquences observées, que cette réalité concerne des phénomènes économiques ou sociaux complexes ou qu'elle concerne des phénomènes physiques simples. Qu'il existe une incertitude épistémique ⎯ liée à l'incapacité à accéder à la connaissance de la réalité ⎯ ne doit pas masquer ou se substituer dans l'analyse à cette incertitude ontologique radicale et générale.

Remarques et conclusion Notre première remarque concerne les probabilités logiques. Bien que nous ayons choisi de ne pas développer l'analyse critique de l'approche logique, nous pouvons considérer que cette approche se heurte finalement au même type de critique que la théorie fréquentiste, puisqu'elle cherche à définir une probabilité objective. En effet, si le risque n'existe pas, c'est plus généralement le cas de toute probabilité objective. Il s'agit de la devise de de Finetti (1975) : « La probabilité n'existe pas », bien que l'auteur vise plus particulièrement la théorie fréquentiste. D'une part, les données pertinentes desquelles on doit pouvoir logiquement induire des propositions probables sont exprimées dans un langage qui n'a généralement pas une forme quantitative systématique. Dès lors, la traduction de

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

ces données en probabilités (numériques) semble une tâche peu compatible avec l'ambition d'objectivisme de l'approche logique 20 D'autre part, Carnap (1950), lorsqu'il propose de mettre fin à la régression infinie engendrée par le caractère relatif des probabilités, introduit la condition d'évidence totale (« requirement of total evidence ») : si la probabilité de a sachant h est de degré α ⎯ Carnap (1950) parle de degré de confirmation de a par h égal à α, noté C(a,h) = α ⎯ et si h contient toutes les données pertinentes pour évaluer a alors la probabilité de a est de degré α ; la probabilité de a prend la forme d'une probabilité absolue. Or, la possibilité qu'une proposition contienne toutes les données pertinentes pour évaluer une autre proposition nécessite à l'évidence le recours à des arguments ⎯ par exemple, fréquentistes ⎯ non objectifs (voir Fine (1973, chapitre 7)). Notre deuxième remarque concerne la thèse originale défendue par Allais (1983). Celle-ci, tout en procédant à une analyse critique de la théorie fréquentiste

existante

précédemment ⎯,

20

⎯ analyse

conduit

à

critique

une

dans

tentative

de

laquelle

nous

justification

avons

puisé

objective

du

D'ailleurs, Keynes (1921), bien qu'il fasse partie des auteurs les plus pessimistes à

ce sujet, admet qu'il est « seulement occasionnellement possible » (Keynes (1921, p.112)) d'avoir une mesure numérique des degrés de probabilité : « A rule can be given for numerical measurement when the conclusion is one of a number of equiprobable, exclusive, and exhaustive alternatives, but not otherwise.» (Ibid.) ⎯ autrement dit, une probabilité logique (numérique) n'est obtenue que lorsque le principe d'indifférence peut être appliqué. Et, même une comparaison (probabilité qualitative) est inaccessible dans de « nombreux cas » (Ibid.). Voir aussi la partie de Fishburn (1964, pp.163-164) intitulée « Un idéal non atteint. ».

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

fréquentisme. Précisément, la critique porte sur les théories mathématique et fréquentiste des probabilités : la première repose sur des calculs d'analyse combinatoire totalement déterministes et sur l'axiome d'égale possibilité ; la deuxième repose sur une représentation de distributions empiriques par des modèles mathématiques fréquentiels eux-mêmes totalement déterministes et qui coïncident avec la théorie purement mathématique du fait de la présence d'un axiome d'égale possibilité en moyenne. Ces théories permettent de calculer respectivement des fréquences mathématiques et des fréquences empiriques qui ne devraient pas être appelées des probabilités puisqu'elles n'ont a priori rien à voir avec la prévision d'un avenir incertain 21 . Allais (1983) définit deux notions qui concernent cette prévision d'un avenir incertain : - la probabilité objective qui repose sur la théorie fréquentiste lorsque l'on fait « une double hypothèse de caractère subjectif » (Allais (1983, p.79)) : 1) « La première admet la validité de la représentation des distributions empiriques par des modèles mathématiques fréquentiels (...) » (Ibid.). 2) « La seconde admet implicitement un postulat d'invariance des lois de la nature suivant lequel ce que l'on a régulièrement observé dans le passé continuera à s'observer dans l'avenir. » (Ibid.). - le cœfficient de vraisemblance est une « supputation de l'avenir » (Allais (1983, p.78)) réalisée lorsque aucune analyse statistique antérieure n'est disponible.

21

« (...), il convient de souligner que le concept de probabilité, indissociablement relié

à une prévision humaine de l'avenir, n'existe pas dans la nature. Il n'existe que dans l'esprit de l'homme. La nature ne connaît que des fréquences ; elle ignore les probabilités. » (Allais (1983, p.79)).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Allais (1983) va alors donner des arguments considérés comme objectifs en faveur de la probabilité objective. Selon le Théorème (T), sous des conditions très générales, la distribution discrète des valeurs X(n) (1≤ n≤ N) d'une somme de l sinusoïdes xj (n) de périodes incommensurables Tj

considérées à des instants n

régulièrement espacés tend asymptotiquement vers une distribution normale lorsque le nombre N des valeurs considérées et le nombre l des composantes sinusoïdales augmentent indéfiniment. « Il est ainsi établi que la structure déterministe vibratoire de l'univers peut engendrer des effets d'apparence aléatoire, et que le déterminisme peut imiter le hasard. » (Allais (1983, p.150)) 22 . Ainsi, la première des deux hypothèses de caractère subjectif de l'approche fréquentiste aurait une cause objective qui justifierait (partiellement), dans un contexte de risque, le calcul de probabilités objectives à partir des fréquences empiriques observées. Selon Allais (1983), la probabilité n'existe effectivement pas mais il existe des lois de la nature qui sont en partie cachées à notre connaissance et dont la découverte progressive doit nous rendre accessible une meilleure compréhension objective du « hasard ». Alors que l'analyse critique de la théorie fréquentiste semble justifier une approche subjective de l'incertitude ⎯ et bien qu'il s'agisse du choix que nous

22

Le théorème (T) vient appuyer l'hypothèse du « facteur X », « suivant laquelle les

fluctuations des séries temporelles que nous observons dans les phénomènes qui relèvent des sciences de la nature, des sciences de la vie et des sciences de l'homme, pourraient résulter par des effets de résonance de l'influence des innombrables vibrations qui sillonnent l'espace dans lequel nous vivons et dont l'existence est aujourd'hui une certitude. » (Allais (1983, p.150)).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

effectuons par la suite ⎯, Allais (1983) nous offre donc une autre alternative, reposant sur l'idée d'une possible connaissance objective du monde 23 . Nous achevons cette sous-partie en explicitant une partie de la synthèse proposée dans la figure 3.1.1. La partie concernée est celle consacrée aux approches qui accordent à la théorie fréquentiste une certaine validité objective dans l'appréhension

des

phénomènes

incertains

concrets,

c'est-à-dire

celles

qui

retiennent une séparation entre risque et incertitude. On distingue donc deux catégories de phénomènes : ceux pour lesquels la théorie fréquentiste est applicable et ceux pour lesquels une formalisation spécifique doit être élaborée. Parmi les classifications possibles, on peut retenir la dissociation entre les travaux envisageant : 1) une incertitude non mesurable. Knight (1921) appartient à cette catégorie, ainsi que nous l'avons vu. Keynes (1936,1937) adopte une telle perspective dans la mesure où s'opposent ici radicalement des phénomènes pour lesquels les techniques probabilistes peuvent s'appliquer et ceux pour lesquels les informations objectives font défaut et pour lesquels on ne peut que constater empiriquement le recours à divers repères (statu quo, opinion majoritaire...) aidant, dans la pratique, à la prise de décision 24 . Conclure à une opposition avec Keynes (1921) serait une erreur, mais

23

Allais « propose pour une interprétation déterministe du monde et une conception

"objectiviste" de la probabilité, un édifice conceptuel à mettre en balance avec le célèbre ouvrage de Savage, Foundations of Statistics, de 1954. La Science trouve ici ses limites. Chacun

ne

pourra

choisir

qu'en

fonction

de

ses

convictions

philosophiques. »

(Munier (1989, p.18)). 24

« Il me faut expliquer que, par l'expression de connaissance "incertaine", mon

intention n'est pas simplement de distinguer ce qui est su avec certitude de ce qui est

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

la distinction doit cependant être faite avec une théorie logique des probabilités dont l'ambition est l'élaboration d'une théorie globale de l'incertitude reposant sur la notion de croyances rationnelles 25 . Nous pouvons ajouter à cette catégorie les théories axiomatiques ⎯ partant d'un point de vue normatif, elles diffèrent des travaux précédents ⎯ qui mènent à des critères de décision en incertitude sans recourir à une mesure d'incertitude (voir Luce et Raiffa (1957, chapitre 13)). 2) Une incertitude mesurable. Il peut s'agir d'une incertitude ontologique pour laquelle on substitue à la probabilité une autre notion de mesure ou d'une incertitude épistémique qui devient objet de mesure lorsque la probabilité (ontologique) n'est pas accessible. Nombre de modèles mathématiques de l'incertain (voir la section 3.1.4) peuvent conduire à une interprétation appartenant à cette catégorie, bien que les décisions économiques ne constituent généralement pas le point de départ de ces travaux.

seulement probable. Le jeu de la roulette n'est pas sujet à incertitude, en ce sens, ni la perspective de tirer un bon numéro au loto. Ou encore, l'espérance de vie n'est soumise qu'à une légère incertitude. Même le temps qu'il fait n'est que modérément incertain. Le sens dans lequel j'utilise ce terme est celui selon lequel la perspective d'une guerre européenne était incertaine, ou encore le prix du cuivre et le taux d'intérêt dans vingt ans, ou la date d'obsolescence d'une invention nouvelle, ou la position des détenteurs de fortunes privées dans le système social de 1970. En ces matières, il n'y a pas de fondement scientifique sur lequel on puisse formuler, de façon autorisée, quelque raisonnement probabiliste que ce soit. Nous ne savons pas, tout simplement. ». (Keynes (1937, p.144)). 25

On trouvera dans Netter (1996) des arguments complémentaires concernant les

rapprochements et distinctions possibles entre Keynes (1936,1937) et Keynes (1921).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

La théorie de la surprise potentielle de Shackle (1949,1961) vient, quant à elle, directement du rejet de la pertinence de l'approche fréquentiste dans l'étude de nombreuses décisions économiques concrètes et de la volonté de construire, néanmoins, une mesure de l'incertitude.

Croyances personnelles et incertitude La théorie de la décision en incertain est par définition confrontée à la nécessité de formaliser des croyances qui portent sur les différents aspects incertains de l'environnement déterminant les résultats d'une action particulière du décideur. Dans la section précédente, nous avons été amenés à rejeter la tentative qui consiste à évacuer le problème de la formalisation des croyances en posant la question de la mesure de l'incertitude de manière extérieure au décideur, cette mesure (objective) s'imposant alors à ce dernier. Nous avons également précisé pourquoi, selon nous, ce rejet devait être total, c'est-à-dire pour toute prise de décision aux conséquences non certaines. Partant d'un point de vue (pleinement) subjectif, deux questions occupent une place centrale dans la formalisation des croyances : 1) Les croyances doivent-elles être des probabilités ? Alors que dans les théories classiques et fréquentistes, les difficultés touchaient principalement à la réalité physique d'un principe de symétrie, la théorie subjective se heurte à la réalité psychologique du concept mathématique de probabilité, notamment la propriété d'additivité des probabilités. 2) Comment les croyances doivent-elles s'appuyer sur les données de l'environnement ? Cette question nous confronte à nouveau au problème de l'induction. Posant que les croyances ne peuvent être induites qu'à partir de données extérieures à

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

l'individu, comment peut-on appréhender ce lien entre croyances (internes) et données (externes) sans tomber dans les pièges rencontrés par les théories objectives ?

Probabilités comparatives : approches intuitives

approches

préféren-tialistes

et

Lorsque l'on cherche à formaliser des croyances, une démarche assez naturelle consiste à partir d'une relation binaire « est au moins aussi probable que » sur des événements (ou des propositions), appelée relation de probabilité comparative. 26 Cette relation de probabilité comparative est elle-même soit la notion primitive dans le cas des approches intuitives (« intuitive views ») soit une relation déduite d'une relation de préférence ⎯ donc faisant intervenir des conséquences,

monétaires

par

exemple ⎯,

dans

le

cas

des

approches

préférentialistes (« decision-oriented approach »). Selon l'approche intuitive, représentée historiquement par Koopman (1940), une proposition A est jugée au moins aussi probable qu'une proposition B simplement parce que, en dehors de tout problème de décision, A est jugée plus vraisemblable que B : « The intuitive thesis in probability holds that both in its meaning and in the laws which it obeys, probability derives directly from the intuition, and is prior to objective experience [note: "(Objective) experience" is used here practically as the equivalent of "laboratory experiment" in the narrow objective sense of the word, and excludes introspective or "subjective experience" (...)]; it holds that it is experience

26

Voir Fishburn (1964, chapitre 5 ; 1986).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

to be interpreted in terms of probability and not for probability to be interpreted in terms of experience (...). » (Koopman (1940, p.269)). En revanche, selon l'approche préférentialiste, la probabilité comparative est révélée par un choix, réel ou hypothétique, du type : « Soient deux actions f et g. f mène à la conséquence monétaire x si l'événement A survient et à la conséquence monétaire y sinon, avec x >y. g mène à x si l'événement B survient et à y sinon. Quelle action préférez-vous ? ». En supposant que plus de monnaie est préféré à moins, si f est choisie (préférée) au détriment de g, alors A est jugé plus probable que B. Cette approche, due à Ramsey (1926), est celle qui est reprise par Savage (1954) 27 . Ce dernier précise : « It is one of my fundamental tenets that any satisfactory account of probability must deal with the problem of action in the face of uncertainty. [The intuitive views] seem to me too remote from the problem of action, or decision. » (Savage (1954, p.60)). Toutefois, le caractère indissociable de la décision et des probabilités suppose chez Savage (1954) de placer les décisions préalablement aux probabilités. Or, ainsi que le suggère Koopman (1940) et ainsi que l'ont précisé d'autres auteurs, l'évaluation de la vraisemblance de certains phénomènes est logiquement antérieure

27

Notons la position particulière de de Finetti (1937) : « [L'approche intuitive]

présente l'avantage de permettre une analyse plus poussée et plus détaillée des concepts fondamentaux, de partir uniquement de notions qualitatives, d'éliminer la notion de « monnaie », étrangère à la question, mais qui est nécessaire pour parler de paris ; cependant, une fois démontré que l'on peut écarter la défiance que fait naître le caractère un peu trop concret et peut-être artificiel de la définition fondée sur les paris, le second procédé [l'approche préférentialiste] s'avère préférable, surtout pour sa clarté. » (de Finetti (1937, p.6)).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

à la décision (von Wright (1962)) ⎯ voire même indépendante de toute décision (Tukey (1960)) 28 .

La nécessité des probabilités numériques selon de Finetti (1937) et Savage (1954) La justification normative des probabilités numériques est donnée par de Finetti (1937) au travers de la « condition de cohérence » : « Lorsqu'un individu a évalué les probabilités de certains événements, deux cas peuvent se présenter : ou bien il est possible de parier avec lui en s'assurant de gagner à coup sûr, ou bien cette possibilité n'existe pas. Dans le premier cas on doit dire évidemment que l'évaluation de la probabilité donnée par cet individu contient une incohérence, une contradiction intrinsèque ; dans l'autre cas, nous dirons que l'individu est cohérent. C'est précisément cette condition de cohérence qui constitue le seul principe d'où l'on puisse déduire tout le calcul des probabilités (...). » (de Finetti (1937, p.7)). Considérons le lancer d'une pièce équilibrée. Soient les enjeux monétaires SP et

SF , positifs

ou

négatifs,

contingents

aux

événements

(incompatibles

et

exhaustifs) Pile et Face respectivement. Supposons qu'un individu soit obligé d'échanger la possibilité d'obtenir SP

si Pile survient avec la somme pP .SP

et

d'échanger la possibilité d'obtenir SF si Face survient avec la somme pF .SF : pP et

28

Voir Fine (1973, pp.230-231). Citons également Tversky et Kahneman (1974) : « It

should perhaps be noted that, while subjective probabilities can sometimes be inferred from preferences among bets, they are normally not formed in this fashion. A person bets on team A rather than on team B because he believes that team A is more likely to win; he does not infer this belief from his betting preferences. Thus, in reality, subjective probabilities determine preferences among bets and are not derived from them (...). ».

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

pF sont les probabilités subjectives attachées par l'individu aux événements Pile et Face respectivement. Les gains nets pour l’individu sont GP et GF , respectivement si Pile est obtenu et si Face est obtenu, avec :

G i = Si −

∑ p i . S i , ∀i

= F , P , soit,

i

⎧( 1 − p P ). S P − p F . S F = G P ⎨ ⎩− p P . S P + ( 1 − p F ). S F = G F p

Si p P + p F = 1, − G P = G F . 1 − Fp , donc GP F

et GF

sont soit nuls soit de

signes différents. En revanche, si p P + p F ≠ 1 , il est possible de choisir SP

et

SF tels que GP et GF soient négatifs tous les deux c'est-à-dire tel que l'individu soit perdant quel que soit le résultat du lancer 29 , autrement dit victime d'un "pari

hollandais" ("Dutch Book”). La généralisation au cas de n événements incompatibles, dont un (et un seul) doit se vérifier, est donnée par de Finetti (1937), lequel conclut : « On a ainsi le théorème des probabilités totales sous la forme suivante : dans une classe complète

d'événements incompatibles, la somme des probabilités doit être égale à 1. La forme plus générale : la probabilité de la somme logique de n événements incompatibles est

la somme de leurs probabilités, n'en est que le corollaire immédiat. » (de Finetti (1937, p.8)).

L’approche préférentialiste est systématisée par Savage (1954) puisque la mesure de probabilité subjective est déduite de la relation de préférence sur les actions, pour laquelle des axiomes de rationalité ont été définis.

29

Par exemple, si pF =pP =0.2, alors, en fixant SP =SF =-500/3, on a GP =GF =-100.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Soit f

la relation binaire « est au moins aussi probable que » définie sur

~*

des événements, notés A,B,...; les parties asymétriques f* (« est (strictement) plus probable que ») et symétrique ~* (« est aussi probable que ») étant définies comme habituellement. Soit P une mesure de probabilité définie sur des événements ⎯ on a donc :

P(S)=1, P(A) ≥0, A∩B=∅ ⇒ P(A∪B)=P(A)+P(B), où A et B sont des événements et S l'événement universel. On dit que (Savage (1954)) : (i) P est presque compatible avec f lorsque A f B ⇒ P(A) ≥ P(B). ~*

~*

(ii) P est (strictement) compatible avec f lorsque ~*

A f B ⇔ P(A) ≥ P(B). ~*

Savage (1954) montre, dans un cadre où S est infini, que les axiomes portant sur f et assurant la (stricte) compatibilité 30 sont obtenus à partir des axiomes P1 ~*

à P6 — c'est-à-dire à partir des axiomes portant sur f — et de la relation : A f B ~

ssi ∀x,y∈X, x

f y ⇒ xAy f

~*

xBy. (voir Fishburn (1970, chapitre 14)).

Nous voyons donc que dans la perspective de de Finetti et de Savage, c’est essentiellement un principe économique qui apparaît au fondement même de la représentation des croyances. Autrement dit, c’est la rationalité instrumentale qui fonde la cohérence des croyances et non la rationalité cognitive. Le sens que prend la notion de probabilité apparaît alors assez ambigu et pose, en particulier, deux

30

Le terme compatibilité traduit « agreement » ou « compatibility ». On dit

également que ⎛⎜ 2 S , f ⎞⎟ , définie sur une algèbre de S, est représentable par P.



~* ⎠

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

difficultés importantes : 1) il est difficile de défendre l’idée que la cohérence dont il est question ici concerne véritablement les croyances puisqu’elle concerne d’abord les "goûts" c'est-à-dire le sentiment subjectif associé aux conséquences de décisions incertaines ; 2) la valeur d’une probabilité mesurée à partir de paris risque d’être sensible aux conséquences de ces paris et ainsi, là encore, dépendre non seulement des croyances mais aussi des goûts 31 .

Croyances non réduites à des probabilités numériques dans l’approche intuitive Les probabilités numériques comme cas particulier (Koopman (1940)) Partant d'une approche intuitive, la représentation des croyances par des probabilités numériques ne trouve pas de fondement normatif immédiat et déterminant. Il s'agit de la position de Koopman (1940) 32 , lequel présente d'abord

31

Nous revenons dans la section 4.3.1 sur ce problème de la dépendance entre les

probabilités et les enjeux lorsque les probabilités sont révélées par des paris. Toutefois, nous pouvons déjà donner une illustration directement à partir de l’exposé de Finetti (1937) à propos du principe de cohérence : dans le cas de deux événements, le pari proposé permet de s’assurer que l’individu réalisera une perte si SP et SF sont négatifs (resp. positifs) et

pP + pF < 1 (resp. pP + pF > 1 ). Or, si l’individu connaît les valeurs de SP et SF avant de jouer, on peut supposer, puisque pP .SP + pF .SF constitue le prix du pari, qu’il sera tenté d’annoncer pP + pF > 1 (resp. pP + pF < 1 ) quand SP et SF sont négatifs (resp. positifs).

32

« (...) all the axiomatic treatments of intuitive probability current in the literature

take as their starting point a number (usually between 0 and 1) corresponding to the "degree of rational belief" or "credibility" of the eventuality in question. Now we hold that such a number is in no wise a self-evident concomitant with or expression of the primordial intuition of probability, but rather a mathematical construct derived from the latter under very special conditions and as the result of a fairly complicated process implicitly based on

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

les

axiomes

caractérisant

« les

lois

de

cohérence

intuitivement

évidentes

gouvernant toutes les comparaisons de probabilités » (Koopman (1940, p.275)), lesquels n'incluent pas la complétude et ne conduisent ainsi, au plus, qu'à des comparaisons partielles. Puis, l'auteur introduit les conditions permettant de représenter la relation de probabilité comparative par des probabilités quantitatives inférieures et supérieures et, enfin, les conditions supplémentaires conduisant à des probabilités numériques. Le passage de probabilités comparatives à des probabilités quantitatives se fait, comme chez Keynes (1921), grâce à l'introduction d'une hypothèse, « (...) the precise philosophical character of which we shall not undertake to examine (...) » (Koopman (1940, p.283)), posant l'existence, pour tout entier n, d'au moins un ensemble de n propositions d'union non nulle, mutuellement exclusives et équiprobables ⎯ un tel ensemble est appelé une néchelle (« n-scale »). Axiomes des probabilités qualitatives : présentation et critique Une autre façon de critiquer la réduction des croyances à une probabilité numérique consiste à emprunter le chemin inverse de celui de Koopman (1940) c'est-à-dire à partir des conditions assurant la compatibilité pour ensuite souligner leur insuffisante généralité dans la formalisation des croyances 33 .

many of the very intuitive assumptions which we are endeavoring to axiomatize: There is, in short, what appears to us to be a serious rational lacuna between the primal intuition of probability, and that branch of the theory of measure which passes conventionally under the name of probability. Moreover, this assumption commits one to too great precision, leading, either to absurdities, or else to the undue restriction of the field of applicability of the idea of probability. » (Koopman (1940, pp.269-270)). 33

Ce qui suit est issu pour l'essentiel de Fishburn (1986a). Précisons que :

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Soient S = {1,... , n} un ensemble (fini) appelé événement universel, ∅ l'événement vide, 2 S l'ensemble de tous les sous-ensembles de S notés A,B,... et appelés événements. compatible avec f

~*

est une relation de probabilité comparative. P est

f

~*

lorsque, pour tout A et B dans 2 S , A f B ⇔ ~*

∑ pi

i ∈A



∑ pi ,

i ∈B



( )

pi = P {i } , ∀i ∈ S .

f est une relation de probabilité qualitative (Savage (1954)) lorsque : ~*

(i) f est un préordre complet. ~*

(ii) A f B ssi A∪C f B∪C, pour tous les événements A,B,C tels ~*

~*

que A∩C=B∩C=∅ (additivité). (iii) A f ∅, ∀A∈ 2 S (non-négativité). ~*

(iv) S f ∅ (non-trivialité). ~*

Les conditions définissant une probabilité qualitative sont nécessaires pour assurer la compatibilité (de Finetti (1931)) mais pas suffisantes lorsque n ≥5 (Kraft et alii. (1959)). En effet 34 , soient S = {1,2,3,4,5} et f

~*

qualitative

telle

que :

une relation de probabilité

A1 = {2 ,3 ,5 } f* B1 = {1,4} , A2 = {3 ,4} f* B2 = {2 ,5 } ,

A3 = {1,5 } f* B3 = {2 ,3} et A4 = {2} f* B4 = {3 ,5 } . Si une mesure P compatible

1) Nous ne nous intéressons qu'au cas fini. 2) Le traitement axiomatique de la relation de probabilité comparative est, de manière privilégiée, attaché à l'approche intuitive ⎯ Kraft et alii. (1959) assimilent d'ailleurs « probabilité intuitive » et « théorie axiomatique de la probabilité ». 34

Cet exemple est donné par Fishburn (1996).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

avec

existait,

f

~*

nous

p2 + p3 + p5 > p1 + p4 ,

aurions

p3 + p4 > p2 + p5 ,

p1 + p5 > p2 + p3 et p2 > p3 + p5 , ce qui donne, par sommation et simplification 0 >0. Une condition supplémentaire doit être ajoutée aux conditions (i) à (iv) pour fournir

l'ensemble

des

conditions

nécessaires

et

suffisantes

assurant

la

compatibilité. Définissons

( A1 ,... , Am ) =0 ( B1 ,... , Bm )

Aj , B j ∈ 2S

par :

{

j ∈ {1,... , m} et, pour chaque i ∈ {1,... , n} , # j : i ∈ A j

pour

tout

} = # {j : i ∈ B j } .

La condition supplémentaire est alors la suivante (Kraft et alii. (1959)) 35 . (v) ∀m ≥ 2 , ∀A j , B j ∈ 2 S , [ ( A1 ,... , Am ) =0 ( B1 ,... , Bm ) et

A j f B j , ∀j < m ] ⇒ ¬( Am f* Bm ) (Additivité forte) ~*

Dans

l'exemple

{

}

{

}

{

}

# j : 1 ∈ Aj =

# {A3 } =

( A1 , A2 , A3 , A4 ) =0 ( B1 , B2 , B3 , B4 )

précédent,

{

}

{

}

# j : 1 ∈ Bj =

# {B1} ,

{

}

{

}

# j : 2 ∈ Aj =

puisque

# {A1 , A4 } =

# j : 2 ∈ B j = # {B2 , B3 } , # j : 3 ∈ A j = # {A1 , A2 } = # j : 3 ∈ B j = # {B3 , B4 } et

{

}

# j : 4 ∈ A j = # {A2 } = # j : 4 ∈ B j = # {B4 } . Pour que l'additivité forte soit vérifiée, il faudrait donc que, par exemple, B4 f A4 . ~*

Dans quelle mesure les conditions (i) à (v) doivent-elles être imposées à tout jugement

de

croyance

exprimé

sous

forme

d'une

relation

de

probabilité

comparative ?

35

Une discussion du caractère nécessaire et suffisant de cette condition pour la

compatibilité est donnée dans Fishburn (1986a,1996).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Nous laissons de côté la non-négativité et la non-trivialité qui ne semblent pas contestables. En revanche, la complétude, la transitivité, l'additivité et l'additivité forte sont discutables, notamment lorsque l'on a affaire à des événements qualitativement différents. Prenons les deux événements suivants : A=« La pollution à Paris le 12 juin 2005 dépassera le niveau 3 » et B=« Le taux Eonia (Euro Overnight Index Average) sera supérieur à 2% le 12 juin 2005 ». Il n'est pas déraisonnable de refuser aussi bien

A f B ~*

que

B f A. ~*

Le

rejet

de

la

complétude

est

argumenté

par

Keynes (1921) 36 . L'exemple suivant, adapté de Fishburn (1986a), illustre une violation de la

transitivité de f* qui ne semble pas manifester une irrationalité des croyances. Nous nous intéressons au quadruplet (x,y,z,w) donnant, dans l'ordre, les valeurs du taux de croissance (Produit Intérieur Brut, en volume, en %), du taux d'inflation (indice des prix à la consommation, en glissement annuel, en %), du solde des transactions courantes (en milliards d'euros) et du taux de chômage (en pourcentage de la population active), pour la France en 2005. Soient les quatre événements

. ; 5 ; 10 ) , suivants : A = (2 ; 15

B = (1 ; 2.4 ; 35 ; 9 .0 ) ,

C = (3 ; 2.8 ; 25 ; 8.5 ) et D = (4 ; 2.0 ; 15 ; 9.5 ) . En supposant qu'un événement est jugé plus probable qu'un autre si trois de ses dimensions (sur quatre) sont plus

36

« (...) there are some pairs of probabilities between the members of which no

comparison of magnitude is possible ; (...) by saying that not all probabilities are comparable in respect of more and less, I mean that it is not always possible to say that the degree of our rational belief in one conclusion is either equal to, greater than, or less than the degree of our belief in another. » (Keynes (1921, p.34)).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

vraisemblables, alors nous pouvons facilement accepter le cycle : A f* B, B f* C,

C f* D et D f* A 37 . Le rejet de l'additivité peut s'appuyer sur l'exemple suivant donné par Fishburn (1983b). Soit une course dans laquelle trois chevaux seulement sont engagés, numérotés 1, 2 et 3. On sait que 1 a gagné environ 1/3 de ses courses (à trois partants) précédentes mais on ne sait rien des performances antérieures de 2 et 3. On sait, de plus, que 1 a perdu un peu plus de 2/3 de ses courses précédentes lorsque le terrain était lourd et qu'il y a 80% de chances qu'il pleuve le jour de la course. Dans ces conditions, on peut très bien avoir, notant

{X }

l'événement « X

gagne la course », {1} f* {2} et {1} f* {3} , au regard des performances antérieures de 1 ; mais {2 ,3} f* {1,2} et {2 ,3} f* {1,3} en considérant que, au regard des piètres performances de 1 sur terrain lourd, 2 ou 3 ont plus de chances de gagner que 1 ou

2, ou 1 ou 3. Un exemple proche du paradoxe d'Ellsberg peut être construit de la manière suivante. Soit une urne contenant 102 boules : 41 sont marquées des chiffres 1 ou

2 et 61 sont marquées des chiffres 3, 4 ou 5. Notons {X ,Y } l'événement « La boule tirée est marquée du chiffre X ou Y ». Le jugement de vraisemblance {1,2} f* {4 ,5 } et

{4 ,5 ,3} f {1,2 ,3} *

viole l'additivité sans pouvoir être considéré aisément comme

inadmissible.

37

Ce cycle est obtenu lorsque les jugements de vraisemblance portant sur chaque

dimension séparément sont : - pour x : 2 f* 1 f* 3 f* 4. - pour y : 2.0 f* 1.5 f* 2.4 f* 2.8. - pour z : 25 f* 15 f* 5 f* 35. - pour w : 9.0 f* 8.5 f* 9.5 f* 10.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Un exemple similaire conduit à une violation de l'additivité forte. Reprenons le cas des jugements de vraisemblance illustrant le résultat de Kraft et alii. (1959), où S = {1,2 ,3 ,4 ,5 } . Soit une urne contenant 102 boules dont on sait que : 40 boules sont marquées des chiffres 1 ou 5, 40 boules sont marquées des chiffres 3 ou 4, 22 boules sont marquées du chiffre 2 et 40 boules sont marquées des chiffres 1 ou 4. Partant

de

ces

informations,

les

jugements

A1 f* B1 ,

A2 f* B2 , A3 f* B3

et A4 f* B4 semblent parfaitement admissibles. Donc, que l'on tente une construction axiomatique de la relation de probabilité comparative ou que l'on discute les axiomes nécessaires et suffisants pour construire une probabilité comparative compatible avec une probabilité numérique,

l'approche

intuitive

montre

⎯ beaucoup

mieux

que

l'approche

préférentialiste ⎯ combien la probabilité numérique est une notion trop restrictive pour appréhender la formalisation des croyances (personnelles).

Croyances et données de l'environnement Fréquences et probabilités subjectives : le théorème de de Finetti « Pourquoi sommes-nous donc poussés, dans la plupart des problèmes, à évaluer une probabilité d'après l'observation d'une fréquence ? » (de Finetti (1937, p.25)). La réponse que de Finetti donne à cette question fournit un exemple de règle d'inférence particulièrement convaincant dans la mesure où : 1) Les fréquences constituent effectivement des données de l'environnement souvent utilisées pour la formation des croyances, 2) La règle d'inférence retenue ne repose sur aucune propriété mystérieuse concernant le monde physique mais uniquement sur une hypothèse portant sur les croyances elles-mêmes. Ce dernier point est central car c'est en fait à une réinterprétation subjectiviste des résultats de la théorie fréquentiste que l'auteur procède ici.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Supposons que l'on répète n fois dans des conditions identiques une expérience aléatoire, dont l'issue se traduit par l'apparition ou la non-apparition d'un événement de probabilité fixe et inconnue q, le résultat d'une expérience étant

indépendant des résultats précédents. Les lancers d'une pièce où l'événement considéré est « la pile tombe sur face » servent traditionnellement d'illustration. Soit X n la variable aléatoire prenant pour valeurs 1 ou 0 selon que l'événement respectivement se réalise ou ne se réalise pas à la nième répétition. X 1 +...+ X n donne alors le nombre d'apparitions de l'événement parmi n expériences. On a : 1) P ( X 1 +. ..+ X n = k ) = C nk q k ( 1 − q ) n − k (loi binomiale B(n,q)), avec 0≤ k≤ n. 2)

lim

n→∞

X 1 +...+ X n = q (loi forte des grands nombres). n

La présentation ci-dessus, qui repose sur la théorie fréquentiste, est vivement critiquée par de Finetti (1937) car elle nécessite le recours à « la définition nébuleuse et inexacte d'"événements indépendants avec probabilité fixe mais inconnue" » (de Finetti (1937, p.50)), « la définition ancienne ne pouvait en fait être dépouillée de son caractère, pour ainsi dire, "métaphysique" : on était obligé de supposer que, au-delà de la loi de probabilité correspondant à notre jugement, il devait y en avoir une autre, inconnue, correspondant à quelque chose de réel, et que les diverses hypothèses sur cette loi inconnue ⎯ d'après laquelle les diverses épreuves ne seraient plus dépendantes mais indépendantes ⎯ constitueraient des

événements dont on pourrait considérer la probabilité. De notre point de vue, ces phrases sont complètement dénuées de sens (...) » (de Finetti (1937, p.49)). Selon de Finetti (1937), l'objet qui nous intéresse est le jugement (personnel) de probabilité, lequel s'appuie ⎯ implicitement ⎯ sur la totalité de l'expérience individuelle vue comme un processus cumulatif permanent. C'est pourquoi, le sens que prend ici le terme "événement" est complètement différent du sens qu'il prend dans la théorie fréquentiste. Ainsi, « un événement est toujours un fait singulier : si

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

l'on a à considérer plusieurs épreuves, nous ne dirons jamais "épreuves d'un même événement", mais "épreuves d'un même phénomène", et chaque "épreuve" sera un "événement". » (de Finetti (1937, pp.6-7)). Cependant,

rien

n'empêche

de

substituer

à

la

notion

"insensée"

d'indépendance physique une notion d'indépendance subjective ce qui conduit de Finetti (1937) à définir des séquences d'événements équivalents 38 . Définissons la variable aléatoire l'ensemble

des

séquences

Xn

d'événements,

comme précédemment 39 . Soit S

s = ( htt ... ) ,

s' = ( thh ... ) ...

⎯ les

événements élémentaires sont h ou t (face ou pile). X n ( s ) = 1 signifie que la nème composante de la séquence s est face. Soit p la probabilité subjective définie sur tous les sous-ensembles de S. Soit une séquence de variables aléatoires

X 1 , X 2 ,... , X n . Lorsque la

probabilité que X 1 , X 2 ,... , X n satisfassent à une condition donnée est la même que celle que X k1 , X k2 ,... , X kn satisfassent à cette même condition pour tout n et toute permutation

{k1 ,... kn }

de

{1,...n} ,

on dit que la séquence

{X 1 , X 2 ,... , X n }

est

symétrique ou que les variables aléatoires X 1 , X 2 , ... , X n sont équivalentes. Si

X 1 , X 2 ,... , X n

sont

des

variables

aléatoires

équivalentes,

les

événements

E i = ( X i ∈ I , i = 1,... , n ) (I, ensemble de nombres quelconques) sont équivalents. Par exemple, si p( X 1 = 1, X 2 = 0 , X 3 = 1, X 4 = 1) = p( X 3 = 1, X 4 = 0 , X 2 = 1, X 1 = 1) , les variables aléatoires X 1, X 2 , X 3 , X 4 sont jugées équivalentes : l'ordre de la

38

Ou

« séquences

symétriques

d'événements » (« symmetric

sequences

events ») (Savage (1954))ou propriété d'« échangeabilité » (« exchangeability »). 39

La présentation donnée ici est issue de Kreps (1988, chapitre 11).

of

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

succession des épreuves du phénomène n'intervient pas dans le jugement de probabilité. On a alors (théorème de de Finetti) : Les variables aléatoires de la séquence sont équivalentes ssi :

⎛⎧ a) p ⎜ ⎨s ∈ S : ⎝⎩

lim

n→∞

b) Soit α ( s ) =

X 1 ( s ) + X 2 ( s ) +...+ X n ( s ) ⎫⎞ existe ⎬⎟ = 1 . n ⎭⎠

lim

n→∞

X 1 ( s ) + X 2 ( s ) +...+ X n ( s ) , ∀s ∈ S : n p( X 1 +...+ X n = k ) =

(

1

k

∫ Cn γ

k

( 1 − γ ) n − k dF ( γ ) où

0

)

F ( γ ) = p {s ∈ S : α ( s ) ≤ γ } , ∀γ ∈ [0 ,1] .

Puisque le théorème de de Finetti permet de caractériser les lois de probabilité correspondant au cas d'équivalence comme des "moyennes" de lois correspondant au cas d'indépendance et d'équiprobabilité, il nous conduit à la conclusion pratique suivante : « une expérience assez riche nous amène toujours à considérer comme probables des fréquences ou distributions futures voisines de celles observées ». (de Finetti (1937, p.50)). Heuristics and Biases Plutôt que de rechercher les conditions sous lesquelles les croyances reposent sur des fréquences, les travaux réunis dans l'ouvrage Judgment under

Uncertainty : Heuristics and Biases (Kahneman et alii. (1982)) cherchent à répondre à la question : comment les individus élaborent-ils leurs estimations et prévisions ? Cette question suppose de déterminer les données de l'environnement qui sont

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

utilisées par les individus et notamment de savoir si nous sommes poussés à évaluer une probabilité d'après l'observation d'une fréquence 40 . Kahneman et alii. (1982) relèvent trois heuristiques largement utilisées : 1) La représentativité (« Representativeness ») : une personne qui suit cette heuristique évalue la probabilité d'un événement « par le degré auquel : (i) il est similaire dans ses propriétés essentielles à sa population de référence ; et (ii) il reflète les caractéristiques saillantes du processus par lequel il a été généré. » (Kahneman et Tversky (1972) in Kahneman et alii. (1982, p.33)). 2) La disponibilité (« Availability ») : une personne qui suit cette heuristique évalue la probabilité d'un événement au travers de la facilité avec laquelle les opérations mentales pertinentes de recherche, de construction ou d'association peuvent être exécutées. 3) L'ajustement et l'ancrage (« Adjustment and anchoring ») : une personne qui suit cette heuristique évalue la probabilité d'un événement en partant d'une valeur initiale qui est ensuite ajustée par la prise en compte des données pertinentes pour l'évaluation de la probabilité. La valeur initiale « peut être suggérée par la formalisation du problème, ou elle peut être le résultat d'un calcul partiel. » (Kahneman et alii. (1982, p.14)). Parmi les nombreuses conséquences de l'utilisation de ces heuristiques, on peut en citer deux pour lesquelles le lien entre fréquences et croyances est concerné. La première est la sous-estimation du poids des données observées, connue sous le nom de conservatisme (Edwards (1968)). Soit une urne contenant

40

On suppose ici que les croyances peuvent être pleinement représentées par des

probabilités.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

-

1

de boules blanches (urne de type R), soit

2

des boules rouges et blanches dans des proportions boules rouges et et

1

3

1

3

2

3

2

3

: on a soit

3

de boules blanches

3

de

de boules rouges (urne de type W). Un individu A a procédé à 5 tirages avec

remise dans l'urne et a obtenu : 4 boules rouges et 1 boule blanche. Un individu B a procédé à 20 tirages avec remise dans l'urne et a obtenu : 12 boules rouges et 8 boules blanches. Quel est l'individu qui doit avoir le plus confiance dans l'hypothèse que l'urne est de type R ? La règle de Bayes donne, en prenant

1

2

comme probabilité a priori que l'urne soit de type R, des probabilités a posteriori égales à 0.89 pour l'individu A et 0.94 pour l'individu B. Or, la plupart des gens pensent que c'est l'individu A qui doit avoir le plus confiance dans l'hypothèse que l'urne est de type R (Kahneman et alii. (1982, p.7)). La deuxième conséquence est la sous-estimation des probabilités a priori (« base rates »). L'exemple suivant a été étudié par Grether (1980, 1992). Dans une première étape, le tirage d'une boule dans une urne, que nous nommons Urne 1, détermine l'urne (A ou B) utilisée dans une deuxième étape. Le résultat de ce tirage n'est pas annoncé mais on connaît la composition de l'urne 1, ce qui nous donne la probabilité a priori que l'urne A soit utilisée à la deuxième étape, cette probabilité étant, selon les cas proposés

2

3

, 1 2 ou

1

3

. Dans une deuxième étape, 6 tirages

(avec remise) sont effectués dans l'urne A ou B (non connue des sujets), sachant que l'urne A est composée de 4 boules marquées de la lettre N et 2 boules marquées de lettre G et que l'urne B est composée de 3 boules marquées de la lettre N et 3 boules marquées de lettre G. Il est alors demandé aux sujets quelle est l'urne qu'ils pensent avoir été utilisée à la deuxième étape. Les résultats montrent que les croyances

exprimées

entrent

plus

fréquemment

en

contradiction

avec

les

probabilités a posteriori "théoriques" lorsque l'ensemble des 6 boules tirées (à la deuxième étape) a une structure qui "représente" ("ressemble à") la composition de

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

l'urne la moins probable "théoriquement". C'est le cas, par exemple, lorsque la probabilité a priori est

1

3

pour l'urne A et le nombre de boules N sur 6 tirées est

égal à 4 : ici, l'urne utilisée théoriquement la plus probable est l'urne B (la règle de Bayes donne une probabilité a posteriori que l'urne A ait été utilisée égale à 0.41) mais la structure de l'ensemble des 6 boules tirées "ressemble" plus à la composition de l'urne A qu'à celle de l'urne B. Quels sont les enjeux de tels résultats ? D'après Kahneman et alii. (1982), le recours à certaines heuristiques dans la réalisation d'estimations ou de prévisions peut être « assez utile » (Tversky et Kahneman (1974) in Kahneman et alii. (1982, p.3)) mais mène parfois à « des erreurs sévères et systématiques. » (Ibid.). L'utilité d'un tel recours peut être facilement interprétée à partir de la prise en compte des limitations cognitives des individus : la complexité des modèles théoriques est inaccessible pour les individus qui sont conduits à substituer à ces modèles quelques heuristiques simples ; cette substitution est nécessaire et utile (efficace) compte tenu des économies de calcul qu'elle permet. Quant aux erreurs ou biais (« biases ») occasionnés, ils sont issus le plus souvent du fait que les probabilités exprimées ne s'appuient pas sur les fréquences observées, contredisant alors les lois du calcul des probabilités habituellement admises. En conséquence, il y a une séparation nette entre une

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

théorie des probabilités objectives qui est normative et une théorie des probabilités subjectives qui est descriptive 41 .

A l'interprétation en termes d'heuristiques et de biais, s'oppose celle de la rationalité située (« Ecological rationality ») (Gigerenzer (1991)). Celle-ci, plutôt que de souligner les contraintes internes (limitations cognitives) qui sont à la source des "erreurs" des individus, part de l'étude des heuristiques du point de vue de leur rationalité relative au contexte du jugement ou de l'action, c'est-à-dire relativement aux contraintes externes qui s'imposent aux individus. Cette rationalité située s'évalue par le « degré d'adaptation aux structures de l'environnement, à la fois physique et social. » (Gigerenzer (2001, p.38)). En particulier, Gigerenzer et Hoffrage (1995) précisent que la sous-estimation des probabilités a priori (« base rate neglect ») peut apparaître comme parfaitement rationnelle lorsque l'information est représentée sous forme de fréquences plutôt que sous forme de probabilités. De notre point de vue, la critique qu’élabore l’approche en termes de rationalité située à l’égard du programme heuristiques et biais est nécessairement limitée dans la mesure où elle conserve l’idée que les fréquences sont des données de l’environnement que les individus doivent utiliser dans la formation de leurs croyances. Il ne s’agit pas d’affirmer que la rationalité cognitive des individus est

41

« Nous utilisons le terme "probabilité subjective" pour signaler toute estimation de

la probabilité d'un événement, qui est donnée par un individu, ou inférée de son comportement (...). Nous utilisons le terme "probabilité objective" pour signifier les valeurs calculées, sur la base de certaines hypothèses données, conformément aux lois du calcul des probabilités. » (Kahneman et Tversky (1972) in Kahneman et alii. (1982, p.32)).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

parfaite dans la réalité. Les erreurs de jugement sont effectivement fréquents 42 et sans doute dépendants des contraintes externes à l’individu. Mais, l’utilisation des fréquences par les individus dans la formation de leurs croyances est une question empirique : elle ne permet pas de traiter de la rationalité des croyances puisque, comme nous l’avons vu dans la section 3.2, les fréquences ne constituent pas des probabilités objectives. Ce point de vue se retrouve chez de Finetti (1937) qui précise que la condition d'équivalence qui conduit à la convergence des probabilités subjectives vers les fréquences observées n'a « qu'une valeur subjective » (de Finetti (1937, p.62)) et « On pourrait ne pas exclure du tout a priori une influence de l'ordre des épreuves (...) [et tenir compte] non plus seulement de la fréquence observée, mais aussi de régularités ou de tendances à certaines régularités que l'observation peut révéler. » (de Finetti (1937, pp.53,54)).

42

Donnons deux exemples, l’un faisant intervenir un contexte d’incertitude, l’autre

non : 1) Soit une urne contenant des boules rouges ou noires dans des proportions inconnues. Supposons qu’un tirage avec remise soit effectué et que la boule tirée soit noire. Si, après ce tirage, un individu fixe la probabilité de tirer une boule noire dans l’urne égale à zéro, nous pouvons affirmer que ses croyances ne sont pas rationnelles. 2) Kahneman et alii. (1982, pp.14-15) reportent une expérience dans laquelle un groupe

de

sujets

a

fourni

une

estimation

médiane

égale

512

pour

le

produit

1×2×3×4×5×6×7×8 et un autre groupe a fourni une estimation médiane égale à 2250 pour le produit 8×7×6×5×4×3×2×1. Il y a ici incontestablement une erreur de calcul et les estimations données peuvent aisément être interprétées par une procédure d'ancrage et d'ajustement.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Modèles mathématiques de l'incertitude Présentation générale L'analyse critique des interprétations fréquentistes, logiques et subjectives conduit souvent, comme nous l'avons vu, à une remise en cause du concept de probabilité lui-même et de ses propriétés mathématiques. Or, indépendamment ou non d'une interprétation particulière, plusieurs modèles mathématiques apportent des formalisations de l'incertitude plus générales que celle réduite à une probabilité numérique. C'est à ces modèles que nous nous intéressons dans cette section. Pour

la

clarté

de

la

présentation,

nous

proposons

de

distinguer,

grossièrement, les formalisations privilégiant : 1) Une

comparabilité

totale

c'est-à-dire

représentant

l'incertitude par une unique mesure numérique qui permet de caractériser précisément tout événement associé au phénomène incertain considéré. 2) Une comparabilité partielle c'est-à-dire pour lesquelles une caractérisation complète de l'incertitude attachée à un événement ne peut se faire systématiquement à partir d'un seul nombre. Dès lors, l'ignorance ou l'"incroyance" totale, au sens où un événement et son complémentaire peuvent avoir tous les deux un degré d'incertitude ou de vraisemblance maximal, devient admissible. De même, l'incapacité à trancher quant à la plus ou moins grande incertitude d'un événement par rapport à un autre est une possibilité. 3) Une incomparabilité c'est-à-dire pour lesquelles, même si une caractérisation de l'incertitude attachée à un événement particulier est possible, on ne dispose pas, en général, de mesure permettant une comparaison de l'incertitude ou de la vraisemblance de plusieurs événements. Ces

trois

catégories

correspondent,

dans

l'ordre,

à

un

niveau

de

généralisation croissant mais on peut également souligner que le lien entre ces

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

différents niveaux relève de deux démarches distinctes. L'une consiste à rechercher une généralisation de la théorie standard de la probabilité numérique en abandonnant certaines de ses propriétés. L'autre consiste à rechercher une théorie de l'incertitude proprement alternative à la théorie des probabilités, cette dernière pouvant éventuellement apparaître comme un cas particulier de la théorie générale. Dans toute cette section, Ω désigne l'ensemble de référence, supposé fini et non vide et 2 Ω l'ensemble des parties de Ω, notées A,B... et appelées événements 43 . Le premier cas correspond aux probabilités numériques telles qu'elles sont axiomatisées par Kolmogoroff (1933). Rappelons qu'une mesure (simple) de probabilité P est une fonction à valeurs réelles définie sur l'ensemble 2 Ω telle que : (i) P(A) ≥0, ∀A∈ 2 Ω (axiome de non-négativité). (ii) P(Ω) =1 (axiome de normalisation). (iii) ∀A,B∈ 2 Ω tels que A∩B = ∅, P(A∪B) = P(A) + P(B) (axiome d'additivité, dit des probabilités totales). Rappelons également les propriétés suivantes. Pour tout événement A et tout événement B : (iv) P(A) + P( A c ) = 1, d'après (ii) et (iii). (v) P(A∪B) = P(A) + P(B) - P(A∩B), d'après (iii). (vi) Si B ⊆ A, alors P(A) ≥ P(B), d'après (iii) et (i) (Monotonie).

43

Rappelons les définitions suivantes. Une algèbre est définie sur un système

d'ensembles s ⊆ 2 Ω (où Ω est généralement infini) par : i) s est stable par réunions finies (∀A,B∈s, A ∪B∈s) et ii) s est stable par complémentation (∀A∈s, A c ∈s). Si, de plus, s est stable par réunions dénombrables ⎯ c'est-à-dire que

U A ∈s chaque fois que Γ est un sousΓ

ensemble dénombrable et non vide de s ⎯ alors s est une σ-algèbre. Clairement, 2 Ω est une algèbre.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Le deuxième cas, correspond à une large classe de modèles, que nous détaillons plus loin, qui généralisent ou rejettent la théorie mathématique des probabilités. Ces modèles ne respectent pas l'additivité. Le troisième cas, correspond à des formalisations totalement alternatives à la théorie standard des probabilités, regroupant principalement : 1) Les probabilités comparatives incomplètes ainsi que nous l'avons vu dans la section 3.1.3. 2) Les probabilités modales présentées notamment par Burgess (1969) dans le langage des propositions et par Walley et Fine (1979) dans le langage des événements. Ces derniers introduisent un opérateur P défini sur 2 Ω où PA signifie « A n'est pas improbable » et tel que, pour tout A∈ 2 Ω : (i) (PA et A ⊆ B) ⇒ PB. (ii) PA ou P A c . (iii) non P∅. Walley et Fine (1979) fournissent également les liens entre cette structure mathématique très générale et les approches plus restrictives (comparabilités partielle et totale).

Comparabilité partielle Probabilités imprécises et ensembles de mesures de probabilités Soit une mesure de probabilité P sur 2 Ω . Supposons cependant que la probabilité P(A) soit inconnue, inaccessible (Good (1962)) mais que seules soient accessibles ses limites inférieure et supérieure P∗ (A) et P ∗ (A) respectivement. P∗ (A) et P ∗ (A) sont des fonctions d'ensemble de 2 Ω dans [0,1] telles que (Good (1962), Walley et Fine (1982)) :

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

(i) P∗ (∅) = P ∗ (∅) = 0 et P∗ (Ω) = P ∗ (Ω) = 1. (ii) P ∗ (A) = 1 - P∗ ( A c ). (iii) ∀A∩B = ∅, P∗ (A∪B) ≥ P∗ (A) + P∗ (B) (super-additivité). (iv) ∀A∩B = ∅, P ∗ (A∪B) ≤ P ∗ (A) + P ∗ (B) (sous-additivité). On a les propriétés suivantes (Good (1962), Walley et Fine (1982)) : (v) P ∗ (A) ≥ P∗ (A). (vi) B ⊆ A ⇒ P∗ (A) ≥ P∗ (B) et P ∗ (A) ≥ P ∗ (B) (monotonie). (vii) A∩B = ∅, P ∗ (A∪B) ≥ P ∗ (A) + P∗ (B) ≥ P∗ (A∪B). Les probabilités imprécises fournissent une représentation intuitive simple de l'incertitude qui conduit à une comparabilité totale entre deux événements quelconques A et B uniquement lorsque P ∗ (A) < P∗ (B). Une limite de cette approche réside dans la précision qui est imposée aux bornes P∗ (A) et P ∗ (A). La possibilité de rendre ces bornes elles-mêmes imprécises (Good (1952)) se heurte, comme pour la définition de probabilités de second ordre (Savage (1954, p.58)), au caractère infini de la procédure ainsi engagée (bornes imprécises des bornes imprécises... ; voir Good (1962, p.327)). Une représentation de l'incertitude proche de celle reposant sur des probabilités imprécises suppose l'existence d'un ensemble P (non vide) de mesures

de probabilités sur 2 Ω (Smith (1961), Dempster (1967)). Soit

P∗ : 2 Ω → [0,1]

une

fonction

d'ensemble

définie

par :

∀A∈ 2 Ω ,

P∗ (A) = inf { P(A) : P∈P }. P∗ est appelée une enveloppe inférieure (Walley et Fine (1982))

et

est

une

probabilité

inférieure.

Et,

la

fonction

d'ensemble

P ∗ : 2 Ω → [0,1] définie par ∀A∈ 2 Ω , P ∗ (A) = sup { P(A) : P∈P } est appelée une enveloppe supérieure et est une probabilité supérieure.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Cependant, soient P∗ et P ∗ une probabilité inférieure et une probabilité supérieure

et

soit

P ∗ = { P : ∀A∈ 2 Ω ,

l'ensemble

P∗

de

mesures

P∗ (A) ≤ P(A) ≤ P ∗ (A) }. P ∗

de

probabilités

défini

par

peut être vide (Dempster (1967)) ;

autrement dit, si une enveloppe inférieure est une probabilité inférieure, une probabilité inférieure peut ne pas être une enveloppe inférieure. Mesures non-additives Soit μ une fonction d'ensemble de 2 Ω dans ℜ. La conjuguée, ou duale de μ

( )

est la fonction d'ensemble μ définie sur 2 Ω par μ ( A) = μ (Ω ) − μ A c , ∀A⊆ 2 Ω . La fonction d'ensemble μ : 2 Ω → ℜ est une capacité (Choquet (1953-54)) ou mesure non-additive si : (i) μ(∅) = 0. (ii) μ(Ω) = 1. (iii) ∀A,B∈ 2 Ω , B⊆A ⇒ μ(B) ≤ μ(A) (monotonie). Une capacité est (voir Denneberg (1994) pour une étude détaillée) : (iv) sous-additive si μ(A∪B) ≤ μ(A) + μ(B), ∀A∩B = ∅. (v) super-additive si μ(A∪B) ≥ μ(A) + μ(B), ∀A∩B = ∅. (vi) additive si elle est sous-additive et super-additive. (vii) sous-modulaire ou 2-alternée ou concave si μ(A∪B) + μ(A∩B) ≤ μ(A) + μ(B). (viii) super-modulaire ou 2-monotone ou convexe si μ(A∪B) + μ(A∩B) ≥ μ(A) + μ(B). (ix) modulaire si elle est sous-modulaire et super-modulaire. Notons que si μ est convexe alors μ est concave et réciproquement. Notons également qu'une mesure de probabilité sur 2 Ω est une capacité additive.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Soit μ une capacité convexe. Soit le noyau de μ défini par core μ = { P :

P(A) ≥ μ(A), ∀A∈ 2 Ω } ; P est donc une mesure de probabilité dominant (faiblement), pour tout événement, la capacité μ. Schmeidler (1986) et Chateauneuf et Jaffray (1989) ont montré que core μ ≠ ∅, c'est-à-dire que μ est une enveloppe inférieure donc une probabilité inférieure. On a donc ici ⎯ c'est-à-dire dans le cas d'une capacité convexe ⎯, une interprétation immédiate de la capacité. Cependant, soit P un ensemble (non vide) de mesures de probabilités. Alors,

μ définie par μ(A) = inf { P(A) : P∈P } peut ne pas être convexe (voir Chateauneuf et Jaffray (1989, exemple 7)) et, si μ est convexe, P peut ne pas être son noyau (voir Chateauneuf et Jaffray (1989, exemple 6)). Shafer (1976) a introduit une capacité convexe particulière appelée fonction de croyance (belief function). Une fonction de croyance Bel est une fonction d'ensemble définie de 2 Ω dans [0,1] telle que : (i) Bel(∅) = 0. (ii) Bel(Ω) = 1. (iii) Pour tout entier naturel k ≥2 et toute famille A1 ,... , An de

⎛ k ⎞ sous-ensembles de Ω, Bel ⎜ U Ai ⎟ ≥ ⎝ i =1 ⎠



∅ ≠ I ⊆ {1,...,k}

(−1) I + 1 . Bel ⎛⎜⎝ I Ai ⎞⎟⎠ . i ∈I

Pour un k particulier, la condition (iii) est appelée k-monotonie (ou monotonie d'ordre k). Lorsque k=2, on retrouve la convexité. Puisque l'inégalité de la condition (iii) ("inégalités de Poincaré") est vérifiée pour tout entier naturel k ≥2, la fonction Bel est dite

totalement monotone ou ∞-monotone (monotone d'ordre

infini). Notons que, pour k et k' entiers naturels tels que 2 ≤ k' ≤ k, la k-monotonie implique la k'-monotonie (Chateauneuf et Jaffray (1989)). Partant d'une fonction d'ensemble μ : 2 Ω → ℜ quelconque, on peut aisément déterminer si μ est une fonction de croyance grâce aux résultats suivants. A chaque

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

fonction d'ensemble μ : 2 Ω → ℜ correspond une autre fonction d'ensemble

m : 2 Ω → ℜ définie par m(A) =

∑ (−1)

# (A − B )

B⊆A

. μ(B )

(Shafer (1976)) et

appelée

inversion de Möbius (Rota (1964)). Et, μ est une fonction d'ensemble non négative

∞-monotone ssi m est elle-même non négative (Shafer (1976), Chateauneuf et Jaffray (1989)). Le recours à la fonction m attachée à la fonction Bel est, par ailleurs, à l'origine de l'interprétation de la fonction de la croyance. m(A) est en effet appelé par Shafer (1976) la probabilité de base (« basic probability number ») de l'événement

A, c'est-à-dire la mesure de croyance portant exactement sur A ⎯ notons que m(∅)=0 et que

∑ m( A )

A⊆Ω

= 1 . Mais, la croyance globale en l'événement A doit

également prendre en compte tous les événements impliquant A c'est-à-dire tous les événements B⊆A. D'où la mesure totale de croyance Bel(A) calculée comme une somme de probabilités de base ⎯ lesquelles ne portent pas sur des événements distincts, comme cela serait le cas dans la théorie standard des probabilités, mais sur des événements quelconques c'est-à-dire non exclusifs. Enfin, la fonction duale d'une fonction de croyance est la fonction d'ensemble notée Pl et appelée fonction de plausibilité (Plausibility function). On a : Pl(A) = 1 -

Bel ( A c ) =

∑ m( B ) .

A∩B ≠∅

Ainsi, « Bel(A) rassemble toute l'évidence positive en faveur

de A (B⊆A) tandis que Pl(A) rassemble l'évidence qui ne rend pas A impossible (A∩B ≠ ∅) » (Dubois et Prade (1988, p.58)).

⎧0 si A ≠ Ω Bel ( A ) = ⎨ est un exemple de fonction de croyance ⎯ impliquant ⎩1 si A = Ω Pl(A)=1 pour tout événement A ⎯ qui caractérise une ignorance totale.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Soient maintenant N : 2 Ω →[0,1] et Π : 2 Ω →[0,1] deux fonctions d'ensemble telles que : (i) N(∅) = Π(∅) = 0. (ii) N(Ω) = Π(Ω) = 1. (iii) N(A∩B) = Min(N(A),N(B)). (iv) Π(A∪B) = Max(Π(A),Π(B)).

N et Π sont appelées respectivement une mesure de nécessité (Dubois et Prade (1980)) et une mesure de possibilité (Zadeh (1978)). On a les propriétés suivantes : (v) ∀A,B∈ 2 Ω , B⊆A ⇒ N(A) ≥ N(B) et Π(A) ≥ Π(B), d'après (iii) et (iv) (monotonie). (vi) N(A∪B) ≥ Max(N(A),N(B)) et Π(A∩B) ≤ Min(Π(A),Π(B)), d'après (v). (vii) N(A∪B) + N(A∩B) ≥ N(A) + N(B) d'après (iii) et (v) (supermodularité). (viii) Π(A∪B) + Π(A∩B) ≤ Π(A) + Π(B) d'après (iv) et (v) (sous-modularité). Les mesures de nécessité et de possibilité sont donc des capacités convexes et concaves respectivement ⎯ la mesure de nécessité est la duale de la mesure de possibilité ⎯ : elles peuvent donc être interprétées comme des probabilités inférieures et supérieures. Inversement, partant d'une capacité μ : 2 Ω →[0,1], la monotonie implique

μ(A∩B) ≤ Min(μ(A),μ(B)) et μ(A∪B) ≥ Max(μ(A),μ(B)). Les mesures de nécessité et de possibilité apparaissent alors lorsque l'on restreint les inégalités précédentes à des égalités. Plus spécifiquement, soient Bel et m une fonction de croyance et une fonction d'assignement de probabilité de base correspondant par l'inversion de Möbius. Le sous-ensemble F de 2 Ω

tel que F = {A : m(A) >0} est appelé l'ensemble des

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

éléments focaux (Shafer (1976)). Lorsque F est une famille emboîtée d'ensembles

A1 ⊆K ⊆ An

⎯ et

que,

par

conséquent,

il

n'existe

pas

d'événements

incomparables ⎯ alors les fonctions Bel et Pl sont respectivement des mesures de nécessité et de possibilité c'est-à-dire des fonctions de croyance et de nécessité consonantes au sens de Shafer (1976) (voir Shafer (1987)). On peut alors considérer que les mesures de possibilité et de nécessité synthétisent un corps de connaissances imprécises mais cohérentes ⎯ puisque, du fait de la structure emboîtée

de

F,

les

événements

se

confirment

mutuellement

(Dubois

et

Prade (1980)). Terminons par la remarque suivante. Lorsque N et Π sont définis de 2 Ω dans un ensemble borné totalement ordonné ayant 1 pour borne supérieure et 0 pour borne inférieure, nous substituons à la théorie quantitative des possibilités une théorie dite qualitative (ordinale) des possibilités. Dans ce cas, les mesures de nécessité-possibilité n'apparaissent plus (directement) comme cas particuliers de fonctions de croyance-plausibilité ou de probabilités imprécises (voir Dubois et Prade (1998)). Mesures décomposables Soit g : 2 Ω →[0,1] une capacité telle que : (i) ∀A∩B=∅, g(A∪B) = g(A) ┴ g(B) où ┴ est un opérateur de [0,1]× [0,1] dans [0,1]. Une telle fonction d'ensemble est appelée une mesure décomposable et dite générée par ┴. Les mesures décomposables ont été introduites par Dubois et Prade (1982) et Weber (1984). Si ┴ est non décroissante en chacun de ses arguments et a 0 pour élément unité, alors ┴ est appelée une co-norme triangulaire (Schweizer et Sklar (1963)).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Trois classes principales de co-normes reposent sur les opérations des types suivants (Dubois et alii. (1996)) : 1) a┴b = Max(a,b). g est alors une mesure de possibilité. 2) a┴b = Min(1,a+b).

Un

cas

particulier

de

mesure

décomposable

correspondante est une mesure de probabilité. 3) a┴b = a+b-ab. Les mesures décomposables correspondantes se comportent de manière similaire aux mesures de possibilité, en particulier Max(g(A),g( A c ))=1. Dubois et Prade (1988) rappèlent également que a┴b = a+b-λab mène à des fonctions de plausibilité pour -1≤ λ≤0 et à des fonctions de croyance pour λ ≥0. A la différence des probabilités imprécises, l'incertitude est ici évaluée par des nombres précis. Cependant, ces nombres ne respectent pas en général les règles du calcul des probabilités. Comme dans l'approche par les mesures non-additives, deux nombres (précis)

peuvent

être

nécessaires

pour

caractériser

pleinement

l'incertitude

entourant un événement quelconque A. Autrement dit, nous devons préciser les caractéristiques de la fonction g , duale de la fonction décomposable g ⎯ avec

g ( A ) = 1 − g ( A c ) . Lorsque g est décomposable au travers d'une co-norme ┴ alors : ∀A,B∈ 2 Ω , A∪B=Ω ⇒ g ( A ∩ B ) = g ( A ) ∗ g ( B ) , où a∗ b =1-(1-a)┴(1-b). L'opération ∗ est appelée une norme triangulaire. On a alors : •

a∗ b = Min(a,b) quand a┴b = Max(a,b) et on retrouve les mesures de

nécessité et de possibilité. •

a∗ b = Max(0,a+b-1) quand a┴b = Min(1,a+b).



a∗ b = ab quand a┴b = a+b-ab.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Interprétations et schéma synthétique De même que le modèle mathématique des probabilités numériques représenté par l'axiomatique de Kolmogoroff (1933) peut donner lieu à des interprétations fréquentistes, subjectives ou logiques, les modèles mathématiques alternatifs ou plus généraux présentés ci-dessus sont pour la plupart compatibles avec des interprétations multiples. Nous discutons certaines de ces interprétations dans cette section, ce qui nous permet de compléter le schéma 3.1, lequel synthétise à la fois les différentes interprétations de l'incertitude, les différentes modélisations et leurs relations. On trouve chez Walley et Fine (1979) une interprétation des probabilités modales en termes fréquentistes au travers du recours, d'une part, à la relation existant entre la probabilité modale et la fonction de croyance et, d'autre part, à l'idée de répétition d'observations imprécises. En effet, soient une probabilité modale P et une fonction de croyance P∗ telles qu'elles ont été définies plus haut, on a (Walley et Fine (1979, théorème 4)) : PA ⇔ P∗ (A) ≥ P∗ ( A c ). Si, de plus, la fonction de croyance repose sur une séquence d'ensembles

{

(et

non

}

m( A ) = # j : A j = A / N

{

} {

d'éléments), et

A1 , A2 , ... , AN

Aj ∈ 2 Ω ,

avec

{

}

de

P∗ (A) = # j : A j ⊆ A / N ,

d'observations

telle

sorte

alors

que PA

}

⇔ # j : A j ⊆ A ≥# j : A j ⊆ A c . L'interprétation fournie ci-dessus par Walley et Fine (1979) concerne une incertitude épistémique. Elle est similaire à celle développée par Dempster (1967) dans le cas des ensembles de mesures de probabilités. En effet, chez ce dernier, les probabilités objectives (fréquentistes) tirées des observations conduisent à des probabilités (subjectives) ⎯ plus précisément des enveloppes ⎯ inférieures et

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

supérieures au travers d'une correspondance (one-to-many mapping) traduisant les interprétations des observations. Une

interprétation

fréquentiste

différente

est

donnée

par

Walley

et

Fine (1982) : leur modèle statistique repose sur des probabilités (enveloppes) inférieures et supérieures représentant une instabilité des fréquences-limites. On a affaire uniquement à des mesures objectives (physiques) et l'incertitude ⎯ ou plutôt l'indétermination selon la terminologie des deux auteurs ⎯ est de type ontologique. La perspective change quelque peu des précédentes avec Shafer (1976). Premièrement, l'auteur insiste sur la séparation qui existe entre la dynamique aléatoire de certains aspects du monde physique ⎯ répondant aux « lois de la

chance » c'est-à-dire aux lois de la théorie des probabilités numériques ⎯ et la formation

44

des

croyances 44,45 .

Cette

séparation

doit

se

retrouver

dans

la

« The chances governing an aleatory experiment may or may not coincide with our

degrees of belief about the outcome of the experiment. If we know the chances, then we will surely adopt them as our degrees of belief. But if we do not know the chances, then it will be an extraordinary coincidence for our degrees of belief to be equal to them (...). Chances, then, must be conceived of as features of the world. They are not necessarily features of our knowledge or belief. » (Shafer (1976, p.16). 45

L'analyse est clairement très proche de celle de Shackle (1949) ; tant du point de

vue interprétatif que techniquement puisque, comme le remarque Shafer (1976, p.225)), le degré de surprise potentielle défini par Shackle (1949) est tel que Dou(A) = Bel(A) où Bel est une fonction de croyance consonante (ou mesure de nécessité). La séparation croyance / probabilité (fréquentiste) est également réaffirmée dans le modèle de croyance transférable (« The transferable belief model ») de Smets (1988). Celui-ci est une adaptation du modèle de Shafer (1976) dans laquelle on n'a pas nécessairement m(∅) = 0, ou de manière équivalente Bel(Ω) = 1 (voir Smets (2000) pour une interprétation

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

formalisation des deux phénomènes. Par conséquent, non seulement la croyance n'a aucune raison d'être représentée par une probabilité numérique mais, plus encore, cette dernière ne doit pas apparaître dans la formalisation : une fonction de croyance

ne

doit

pas

être

interprétée

comme

une

enveloppe

inférieure.

Deuxièmement, l'évidence qui sert de support à la formation des croyances est hétérogène 46 ;

non

réduite

seulement

à

des

fréquences

observées

(voir

Shafer (1982)). Dans le cadre subjectiviste et préférentialiste, Walley et Fine (1979) définissent un opérateur de désirabilité D sur des paris du type LA donne 1 si A survient et -1 sinon ; DLA signifie : « le pari LA n'est pas indésirable ». On peut alors poser : PA ssi DLA . Une conséquence est que face aux deux paris LA

et L Ac , où A c est

l'événement complémentaire de A, on peut avoir ¬DLA et ¬DL Ac . On retrouve ainsi une des caractéristiques essentielles du modèle de Smith (1961). Dans ce dernier, les paris permettent de définir des probabilités inférieures et supérieures de la manière suivante.

soit en termes de monde ouvert ⎯ Ω peut ne pas contenir le monde réel ⎯ ou en termes de sources d'information conflictuelles). 46

Précisons que, si l'objectif de Shafer (1976) est la construction d'une « Théorie

Mathématique de l'Evidence », la croyance représentée est personnelle (voir le sens donné à

Ω, appelé « cadre de discernement » (« frame of discernment ») par l'auteur). Shafer (1976) ne cherche donc pas à construire une croyance rationnelle (impersonnelle) au sens de l'approche logique.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Soit une proposition B que je considère vraie à k.w contre k, c'est-à-dire que j'accepte le pari qui rapporte k si B est vraie et coûte k.w si B est fausse 47 . Ce choix correspond à une probabilité subjective égale à

k. w

( k + k. w )

=

w

( w + 1)

. Jusqu'à quel

point suis-je prêt à parier sur B ? D'après Smith (1961), ce point correspond à la valeur de w maximale, notée w ∗ , pour laquelle j'accepte ce pari, et définit une probabilité préférentialiste inférieure (« lower (pignic) probability ») pour B :

P∗ (B)=

w* w* +1

. Prenons maintenant le pari qui rapporte k.W si B est fausse et coûte k

si B est vraie. Jusqu'à quel point suis-je prêt à parier contre B ? Ce point correspond à la valeur de W minimale, notée W∗ , pour laquelle j'accepte ce pari, et définit une probabilité préférentialiste supérieure pour B : P ∗ (B) = entre

P∗ (B)

et

P ∗ (B)

est

appelée

une

W* W* + 1

probabilité

. Toute valeur comprise

intermédiaire

(« medial

probability »). Lorsqu'il existe une probabilité fréquentiste connue, elle est, selon Smith (1961), généralement égale aux probabilités inférieures et supérieures, lesquelles sont donc confondues. Dans le cas contraire, il est possible que l'individu refuse de parier à la fois sur B et contre B : par exemple si w ∗ < λ< W∗ et que le pari sur B est proposé à k.λ contre k et le pari contre B à k contre k.λ. Une démarche similaire est adoptée dans Walley (1991) bien que l'auteur impose des critères de cohérence directement sur les probabilités inférieures, cellesci n'étant alors plus interprétées comme des enveloppes inférieures. Dans un cadre subjectiviste et intuitif, Good (1962) fournit un ensemble d'axiomes sur des probabilités inférieures et supérieures, à partir d'une démarche

47

Disons que l'unité est l'"utilité". Les valeurs des différentes variables sont

strictement positives.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

différente de celle de Koopman (1940). En effet, cet ensemble est dérivé directement d'un autre ensemble d'axiomes concernant une probabilité numérique (précise). L'auteur suppose que cette dernière existe à l'intérieur de la « boite noire » dans laquelle est affiné et enrichi le corps de croyances (« body of beliefs ») de l'individu mais qu'elle reste généralement inaccessible pour cet individu. Celui-ci ne peut donc exprimer ses croyances qu'au travers de probabilités imprécises sauf par exemple dans le cas où il acquière la connaissance de la valeur d'une probabilité logique. Suppes (1974) retient également l'idée d'une probabilité précise représentant la "vraie" probabilité et située entre des bornes inférieures et supérieures. Avant de préciser la démarche de l'auteur, nous introduisons deux définitions, utiles pour la suite. Soit fo une relation binaire définie sur un ensemble Y (non vide). Soient les conditions suivantes, avec x,y,z,w∈Y : (i) ¬ x fo x (irréflexivité). (ii) (x fo y et z fo w) ⇒ (x fo w ou z fo y). (iii) (x fo y et y fo z) ⇒ (x fo w ou w fo z). Une relation binaire satisfaisant les conditions (i) et (ii) est un ordre d'intervalle (Fishburn (1970,1985)). Une relation binaire satisfaisant les conditions (i), (ii), et (iii) est un semi-ordre (Luce (1956), Scott et Suppes (1958)). Suppes (1974) fournit l'étude axiomatique d'une relation de probabilité comparative

f

~*

compatible avec une mesure de probabilité pour certains

événements (les « événements standards ») et satisfaisant, pour les événements quelconques : (i) A fo B ⇒ P∗ (A) ≥ P ∗ (B),

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

(ii) P∗ (A) ≥ P ∗ (B) ⇒ A f B, ~*

où fo

est un semi-ordre et P ∗ et P∗ sont des probabilités supérieures et

inférieures. Fishburn (1986b)

fournit

les

conditions

pour

la

représentation

plus

satisfaisante : A fo B ⇔ P∗ (A) > P ∗ (B), où fo est un intervalle d'ordre (le cas des semi-ordres est également traité par l'auteur). Cependant, dans le cas où P∗ et P ∗ ont toutes les propriétés habituelles des probabilités inférieures et supérieures

⎯ notamment la super-additivité et la sub-additivité ⎯ et où il existe une mesure de probabilité P telle que P ∗ ≥ P ≥ P∗ , la représentation nécessite un axiome que Fishburn (1986b) lui-même qualifie d'horrible (« horrendous »).

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

Ce chapitre a constitué un détour par l’histoire (critique) des probabilités ; détour qui nous a d’abord permis d’observer que les deux mesures de l’incertitude les plus couramment utilisées en théorie de la décision font l’objet de remises en causes importantes. La probabilité fréquentiste, d’une part se heurte à l’unicité des phénomènes (économiques) incertains concrets auxquels les individus sont confrontés. D’autre part, et plus fondamentalement, elle est confrontée, pour tout phénomène incertain, quel que soit sa nature, à un double problème : 1) la connaissance de la fréquence intrinsèque vers laquelle converge la fréquence suppose l’application d’un principe de symétrie dont l’acceptation relève d’une croyance (subjective) plus que d’une connaissance (objective) ; 2) la connaissance d’une fréquence passée d’un phénomène ne nous apprend rien sur la probabilité de survenance de cet événement dans un futur fini. La probabilité subjective de l’approche préférentialiste trouve sa principale limite dans le fait que la source de sa justification se situe dans la cohérence de choix entre des alternatives incertaines en non dans la cohérence des croyances que la probabilité est pourtant censée représenter. Lorsque l’on abandonne toute référence à des choix et que l’on s’intéresse uniquement à la cohérence des croyances — cas de l’approche intuitive —, nous ne pouvons pas affirmer que la représentation des croyances par une probabilité est une nécessité. Nous avons vu ensuite qu’il existe, à côté de la probabilité, d’autres mesures de l’incertitude, donc en particulier d’autres représentations possibles des croyances. En théorie de la décision en incertain, l’alternative la plus connue est la capacité. Dans le chapitre suivant, nous retenons une autre représentation des croyances : il s’agit de ce que nous appelons des probabilités subjectives incertaines c'est-à-dire des probabilités subjectives encadrées par les probabilités inférieures et supérieures.

Chapitre 3 : Incertitude, probabilités et croyances : fondements des probabilités subjectives incertaines

View more...

Comments

Copyright � 2017 NANOPDF Inc.
SUPPORT NANOPDF