Random phrase

dimanche 28 octobre 2018

DSGE III: Mon petit DSGE, connaît pas la crise

Une des critiques principales adressées aux modèles DSGE est qu'ils n'ont pas vu venir la crise de 2008 et la récession qui s'ensuivit. Comment peut-on alors leur faire confiance ? Dans ce post on se pose donc la question : comment savoir si notre modèle est représentatif du monde réel ?

Poppers

Il en connaît un rayon sur les crises...
Dans le post précédent, nous avons discuté d'arguments de cohérence interne pour valider les modèles de type DSGE. Ici, on attaque le problème sous un autre angle, celui de l'adéquation avec les données empiriques.

Bon évidemment on se heurte immédiatement au problème qui fait pousser des cris d'orfraie aux détracteurs de notre discipline préférée : la macroéconomie n'est pas une science car elle ne permet pas de faire des prédictions falsifiables au sens poppérien du terme (excusez du peu). Plus prosaïquement, on ne peut pas faire d'expérience en laboratoire comme en physique pour corroborer ou invalider notre théorie. On doit donc se contenter d'une analyse statistique, comparant les chiffres produits par le modèle aux données réelles sur le PIB, le chômage, etc.

Objectif subjectif

En conséquence, l'objectif du modèle est crucial ici. Pour comprendre ce point, imaginons qu'on soit Auto Magazine, et qu'on veuille noter une Jeep. Certes, qui peut le plus peut le moins, mais il ne semble pas raisonnable d'espérer une performance optimale sur tous les critères possibles. Ainsi la Jeep n'est peut-être pas très adaptée pour circuler en ville de façon économique, ou particulièrement maniable pour un créneau, mais ça n'est pas forcément très grave. En revanche, on est en droit d'attendre qu'une Jeep se débrouille bien en dehors des routes goudronnées, ce qui est son objectif affiché.

Revenons à nos modèles et au premier post de la série, dans lequel on avait cité trois types d'objectif :

  • Pédagogique : Ce genre de modèle ne vise pas à représenter précisément le monde réel, mais à transmettre des intuitions économiques de façon formalisée pour mieux en analyser les implications logiques. C'est le cas par exemple de la concurrence pure et parfaite ou des modèles d'offre et de demande, tels qu'ils sont présentés aux étudiants 
  • Prévision : De Nostradamus à Madame Soleil, en passant par Alain Gillot-Pétré, l'envie de prédire1 le futur est une constante. Certains se sont rendus compte que l'on pouvait utiliser des modèles pour prédire les phénomènes physiques, avec plus (l'astronomie) ou moins (la météorologie) de succès. Partant, l'économie aussi a commencé à s'y mettre, cherchant à prévoir les mouvements boursiers (l'appât du gain aidant) ou des variables d'intérêt pour la politique économique
  • Inférence : Les prévisions pures sont bien sûr utiles (va-t-il pleuvoir demain, et aurais-je donc besoin de mon parapluie?). Mais une autre volonté profonde de l'être humain est de modifier le passé pour changer le futur, tels le Terminator ou Marty McFly. Sauf qu'évidemment la DeLorean n'existe pas, donc il faut essayer d'anticiper les effets des différents scénarios avant leur réalisation. C'est là qu'interviennent les modèles, qui permettent de faire des expériences de pensée chiffrées sur des réalités alternatives

Système métrique

Comment alors mesurer la performance d'un modèle selon son objectif ? On laisse ici de côté l'objectif pédagogique qui est moins pertinent pour cette discussion et commençons plutôt par la prévision qui est d'une certaine façon l'objectif le plus simple à évaluer, car il suffit de comparer ce que produit le modèle avec la réalisation observée. Pour notre objet d'intérêt ici, une étude de 2010 montre que même les modèles DSGE de pointe (ici le Smets et Wouters) n'ont qu'une piètre performance en matière de prévision. Nous voyons cela sur le graphique ci-contre, qui montre la réalisation empirique du PIB aux Etats-Unis de 1992 à 2006, en fonction de la prédiction du modèle. Si la prévision du modèle était bonne, on devrait observer une droite partant de zéro, de pente 1 (la fonction identité quoi). Au lieu de cela, on observe un nuage de point, sans motif particulier.

Edge, Gurkaynak (2010)
On est donc assez loin de pouvoir prédire quoique ce soit de façon fiable avec ces modèles. Il faut quand même préciser que cette performance ne les rend pas pire qu'autre chose, vu que les autres modèles standards - et ceux qui les utilisent - sont passés à côté de la Crise, comme le montre les graphiques ci-dessous : la ligne verte est la moyenne des prévisions économiques professionnelles (en anglais, Survey of Professional Forecasters - SPF - chacune représentée par une ligne grise), tandis qu'une sélection de modèles de type DSGE sont représentés chacun par une ligne rouge. On voit clairement que les prévisionnistes se sont plantés dans les grande largeurs et que les modèles DSGE font un peu moins bien que la moyenne mais sans être complètement absurdes.

Wieland, Wolters (2012)

R2D2

Passons à l'inférence, qui suppose de comprendre les relations entre les différentes variables pour pouvoir analyser les scénarios éventuels, comme par exemple : l'inflation augmente-t-elle ou diminue-t-elle si la banque centrale augmente les taux ?

Par conséquent, au niveau le plus basique, le modèle doit être en mesure de répliquer les données disponibles, ce qu'on quantifie par sa qualité d'ajustement. Les métriques classiques sont par exemple le coefficient de détermination (plus connu sous le nom de R2) ou encore l'erreur quadratique moyenne. Une bonne vieille inspection visuelle peut aussi faire l'affaire. On montre par exemple ci-contre que le Smets et Wouters (ligne grise) se débrouille plutôt pas mal comparé aux données trimestrielles américaines de l'après-guerre (ligne noire).

Del Negro, Schorfheide, Smets, Wouters (2005)

De plus les modélisateurs DSGE rajoutent leur petit grain de sel aux mesures classiques : la réponse impulsionnelle. En effet, il est possible de simuler un monde virtuel "toutes choses égales par ailleurs" à l'aide de modèles statistiques avancés (dits vectoriels autoregressifs structurels). Le but du jeu étant de voir si le comportement du modèle DSGE est similaire à celui du modèle statistique lorsque se produit un choc (de technologie par exemple comme nous en avons mis en avant dans le premier post). C'est ce qu'utilisent notamment Christiano, Eichenbaum et Trabandt dans un article récent, défendant les modèles DSGE. On voit que la ligne pleine bleue suit très bien les contours esquissés par les modèles purement statistiques (lignes grises).


Il faut quand même noter que ce genre de comparaison suppose de valider aussi le modèle auquel on s'étalonne, donc ce genre d'argument est parfois un peu comme le serpent qui se mord la queue ! Nous rentrerons dans plus de details sur ce point, ainsi que d'autres aspects statistiques dans un post séparé.

Just missing the point

Malgré tout, il y a un aspect un peu embêtant dans la recherche actuelle sur les modèles DSGE : il y a eu très peu de recherche sur la modélisation de la Grande Dépression de 1929. Certes certains modèles de taille réduite ont été développés au tournant de ce siècle, mais plutôt dans un but d'histoire économique. Economiam n'a ainsi pas trouvé de traces de tentatives d'estimer des modèles néo-keynésiens (comme par exemple celui de Smets et Wouters) sur les données de cette époque, même après la Crise de 2008 (si quelqu'un connaît des papiers, on est preneurs).

Pourtant, il semble logique d'attendre de ces modèles qu'ils capturent la crise la plus marquante du XXe siècle, car c'est là la justification principale de leur existence. Rappelons en effet qu'ils prétendent se baser sur des invariants de comportements humains, ce qui les rendrait plus fiables que les modèles purement statistiques (qui ont du mal à capturer les réalités très différentes à la fois de 1929 et de maintenant). On pense donc chez Economiam qu'un DSGE qui connaîtrait la Crise (de 1929) aurait vu plus loin que le bout de son nez en 2008...

-------------------------------------------------------------------
1. Il semblerait que le lexique n'ait pas complètement convergé entre prédiction et prévision dans le monde de la data science francophone, à cause de l'anglicisme sur prediction (utilisé par exemple dans le très populaire Introduction to Statistical Learning) qui se distingue peu d'après le Oxford Dictionary de forecast. Ce dernier n'a cependant pas obtenu les mêmes galons de coolitude dans le cénacle des buzzwords du Big Data.

mardi 18 septembre 2018

DSGE II: Micromégas

Feu Philip Seymour Hoffman, l'acteur oscarisé pour son interprétation magistrale de Truman Capote dans le film éponyme aurait dit: "Je pense que les bons artistes, au risque d'être pédant, s'occupent du micro pour expliquer le macro". Au-delà du fait que l'origine de cette citation est invérifiable, on voit déja les mauvaises langues se délier pour dire que son addiction à la drogue l'a transformé en économiste néoclassique... Bref, plus que jamais, le monde des modèles DSGE se veut chimérique ! On s'intéresse ainsi maintenant aux fondations microéconomiques de ces modèles macroéconomiques.

Du bienfondé des microfondations

De SanG froid... E
Au sein des débats sur les modèles DSGE, les microfondations sont l'un des aspects les plus critiqués. De quoi parle-t-on là? Si l'on revient au post précédent, il s'agit du choix de représenter les consommateurs et les entreprises individuellement, et d'agréger leurs interactions microéconomiques (négociations salariales, maximisation des profits) pour expliquer les phénomènes macroéconomiques (variations du PIB, du chômage, etc.) plutôt que de chercher à modéliser ces derniers directement.

Faisons tout de suite une mise au point : nombre de discussions mélangent allègrement le choix de partir d'une modélisation microéconomique avec la façon de modéliser ces comportements individuels. Expliquons-nous : les individus de cette économie ne sont pas vraiment votre tata Monique ou papy Raymond, mais des représentations mathématiques simplifiées. Le choix des représentations peut être plus ou moins judicieux : on peut par exemple supposer que tout le monde se comporte de façon rigoureusement identique, ce qui est, on le verra dans un post séparé, une hypothèse très forte. En attendant, on se concentre ici sur le concept même de modéliser les comportements individuels plutôt que les quantités agrégées directement, comme le font par exemple IS-LM ou OG-DG (voir chapitre 3.1 de Fluctuations et Crises).

Microcosmos

Alors pourquoi se casser la tête à partir des individus pour représenter l'économie? Après tout, dans les sciences naturelles, cette approche n'est pas forcément suivie: il n'y a qu'à voir la mécanique classique, qui analyse la chute des corps et le mouvement des astres sans se préoccuper des interactions entre les atomes qui les composent.

La raison est notamment à trouver du côté des facultés d'adaptation de l'être humain : n'étant pas des rats de laboratoire, nos comportements, notamment grégaires, changent au cours du temps ou au gré des victoires (ou défaites) en coupe du monde. Les relations agrégées sont donc nécessairement de nature purement statistique, basées sur quelques dizaines ou au mieux centaines d'observations vu la faible fréquence des données macroéconomiques. On est très loin du big data, ce qui nous expose à des problèmes de validité statistique (on parlera dans un autre post des problèmes d'estimation dans le contexte des modèles DSGE). Et même avec de meilleures données, on n'est toujours pas à l'abri d'un changement de régime qui invaliderait le modèle pourtant plutôt représentatif jusque-là.

C'est l'essence de la critique de Lucas, qui postule de facto l'existence d'invariants dans nos comportements (individuels ou grégaires), qu'il convient donc d'isoler afin de rendre la modélisation aussi rigoureuse que possible. Prenons par exemple la courbe de Phillips, du nom de l'économiste britannique qui constata une forte régularité de la relation entre inflation et taux de chômage au Royaume-Uni entre 1860 et 1957. Pendant un temps, ceci avait aussi l'air de fonctionner pour les États-Unis : sur le graphique ci-contre, le taux d'inflation (en ordonnées) exprimé en fonction du taux de chômage (en abscisse) forme une jolie courbe bien régulière pour les années 50 et 60.

Les pouvoirs publics ont alors tenté d'utiliser cette observation pour réduire le chômage, au prix d'un peu d'inflation. Malheureusement, l'inflation commença à s'emballer dans les années 70, au fur et à mesure que les gens se sont mis à ajuster leurs attentes d'inflation, ce qui eut pour effet de casser cette relation empirique. On voit ceci dans le graphique, dans lequel il est impossible de tracer une courbe du même genre à partir de 1970 (voir aussi chapitre 4.3.2 de Fluctuations et Crises).

D'un point de vue mathématique, cette relation, vue des années 50 et 60, dit juste que :

π = f(U)

Où π est l'inflation, U le chômage (de l'anglais unemployment) et f une fonction (on pourrait ici choisir la fonction inverse f(U) = 1/U vu la forme des données). Cette relation marche donc plutôt bien dans un premier temps, puis est invalidée par les données sans crier gare.

C'est ici qu'on voit le potentiel des microfondations : baser la modélisation macroéconomique sur celles-ci a pour but de la rendre plus robuste, en y injectant les résultats (souvent probants) de la microéconomie. Objectif ambitieux d'un point de vue mathématique mais pas dénué de sens. Dans le cas de la courbe de Phillips, la modélisation microfondée (qu'on épargnera au lecteur, voir ici pour plus de détails) donne un résultat bien différent, et injecte notamment les anticipations d'inflation, conformément à l'intuition de Phelps et Friedman (et à l'observation empirique des années 70):


πt = β Et πt+1 + γ yt

Où πt est l'inflation aujourd'hui, Et πt+1 est l'anticipation d'inflation pour la prochaine période, β l'escompte, yt l'écart de production et γ un coefficient.

Alors, une panacée les microfondations? Le lecteur avisé aura flairé l'arnaque dans l'équation ci-dessus : on ne parle plus de chômage ! Et il y a une raison (pas si bonne) à ça : on ne sait pas quelle microfondation utiliser pour construire la relation macro voulue entre inflation et chômage. C'est juste que c'est compliqué mathématiquement et qu'il faut faire de la recherche ! Et puis ces invariants sont-ils si invariants que ça ? On se souviendra notamment de ce post qui rapporte les différences de comportement face au partage selon le contexte culturel de l'expérience microéconomique. Ca n'est pas nécessairement insurmontable mais ça mérite encore plus de recherche...



Suspicion of Mass Destruction

Pour clore ce post, et pour dissiper des idées préconçues erronées, il convient de mentionner le théorème dit de Sonnenschein Mantel Debreu (SMD), du nom des trois économistes qui se sont penchés sur le sujet. Ce théorème est fréquemment invoqué comme démontrant la vacuité des théories économiques néolibérales. Sans rentrer dans des débats gauche-droite un peu vaseux, on peut résumer l'argument comme suit : les microfondations sont une construction absurde à laquelle on peut faire dire ce qu'on veut, d'où le sobriquet de SMD: Anything goes theorem. Dit autrement, faux implique n'importe quoi.

Sauf que SMD ne dit pas vraiment ça... Voyons cela plus en détail : la fonction de demande nette agrégée, qui est la somme sur tous les marchés de la différence pondérée par son prix entre offre et demande pour le bien échangé sur le dit marché, caractérise complètement l'équilibre général. Dans ce cadre théorique assez précis, SMD nous apprend que la forme générale d'une fonction de demande nette agrégée n'est pas très contraignante. En particulier, il existe toutes sortes de fonctions respectant les propriétés génériques communes mais qui sont pathologiques au sens économique, car impliquant plusieurs (voire une infinité) d'équilibres possibles, des équilibres instables, etc. Ce que dit donc SMD, c'est que sans faire des hypothèses plus fortes sur notre économie que celles de base de la théorie de l'équilibre général, alors on ne peut pas écarter ces situations bizarroïdes de notre univers des possibles.



Mais cela n'invalide pourtant pas le principe de modélisation microfondée pour autant, car SMD ne dit pas que les microfondations vont systématiquement mener à un équilibre macroéconomique absurde. Et en pratique c'est même bien le contraire, car justement les choix particuliers amènent ce supplément de structure qui manque au cas général.

En conclusion, les microfondations sont un espèce de Graal de la modélisation, permettant d'apporter de la substance à des relations empiriques, l'économie ne bénéficiant pas de la même régularité observationnelle que les sciences naturelles. Elles sont cependant critiquées car malheureusement devenues l'Alpha et l'Omega de la macroéconomie, négligeant le fait que de trouver des microfondations solides est une gageure, et que cela se fait souvent au détriment du bon sens.

 
On se quitte sur l'énoncé du théor
ème, en essayant de rendre intelligible sa brutalité mathématique :
  • Soit N le nombre de biens (et de prix) observés dans notre économie.
  • Soit Pε l'ensemble des vecteurs de prix p qui peuvent exister (positifs et satisfaisant une condition mineure au bord) : c'est l'ensemble des configurations de prix que notre économie peut prendre
  • Soit f une fonction de ces prix, qui doit posséder les caractéristiques suivantes :
    • Etre continue (on peut la tracer sans lever le crayon)
    • Etre homogène de degré zéro, c'est-à-dire que si on multiplie tous les prix par un même nombre, alors les valeurs que prend f sont inchangées (les fonctions constantes sont par exemple de degré zéro).
    • Satisfaire à la loi de Walras, qui dit que p . f(p) = 0 (il s'agit d'un produit scalaire vu que l'on considere des vecteurs
  • Alors il existe une économie d'échange telle que f soit la fonction d'excès de demande, associant à chaque prix l'excès de demande correspondant, pour chaque marché. L'homogénéité de degré zéro est logiquement attendue d'une fonction de demande, car on s'attend à ce qu'elle ne change que lorsque les prix relatifs changent. Quant à la loi de Walras, ceci n'est autre que la contrainte de budget dans une économie d'échange : la valeur des dotations initiales doit être égale à la valeur des attributions finales.

mardi 10 juillet 2018

DSGE: Je monte, je valide !

Chez Economiam, on aime les débats, mais on n'aime pas quand ils sont stériles. Alors on s'attaque à du lourd aujourd'hui, le cœur de la modélisation macroéconomique standard, telle qu'on peut la trouver dans les banques centrales. Ne décrochez pas tout de suite! C'est en se basant sur ces modèles, les fameux DSGE, que Janet, Mario et les autres prennent leurs décisions, celles qui impactent directement votre vie. Et si vous fermez la page maintenant, vous n'aurez plus non plus le droit de vous plaindre que la discipline économique est trop mathématique ! Economiam vous emmène donc en douceur dans ce monde chimérique pour comprendre comment on valide un modèle.

Dans le cambouis

DS...
Dans les réseaux sociaux, comme dans les canaux institutionnels un peu plus conventionnels, on parle beaucoup de "ces modèles qui n'ont pas vu venir la crise". Les analyses, mêmes sérieuses, évitent soigneusement de rentrer dans les détails techniques, et résultat les gens ne savent pas trop ce qu'on critique. Chez Economiam, on pense que c'est une erreur, et que, comme une image, une équation vaut mille mots (enfin presque...). C'est juste qu'on en voit moins souvent dans le journal!

 


Prenons donc le modèle Dynamic Stochastic General Equilibrium (DSGE) de base, on le montre ici brut de décoffrage dans sa splendeur mathématique (si ça vous fait peur sautez directement jusqu'au texte qui suit):


Qu'est ce qu'il se passe là dedans? On postule que l'économie est régie par les principes suivants:

  • On considère les interactions entre ménages et entreprises, afin d'en déduire les quantités agrégées comme le PIB (au lieu de modéliser ce dernier directement par exemple)
  • Les ménages choisissent leurs dépenses (C) et leurs heures travaillées (H) à toutes périodes dans le futur de façon à refléter au mieux leurs préférences en terme de consommation et de loisirs
  • Les entreprises sont en situation de concurrence pure et parfaite. Elles choisissent leur niveau d'investissement (I), de façon à maximiser leur profit, en tenant compte de leurs besoins en heures travaillées et en capital (K qui se deprécie d'une période sur l'autre)
  • De plus, la consommation et l'investissement doivent égaler la production (il n'y a pas de valeur créée à partir de rien)
  • Il y a des chocs de productivité (z) qui sont aléatoires. Comme on l'explique dans Fluctuations et Crises, toute l'incertitude et par conséquent les crises économiques sont résumées au sein de ces chocs, qu'on peut interpréter comme des progrès ou régressions technologiques


Donnez moi un D! Donnez moi un S ! ...

Comme le fait Anton Korinek de l'université Johns Hopkins, il convient d'expliquer en quoi cette classe de modèle est Dynamique, Stochastique et à Equilibre Général:

  • S comme Stochastique : Comme on l'a vu, il y a une composante aléatoire (autrement appelée stochastique) via les chocs de productivité. Celle-ci est censée représenter la notion que les crises sont imprévisibles car logiquement, si les gens sont parfaitement rationnels, ils feraient tout pour les éviter et donc elles ne se matérialiseraient jamais
  • D comme Dynamique: Les ménages et les entreprises vont toujours chercher à faire au mieux (à optimiser comme on dit), et à s'adapter à toutes les situations, ce qui est utile quand on cherche à comprendre l'impact desdits chocs ci-dessus. En étendant la représentation pour y inclure une banque centrale ou un gouvernement, on peut par exemple s'atteler à comprendre les problèmes d'incohérence temporelle, en d'autres termes savoir si les décideurs économiques sont crédibles, ou s'ils vont renâcler à la moindre occasion (tel notre ami Boris Johnson)
  • GE comme Equilibre Général (enfin, on se comprend...) : Trouver la solution de ce système d'équations permet donc de déterminer la valeur des différents éléments (salaires, production, etc.) dans tous les scénarios possibles. Comme on considère que ces équations représentent l'économie dans son ensemble, cette solution est ce qu'on appelle un équilibre général (le GE de DSGE), par opposition à un équilibre partiel, où certains éléments seraient déterminés par ailleurs et injectés dans le système

Il y a un aspect supplémentaire qui fait beaucoup parler, les fondements microéconomiques (ou microfondations en bon franglais). C'est quoi ce truc? Et bien c'est la réponse que les modélisateurs ont trouvée pour pouvoir représenter proprement des réalités alternat
GE...
ives, le fameux ceteris paribus ou "toutes choses égales par ailleurs" appliqué à l'économie. La génération de modèles précédente n'en était pas vraiment capable, ce qui a poussé Robert Lucas (Prix Nobel d'économie 1995 et ancien président de l'Association des économistes américains) à les remettre en cause violemment, ce qu'on appelle la critique de Lucas. Les microfondations répondent donc à ce problème en essayant d'agréger les composantes économiques élémentaires (les ménages, les entreprises...), en s'appuyant sur les préférences à un niveau microéconomique. Ces préférences sont ainsi supposées invariantes avec la conjoncture (par exemple mon goût pour les glaces ne dépend pas de la situation économique globale). Ce sujet mérite un post à part entière, donc on en restera là pour le moment, mais on notera juste que passer du micro au macro est loin d'être évident.



Ah bah oui, forcément...

Revenons à ces magnifiques mathématiques: pour rendre le modèle plus facile à résoudre on fait notamment les hypothèses suivantes :

  • Les ménages sont agrégés en un seul agent, dit représentatif. On ne doit alors résoudre que pour un seul choix de consommation et d'heures travaillées 
  • De surcroît, cet agent représentatif est immortel, ce qui permet d'écrire une somme infinie et de s'abstraire des questions d'épargne et de transmission d'héritage 
  • Ces mêmes ménages sont dotés d'une capacité de calcul infinie (la chance !) qui leur permet d'optimiser leurs décisions économiques pour toute éternité. On appelle ça les anticipations rationnelles (ou Homo economicus avec une pointe d'ironie)
  • Il est possible de produire n'importe quelle quantité de biens et services, ainsi que d'emprunter autant que nécessaire, et ce dans tous les états du monde. Les marchés sont dits complets.

On notera aussi qu'il n'y a pas de monnaie, pas de rôle de l'Etat et pas de commerce international. Mais c'est plus un choix de présentation de ce post, car on considère ici le noyau dur des modèles DSGE, dit Real Business Cycle initialement développé par Kydland et Prescott (qui leur valu le prix Nobel en 2004). Cependant le modèle standard, dit Néo-keynésien, introduit bien la monnaie, et des extensions standards considèrent explicitement l'Etat ainsi que les économies ouvertes.

Bien évidemment, ces hypothèses en surprendront plus d'un, car on le sait bien :

  • Nos économies sont composées de dizaines ou centaines de millions d'individus, de tous âges, exerçant des métiers différents, certains riches, certains pauvres.
  • Les gens meurent !
  • Ce modèle est déjà difficile à résoudre pour des étudiants du supérieur équipés d'un ordinateur, alors imaginer que les gens résolvent ce programme d'optimisation dans leur tête, il faut être zinzin!

Mais on voit aussi que les civilisations extraterrestres ne sont pas représentées. Est-ce pour autant grave? Car il faut bien rappeler que les modèles sont une représentation schématique et simplifiée du monde. C'est Rodrik qui reprend l'image des cartographes de Borges, qui sont tellement obsédés par la précision que leur carte est à l'échelle 1:1 ! Toutes ces critiques ne se valent donc pas.

On va donc discuter dans une série d'articles du bien-fondé de ces hypothèses, ainsi que des techniques utilisées pour résoudre ces modèles en utilisant quelques principes de base de la validation de modèle:

  • L'objectif du modèle (prédiction, inférence, pédagogique...) est crucial dans son évaluation. Allez essayer de prédire la prochaine crise avec IS-LM! Mais son but avoué étant pédagogique, il serait injuste de le considérer à cette aune. C'est aussi ce que dit implicitement Olivier Blanchard au sujet des toy models dans un post de l'an dernier.
  • L'importance effective des hypothèses ne peut pas s'évaluer uniquement à l'aide de raisonnements de bon sens. Il faut relâcher les hypothèses en question, de préférence en partant de la même base, soit utiliser des modèles alternatifs, même s'il faut là encore faire attention à la spécification de ces alternatives
  • La cohérence interne est une nécessaire mais pas suffisante pour pouvoir donner une évaluation positive. Cette cohérence interne peut être de plusieurs ordres : tout d'abord purement mathématique, c'est à dire que si par exemple 1 + 1 ne font pas 2 dans le modèle, il y a clairement un problème. Elle peut aussi venir de la théorie économique : les équations présentées ci-dessus s'intègrent avec la comptabilité nationale et tiennent compte des facteurs de production.
  • Mais former un tout cohérent ne peut se substituer à la confrontation aux données réelles. C'est ici que les principaux reproches peuvent être adressés aux DSGE, et que l'économie de pointe montre à quel point elle a (eu) tendance à être juste une approche scientifique à défaut d'être une science. Notamment, historiquement ces modèles sont "calibrés", ce qui est une belle façon de dire qu'on regarde à la louche si le modèle reflète certains aspects des données, sélectionnés avec soin, en lieu et place d'une évaluation statistique rigoureuse (très complexe ici, il faut l'admettre). 

La conclusion de tout ça pour Economiam c'est qu'il faut plus de maths, pas moins! En ça je contredis assez frontalement Antoine Belgodère, mais j'espère pouvoir bien cimenter mon cas dans les prochains posts.

mercredi 3 janvier 2018

ISF, IFI... : Ah si j'étais riche !

Discussion de comptoir :
- Supprimer l'ISF, c'est juste faire un cadeau aux riches ! T'as vu les yachts et les jets privés !
- Mais non, l'ISF ne sert à rien à part faire fuir les plus gros contribuables : trop d'impôts tue l'impôt !
- De toute façon il faut fermer la bourse, les riches ont beaucoup trop, il faut taxer toutes les formes de capital, pas que l'immobilier, pour prendre aux riches et donner aux pauvres !
- L'ISF coûte plus cher qu'il ne rapporte !

Pas très constructif tout ça. Sauf que cette discussion se produit en ce moment par médias interposés, en lieu et place d'une analyse économique rationnelle concernant le remplacement de l'Impôt Sur la Fortune (ISF) par l'Impôt sur la Fortune Immobilière (IFI). Donc chez Economiam, on ne se fait pas prier pour pallier à ce manque !


Se méfier de l'eau qui dort

Est-il possible que certains aient trop d'argent...
Le candidat Macron proposait de réformer l'ISF en le concentrant uniquement sur la propriété immobilière, opposant l'investissement "productif" (dans les actions, etc.) à la pierre et la terre, masses inertes qui ne produisent selon lui que des rentes. L'idée globale est donc de booster la croissance française en favorisant les esprits créatifs (les "startupeurs" diraient ironiquement les partisans de la France Insoumise). Ca reste vague, et pour Economiam, ça passe complètement à côté des vraies problématiques de la possession du capital, tout en créant beaucoup de bruit pour rien.

Celles-ci sont :

  • L'ISF est-il un impôt néfaste ? Où l'on retrouvera les fameux paysans millionnaires de l'île de Ré.
  • Pourquoi la possession de capital est-elle aussi inégale ? Où l'on verra que c'est pas mal d'être l'héritier de Liliane Bettencourt.
  • C'est grave cette inégalité de richesse ? Et si oui, que faut-il y faire ? Où l'on retrouvera un peu Piketty et bien sûr l'IFI de Macron en application.

 

Il est l'or, mon seignor...

Alors, est-il néfaste cet ISF ? La réponse est malheureusement qu'on ne sait pas vraiment (pardon pour l'arnaque d'économiste à deux bras) ! On propose ici deux pistes de réflexion :
  • L'ISF est-il spécial ? Oui, mais il ne l'est pas tant parce qu'il vise les riches que par sa base de prélèvements. En effet, contrairement à l'impôt sur le revenu ou la TVA, il n'est pas calculé sur la base d'échanges monétaires (les flux) mais comme une fraction de la valeur de ce qu'on possède (autrement appelé le stock, ou capital). Il est donc par corollaire difficile à évaluer car il repose sur des estimations ("Que vaut cet appartement ? Ou ce Picasso ?") plutôt que sur des transactions réelles. Dans ce qui suit, pour être clair, on va référer de façon un peu abusive à l'ISF, pour parler en fait d'un impôt plus général sur le stock de capital. 
  • Est-ce un impôt distorsif ? La théorie économique de l'imposition repose sur un constat central : l'impôt implique de trouver l'équilibre entre lever des fonds pour assurer le bon fonctionnement des administrations publiques et ne pas trop décourager l'activité économique du secteur privé. Bizarrement, cette théorie est plutôt démunie face à l'imposition du stock de capital, les analyses classiques se concentrant uniquement sur les flux (voir Atkinson-Stiglitz et Chamley-Judd, en section 2 de cet article). Malgré cela, si l'on remarque que l'imposition du stock de capital est équivalente à substituer une taxe affine à une taxe purement linéaire sur les revenus du capital, cela vaut quand même le coup de regarder les résultats classiques de plus près. Retenons donc que l'imposition des revenus du capital a historiquement été considérée comme néfaste, mais que cela est en train de changer. L'idée est la suivante : l'épargne (qui n'est rien d'autre qu'une accumulation de capital) consiste à différer sa consommation d'aujourd'hui pour être en mesure de consommer plus dans le futur. Or taxer aujourd'hui un euro qui aurait sinon été consacré à de l'épargne se répercute alors pour très longtemps dans le futur (par effet de composition) et décourage l'épargne et réduit l'investissement en conséquence. Cette vision est cohérente avec la notion que l'ISF chasse les entrepreneurs de France. Ceci a cependant été remis en cause d'un point de vue empirique par Zucman, et d'un point de vue théorique par Piketty et Saez (prenant en compte l'héritage) ou Straub et Werning (plus sous l'angle de la validité mathématique de la théorie classique). Certains vont même plus loin en considérant que l'ISF serait pigouvien, c'est-à-dire qu'il incite à des comportements vertueux, car il pousse à faire fructifier son argent plutôt qu'à s'endormir dessus comme un vieux papy.

Exercice d'application : les "paysans de l'île de Ré", ces petits producteurs qui se retrouvent à payer plus d'ISF qu'ils n'ont de revenus à cause de la flambée du prix des terres agricoles qu'ils possèdent sur cette île très prisée des vacanciers.

Passons outre le fait que les articles de presse interviewent toujours le même couple de retraités (à se demander s'il y a bien un groupe de "paysans de l'île de Ré"...), on voit quand même bien qu'en pratique taxer le stock de capital est compliqué car on ne peut pas forcément vendre 2% de son bien tous les ans pour payer l'impôt.

En revanche, côté incitations, on se rend compte que ces personnes sont assises sur un sacré magot qu'elles pourraient monétiser du jour au lendemain. C'est triste de devoir quitter la maison familiale, mais le fait qu'elles y aient un attachement émotionnel ou qu'elles refusent de la faire fructifier n'y change rien. Ceci plaide plutôt en faveur d'un effet pigouvien de l'ISF, avec une fortune qui est ici héritée, dans le sens où ces personnes n'ont rien fait que d'être au bon endroit au bon moment (financièrement parlant). De plus, on constate que ces personnes choisissent de se battre sur place plutôt que de s'exiler fiscalement, ce qui va là encore à l'encontre de l'image d'Epinal de l'entrepreneur matraqué par l'impôt, et qui doit par conséquent fuir la France.

OK, cupide

A l'autre bout du spectre des personnes soumises à l'ISF, Liliane Bettencourt, l'héritière milliardaire de l'empire L'Oréal, vient de décéder, au grand dam des commentateurs qui en avaient fait l'égérie de la fortune oisive et des limites de l'ISF.

Ayons une petite pensée pour sa fille et ses petits-enfants : on se dit évidemment que ce n'est pas mal d'être son héritier parce qu'on devient milliardaire, et que c'est plutôt confortable comme vie. Mais c'est d'autant mieux lorsqu'on se rend compte que la fortune appelle la fortune. Et c'est ça qui est à la base de la répartition inégale de richesse.

En effet, la théorie traditionnelle des dynamiques des inégalités repose sur l'hypothèse de différences de compétences, qui mènent naturellement à des différences de revenus. On peut ensuite transformer cette différence de revenus en différence d'épargne et donc de fortune. Or la théorie suggère que pour générer les niveaux d'inégalité de patrimoine observés dans le monde réel, on ne peut pas juste se reposer sur ces différences de compétences/revenus. Deux ingrédients supplémentaires semblent fournir une explication solide : premièrement des taux de rendements du capital qui sont aléatoires, autrement dit des coups de bol massifs (trouver une mine d'or, investir dans Facebook à ses débuts ou encore... être un paysan de l'île de Ré !). Deuxièmement, une corrélation positive entre fortune et rendement, c'est-à-dire plus on est riche, meilleur est le taux auquel on peut placer son épargne. Piketty dans son livre Le Capital au XXIe siècle fournit des données validant cette hypothèse. Ce dernier point est particulièrement important, car il montre que les inégalités de patrimoine ont tendance à se perpétuer.



Iffy

Alors voilà, est-ce que c'est grave que certaines personnes soient plus riches que d'autres ? Au-delà de la simple jalousie ("pourquoi ils sont riches, eux, et pas moi ? Qu'on les taxe pour que j'en aie plus !"), le consensus s'établit de plus en plus parmi les économistes pour dire que les inégalités sont néfastes pour l'économie dans son ensemble (voir le post précédent par exemple, ou encore ce que dit Piketty).

On dirait pas comme ca,
mais cet homme ne vous veut pas du bien
Alors que faire ? L'approche anglo-saxonne consiste à accorder des abattements fiscaux pour certains types de dépenses caritatives. Mais il faut bien préciser que la capacité des ultra-riches à guider les politiques publiques par ce biais est une tendance très inquiétante. Aux États-Unis par exemple, Bill Gates s'est mis en tête d’utiliser ses milliards pour établir un curriculum commun pour les enfants américains : rien que de bien naturel me direz-vous, et puis Bill a une bonne bouille. Mais on trouvera sûrement plus inquiétants les frères Koch et leur programme scolaire créationniste ou Peter Thiel et ses projets de société ultra-libertaires. Bref, il y a quand même matière à s'inquiéter.

Restons donc dans le cadre de l'impôt direct, dont on a vu en première partie qu'il peut être un outil économiquement cohérent. La proposition (utopique) de Piketty est de créer un impôt mondial en se basant sur une définition du capital la plus large possible, ce qui au final n'est pas si loin de l'ISF en France, à ceci près que la dimension mondiale devrait permettre de réduire les possibilités d'arbitrage fiscal.

On peut envisager deux utilisations pour cette manne. Tout d'abord, dans un contexte de stagnation économique, l'Etat pourrait investir dans des projets à fort rendement social mais dont le rendement économique à court et moyen terme est très incertain (par exemple les énergies vertes, la rénovation des habitats ou, en poussant un peu, le nucléaire). Ceci serait tout particulièrement utile dans le cas où la stagnation est causée par une forte aversion au risque des investisseurs privés (suite à une crise financière globale, au hasard), car l'Etat a souvent les reins plus solides sur le long terme que la plupart des capitaux privés. Notons cependant qu'il s'agit de mettre cet argent entre les mains de gens comme Trump ou Hollande : punir les riches certes, mais à ce point-là !

Deuxièmement, l'Etat a la possibilité de redistribuer les revenus de l'impôt aux moins aisés. Mais chez Economiam, on a du mal à voir comment ce seul instrument permettrait de réduire efficacement et durablement les inégalités de patrimoine. En effet, il existe des barrières sociales/comportementales avérées (voir ici ou encore Esther Duflo), qui rendent difficile l'accumulation de patrimoine chez les plus pauvres. Cela nous amène à penser qu'en pratique l'imposition n'est pas une panacée et ne donc peut être qu'un instrument parmi d'autres pout parvenir à plus d'égalité économique. En corollaire, la réforme de l'ISF en IFI est un leurre : hormis l'aspect très symbolique de la forme que l'impôt sur la fortune prend en France, on argumente ici qu'il n'est ni aussi absurde, ni aussi efficace que d'aucuns prétendent (et certainement beaucoup plus neutre que les passions qu'il déchaîne !). Et puis il ne faut pas oublier le secteur immobilier est un secteur productif comme les autres (il sert à produire des logements...) donc l'investissement dans la pierre n'est pas plus oisif que celui dans Bitcoin ou Facebook. Pour reprendre Jean Peyrelevade et répondre à la discussion de comptoir sur l'ISF, cette réforme n'est "ni de gauche ni de droite mais maladroite".

Chez Economiam, on pense donc qu'il faut ouvrir un autre front, celui de la constitution d'épargne individuelle. Comme on l'a expliqué plus haut, il y a certaines barrières comportementales qu'il faut aider à franchir. Cela passe par une amélioration de l'éducation économique et financière en France. De plus, certains outils comme l'épargne salariale pourraient être des options par défaut pour les salariés (une solution de type "nudge"). Ensuite, pour profiter de la corrélation positive entre rendement et épargne, on pourrait inciter les particuliers à se regrouper pour la gestion de leurs actifs en vue de la retraite notamment, comme le font beaucoup les fonctionnaires ou enseignants nord-américains. Enfin, comme on l'a déjà dit par ailleurs, se fier à un instantané pour se prononcer sur les inégalités est trompeur : la mobilité est un paramètre essentiel aussi. Les deux propositions ci-dessus devraient faire beaucoup plus qu'un coup de rabot sur les grandes fortunes...