Random phrase

dimanche 28 octobre 2018

DSGE III: Mon petit DSGE, connaît pas la crise

Une des critiques principales adressées aux modèles DSGE est qu'ils n'ont pas vu venir la crise de 2008 et la récession qui s'ensuivit. Comment peut-on alors leur faire confiance ? Dans ce post on se pose donc la question : comment savoir si notre modèle est représentatif du monde réel ?

Poppers

Il en connaît un rayon sur les crises...
Dans le post précédent, nous avons discuté d'arguments de cohérence interne pour valider les modèles de type DSGE. Ici, on attaque le problème sous un autre angle, celui de l'adéquation avec les données empiriques.

Bon évidemment on se heurte immédiatement au problème qui fait pousser des cris d'orfraie aux détracteurs de notre discipline préférée : la macroéconomie n'est pas une science car elle ne permet pas de faire des prédictions falsifiables au sens poppérien du terme (excusez du peu). Plus prosaïquement, on ne peut pas faire d'expérience en laboratoire comme en physique pour corroborer ou invalider notre théorie. On doit donc se contenter d'une analyse statistique, comparant les chiffres produits par le modèle aux données réelles sur le PIB, le chômage, etc.

Objectif subjectif

En conséquence, l'objectif du modèle est crucial ici. Pour comprendre ce point, imaginons qu'on soit Auto Magazine, et qu'on veuille noter une Jeep. Certes, qui peut le plus peut le moins, mais il ne semble pas raisonnable d'espérer une performance optimale sur tous les critères possibles. Ainsi la Jeep n'est peut-être pas très adaptée pour circuler en ville de façon économique, ou particulièrement maniable pour un créneau, mais ça n'est pas forcément très grave. En revanche, on est en droit d'attendre qu'une Jeep se débrouille bien en dehors des routes goudronnées, ce qui est son objectif affiché.

Revenons à nos modèles et au premier post de la série, dans lequel on avait cité trois types d'objectif :

  • Pédagogique : Ce genre de modèle ne vise pas à représenter précisément le monde réel, mais à transmettre des intuitions économiques de façon formalisée pour mieux en analyser les implications logiques. C'est le cas par exemple de la concurrence pure et parfaite ou des modèles d'offre et de demande, tels qu'ils sont présentés aux étudiants 
  • Prévision : De Nostradamus à Madame Soleil, en passant par Alain Gillot-Pétré, l'envie de prédire1 le futur est une constante. Certains se sont rendus compte que l'on pouvait utiliser des modèles pour prédire les phénomènes physiques, avec plus (l'astronomie) ou moins (la météorologie) de succès. Partant, l'économie aussi a commencé à s'y mettre, cherchant à prévoir les mouvements boursiers (l'appât du gain aidant) ou des variables d'intérêt pour la politique économique
  • Inférence : Les prévisions pures sont bien sûr utiles (va-t-il pleuvoir demain, et aurais-je donc besoin de mon parapluie?). Mais une autre volonté profonde de l'être humain est de modifier le passé pour changer le futur, tels le Terminator ou Marty McFly. Sauf qu'évidemment la DeLorean n'existe pas, donc il faut essayer d'anticiper les effets des différents scénarios avant leur réalisation. C'est là qu'interviennent les modèles, qui permettent de faire des expériences de pensée chiffrées sur des réalités alternatives

Système métrique

Comment alors mesurer la performance d'un modèle selon son objectif ? On laisse ici de côté l'objectif pédagogique qui est moins pertinent pour cette discussion et commençons plutôt par la prévision qui est d'une certaine façon l'objectif le plus simple à évaluer, car il suffit de comparer ce que produit le modèle avec la réalisation observée. Pour notre objet d'intérêt ici, une étude de 2010 montre que même les modèles DSGE de pointe (ici le Smets et Wouters) n'ont qu'une piètre performance en matière de prévision. Nous voyons cela sur le graphique ci-contre, qui montre la réalisation empirique du PIB aux Etats-Unis de 1992 à 2006, en fonction de la prédiction du modèle. Si la prévision du modèle était bonne, on devrait observer une droite partant de zéro, de pente 1 (la fonction identité quoi). Au lieu de cela, on observe un nuage de point, sans motif particulier.

Edge, Gurkaynak (2010)
On est donc assez loin de pouvoir prédire quoique ce soit de façon fiable avec ces modèles. Il faut quand même préciser que cette performance ne les rend pas pire qu'autre chose, vu que les autres modèles standards - et ceux qui les utilisent - sont passés à côté de la Crise, comme le montre les graphiques ci-dessous : la ligne verte est la moyenne des prévisions économiques professionnelles (en anglais, Survey of Professional Forecasters - SPF - chacune représentée par une ligne grise), tandis qu'une sélection de modèles de type DSGE sont représentés chacun par une ligne rouge. On voit clairement que les prévisionnistes se sont plantés dans les grande largeurs et que les modèles DSGE font un peu moins bien que la moyenne mais sans être complètement absurdes.

Wieland, Wolters (2012)

R2D2

Passons à l'inférence, qui suppose de comprendre les relations entre les différentes variables pour pouvoir analyser les scénarios éventuels, comme par exemple : l'inflation augmente-t-elle ou diminue-t-elle si la banque centrale augmente les taux ?

Par conséquent, au niveau le plus basique, le modèle doit être en mesure de répliquer les données disponibles, ce qu'on quantifie par sa qualité d'ajustement. Les métriques classiques sont par exemple le coefficient de détermination (plus connu sous le nom de R2) ou encore l'erreur quadratique moyenne. Une bonne vieille inspection visuelle peut aussi faire l'affaire. On montre par exemple ci-contre que le Smets et Wouters (ligne grise) se débrouille plutôt pas mal comparé aux données trimestrielles américaines de l'après-guerre (ligne noire).

Del Negro, Schorfheide, Smets, Wouters (2005)

De plus les modélisateurs DSGE rajoutent leur petit grain de sel aux mesures classiques : la réponse impulsionnelle. En effet, il est possible de simuler un monde virtuel "toutes choses égales par ailleurs" à l'aide de modèles statistiques avancés (dits vectoriels autoregressifs structurels). Le but du jeu étant de voir si le comportement du modèle DSGE est similaire à celui du modèle statistique lorsque se produit un choc (de technologie par exemple comme nous en avons mis en avant dans le premier post). C'est ce qu'utilisent notamment Christiano, Eichenbaum et Trabandt dans un article récent, défendant les modèles DSGE. On voit que la ligne pleine bleue suit très bien les contours esquissés par les modèles purement statistiques (lignes grises).


Il faut quand même noter que ce genre de comparaison suppose de valider aussi le modèle auquel on s'étalonne, donc ce genre d'argument est parfois un peu comme le serpent qui se mord la queue ! Nous rentrerons dans plus de details sur ce point, ainsi que d'autres aspects statistiques dans un post séparé.

Just missing the point

Malgré tout, il y a un aspect un peu embêtant dans la recherche actuelle sur les modèles DSGE : il y a eu très peu de recherche sur la modélisation de la Grande Dépression de 1929. Certes certains modèles de taille réduite ont été développés au tournant de ce siècle, mais plutôt dans un but d'histoire économique. Economiam n'a ainsi pas trouvé de traces de tentatives d'estimer des modèles néo-keynésiens (comme par exemple celui de Smets et Wouters) sur les données de cette époque, même après la Crise de 2008 (si quelqu'un connaît des papiers, on est preneurs).

Pourtant, il semble logique d'attendre de ces modèles qu'ils capturent la crise la plus marquante du XXe siècle, car c'est là la justification principale de leur existence. Rappelons en effet qu'ils prétendent se baser sur des invariants de comportements humains, ce qui les rendrait plus fiables que les modèles purement statistiques (qui ont du mal à capturer les réalités très différentes à la fois de 1929 et de maintenant). On pense donc chez Economiam qu'un DSGE qui connaîtrait la Crise (de 1929) aurait vu plus loin que le bout de son nez en 2008...

-------------------------------------------------------------------
1. Il semblerait que le lexique n'ait pas complètement convergé entre prédiction et prévision dans le monde de la data science francophone, à cause de l'anglicisme sur prediction (utilisé par exemple dans le très populaire Introduction to Statistical Learning) qui se distingue peu d'après le Oxford Dictionary de forecast. Ce dernier n'a cependant pas obtenu les mêmes galons de coolitude dans le cénacle des buzzwords du Big Data.

mardi 18 septembre 2018

DSGE II: Micromégas

Feu Philip Seymour Hoffman, l'acteur oscarisé pour son interprétation magistrale de Truman Capote dans le film éponyme aurait dit: "Je pense que les bons artistes, au risque d'être pédant, s'occupent du micro pour expliquer le macro". Au-delà du fait que l'origine de cette citation est invérifiable, on voit déja les mauvaises langues se délier pour dire que son addiction à la drogue l'a transformé en économiste néoclassique... Bref, plus que jamais, le monde des modèles DSGE se veut chimérique ! On s'intéresse ainsi maintenant aux fondations microéconomiques de ces modèles macroéconomiques.

Du bienfondé des microfondations

De SanG froid... E
Au sein des débats sur les modèles DSGE, les microfondations sont l'un des aspects les plus critiqués. De quoi parle-t-on là? Si l'on revient au post précédent, il s'agit du choix de représenter les consommateurs et les entreprises individuellement, et d'agréger leurs interactions microéconomiques (négociations salariales, maximisation des profits) pour expliquer les phénomènes macroéconomiques (variations du PIB, du chômage, etc.) plutôt que de chercher à modéliser ces derniers directement.

Faisons tout de suite une mise au point : nombre de discussions mélangent allègrement le choix de partir d'une modélisation microéconomique avec la façon de modéliser ces comportements individuels. Expliquons-nous : les individus de cette économie ne sont pas vraiment votre tata Monique ou papy Raymond, mais des représentations mathématiques simplifiées. Le choix des représentations peut être plus ou moins judicieux : on peut par exemple supposer que tout le monde se comporte de façon rigoureusement identique, ce qui est, on le verra dans un post séparé, une hypothèse très forte. En attendant, on se concentre ici sur le concept même de modéliser les comportements individuels plutôt que les quantités agrégées directement, comme le font par exemple IS-LM ou OG-DG (voir chapitre 3.1 de Fluctuations et Crises).

Microcosmos

Alors pourquoi se casser la tête à partir des individus pour représenter l'économie? Après tout, dans les sciences naturelles, cette approche n'est pas forcément suivie: il n'y a qu'à voir la mécanique classique, qui analyse la chute des corps et le mouvement des astres sans se préoccuper des interactions entre les atomes qui les composent.

La raison est notamment à trouver du côté des facultés d'adaptation de l'être humain : n'étant pas des rats de laboratoire, nos comportements, notamment grégaires, changent au cours du temps ou au gré des victoires (ou défaites) en coupe du monde. Les relations agrégées sont donc nécessairement de nature purement statistique, basées sur quelques dizaines ou au mieux centaines d'observations vu la faible fréquence des données macroéconomiques. On est très loin du big data, ce qui nous expose à des problèmes de validité statistique (on parlera dans un autre post des problèmes d'estimation dans le contexte des modèles DSGE). Et même avec de meilleures données, on n'est toujours pas à l'abri d'un changement de régime qui invaliderait le modèle pourtant plutôt représentatif jusque-là.

C'est l'essence de la critique de Lucas, qui postule de facto l'existence d'invariants dans nos comportements (individuels ou grégaires), qu'il convient donc d'isoler afin de rendre la modélisation aussi rigoureuse que possible. Prenons par exemple la courbe de Phillips, du nom de l'économiste britannique qui constata une forte régularité de la relation entre inflation et taux de chômage au Royaume-Uni entre 1860 et 1957. Pendant un temps, ceci avait aussi l'air de fonctionner pour les États-Unis : sur le graphique ci-contre, le taux d'inflation (en ordonnées) exprimé en fonction du taux de chômage (en abscisse) forme une jolie courbe bien régulière pour les années 50 et 60.

Les pouvoirs publics ont alors tenté d'utiliser cette observation pour réduire le chômage, au prix d'un peu d'inflation. Malheureusement, l'inflation commença à s'emballer dans les années 70, au fur et à mesure que les gens se sont mis à ajuster leurs attentes d'inflation, ce qui eut pour effet de casser cette relation empirique. On voit ceci dans le graphique, dans lequel il est impossible de tracer une courbe du même genre à partir de 1970 (voir aussi chapitre 4.3.2 de Fluctuations et Crises).

D'un point de vue mathématique, cette relation, vue des années 50 et 60, dit juste que :

π = f(U)

Où π est l'inflation, U le chômage (de l'anglais unemployment) et f une fonction (on pourrait ici choisir la fonction inverse f(U) = 1/U vu la forme des données). Cette relation marche donc plutôt bien dans un premier temps, puis est invalidée par les données sans crier gare.

C'est ici qu'on voit le potentiel des microfondations : baser la modélisation macroéconomique sur celles-ci a pour but de la rendre plus robuste, en y injectant les résultats (souvent probants) de la microéconomie. Objectif ambitieux d'un point de vue mathématique mais pas dénué de sens. Dans le cas de la courbe de Phillips, la modélisation microfondée (qu'on épargnera au lecteur, voir ici pour plus de détails) donne un résultat bien différent, et injecte notamment les anticipations d'inflation, conformément à l'intuition de Phelps et Friedman (et à l'observation empirique des années 70):


πt = β Et πt+1 + γ yt

Où πt est l'inflation aujourd'hui, Et πt+1 est l'anticipation d'inflation pour la prochaine période, β l'escompte, yt l'écart de production et γ un coefficient.

Alors, une panacée les microfondations? Le lecteur avisé aura flairé l'arnaque dans l'équation ci-dessus : on ne parle plus de chômage ! Et il y a une raison (pas si bonne) à ça : on ne sait pas quelle microfondation utiliser pour construire la relation macro voulue entre inflation et chômage. C'est juste que c'est compliqué mathématiquement et qu'il faut faire de la recherche ! Et puis ces invariants sont-ils si invariants que ça ? On se souviendra notamment de ce post qui rapporte les différences de comportement face au partage selon le contexte culturel de l'expérience microéconomique. Ca n'est pas nécessairement insurmontable mais ça mérite encore plus de recherche...



Suspicion of Mass Destruction

Pour clore ce post, et pour dissiper des idées préconçues erronées, il convient de mentionner le théorème dit de Sonnenschein Mantel Debreu (SMD), du nom des trois économistes qui se sont penchés sur le sujet. Ce théorème est fréquemment invoqué comme démontrant la vacuité des théories économiques néolibérales. Sans rentrer dans des débats gauche-droite un peu vaseux, on peut résumer l'argument comme suit : les microfondations sont une construction absurde à laquelle on peut faire dire ce qu'on veut, d'où le sobriquet de SMD: Anything goes theorem. Dit autrement, faux implique n'importe quoi.

Sauf que SMD ne dit pas vraiment ça... Voyons cela plus en détail : la fonction de demande nette agrégée, qui est la somme sur tous les marchés de la différence pondérée par son prix entre offre et demande pour le bien échangé sur le dit marché, caractérise complètement l'équilibre général. Dans ce cadre théorique assez précis, SMD nous apprend que la forme générale d'une fonction de demande nette agrégée n'est pas très contraignante. En particulier, il existe toutes sortes de fonctions respectant les propriétés génériques communes mais qui sont pathologiques au sens économique, car impliquant plusieurs (voire une infinité) d'équilibres possibles, des équilibres instables, etc. Ce que dit donc SMD, c'est que sans faire des hypothèses plus fortes sur notre économie que celles de base de la théorie de l'équilibre général, alors on ne peut pas écarter ces situations bizarroïdes de notre univers des possibles.



Mais cela n'invalide pourtant pas le principe de modélisation microfondée pour autant, car SMD ne dit pas que les microfondations vont systématiquement mener à un équilibre macroéconomique absurde. Et en pratique c'est même bien le contraire, car justement les choix particuliers amènent ce supplément de structure qui manque au cas général.

En conclusion, les microfondations sont un espèce de Graal de la modélisation, permettant d'apporter de la substance à des relations empiriques, l'économie ne bénéficiant pas de la même régularité observationnelle que les sciences naturelles. Elles sont cependant critiquées car malheureusement devenues l'Alpha et l'Omega de la macroéconomie, négligeant le fait que de trouver des microfondations solides est une gageure, et que cela se fait souvent au détriment du bon sens.

 
On se quitte sur l'énoncé du théor
ème, en essayant de rendre intelligible sa brutalité mathématique :
  • Soit N le nombre de biens (et de prix) observés dans notre économie.
  • Soit Pε l'ensemble des vecteurs de prix p qui peuvent exister (positifs et satisfaisant une condition mineure au bord) : c'est l'ensemble des configurations de prix que notre économie peut prendre
  • Soit f une fonction de ces prix, qui doit posséder les caractéristiques suivantes :
    • Etre continue (on peut la tracer sans lever le crayon)
    • Etre homogène de degré zéro, c'est-à-dire que si on multiplie tous les prix par un même nombre, alors les valeurs que prend f sont inchangées (les fonctions constantes sont par exemple de degré zéro).
    • Satisfaire à la loi de Walras, qui dit que p . f(p) = 0 (il s'agit d'un produit scalaire vu que l'on considere des vecteurs
  • Alors il existe une économie d'échange telle que f soit la fonction d'excès de demande, associant à chaque prix l'excès de demande correspondant, pour chaque marché. L'homogénéité de degré zéro est logiquement attendue d'une fonction de demande, car on s'attend à ce qu'elle ne change que lorsque les prix relatifs changent. Quant à la loi de Walras, ceci n'est autre que la contrainte de budget dans une économie d'échange : la valeur des dotations initiales doit être égale à la valeur des attributions finales.

mardi 10 juillet 2018

DSGE: Je monte, je valide !

Chez Economiam, on aime les débats, mais on n'aime pas quand ils sont stériles. Alors on s'attaque à du lourd aujourd'hui, le cœur de la modélisation macroéconomique standard, telle qu'on peut la trouver dans les banques centrales. Ne décrochez pas tout de suite! C'est en se basant sur ces modèles, les fameux DSGE, que Janet, Mario et les autres prennent leurs décisions, celles qui impactent directement votre vie. Et si vous fermez la page maintenant, vous n'aurez plus non plus le droit de vous plaindre que la discipline économique est trop mathématique ! Economiam vous emmène donc en douceur dans ce monde chimérique pour comprendre comment on valide un modèle.

Dans le cambouis

DS...
Dans les réseaux sociaux, comme dans les canaux institutionnels un peu plus conventionnels, on parle beaucoup de "ces modèles qui n'ont pas vu venir la crise". Les analyses, mêmes sérieuses, évitent soigneusement de rentrer dans les détails techniques, et résultat les gens ne savent pas trop ce qu'on critique. Chez Economiam, on pense que c'est une erreur, et que, comme une image, une équation vaut mille mots (enfin presque...). C'est juste qu'on en voit moins souvent dans le journal!

 


Prenons donc le modèle Dynamic Stochastic General Equilibrium (DSGE) de base, on le montre ici brut de décoffrage dans sa splendeur mathématique (si ça vous fait peur sautez directement jusqu'au texte qui suit):


Qu'est ce qu'il se passe là dedans? On postule que l'économie est régie par les principes suivants:

  • On considère les interactions entre ménages et entreprises, afin d'en déduire les quantités agrégées comme le PIB (au lieu de modéliser ce dernier directement par exemple)
  • Les ménages choisissent leurs dépenses (C) et leurs heures travaillées (H) à toutes périodes dans le futur de façon à refléter au mieux leurs préférences en terme de consommation et de loisirs
  • Les entreprises sont en situation de concurrence pure et parfaite. Elles choisissent leur niveau d'investissement (I), de façon à maximiser leur profit, en tenant compte de leurs besoins en heures travaillées et en capital (K qui se deprécie d'une période sur l'autre)
  • De plus, la consommation et l'investissement doivent égaler la production (il n'y a pas de valeur créée à partir de rien)
  • Il y a des chocs de productivité (z) qui sont aléatoires. Comme on l'explique dans Fluctuations et Crises, toute l'incertitude et par conséquent les crises économiques sont résumées au sein de ces chocs, qu'on peut interpréter comme des progrès ou régressions technologiques


Donnez moi un D! Donnez moi un S ! ...

Comme le fait Anton Korinek de l'université Johns Hopkins, il convient d'expliquer en quoi cette classe de modèle est Dynamique, Stochastique et à Equilibre Général:

  • S comme Stochastique : Comme on l'a vu, il y a une composante aléatoire (autrement appelée stochastique) via les chocs de productivité. Celle-ci est censée représenter la notion que les crises sont imprévisibles car logiquement, si les gens sont parfaitement rationnels, ils feraient tout pour les éviter et donc elles ne se matérialiseraient jamais
  • D comme Dynamique: Les ménages et les entreprises vont toujours chercher à faire au mieux (à optimiser comme on dit), et à s'adapter à toutes les situations, ce qui est utile quand on cherche à comprendre l'impact desdits chocs ci-dessus. En étendant la représentation pour y inclure une banque centrale ou un gouvernement, on peut par exemple s'atteler à comprendre les problèmes d'incohérence temporelle, en d'autres termes savoir si les décideurs économiques sont crédibles, ou s'ils vont renâcler à la moindre occasion (tel notre ami Boris Johnson)
  • GE comme Equilibre Général (enfin, on se comprend...) : Trouver la solution de ce système d'équations permet donc de déterminer la valeur des différents éléments (salaires, production, etc.) dans tous les scénarios possibles. Comme on considère que ces équations représentent l'économie dans son ensemble, cette solution est ce qu'on appelle un équilibre général (le GE de DSGE), par opposition à un équilibre partiel, où certains éléments seraient déterminés par ailleurs et injectés dans le système

Il y a un aspect supplémentaire qui fait beaucoup parler, les fondements microéconomiques (ou microfondations en bon franglais). C'est quoi ce truc? Et bien c'est la réponse que les modélisateurs ont trouvée pour pouvoir représenter proprement des réalités alternat
GE...
ives, le fameux ceteris paribus ou "toutes choses égales par ailleurs" appliqué à l'économie. La génération de modèles précédente n'en était pas vraiment capable, ce qui a poussé Robert Lucas (Prix Nobel d'économie 1995 et ancien président de l'Association des économistes américains) à les remettre en cause violemment, ce qu'on appelle la critique de Lucas. Les microfondations répondent donc à ce problème en essayant d'agréger les composantes économiques élémentaires (les ménages, les entreprises...), en s'appuyant sur les préférences à un niveau microéconomique. Ces préférences sont ainsi supposées invariantes avec la conjoncture (par exemple mon goût pour les glaces ne dépend pas de la situation économique globale). Ce sujet mérite un post à part entière, donc on en restera là pour le moment, mais on notera juste que passer du micro au macro est loin d'être évident.



Ah bah oui, forcément...

Revenons à ces magnifiques mathématiques: pour rendre le modèle plus facile à résoudre on fait notamment les hypothèses suivantes :

  • Les ménages sont agrégés en un seul agent, dit représentatif. On ne doit alors résoudre que pour un seul choix de consommation et d'heures travaillées 
  • De surcroît, cet agent représentatif est immortel, ce qui permet d'écrire une somme infinie et de s'abstraire des questions d'épargne et de transmission d'héritage 
  • Ces mêmes ménages sont dotés d'une capacité de calcul infinie (la chance !) qui leur permet d'optimiser leurs décisions économiques pour toute éternité. On appelle ça les anticipations rationnelles (ou Homo economicus avec une pointe d'ironie)
  • Il est possible de produire n'importe quelle quantité de biens et services, ainsi que d'emprunter autant que nécessaire, et ce dans tous les états du monde. Les marchés sont dits complets.

On notera aussi qu'il n'y a pas de monnaie, pas de rôle de l'Etat et pas de commerce international. Mais c'est plus un choix de présentation de ce post, car on considère ici le noyau dur des modèles DSGE, dit Real Business Cycle initialement développé par Kydland et Prescott (qui leur valu le prix Nobel en 2004). Cependant le modèle standard, dit Néo-keynésien, introduit bien la monnaie, et des extensions standards considèrent explicitement l'Etat ainsi que les économies ouvertes.

Bien évidemment, ces hypothèses en surprendront plus d'un, car on le sait bien :

  • Nos économies sont composées de dizaines ou centaines de millions d'individus, de tous âges, exerçant des métiers différents, certains riches, certains pauvres.
  • Les gens meurent !
  • Ce modèle est déjà difficile à résoudre pour des étudiants du supérieur équipés d'un ordinateur, alors imaginer que les gens résolvent ce programme d'optimisation dans leur tête, il faut être zinzin!

Mais on voit aussi que les civilisations extraterrestres ne sont pas représentées. Est-ce pour autant grave? Car il faut bien rappeler que les modèles sont une représentation schématique et simplifiée du monde. C'est Rodrik qui reprend l'image des cartographes de Borges, qui sont tellement obsédés par la précision que leur carte est à l'échelle 1:1 ! Toutes ces critiques ne se valent donc pas.

On va donc discuter dans une série d'articles du bien-fondé de ces hypothèses, ainsi que des techniques utilisées pour résoudre ces modèles en utilisant quelques principes de base de la validation de modèle:

  • L'objectif du modèle (prédiction, inférence, pédagogique...) est crucial dans son évaluation. Allez essayer de prédire la prochaine crise avec IS-LM! Mais son but avoué étant pédagogique, il serait injuste de le considérer à cette aune. C'est aussi ce que dit implicitement Olivier Blanchard au sujet des toy models dans un post de l'an dernier.
  • L'importance effective des hypothèses ne peut pas s'évaluer uniquement à l'aide de raisonnements de bon sens. Il faut relâcher les hypothèses en question, de préférence en partant de la même base, soit utiliser des modèles alternatifs, même s'il faut là encore faire attention à la spécification de ces alternatives
  • La cohérence interne est une nécessaire mais pas suffisante pour pouvoir donner une évaluation positive. Cette cohérence interne peut être de plusieurs ordres : tout d'abord purement mathématique, c'est à dire que si par exemple 1 + 1 ne font pas 2 dans le modèle, il y a clairement un problème. Elle peut aussi venir de la théorie économique : les équations présentées ci-dessus s'intègrent avec la comptabilité nationale et tiennent compte des facteurs de production.
  • Mais former un tout cohérent ne peut se substituer à la confrontation aux données réelles. C'est ici que les principaux reproches peuvent être adressés aux DSGE, et que l'économie de pointe montre à quel point elle a (eu) tendance à être juste une approche scientifique à défaut d'être une science. Notamment, historiquement ces modèles sont "calibrés", ce qui est une belle façon de dire qu'on regarde à la louche si le modèle reflète certains aspects des données, sélectionnés avec soin, en lieu et place d'une évaluation statistique rigoureuse (très complexe ici, il faut l'admettre). 

La conclusion de tout ça pour Economiam c'est qu'il faut plus de maths, pas moins! En ça je contredis assez frontalement Antoine Belgodère, mais j'espère pouvoir bien cimenter mon cas dans les prochains posts.

mercredi 3 janvier 2018

ISF, IFI... : Ah si j'étais riche !

Discussion de comptoir :
- Supprimer l'ISF, c'est juste faire un cadeau aux riches ! T'as vu les yachts et les jets privés !
- Mais non, l'ISF ne sert à rien à part faire fuir les plus gros contribuables : trop d'impôts tue l'impôt !
- De toute façon il faut fermer la bourse, les riches ont beaucoup trop, il faut taxer toutes les formes de capital, pas que l'immobilier, pour prendre aux riches et donner aux pauvres !
- L'ISF coûte plus cher qu'il ne rapporte !

Pas très constructif tout ça. Sauf que cette discussion se produit en ce moment par médias interposés, en lieu et place d'une analyse économique rationnelle concernant le remplacement de l'Impôt Sur la Fortune (ISF) par l'Impôt sur la Fortune Immobilière (IFI). Donc chez Economiam, on ne se fait pas prier pour pallier à ce manque !


Se méfier de l'eau qui dort

Est-il possible que certains aient trop d'argent...
Le candidat Macron proposait de réformer l'ISF en le concentrant uniquement sur la propriété immobilière, opposant l'investissement "productif" (dans les actions, etc.) à la pierre et la terre, masses inertes qui ne produisent selon lui que des rentes. L'idée globale est donc de booster la croissance française en favorisant les esprits créatifs (les "startupeurs" diraient ironiquement les partisans de la France Insoumise). Ca reste vague, et pour Economiam, ça passe complètement à côté des vraies problématiques de la possession du capital, tout en créant beaucoup de bruit pour rien.

Celles-ci sont :

  • L'ISF est-il un impôt néfaste ? Où l'on retrouvera les fameux paysans millionnaires de l'île de Ré.
  • Pourquoi la possession de capital est-elle aussi inégale ? Où l'on verra que c'est pas mal d'être l'héritier de Liliane Bettencourt.
  • C'est grave cette inégalité de richesse ? Et si oui, que faut-il y faire ? Où l'on retrouvera un peu Piketty et bien sûr l'IFI de Macron en application.

 

Il est l'or, mon seignor...

Alors, est-il néfaste cet ISF ? La réponse est malheureusement qu'on ne sait pas vraiment (pardon pour l'arnaque d'économiste à deux bras) ! On propose ici deux pistes de réflexion :
  • L'ISF est-il spécial ? Oui, mais il ne l'est pas tant parce qu'il vise les riches que par sa base de prélèvements. En effet, contrairement à l'impôt sur le revenu ou la TVA, il n'est pas calculé sur la base d'échanges monétaires (les flux) mais comme une fraction de la valeur de ce qu'on possède (autrement appelé le stock, ou capital). Il est donc par corollaire difficile à évaluer car il repose sur des estimations ("Que vaut cet appartement ? Ou ce Picasso ?") plutôt que sur des transactions réelles. Dans ce qui suit, pour être clair, on va référer de façon un peu abusive à l'ISF, pour parler en fait d'un impôt plus général sur le stock de capital. 
  • Est-ce un impôt distorsif ? La théorie économique de l'imposition repose sur un constat central : l'impôt implique de trouver l'équilibre entre lever des fonds pour assurer le bon fonctionnement des administrations publiques et ne pas trop décourager l'activité économique du secteur privé. Bizarrement, cette théorie est plutôt démunie face à l'imposition du stock de capital, les analyses classiques se concentrant uniquement sur les flux (voir Atkinson-Stiglitz et Chamley-Judd, en section 2 de cet article). Malgré cela, si l'on remarque que l'imposition du stock de capital est équivalente à substituer une taxe affine à une taxe purement linéaire sur les revenus du capital, cela vaut quand même le coup de regarder les résultats classiques de plus près. Retenons donc que l'imposition des revenus du capital a historiquement été considérée comme néfaste, mais que cela est en train de changer. L'idée est la suivante : l'épargne (qui n'est rien d'autre qu'une accumulation de capital) consiste à différer sa consommation d'aujourd'hui pour être en mesure de consommer plus dans le futur. Or taxer aujourd'hui un euro qui aurait sinon été consacré à de l'épargne se répercute alors pour très longtemps dans le futur (par effet de composition) et décourage l'épargne et réduit l'investissement en conséquence. Cette vision est cohérente avec la notion que l'ISF chasse les entrepreneurs de France. Ceci a cependant été remis en cause d'un point de vue empirique par Zucman, et d'un point de vue théorique par Piketty et Saez (prenant en compte l'héritage) ou Straub et Werning (plus sous l'angle de la validité mathématique de la théorie classique). Certains vont même plus loin en considérant que l'ISF serait pigouvien, c'est-à-dire qu'il incite à des comportements vertueux, car il pousse à faire fructifier son argent plutôt qu'à s'endormir dessus comme un vieux papy.

Exercice d'application : les "paysans de l'île de Ré", ces petits producteurs qui se retrouvent à payer plus d'ISF qu'ils n'ont de revenus à cause de la flambée du prix des terres agricoles qu'ils possèdent sur cette île très prisée des vacanciers.

Passons outre le fait que les articles de presse interviewent toujours le même couple de retraités (à se demander s'il y a bien un groupe de "paysans de l'île de Ré"...), on voit quand même bien qu'en pratique taxer le stock de capital est compliqué car on ne peut pas forcément vendre 2% de son bien tous les ans pour payer l'impôt.

En revanche, côté incitations, on se rend compte que ces personnes sont assises sur un sacré magot qu'elles pourraient monétiser du jour au lendemain. C'est triste de devoir quitter la maison familiale, mais le fait qu'elles y aient un attachement émotionnel ou qu'elles refusent de la faire fructifier n'y change rien. Ceci plaide plutôt en faveur d'un effet pigouvien de l'ISF, avec une fortune qui est ici héritée, dans le sens où ces personnes n'ont rien fait que d'être au bon endroit au bon moment (financièrement parlant). De plus, on constate que ces personnes choisissent de se battre sur place plutôt que de s'exiler fiscalement, ce qui va là encore à l'encontre de l'image d'Epinal de l'entrepreneur matraqué par l'impôt, et qui doit par conséquent fuir la France.

OK, cupide

A l'autre bout du spectre des personnes soumises à l'ISF, Liliane Bettencourt, l'héritière milliardaire de l'empire L'Oréal, vient de décéder, au grand dam des commentateurs qui en avaient fait l'égérie de la fortune oisive et des limites de l'ISF.

Ayons une petite pensée pour sa fille et ses petits-enfants : on se dit évidemment que ce n'est pas mal d'être son héritier parce qu'on devient milliardaire, et que c'est plutôt confortable comme vie. Mais c'est d'autant mieux lorsqu'on se rend compte que la fortune appelle la fortune. Et c'est ça qui est à la base de la répartition inégale de richesse.

En effet, la théorie traditionnelle des dynamiques des inégalités repose sur l'hypothèse de différences de compétences, qui mènent naturellement à des différences de revenus. On peut ensuite transformer cette différence de revenus en différence d'épargne et donc de fortune. Or la théorie suggère que pour générer les niveaux d'inégalité de patrimoine observés dans le monde réel, on ne peut pas juste se reposer sur ces différences de compétences/revenus. Deux ingrédients supplémentaires semblent fournir une explication solide : premièrement des taux de rendements du capital qui sont aléatoires, autrement dit des coups de bol massifs (trouver une mine d'or, investir dans Facebook à ses débuts ou encore... être un paysan de l'île de Ré !). Deuxièmement, une corrélation positive entre fortune et rendement, c'est-à-dire plus on est riche, meilleur est le taux auquel on peut placer son épargne. Piketty dans son livre Le Capital au XXIe siècle fournit des données validant cette hypothèse. Ce dernier point est particulièrement important, car il montre que les inégalités de patrimoine ont tendance à se perpétuer.



Iffy

Alors voilà, est-ce que c'est grave que certaines personnes soient plus riches que d'autres ? Au-delà de la simple jalousie ("pourquoi ils sont riches, eux, et pas moi ? Qu'on les taxe pour que j'en aie plus !"), le consensus s'établit de plus en plus parmi les économistes pour dire que les inégalités sont néfastes pour l'économie dans son ensemble (voir le post précédent par exemple, ou encore ce que dit Piketty).

On dirait pas comme ca,
mais cet homme ne vous veut pas du bien
Alors que faire ? L'approche anglo-saxonne consiste à accorder des abattements fiscaux pour certains types de dépenses caritatives. Mais il faut bien préciser que la capacité des ultra-riches à guider les politiques publiques par ce biais est une tendance très inquiétante. Aux États-Unis par exemple, Bill Gates s'est mis en tête d’utiliser ses milliards pour établir un curriculum commun pour les enfants américains : rien que de bien naturel me direz-vous, et puis Bill a une bonne bouille. Mais on trouvera sûrement plus inquiétants les frères Koch et leur programme scolaire créationniste ou Peter Thiel et ses projets de société ultra-libertaires. Bref, il y a quand même matière à s'inquiéter.

Restons donc dans le cadre de l'impôt direct, dont on a vu en première partie qu'il peut être un outil économiquement cohérent. La proposition (utopique) de Piketty est de créer un impôt mondial en se basant sur une définition du capital la plus large possible, ce qui au final n'est pas si loin de l'ISF en France, à ceci près que la dimension mondiale devrait permettre de réduire les possibilités d'arbitrage fiscal.

On peut envisager deux utilisations pour cette manne. Tout d'abord, dans un contexte de stagnation économique, l'Etat pourrait investir dans des projets à fort rendement social mais dont le rendement économique à court et moyen terme est très incertain (par exemple les énergies vertes, la rénovation des habitats ou, en poussant un peu, le nucléaire). Ceci serait tout particulièrement utile dans le cas où la stagnation est causée par une forte aversion au risque des investisseurs privés (suite à une crise financière globale, au hasard), car l'Etat a souvent les reins plus solides sur le long terme que la plupart des capitaux privés. Notons cependant qu'il s'agit de mettre cet argent entre les mains de gens comme Trump ou Hollande : punir les riches certes, mais à ce point-là !

Deuxièmement, l'Etat a la possibilité de redistribuer les revenus de l'impôt aux moins aisés. Mais chez Economiam, on a du mal à voir comment ce seul instrument permettrait de réduire efficacement et durablement les inégalités de patrimoine. En effet, il existe des barrières sociales/comportementales avérées (voir ici ou encore Esther Duflo), qui rendent difficile l'accumulation de patrimoine chez les plus pauvres. Cela nous amène à penser qu'en pratique l'imposition n'est pas une panacée et ne donc peut être qu'un instrument parmi d'autres pout parvenir à plus d'égalité économique. En corollaire, la réforme de l'ISF en IFI est un leurre : hormis l'aspect très symbolique de la forme que l'impôt sur la fortune prend en France, on argumente ici qu'il n'est ni aussi absurde, ni aussi efficace que d'aucuns prétendent (et certainement beaucoup plus neutre que les passions qu'il déchaîne !). Et puis il ne faut pas oublier le secteur immobilier est un secteur productif comme les autres (il sert à produire des logements...) donc l'investissement dans la pierre n'est pas plus oisif que celui dans Bitcoin ou Facebook. Pour reprendre Jean Peyrelevade et répondre à la discussion de comptoir sur l'ISF, cette réforme n'est "ni de gauche ni de droite mais maladroite".

Chez Economiam, on pense donc qu'il faut ouvrir un autre front, celui de la constitution d'épargne individuelle. Comme on l'a expliqué plus haut, il y a certaines barrières comportementales qu'il faut aider à franchir. Cela passe par une amélioration de l'éducation économique et financière en France. De plus, certains outils comme l'épargne salariale pourraient être des options par défaut pour les salariés (une solution de type "nudge"). Ensuite, pour profiter de la corrélation positive entre rendement et épargne, on pourrait inciter les particuliers à se regrouper pour la gestion de leurs actifs en vue de la retraite notamment, comme le font beaucoup les fonctionnaires ou enseignants nord-américains. Enfin, comme on l'a déjà dit par ailleurs, se fier à un instantané pour se prononcer sur les inégalités est trompeur : la mobilité est un paramètre essentiel aussi. Les deux propositions ci-dessus devraient faire beaucoup plus qu'un coup de rabot sur les grandes fortunes...

jeudi 14 septembre 2017

Pendant ce temps là... (09/17)

Deuxième édition d'une série (pour le moment très ponctuelle) qui regarde ce qu'il se passe ailleurs sur la toile. Aujourd'hui dans l'éconosphère américaine, les bloggeurs se demandent pourquoi les entreprises ont l'air de se faire autant d'argent aux Etats-Unis.

Une histoire belge

Ca plane pour moi !
Le débat part d'un papier tout frais par deux économistes belges, qui analysent l'évolution historique des taux de marge aux Etats-Unis (le taux de marge mesure dans quelle proportion un produit est vendu plus cher que ce qu'il a coûté à fabriquer - ceci sert ici de mesure du surprofit des entreprises). Ils montrent que ces marges ont explosé ces dernières années, passant de 18% à 67%. Selon des mesures similaires, cela correspondrait aujourd'hui à 1 500 milliards de dollars ! Un joli magot...

Les auteurs attribuent ce phénomène à l'accroissement de la capacité des entreprises à augmenter leurs prix sans perdre de clients, ce qu'on appelle leur pouvoir de marché. Une entreprise comme Apple par exemple a une telle image de marque qu'elle peut facturer ses téléphones relativement plus chers que ceux de ses concurrents malgré une technologie similaire. Ces prix plus élevés s'accompagnent en général d'un double effet Kiss Cool, car ils sont souvent obtenus en réduisant les volumes produits, ce qui crée un effet de rareté.

Pour nos amis d'outre-Quiévrain, le corollaire de cette hausse du pouvoir de marché des entreprises est une baisse de l'investissement (car les entreprises ont moins besoin de se forcer pour faire du profit), une baisse de la part du travail dans la valeur ajoutée, une croissance plus faible (à cause de la baisse des investissements) et in fine une hausse des inégalités (parce que la possession du capital est très concentrée). Bref, r > g le retour !



Un poil de mauvaise foi...

Sur internet, le débat tourne essentiellement autour de savoir si ce phénomène est aussi néfaste que présenté. Les plus libéraux argumentent que c'est simplement le revers de la médaille de l'augmentation du choix pour les consommateurs. En effet les modes de consommation sont de plus en plus personnalisés et le choix de produits toujours plus grand (ce qui est pour eux trivialement un bienfait même si on peut en douter). Cette segmentation a pour effet de permettre aux entreprises de réduire l'intensité de la concurrence en se positionnant sur des marchés similaires mais distincts au lieu de s'affronter directement sur des gammes identiques (ce que les économistes appellent la concurrence monopolistique). Bref, un bien pour un mal, match nul, balle au centre.

Pour The Economist, le débat est considéré sous l'angle des monopoles internet, argumentant que la fourniture de biens et services gratuits, ajoutée aux effets de réseaux ainsi obtenus, sont bénéfiques pour le consommateur, sans que les effets néfastes d'une concurrence réduite ne soient avérés. Chez Economiam on est moyennement convaincus, et on a déjà donné les objections à ce point de vue dans ce post sur les monopoles.



On prend cher

Dans ce débat, comme souvent, c'est Noah Smith du blog Noahpinion qui a l'argumentation la plus claire et la plus précise, en l'occurrence pour soutenir la position du papier à l'origine du débat. En réponse aux autres bloggeurs, il rappelle un résultat économique de base : la concurrence monopolistique est suboptimale pour le consommateur ! Puis il liste les éléments de la recherche récente qui pointent vers un changement de la structure compétitive aux Etats-Unis qui favoriserait les entreprises et leurs profits. En effet, on observe les faits suivants qui concordent avec cette interprétation :

  • Augmentation de la concentration : un nombre de plus en plus restreint d'entreprises contrôle une part de marché de plus en plus grande
  • Augmentation des marges et profits (comme décrit plus haut)
  • Réduction de l'investissement
  • Régulation antitrust moins effective 

En résumé, il semble bien se produire un changement profond aux Etats-Unis, au détriment du consommateur. A quand la même étude pour la France ?

vendredi 28 juillet 2017

La paresse de la lutte des classes

Le partage de la valeur ajoutée, ça parle aux gens : y'a qu'à voir les réseaux sociaux pendant les élections ! Ce qui rend ce débat si populaire est qu'il résume la lutte des classes en un seul chiffre. Chez Economiam on trouve que c'est un peu simpliste, donc c'est l'occasion d'un petit retour en question sur ce sujet, dont les termes sont rarement bien définis !

Ce qu'on sait vraiment et ce qu'on sait qu'on ne sait pas

  • Qu'est ce que la valeur ajoutée (VA), et qu'est-ce que la part du travail ?
Chacun sa part du gâteau !
Pour ce qui nous intéresse ici, la VA au niveau d'une entreprise peut se définir comme la somme des salaires et de l'excédent brut d'exploitation (EBE). Ce dernier représente approximativement le revenu de l'entreprise une fois ses coûts (salaires, consommation intermédiaire, intérêt de la dette, dépréciation d'actifs...) soustraits du chiffre d'affaire, mais avant impôts1.  La somme de toutes les valeurs ajoutées dans un pays forme le Produit Intérieur Brut (PIB).

On considère généralement que la VA est produite grâce à deux facteurs de productions, le travail (les gens quoi) et le capital (les machines, les brevets,...). Les salaires constituent bien sûr la rémunération du travail, tandis que le reste de la VA est considéré comme la rémunération du capital. On voit alors que la part du travail dans la valeur ajoutée est simplement le rapport entre la somme de tous les salaires divisée par la VA totale (le PIB donc).


Petite note sur la mesure de la VA

Ca a l'air simple présenté comme ça, mais selon ce qu'on met dans chacun des termes, on peut avoir des résultats très différents. D'une part, comme on l'a vu auparavant, le PIB a ses défauts, par exemple sur comment valoriser les services rendus par l'Etat, tandis que pour les comparaisons temporelles, la façon de mesurer l'inflation peut créer de grosses différences. D'autre part, la définition d'un salaire n'est pas non plus évidente. On y inclut généralement les cotisations sociales même si elles ne sont pas un revenu directement perçu, mais c'est clairement un choix conventionnel. Quant aux revenus d'un travailleur indépendant (un médecin généraliste par exemple), comment déterminer ce qui attribuable à son travail d'un côté et à ses outils de travail de l'autre? Moralité, pour dégager des vraies tendances sur l'évolution de la part du travail, il faut réussir à trouver plusieurs mesures concordantes, ce qu'on a essayé de faire pour cet article.

  •   La part du travail baisse-t-elle ?
Oui, selon plusieurs mesures concordantes (ici ou ici), le partage de la VA a eu tendance à évoluer en faveur de la rémunération du capital depuis les années 70 dans les pays occidentaux. Précisons tout de même qu'en France, la part du travail est restée relativement stable depuis la Deuxième Guerre à l'exception d'un pic vers le début des années 80 et que son niveau actuel est sensiblement similaire à celui du début du siècle2.


OK, mais alors quoi ?


  • Est-ce que ça veut dire que les salaires baissent ?
Pas forcément, et même non en pratique en France. Pour le comprendre, clarifions l'écriture du partage de la VA:

fL = w L / VA = w L / ( w L + r K )

Avec fL la part du travail, w le salaire moyen, L la population active, r le rendement moyen du capital et K le stock de capital.

D'un point de vue purement arithmétique, on voit qu'une baisse de la part du travail ne correspond pas nécessairement à une baisse des salaires, par exemple si cette baisse est causée par une augmentation du stock de capital (supposant toutes choses égales par ailleurs).

Alors, évidemment on parle d'économie ici, pas d'arithmétique donc les choses ont tendance à bouger ensemble plutôt qu'en isolation, mais la conclusion reste la même. Notamment, lors d'une crise économique, les salaires ayant une forte inertie à la baisse (voir par exemple Crises et Fluctuations, chap. 5), on voit que les revenus du capital diminuent plus vite que les revenus du travail, ce qui donc a tendance à entraîner une hausse de la part du travail, quand bien même les salaires diminuent.

En pratique, en France, depuis la fin de la Dernière guerre, les salaires réels n'ont cessé d'augmenter. Leur croissance s'est cependant ralentie après le choc pétrolier, avec une cassure nette en 1978 (voir graphique 2 ici). La part des salaires a, elle, cru jusqu'en 1982 lorsque se produit une forte chute au moment du tournant de la rigueur avant de se stabiliser avec une légère tendance à la hausse sans changement dans l'évolution moyenne des salaires (voir Annex B ici).

On voit donc qu'il n'y a donc pas d'équivalence entre baisse de la part du travail et baisse des salaires, ni d'un point de vue théorique, ni même en pratique.


  • Une baisse de la part du travail implique-t-elle une hausse des inégalités ?
Il y a bien un lien empirique entre baisse de la part du travail et augmentation des inégalités, l'OCDE estimant qu'un point de moins dans la part du travail correspond à une augmentation de 1,5 points du coefficient de Gini (voir graphique 6 ici), ce qui est beaucoup vu que le Gini varie entre 0% (égalité parfaite) et 100% (un seul individu s'accapare toutes les richesses). Ceci est notamment lié au fait que les inégalités de revenu du capital sont plus fortes que celles du travail, car la propriété du capital est très concentrée, plus en tout cas que la dispersion des niveaux de qualification 3.

En revanche, il n'y a pas de lien entre niveau des inégalités et part du travail, la Suède ayant par exemple une part du travail beaucoup plus faible qu'en France (60% contre 67% selon les mesures de Karabarbounis et Neiman par exemple) même si elle est plus égalitaire.

Enfin il faut garder en tête que la VA se calcule avant impôt et allocations. Son partage n'est donc que le début l'histoire. La France notamment est l'un des pays qui redressent le plus les inégalités de revenu selon l'OCDE.


Qui gagne quoi

L'opposition traditionnelle entre capital et travail, qui est l'une des raisons de l'intérêt pour le partage de la VA, est très réductrice, et la notion implicite de partage juste est illusoire. Par exemple, la part du travail en France a très fortement augmentée durant la Deuxième Guerre, à cause des très importantes destructions de capital. Est-ce pour autant une victoire du travail ? D'autre part, comme le rappellent Acemoglu et Robinson, cette opposition reflète une vision très occidentale du problème : le partage capital-travail sous l'apartheid en Afrique du Sud, par exemple, est le fruit d'une alliance entre certains travailleurs et certains capitalistes (les blancs et les producteurs de matières premières) contre d'autres catégories de travailleurs et de capitalistes (les noirs et les industriels). Rien de monolithique donc.

L'analyse en revanche est beaucoup plus riche si l'on se rend compte qu'un changement dans la répartition de la valeur ajoutée se traduit par un changement dans le niveau des inégalités, à cause de la répartition de la propriété du capital qui est beaucoup plus inégale que la distribution des revenus du travail.

Nous verrons dans un prochain article pourquoi cette situation existe et quelles solutions y apporter (selon deux axes principaux, l'imposition et l'incitation à l'épargne).


----------------------------------------------------------------------
1. La VA est définie de manière très précise par les impôts (qui prélèvent la Taxe sur la Valeur Ajoutée, la TVA). On se permet de s'abstraire de certaines technicalités pour rester concis.

2. On notera que le partage de la VA n'est pas constant dans le temps, contrairement aux principes énoncés par l'économiste britannique Nicholas Kaldor dans les années 50 ou encore aux hypothèses de modélisation de la fonction de production de Cobb-Douglas traditionnellement enseignée.
3. Si on suppose que ces derniers sont les principaux determinants des revenus du travail .

mardi 13 juin 2017

Un petit Ricardo pour l'apéro ?

A l'occasion des deux cent ans des débuts théoriques du libre-échange, le vecteur de cette mondialisation honnie, et pour approfondir le post récent, on procède à un petit rappel du concept d'avantage comparatif (ainsi que de quelques jeux de mots de qualité moyenne vus sur ce site).

Tu sais pas qui ? C'est Ricardo !

Ce bon vieux Ricardo, qui s'était caché
sur une île pendant tout ce temps !

L'anecdote est devenue célèbre (enfin, du moins parmi les économistes) : mis au défi par un mathématicien de citer un mécanisme économique qui correspondait à la réalité sans pour autant être une banalité, l'économiste américain Paul Samuelson cita la théorie de l'avantage comparatif. Cette dernière, énoncée par Ricardo au XIXe siècle, prédit que les pays ont intérêt à se spécialiser dans les productions où ils sont plus efficaces. Il faut aussi bien comprendre que cet avantage est dit comparatif non seulement par la comparaison entre deux pays mais aussi entre deux industries au sein d'un même pays. 


Dans l'exemple canonique (qui fleure bon le XIXe siècle), on considère les échanges commerciaux entre l'Angleterre et le Portugal, qui sont supposés chacun produire du vin et du tissu. C'est parce que l'Angleterre est plus efficace à produire du tissu par rapport à produire du vin et qu'à l'inverse le Portugal est plus efficace à produire du vin que du tissu, que ces pays devraient rationnellement se spécialiser dans le tissu et le vin respectivement, et s'approvisionner chez l'autre pour la quantité manquante.

Illustrons ceci par un exemple chiffré : supposons que chaque travailleur portugais et anglais produit les quantités suivantes de vin (en hectolitres) et de tissu (en m
ètres), en situation d'autarcie, c'est-à-dire en l'absence de commerce international :
Pays/Produit Vin Tissu
Portugal 4 8
Angleterre 2 7

Ici le Portugal a un avantage absolu à la fois dans la production de tissu et de vin, car il produit les deux biens pour moins cher que l'Angleterre (
à salaire égal). Par ailleurs, le Portugal a aussi un avantage comparatif dans la production de vin car chaque travailleur produit 4 / 8 = 0,5 unités de vin pour chaque unité de tissu, alors que l'Angleterre produit seulement 2 / 7 = 0,29 (arrondi). Une autre façon de le voir est de penser qu'une unité de tissu vaut 0,5 unités de vin au Portugal et 0,29 en Angleterre, donc qu'elle vaut plus cher au Portugal qu'en Angleterre, et qu'ainsi l'Angleterre a un avantage comparatif dans la production de tissu.

Par conséquent, dans la théorie de l'avantage comparatif, Ricardo affirme que, en situation de libre-échange, le Portugal a intérêt à se spécialiser dans la production de vin, malgré le fait que ce pays soit capable de produire les deux marchandises pour moins cher que l'Angleterre. Pour enfoncer le clou, il faut donc bien noter l'intuition la plus importante ici : la spécialisation des pays en situation de libre-échange n'est pas nécessairement la conséquence d'un avantage absolu.

Le raisonnement est le suivant : en situation de libre-échange, le Portugal a le choix d'échanger tout ou partie de sa production de vin contre du tissu anglais, ou de tissu contre du vin anglais. En supposant que le prix mondial d'échange de vin contre du tissu s'établit disons à 0,4 (ou n'importe quelle autre valeur entre 0,29 et 0,5), le Portugal peut échanger chaque unité de vin contre 1 / 0,4 = 2,5 unités de tissu au lieu de 1 / 0,5 = 2 unités auparavant. De même l'Angleterre peut obtenir 0,4 unités de vin par unité de tissu contre 0,29 auparavant. Il est donc logique pour le Portugal de se spécialiser dans la production de vin et pour l'Angleterre de se consacrer exclusivement à la production de tissu. On voit aussi que le libre-échange a ici un effet identique à celui d'une nouvelle technologie : suite à l'ouverture commerciale, les travailleurs portugais "produisent" plus de tissu à quantité de travail égale. C'est comme si un nouveau métier à tisser les avait rendus plus productifs.

Simple, non ?

On explique en général ce mécanisme aux étudiants qui débutent en économie. La simplicité et l'ingéniosité de cette théorie convainquent alors la plupart des bienfaits du libre-échange.

De plus, le modèle est généralisable à plus de facteurs et plus de secteurs (les plus matheux pourront s'intéresser à ce papier d'Arnaud Costinot du MIT ou encore celui-ci d'Eaton et Kortum) ce qui le rend relativement adaptable pour l'utiliser dans des représentations plus complexes. Enfin, la théorie de l'avantage comparatif a une certaine validité empirique comme l'ont démontré Arnaud Costinot et Dave Donaldson en 2012 (et voir ici pour de plus amples explications en français).

Ricardo a donc tout pour plaire et constitue la pierre angulaire de la foi des économistes dans le libre-échange. Cependant, cette foi se heurte à l'opinion du reste de la population, pour qui le libre-échange et plus généralement la mondialisation sont sans équivoques des sources de problèmes (voir le post précédent).

Dans l'exposition classique que nous avons illustrée ci-dessus se cachent certaines hypothèses, dont le relâchement, s'il ne remet pas en cause le concept d'avantage comparatif, permettent de raffiner l'analyse des conséquences du libre-échange. Ces hypothèses sont principalement :

  • Concurrence pure et parfaite
  • Analyse statique et donc absence d'interactions stratégiques
  • Travail comme unique facteur de production, et capital humain homogène

Si les deux premiers points ont leur importance et implications propres (économies d'échelle, rôle de l'Etat...), c'est principalement le troisième qui permet de mieux discerner le malaise qu'engendre le libre-échange, notamment sur son aspect le plus fort, celui de la redistribution des richesses. En effet, si tout le monde est égal devant le libre-échange (tous salariés et pas de différence de compétences), tout le monde voit sa situation s'améliorer de la même façon lors de l'ouverture au libre-échange. Or, en ajoutant le capital dans le mix productif et/ou en différenciant entre travailleurs qualifiés ou non, il se trouve que l'ouverture au libre-échange fait que le facteur relativement plus abondant y gagne, tandis que le facteur plus rare y perd. Appliqué aux économies développées, cela veut dire que le capital voit ses revenus augmenter au détriment du travail non qualifié (voir notamment l'effet Stolper Samuelson). Et ce quand bien même la richesse totale augmente...



On conclut ici comme on a ouvert le post : l'avantage comparatif est un concept non-trivial. La preuve s'il en est, nos amis de Dessine-moi l'éco se sont plantés sur leurs explications (il faut considérer les rapports de productivité et non les différences) ! On espère cependant que cette petite discussion aura permis à certains d'y voir plus clair !